JP2018180134A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2018180134A
JP2018180134A JP2017076343A JP2017076343A JP2018180134A JP 2018180134 A JP2018180134 A JP 2018180134A JP 2017076343 A JP2017076343 A JP 2017076343A JP 2017076343 A JP2017076343 A JP 2017076343A JP 2018180134 A JP2018180134 A JP 2018180134A
Authority
JP
Japan
Prior art keywords
optical system
reliability
defocus value
result
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017076343A
Other languages
Japanese (ja)
Inventor
卓弥 泉
Takuya Izumi
卓弥 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017076343A priority Critical patent/JP2018180134A/en
Publication of JP2018180134A publication Critical patent/JP2018180134A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device which has an object resolution increased by using a two-dimensional area sensor with a finer pitch than the pitch of an existing AF line sensor and can obtain an appropriate result of measuring a distance if the object is perspective-competing.SOLUTION: The imaging device includes: a focus detection optical system 12 for forming an image in a predetermined range on a photoelectric conversion pixel 36, the photoelectric conversion pixel 36 being formed as a two-dimensional area sensor and having defocus value detection means 21 and distant-view object region extraction means 22; and reliability determination means 21 for determining the reliability of the defocus value detection result based on the result of the extraction of the distant-view object region, the reliability determination means selecting a direction to use for calculating the defocus value of the imaging lens from the result of the determination of the reliability.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置及びその制御方法に関し、特に、自動焦点調節が可能な撮像装置及びその制御方法に関する。   The present invention relates to an imaging apparatus and its control method, and more particularly to an imaging apparatus capable of automatic focusing and its control method.

一眼レフカメラには、交換レンズ内の撮像光学系を通った光によって形成された一対の像信号の位相差から撮像光学系のデフォーカス値を検出する位相差検出方式による焦点検出システムが搭載されていることが多い。このような位相差検出方式では、撮影時の環境などの影響や、被写体の影響により、合焦位置を正確に検出できないおそれがある。   A single-lens reflex camera is equipped with a focus detection system based on a phase difference detection method that detects the defocus value of the imaging optical system from the phase difference between a pair of image signals formed by light passing through the imaging optical system in the interchangeable lens. Often In such a phase difference detection method, there is a possibility that the in-focus position can not be accurately detected due to the influence of the environment at the time of shooting or the influence of the subject.

このような問題を解決するために、特許文献1は、撮像素子で注目被写体を検出し、注目被写体の位置に基いて、測距点を設定する撮像装置を開示している。   In order to solve such a problem, Patent Document 1 discloses an imaging device that detects a subject of interest with an imaging device and sets a distance measurement point based on the position of the subject of interest.

特開2014−137567号公報JP 2014-137567 A

しかしながら、特許文献1は、注目被写体の近傍の測距点で測距するという点にしか言及しておらず、測距結果の信頼性を高める特別な解決手段は提案していない。   However, Patent Document 1 only mentions the point that distance measurement is performed at a distance measurement point near the subject of interest, and does not propose a special solution for enhancing the reliability of the distance measurement result.

そこで、本発明は、従来のAFラインセンサよりも微細ピッチとした2次元エリアセンサを用いることで、被写体分解能を向上し、遠近競合した被写体であっても適切な測距結果を得ることができる撮像装置を提供することを目的とする。   Therefore, according to the present invention, by using a two-dimensional area sensor with a finer pitch than the conventional AF line sensor, the object resolution can be improved, and appropriate distance measurement results can be obtained even for objects that are in perspective competition. It aims at providing an imaging device.

上記の目的を達成するために、本発明に係る撮像装置は、
所定の範囲内の被写体像を、第一の方向と、第一の方向に略直交する第二の方向とにそれぞれ対となる二領域ずつに分割し、各領域を通過する光束を光電変換画素上に結像させる焦点検出光学系と、
前記光電変換画素は、前記の対となる方向と、それに略直交する方向とに配列された二次元エリアセンサとして構成され、
前記第一の方向と前記第二の方向それぞれについて、前記焦点検出光学系を通過した光電変換画素上の光学像の前記の対となる方向の位置関係から、前記の対と略直交する方向にそれぞれ前記所定の範囲内におけるデフォーカス値を検出するデフォーカス値検出手段と、
前記デフォーカス値検出結果から、前記の対と略直交する方向に遠景被写体領域を抽出する遠景被写体領域抽出手段と、
を持ち、
前記第二の方向における前記遠景被写体領域抽出結果をもとに前記第一の方向におけるデフォーカス値検出結果の信頼性を判定する第一方向信頼性判定手段と、
前記第一の方向における前記遠景被写体領域抽出結果をもとに前記第二の方向におけるデフォーカス値検出結果の信頼性を判定する第二方向信頼性判定手段と、
を持ち、
前記第一方向信頼性判定結果と、第二方向信頼性判定の結果から、撮影レンズのデフォーカス値を算出するのに使用する方向を選択することを特徴とする。
In order to achieve the above object, an imaging device according to the present invention is
A subject image within a predetermined range is divided into two regions, each forming a pair in a first direction and a second direction substantially orthogonal to the first direction, and a light beam passing through each region is photoelectrically converted A focus detection optical system for forming an image on the upper side,
The photoelectric conversion pixels are configured as a two-dimensional area sensor arranged in the pairing direction and a direction substantially orthogonal thereto.
For each of the first direction and the second direction, in the direction substantially orthogonal to the pair, from the positional relationship of the pairwise direction of the optical image on the photoelectric conversion pixel that has passed through the focus detection optical system Defocus value detection means for detecting defocus values within the predetermined range;
A distant view object area extraction unit that extracts a distant view object area in a direction substantially orthogonal to the pair from the defocus value detection result;
Have
First direction reliability determination means for determining the reliability of the defocus value detection result in the first direction based on the distant subject region extraction result in the second direction;
A second direction reliability determination unit that determines the reliability of the defocus value detection result in the second direction based on the distant subject region extraction result in the first direction;
Have
It is characterized in that the direction used to calculate the defocus value of the photographing lens is selected from the first direction reliability judgment result and the second direction reliability judgment result.

本発明によれば、背景のコントラストによって背景に合焦してしまう恐れを低減し、遠近競合したシーンでも主被写体に適切に合焦する焦点検出装置を提供することができる。   According to the present invention, it is possible to provide a focus detection apparatus capable of reducing the possibility of focusing on the background by the contrast of the background and appropriately focusing on the main subject even in a scene in which there is a distant competition.

縦目光学系と横目光学系結果からデフォーカス値選択するまでのフローチャートFlow chart for selecting defocus value from vertical eye optics and horizontal eye optics results カメラ全体構成の説明図Explanatory drawing of the whole camera configuration 焦点検出光学系における主要部分構成の説明図Explanatory view of the main parts of the focus detection optical system 絞りの平面図Top view of the aperture エリアセンサ受光面の平面図Plan of the area sensor light receiving surface 撮影範囲と合焦範囲の説明図Explanation of shooting range and focusing range センサ上における被写界像の説明図An illustration of the image of the field on the sensor 縦目光学系における選択画素ラインの説明図Explanatory view of selected pixel line in vertical eye optical system センサ出力値より相関演算する説明図Explanatory diagram to calculate correlation from sensor output value

以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。ただし、本形態において例示される構成部品の寸法、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、本発明がそれらの例示に限定されるものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. However, the dimensions and shapes of the components exemplified in the present embodiment, their relative positions, and the like should be appropriately changed according to the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention is an example of them. It is not limited to

以下、図1〜9を参照して、本発明の第1の実施例による、焦点検出装置について説明する。本発明の実施例1においては、上記した本発明を適用してカメラシステムを構成した。図2に、本実施例のカメラシステムにおけるカメラ全体の構成を示す。図2において、1はレンズ鏡筒である。2は撮像光学系、3はレンズ駆動手段、4はレンズ状態検出手段、5はレンズ制御手段、6は記憶手段であり、これらがレンズ鏡筒1の内部に設けられている。   Hereinafter, a focus detection apparatus according to a first embodiment of the present invention will be described with reference to FIGS. In Example 1 of the present invention, a camera system is configured by applying the above-described present invention. FIG. 2 shows the configuration of the entire camera in the camera system of this embodiment. In FIG. 2, reference numeral 1 denotes a lens barrel. An imaging optical system 2, a lens driving unit 3, a lens state detecting unit 4, a lens control unit 5 and a storage unit 6 are provided inside the lens barrel 1.

撮像光学系2は1つ又は複数のレンズ群から構成され、その全てもしくは一部を移動させることで焦点距離やフォーカスを変化させることが可能である。また、レンズ駆動手段3は撮像光学系2のレンズの全てもしくは一部を移動させて焦点状態を調整するように構成されている。   The imaging optical system 2 is composed of one or more lens groups, and it is possible to change the focal length and the focus by moving all or part of the lens group. Further, the lens driving means 3 is configured to move all or part of the lens of the imaging optical system 2 to adjust the focus state.

また、レンズ状態検出手段4は撮像光学系2の焦点距離、即ちズーム状態およびフォーカス状態を検出し、記憶手段6はROMのような記憶手段からなり、それらをレンズ制御手段5によって制御するように構成されている。   The lens state detection means 4 detects the focal length of the imaging optical system 2, that is, the zoom state and the focus state, and the storage means 6 comprises storage means such as a ROM, and these are controlled by the lens control means 5. It is configured.

ここで、前記レンズ状態検出手段4は、公知の方法、例えば撮像光学系2の焦点距離を変化させる為に回転または移動する鏡筒に設けられたエンコーダ用の電極とそれに接する検出用の電極等を用いることにより、前記撮像光学系2の焦点距離(ズーム状態)及びフォーカスを変化させる際に移動するレンズの移動状態、または移動状態を特徴付ける量を検出している。   Here, the lens state detection means 4 is a known method, for example, an electrode for an encoder provided on a lens barrel that rotates or moves to change the focal length of the imaging optical system 2 and a detection electrode etc. By using the above, the focal length (zoom state) of the imaging optical system 2 and the movement state of the lens moving when changing the focus or the amount characterizing the movement state is detected.

レンズ制御手段5には、撮像光学系2の焦点距離や開放絞り値等の性能情報、撮像光学系2の撮影レンズを識別するための固有の情報であるレンズID(識別)情報を記憶するメモリ(不図示)が設けられている。メモリは、カメラ制御部21から通信により受け取った情報も記憶する。なお、性能情報及びレンズID情報は、撮像装置8への撮影レンズ装着時における初期通信によりカメラ制御部21に送信され、カメラ制御部21はこれらを記憶装置14に記憶させる。   The lens control means 5 is a memory for storing performance information such as focal length and open aperture value of the imaging optical system 2 and lens ID (identification) information which is unique information for identifying the imaging lens of the imaging optical system 2 (Not shown) is provided. The memory also stores information received from the camera control unit 21 by communication. The performance information and the lens ID information are transmitted to the camera control unit 21 through initial communication when the taking lens is attached to the imaging device 8, and the camera control unit 21 stores these in the storage device 14.

8はカメラボディである。9は主ミラー、16は物体像が形成される焦点板、17は像反転用のペンタプリズム、18は接眼光学系であり、これらにより構成されたファインダ系がカメラボディ8内に設けられている。また、ペンタプリズム17の接眼光学系18側の射出面上方には前記焦点板16上に形成されている被写体像の光量を検出し、撮影時の撮像光学系の絞り値及びカメラのシャッタースピードを決定する為の測光手段として測光レンズ19及び測光センサ20を配置している。測光センサ20は、ユーザーが観察する角度とは異なる角度から焦点板16で拡散された被写体像を検出する。測光センサ20は、RGB各色のカラーフィルターを有した画素から構成されており、光電変換によってRGBそれぞれのフィルターを有する画素が検出する光を電気信号に変換する。この電気信号を基に被写体の色を数値化した色比をカメラ制御部21が算出することで被写体の色及び光源を判定する。被写体の色や光源が変化すると、撮像光学系2の色収差の影響により、後述する焦点検出光学系12はあたかも焦点が変動したかのように検出してしまうため、焦点検出誤差が生じる。そのため、色比というパラメータによって、焦点検出光学系12の焦点検出誤差と比例関係となるような式によって補正される。   8 is a camera body. 9 is a main mirror, 16 is a focusing plate on which an object image is formed, 17 is a pentaprism for image inversion, and 18 is an eyepiece optical system, and a finder system composed of these is provided in the camera body 8 . The light quantity of the object image formed on the focusing screen 16 is detected above the exit surface of the pentaprism 17 on the eyepiece optical system 18 side, and the aperture value of the imaging optical system at the time of shooting and the shutter speed of the camera are calculated. A photometric lens 19 and a photometric sensor 20 are disposed as photometric means for determining. The photometric sensor 20 detects an object image diffused by the focusing screen 16 from an angle different from the angle observed by the user. The photometric sensor 20 is composed of pixels having color filters of RGB colors, and converts light detected by the pixels having filters of RGB into electric signals by photoelectric conversion. The camera control unit 21 determines the color and light source of the subject by calculating the color ratio in which the color of the subject is digitized based on the electric signal. When the color of the subject or the light source changes, the focus detection optical system 12 described later is detected as if the focus has changed due to the influence of the chromatic aberration of the imaging optical system 2, and thus a focus detection error occurs. Therefore, it is corrected by an equation that is proportional to the focus detection error of the focus detection optical system 12 by the parameter of the color ratio.

10は主ミラー9を透過してきた光束を焦点検出光学系12に導くサブミラー、11は撮像光学系2が形成する被写体像を撮影する撮像素子、12は焦点検出光学系、21はカメラ制御手段、13は操作検出部、14は記憶装置、15は表示部であり、これらも同様にカメラボディ8内に設けられている。主ミラー9は、撮影光路内に光軸に対して斜めに配置され、被写体からの光束を上方のファインダ光学系に導く第1の位置(図示した位置)と、撮影光路外に退避する第2の位置とに移動が可能である。また、主ミラー9の中央部はハーフミラーになっており、主ミラー9が第1の位置にミラーダウンしているときには、被写体からの光束の一部がハーフミラー部を透過する。そして、この透過した光束は、主ミラー9の背面側に設けられたサブミラー10で反射され、焦点検出光学系12に導かれる。   10 is a sub mirror for guiding the light flux transmitted through the main mirror 9 to the focus detection optical system 12, 11 is an image pickup element for photographing an object image formed by the imaging optical system 2, 12 is a focus detection optical system, 21 is a camera control means, Reference numeral 13 denotes an operation detection unit, reference numeral 14 denotes a storage device, and reference numeral 15 denotes a display unit, which are similarly provided in the camera body 8. The main mirror 9 is disposed at an angle with respect to the optical axis in the imaging light path, and is a first position (the illustrated position) for guiding the light flux from the subject to the upper finder optical system and a second position for retracting outside the imaging light path. It is possible to move to the position of. The central portion of the main mirror 9 is a half mirror, and when the main mirror 9 is down to the first position, a part of the light flux from the subject passes through the half mirror portion. Then, the transmitted light flux is reflected by the sub mirror 10 provided on the back side of the main mirror 9 and is guided to the focus detection optical system 12.

主ミラー9が第2の位置にミラーアップした際には、サブミラー10も主ミラー9と共に折り畳まれて撮影光路外に退避する。これにより、撮影レンズ光学系を通過した光束は、メカシャッタであるフォーカルプレーンシャッタ23を通過し、撮像素子11に至る。フォーカルプレーンシャッタ23は、撮像素子11に入射する光量を制限する。撮像素子11は、撮像光学系2により形成された被写体像を光電変換して撮影画像を生成するための電気信号を出力し、CCDセンサやCMOSセンサ等の光電変換素子等を用いて構成される。   When the main mirror 9 mirrors up to the second position, the sub mirror 10 is also folded together with the main mirror 9 and retracted out of the photographing optical path. As a result, the light flux that has passed through the photographing lens optical system passes through the focal plane shutter 23 which is a mechanical shutter and reaches the image pickup device 11. The focal plane shutter 23 limits the amount of light incident on the imaging device 11. The imaging element 11 outputs an electrical signal for photoelectrically converting an object image formed by the imaging optical system 2 to generate a photographed image, and is configured using a photoelectric conversion element such as a CCD sensor or a CMOS sensor. .

カメラ制御部21は、撮像装置8における各種演算や各種動作の制御を行うコントローラであり、後述する遠景被写体領域抽出手段22の結果に基づいて遠景被写体領域を記憶装置14に記憶させる。カメラ制御部21は、電気接点ユニット7を介して、撮像光学系2内のレンズ制御手段5と通信を行う。カメラ制御部21は、焦点検出光学系12が生成した一対の像信号を基にデフォーカス値の検出を行う。レンズ制御手段5は、カメラ制御部21からの制御信号に応じて、撮像光学系2内のフォーカスレンズを光軸方向に駆動して焦点調節を行うレンズ駆動手段3を制御する。レンズ駆動手段3は、ステッピングモータを駆動源として有する。   The camera control unit 21 is a controller that controls various calculations and various operations in the imaging device 8, and stores the distant view subject region in the storage device 14 based on the result of the distant view subject region extraction unit 22 described later. The camera control unit 21 communicates with the lens control unit 5 in the imaging optical system 2 via the electrical contact unit 7. The camera control unit 21 detects the defocus value based on the pair of image signals generated by the focus detection optical system 12. The lens control means 5 controls the lens drive means 3 for driving the focus lens in the imaging optical system 2 in the optical axis direction to perform focusing in accordance with the control signal from the camera control unit 21. The lens drive means 3 has a stepping motor as a drive source.

また、カメラ制御部21には、記憶装置14が接続されている。カメラ制御部21は後述するデフォーカス値検出手段とデフォーカス値検出結果の信頼性を判定する信頼性判定手段の機能を有している。   Further, a storage device 14 is connected to the camera control unit 21. The camera control unit 21 has functions of a defocus value detection unit to be described later and a reliability determination unit that determines the reliability of the defocus value detection result.

記憶装置14には、撮像装置8を制御する上で調整が必要なパラメータや、撮像装置8の個体識別を行うためのカメラID(識別)情報や、基準レンズを用いて予め調整された、撮影に関するパラメータの工場調整値等が記憶されている。遠景被写体領域抽出手段22は、撮影者が撮像しようとした被写体に対して遠景被写体と主要被写体を各画素ラインで切り分ける。この結果は、記憶装置14に記憶される。操作検出部13は、不図示のレリーズボタンや、選択ボタンなどの操作を検出する。表示部15は、撮像素子11により撮像された画像データを表示したり、ユーザーが設定する項目を表示したりするための装置であり、一般にはカラーの液晶表示素子により構成される。   In the storage device 14, parameters required to be adjusted in controlling the imaging device 8, camera ID (identification) information for performing individual identification of the imaging device 8, and imaging previously adjusted using a reference lens The factory adjustment value etc. of the parameter regarding are stored. The distant view subject area extraction means 22 divides the distant view subject and the main subject in each pixel line with respect to the subject that the photographer intends to image. The result is stored in the storage unit 14. The operation detection unit 13 detects an operation such as a release button or a selection button (not shown). The display unit 15 is a device for displaying image data captured by the imaging device 11 and displaying items set by the user, and is generally configured by a color liquid crystal display device.

焦点検出光学系12は、いわゆる位相差検出方式で焦点検出を行う焦点検出光学系である。この焦点検出光学系12は撮像光学系2の瞳を複数の領域に分割し、各領域を通過する光束を用いて複数の被写体像に関する光量分布を形成する。焦点検出光学系12は、これら複数の光量分布の相対的な位置関係を求めることにより、撮像光学系2の合焦状態を撮影範囲中の複数の領域に対して検出する検出方式であり、撮像光学系2のレンズの全てもしくは一部のレンズの合焦位置まで移動する距離を検出する手段として用いられる。   The focus detection optical system 12 is a focus detection optical system that performs focus detection by a so-called phase difference detection method. The focus detection optical system 12 divides the pupil of the imaging optical system 2 into a plurality of areas, and forms light quantity distributions of a plurality of object images using light fluxes passing through the respective areas. The focus detection optical system 12 is a detection method for detecting the in-focus state of the imaging optical system 2 with respect to a plurality of areas in the imaging range by obtaining the relative positional relationship of the plurality of light quantity distributions. It is used as a means for detecting the distance of movement to the in-focus position of all or part of the lenses of the optical system 2.

図3は、図2に示した本実施例のカメラシステムにおける焦点検出光学系12の主要部分の構成を説明する図である。図3において、30は撮像光学系の光軸を示す。300は前記サブミラー10による撮像素子(撮像面)11に共役な近軸的結像面、12は以下の31から36を含んでいる。   FIG. 3 is a view for explaining the configuration of the main part of the focus detection optical system 12 in the camera system of the present embodiment shown in FIG. In FIG. 3, reference numeral 30 denotes an optical axis of the imaging optical system. Reference numeral 300 denotes a paraxial imaging plane conjugate to the imaging element (imaging plane) 11 by the sub mirror 10, and 12 includes the following 31 to 36.

31はフィールドレンズ、32は反射ミラー、33は赤外カットフィルタである。34は絞りであり、図4に示すように4つの開口34−1、34−2、34−3、34−4を有している。開口34−1、34-2は所定の範囲内の被写体像を第1の方向に分割して対となっている一方で、開口34−3、34-4は第1の方向に略直交する第2の方向に分割して対となっている。   31 is a field lens, 32 is a reflection mirror, and 33 is an infrared cut filter. Reference numeral 34 denotes a stop, which has four openings 34-1, 34-2, 34-3, 34-4 as shown in FIG. The openings 34-1 and 34-2 divide an object image within a predetermined range into a first direction to form a pair, while the openings 34-3 and 34-4 are substantially orthogonal to the first direction. It is divided in the second direction to form a pair.

35は2次結像レンズであり、絞り34の4つの開口34−1、34−2、34−3、34−4に対応して配置された4つのレンズ35−1、35−2、35−3、35−4を有している。36は光電変換画素からなるエリアセンサであって、絞り34の4つの開口34−1、34−2、34−3、34−4それぞれに対応して配置された4つのエリアセンサ36−1、36−2、36−3、36−4であり、所定の範囲内の被写体像を有している。   Reference numeral 35 denotes a secondary imaging lens, which includes four lenses 35-1, 35-2, 35 arranged corresponding to the four apertures 34-1, 34-2, 34-3, 34-4 of the diaphragm 34. -3 and 35-4. Reference numeral 36 denotes an area sensor composed of photoelectric conversion pixels, and includes four area sensors 36-1 arranged corresponding to the four openings 34-1, 34-2, 34-3, 34-4 of the diaphragm 34, 36-2, 36-3, 36-4, which have subject images within a predetermined range.

フィールドレンズ31は、絞り34の4つの開口を撮像素子(撮像面)11に共役な近軸的結像面から100mm位置に配置されたAF瞳面に結像させる。反射ミラー32にはアルミニウムや銀等の金属膜が蒸着されていて、センサ36上に入射する迷光を減少させるため、必要最低限の領域のみが蒸着されている。   The field lens 31 images the four apertures of the diaphragm 34 on an AF pupil plane disposed at a position 100 mm away from the paraxial imaging plane conjugate to the imaging device (imaging plane) 11. A metal film of aluminum, silver or the like is vapor-deposited on the reflection mirror 32, and only a minimal area is vapor-deposited in order to reduce stray light incident on the sensor 36.

図4は、図3に示した絞り34の平面図である。絞り34は、横長の2つの開口34−1、34−2、縦長の2つの開口34−3、34−4を開口幅の狭い方向に並べた構成となっている。図中、点線で示されているのは、絞り34の開口34−1、34−2、34−3、34−4に対応してその後方に配置されている2次結像レンズ35の各光学系35−1、35−2、35−3、35−4の領域を示している。ここで、それぞれ絞り34の開口34−1、34−2と2次結像レンズ35の各光学系35−1、35−2を通ってセンサ36上に結像する光学系を縦目光学系と称する。同様に、絞り34の開口34−3、34−4と2次結像レンズ35の各光学系35−3、35−4を通ってセンサ36上に結像する光学系を横目光学系と称する。   FIG. 4 is a plan view of the diaphragm 34 shown in FIG. The diaphragm 34 has a configuration in which two horizontally long openings 34-1 and 34-2 and two vertically long openings 34-3 and 34-4 are arranged in the narrow direction of the opening width. In the figure, dotted lines indicate each of the secondary imaging lenses 35 disposed behind the apertures 34-1, 34-2, 34-3, 34-4 of the diaphragm 34. Areas of optical systems 35-1, 35-2, 35-3, 35-4 are shown. Here, the optical system for forming an image on the sensor 36 through the respective optical systems 35-1 and 35-2 of the apertures 34-1 and 34-2 of the diaphragm 34 and the secondary imaging lens 35 is a longitudinal optical system It is called. Similarly, an optical system which forms an image on the sensor 36 through the openings 34-3 and 34-4 of the stop 34 and the optical systems 35-3 and 35-4 of the secondary imaging lens 35 is referred to as a transverse optical system. .

図5は、図3に示したセンサ36の平面図である。図5で示した4つのエリアセンサ36−1、36−2、36−3、36−4は、この図に示すように2次元的に画素を配列したエリアセンサを4つ配置したものである。ここでは、4つのエリアセンサ36を配置したがセンサ面上の全面がエリアセンサ36になっていてもかまわない。36−1、36−2にはそれぞれ、絞り34の開口34−1、34−2を通過した光束がセンサ上に結像するので、これらを縦目光学系とする。とりわけ、36−1に結像する光学像を縦目光学系のA像、36−2に結像する光学像を縦目光学系のB像と称する。同様に、36−3、36−4にはそれぞれ、絞り34の開口34−3、34−4を通過した光束が結像するので、これらを横目光学系とし、36−3に結像する光学像を横目光学系のA像、36−4に結像する光学像を横目光学系のB像と称する。また、1対の被写体像同士の相対的な位置が変化する方向を相関方向とし、相関方向と直交する方向を相関直交方向とする。縦目光学系では、36−1と36−2が相関方向であり、横目光学系では36−3と36−4が相関方向である。前記エリアセンサは、光電変換画素から構成されており、該画素は相関方向と相関直交方向とに配列されている。   FIG. 5 is a plan view of the sensor 36 shown in FIG. The four area sensors 36-1, 36-2, 36-3, 36-4 shown in FIG. 5 are four area sensors in which pixels are two-dimensionally arrayed as shown in this figure. . Here, the four area sensors 36 are disposed, but the entire area on the sensor surface may be the area sensor 36. The luminous fluxes passing through the openings 34-1 and 34-2 of the diaphragm 34 are imaged on the sensor at 36-1 and 36-2, respectively, and these are assumed to be longitudinal optical systems. In particular, an optical image forming an image 36-1 is referred to as an A image of the longitudinal optical system, and an optical image forming an image 36-2 as a B image of the longitudinal optical system. Similarly, since the light beams having passed through the apertures 34-3 and 34-4 of the diaphragm 34 are imaged on the 36-3 and 36-4, respectively, these are made to be a lateral optical system, and an optical for imaging the 36-3 An optical image for forming an image on an A image of the lateral eye optical system and an optical image forming an image 36-4 is referred to as a B image of the lateral eye optical system. Further, a direction in which the relative position of a pair of subject images changes is referred to as a correlation direction, and a direction orthogonal to the correlation direction is referred to as a correlation orthogonal direction. In the vertical-eye optical system, 36-1 and 36-2 are the correlation directions, and in the horizontal-eye optical system, 36-3 and 36-4 are the correlation directions. The area sensor is composed of photoelectric conversion pixels, and the pixels are arranged in the correlation direction and the correlation orthogonal direction.

以上の構成要素を有する焦点検出系において、図3に示すように、撮像光学系2からの光束37−1、37−2は、主ミラー9のハーフミラー面を透過後、サブミラー10により反射され、反射ミラー32によって再び方向を変えられた後、赤外カットフィルタ33を介して絞り34の4つの開口34−1、34−2、34−3、34−4を経て、2次結像レンズ35の各光学系35−1、35−2、35−3、35−4により集光され、センサ36の各エリアセンサ36−1、36−2、36−3、36−4上にそれぞれ到達する。   In the focus detection system having the above components, as shown in FIG. 3, light beams 37-1 and 37-2 from the imaging optical system 2 are reflected by the sub mirror 10 after being transmitted through the half mirror surface of the main mirror 9. After changing the direction again by the reflection mirror 32, through the infrared cut filter 33, through the four openings 34-1, 34-2, 34-3, 34-4 of the diaphragm 34, a secondary imaging lens The light is collected by each of the 35 optical systems 35-1, 35-2, 35-3, 35-4 and reaches the area sensors 36-1, 36-2, 36-3, 36-4 of the sensor 36, respectively. Do.

図3中の光束37−1、37−2はセンサ36受光面上の縦目光学系に結像する光束を示したものであり、横目光学系についても同様の経路を経て、センサ36に達し、全体として、所定の2次元領域に対応する被写体像に関する4つの光量の分布がセンサ36の各エリアセンサ36−1、36−2、36−3、36−4上に形成される。   The light beams 37-1 and 37-2 in FIG. 3 indicate the light beams forming an image on the longitudinal optical system on the light receiving surface of the sensor 36, and the horizontal optical system also reaches the sensor 36 through the same path. As a whole, the distribution of four light quantities related to the subject image corresponding to a predetermined two-dimensional area is formed on each of the area sensors 36-1, 36-2, 36-3, 36-4 of the sensor 36.

図2における焦点検出光学系12は、上記のようにして得られた4つの被写体像に関する光量分布に対して、公知の焦点検出方法と同様の検出原理に基づきデフォーカス値を検出し、焦点はずれ量Dを算出している。即ち図7に示す4つの被写体像2203−aと2203−b、2303−aと2303−bの相対的位置関係を、エリアセンサ36−1と36−2、36−3と36−4の各画素の検出結果を用いてデフォーカス値を算出し、その結果を焦点はずれ量Dとして出力する。   The focus detection optical system 12 in FIG. 2 detects defocus values based on the same detection principle as the known focus detection method for the light quantity distributions of the four object images obtained as described above, and the focus is shifted. The quantity D is calculated. That is, the relative positional relationship between the four object images 2203-a and 2203-b and 2303-a and 2303-b shown in FIG. 7 can be compared with each of the area sensors 36-1 and 36-2, 36-3 and 36-4. The defocus value is calculated using the detection result of the pixel, and the result is output as the defocus amount D.

ここで、36−1は36−1−1、36−1−2、36−1−3のように配列数分だけ画素ラインが存在し、それぞれの画素ラインがデフォーカス値を有しており、それに伴って焦点はずれ量Dを算出している。   Here, 36-1 has pixel lines corresponding to the number of arrangement like 36-1-1, 36-1-2, 36-1-3, and each pixel line has a defocus value. The out-of-focus amount D is calculated accordingly.

上記が焦点検出光学系12における光学系の説明である。   The above is the description of the optical system in the focus detection optical system 12.

図6は撮影範囲と合焦範囲を表している。ここで、2101は被写体側での撮影範囲を表しており、2102は該撮影範囲2101内のうち焦点検出が可能な範囲を表している。2103は主要被写体を表している。このような撮影シーンにおいて焦点検出光学系12を用いて焦点検出を行おうとした場合にはセンサ36には図7に示しているように、センサ36−1、36−2、36−3、36−4上には前記2102の範囲の像が形成されており、それぞれ前記主用被写体2103の像2203−a、2203−b、2303−a、2303−bが形成されている。   FIG. 6 shows a shooting range and a focusing range. Here, reference numeral 2101 denotes a shooting range on the subject side, and reference numeral 2102 denotes a range in which the focus detection is possible within the shooting range 2101. Reference numeral 2103 denotes a main subject. When focus detection is to be performed using the focus detection optical system 12 in such a photographing scene, the sensors 36-1, 36-2, 36-3, 36, as shown in FIG. An image in the range of the above-mentioned 2102 is formed on the -4, and images 2203-a, 2203-b, 2303-a, and 2303-b of the subject 2103 for the main subject are formed, respectively.

図8は、主要被写体2103にピント合せを行おうとして縦目光学系の相関演算を行う領域を2301−1及び2301−2とした場合を示す。また、2301−1、2301−2からのセンサの出力は図9のようになる。(A)は2301−1の出力を、(B)は2301−2の出力を表しており、それぞれの出力を用いて相関演算を行っている。センサライン上の出力読み出し開始位置が例えば上からの場合(図8)、センサ出力が高くなるのは髪と額の境界、額とまゆ毛の境界、目と頬の境界、頬と口の境界などである。像間隔を算出する際の特徴としてコントラストが高い方が高精度にデフォーカス値を検出することが可能であるので、2301−1及び2301−2の画素ラインで示したような髪と額の境界部等はデフォーカス値を検出するのに適している。   FIG. 8 shows a case where the correlation calculation of the vertical-eye optical system is performed to set the main subject 2103 as 2301-1 and 2301-2. Also, the outputs of the sensors from 2301-1 and 2301-2 are as shown in FIG. (A) represents the output of 2301-1 and (B) represents the output of 2301-2, and the correlation operation is performed using the respective outputs. For example, when the output reading start position on the sensor line is from above (Fig. 8), the sensor output becomes higher at the hair-forehead boundary, the forehead-eyebrow boundary, the eye-cheek boundary, the cheek-mouth boundary, etc. It is. As a feature in calculating the image interval, it is possible to detect the defocus value with high accuracy if the contrast is high, so the boundary between the hair and the forehead as indicated by the pixel line 2301-1 and 2301-2. A part or the like is suitable for detecting the defocus value.

次に遠近競合している被写界から遠景被写体と主要被写体を判別する説明をする。焦点検出光学系12は、縦目光学系と横目光学系のそれぞれで相関方向にデフォーカス値を検出する。遠景被写体領域抽出手段22である遠景被写体領域抽出部は、デフォーカス値検出結果から、縦目光学系と横目光学系のそれぞれで対となる方向に遠景被写体領域を抽出する。例えば、縦目光学系の場合、連続した各画素ラインそれぞれの結果から横方向に遠景被写体がどこにあるかを判定することで遠景被写体領域を抽出する。横目光学系でも同様である。該遠景被写体領域の焦点はずれ量Dが遠近判定閾値Xを超えていたときには遠景被写体であると判定し、該焦点はずれ量Dが遠近判定閾値X以内であったときには主要被写体であると判定する。ここで、該遠近判定閾値Xは、記憶装置14に工場出荷時に記憶されている固定値、あるいは、ユーザーが操作検出部13により独自に設定してもよい。   Next, a description will be made to distinguish between a distant subject and a main subject from a far-and-far conflicting object scene. The focus detection optical system 12 detects the defocus value in the correlation direction in each of the vertical eye optical system and the horizontal eye optical system. The distant view object area extraction unit, which is the distant view object area extraction unit 22, extracts a distant view object area in the direction in which the vertical-eye optical system and the horizontal-eye optical system are paired, from the defocus value detection result. For example, in the case of the vertical-eye optical system, the distant subject area is extracted by determining where the distant subject is in the horizontal direction from the result of each continuous pixel line. The same applies to the horizontal-eye optical system. When the focus shift amount D of the distant view subject region exceeds the distance determination threshold X, it is determined that the distant view subject, and when the focus shift amount D is within the distance determination threshold X, it is determined that it is the main subject. Here, the distance determination threshold X may be a fixed value stored in the storage device 14 at the time of shipment from the factory, or the user may uniquely set it by the operation detection unit 13.

一般に、該焦点はずれ量Dを算出する際、撮影光源の位置によっては該撮影光源の不要光が発生し前記被写体像に関する光量分布が正規の被写体からの反射光と異なるものとなってしまうことで、焦点検出の精度が低下してしまう。このように二像一致度が低くなって焦点検出の精度が低下する要因は他にも存在し、例えば、被写体像のコントラストが低い、被写体像がボケているといったことが挙げられる。   Generally, when the defocus amount D is calculated, unnecessary light of the photographing light source is generated depending on the position of the photographing light source, and the light amount distribution regarding the subject image becomes different from the reflected light from the regular subject. The accuracy of focus detection is reduced. There are other factors that cause the degree of coincidence between the two images to decrease and the accuracy of focus detection to decrease. For example, the contrast of the object image is low and the object image is blurred.

そこで、被写体像や撮影環境による測距誤差要因を示すために信頼性パラメータを定義する。この焦点検出光学系12において、縦目光学系と横目光学系のそれぞれで検出したデフォーカス値のうち、どちらのデフォーカス値結果を撮影レンズの合焦位置までの移動量とするのかを選択する基準となるものが信頼性パラメータである。例えば図8の場合、X方向にデフォーカス値検出した画素ラインは、必ず遠景領域を含んでいるため、像間隔の算出が遠景被写体の波形に引っ張られた主要被写体の波形になる。一方で、縦目光学系の図8で指定した2301−1及び2301−2の画素ラインで検出した結果は、遠景被写体領域を含んでいないために信頼性が高い。そこで、縦目光学系を選択するように重み付けをすることで、合焦精度の高い被写体を撮像することができる。   Therefore, reliability parameters are defined in order to indicate distance measurement error factors depending on the subject image and the shooting environment. Of the defocus values detected by each of the vertical-eye optical system and the horizontal-eye optical system, this focus detection optical system 12 selects which defocus value result is to be the movement amount to the focusing position of the photographing lens. What is the reference is the reliability parameter. For example, in the case of FIG. 8, the pixel line for which the defocus value is detected in the X direction necessarily includes the distant view area, so that the calculation of the image interval becomes the waveform of the main subject pulled by the waveform of the distant subject. On the other hand, the results of detection with the pixel lines 2301-1 and 2301-2 designated in FIG. 8 of the vertical-eye optical system have high reliability because they do not include the distant subject region. Therefore, by weighting so as to select the vertical-eye optical system, it is possible to capture an object with high focusing accuracy.

以上が信頼性パラメータをもとに縦目光学系と横目光学系の選択の重み付けに関する説明である。   The above is a description of weighting of selection of the vertical eye optical system and the horizontal eye optical system based on the reliability parameter.

縦目光学系と横目光学系のデフォーカス値を選択するまでのフローチャートを、図1を用いて説明する。   A flowchart for selecting the defocus values of the vertical-eye optical system and the horizontal-eye optical system will be described with reference to FIG.

撮影者が遠景被写体と主要被写体が混在した像を撮像するとき、ステップ1では、縦目光学系の各画素ラインがデフォーカス値を算出し、その値を焦点はずれ量Dとして記憶装置14に記憶してステップ2に進む。   When the photographer captures an image in which a distant subject and a main subject are mixed, in step 1, each pixel line of the vertical optical system calculates a defocus value, and stores the value as the defocus amount D in the storage device 14 Then go to step 2.

ステップ2では、各画素ライン間における焦点はずれ量Dの差分と遠近判別閾値Xの大小関係を比較する。その結果、遠景被写体領域抽出部21はある画素ラインAとそれより遠方にある画素ラインBの焦点はずれ量Dの差分が遠近判別閾値Xよりも大きいとき、画素ラインBの領域の被写体を遠景被写体と判定する。縦目光学系の第一方向信頼性判定手段21である信頼性判定部は、この遠景被写体領域抽出結果をもとにデフォーカス値検出結果の信頼性を判定する。記憶装置14は、この遠景被写体領域の横方向の画素番号を記憶する。各画素ライン間における焦点はずれ量Dの差分が遠近判別閾値X以上とならないときは、遠景被写体領域がないものとして記憶装置14に記憶する。その後、ステップ3に進む。   In step 2, the magnitude relationship between the difference in defocus amount D between the pixel lines and the distance determination threshold X is compared. As a result, when the difference between the defocus amount D between the pixel line A and the pixel line B located farther than the pixel line A is larger than the perspective determination threshold X, the distant subject area extraction unit 21 selects the object in the area of pixel line B as a distant subject It is determined that The reliability determination unit, which is the first direction reliability determination unit 21 of the vertical-eye optical system, determines the reliability of the defocus value detection result based on the distant subject region extraction result. The storage unit 14 stores the horizontal pixel number of this distant view subject area. When the difference of the defocus amount D between the pixel lines does not become equal to or more than the perspective determination threshold value X, the storage device 14 stores it as that having no distant subject area. Thereafter, the process proceeds to step 3.

ステップ3では、横目光学系の各画素ラインがデフォーカス値を算出し、その値を焦点はずれ量Dとして記憶装置14に記憶してステップ4に進む。   In step 3, each pixel line of the horizontal optical system calculates a defocus value, which is stored as the defocus amount D in the storage device 14, and the process proceeds to step 4.

ステップ4では、各画素ライン間における焦点はずれ量Dの差分と遠近判別閾値Xの大小関係を比較する。その結果、遠景被写体領域抽出部21はある画素ラインAとそれより遠方にある画素ラインBの焦点はずれ量Dの差分が遠近判別閾値Xよりも大きいとき、画素ラインBの領域の被写体を遠景被写体と判定する。つまり、横目光学系の第二方向信頼性判定手段21である信頼性判定部は、この遠景被写体領域抽出結果をもとにデフォーカス値検出結果の信頼性を判定する。記憶装置14は、この遠景被写体領域の縦方向の画素番号を記憶する。各画素ライン間における焦点はずれ量Dの差分が遠近判別閾値X以内のときは、遠景被写体領域がないものとして記憶装置14に記憶する。その後、ステップ5に進む。   In step 4, the magnitude relationship between the difference in defocus amount D between the pixel lines and the distance determination threshold X is compared. As a result, when the difference between the defocus amount D between the pixel line A and the pixel line B located farther than the pixel line A is larger than the perspective determination threshold X, the distant subject area extraction unit 21 selects the object in the area of pixel line B as a distant subject It is determined that That is, the reliability determination unit which is the second direction reliability determination unit 21 of the horizontal-eye optical system determines the reliability of the defocus value detection result based on the distant-view object region extraction result. The storage unit 14 stores the pixel number in the vertical direction of the distant view subject area. When the difference between the focal shift amounts D between the pixel lines is within the perspective determination threshold X, the storage device 14 stores the difference as there is no distant subject area. Thereafter, the process proceeds to step 5.

ステップ5では、ステップ2で記憶した横方向の遠景被写体領域をもとに横目光学系における信頼性パラメータを変更する。例えば、横方向領域の遠景被写体サイズが小さいときは、信頼度を上げる。ステップ6に進む。   In step 5, the reliability parameter of the horizontal-eye optical system is changed based on the horizontal distant object region stored in step 2. For example, when the distant view subject size in the horizontal region is small, the reliability is increased. Go to step 6.

ステップ6では、ステップ4で記憶した縦方向の遠景被写体領域をもとに縦目光学系における信頼性パラメータを変更する。例えば、縦方向領域の遠景被写体サイズが小さいときは、信頼度を上げる。その後、パラメータ7に進む。   In step 6, the reliability parameter of the vertical-eye optical system is changed based on the vertical distant subject region stored in step 4. For example, when the distant subject size in the vertical region is small, the reliability is increased. Thereafter, the process proceeds to parameter 7.

ステップ7では、縦目光学系の第一方向信頼性判定結果(ステップ5)と、横目光学系の第二方向信頼性判定(ステップ6)の結果を受けて、信頼度が高いほうの撮影レンズのデフォーカス値を算出するのに使用する方向を選択する。   In step 7, the photographing lens with the higher reliability is received based on the result of the first direction reliability judgment of the vertical optical system (step 5) and the result of the second direction reliability judgment of the horizontal optical system (step 6). Select the direction to use to calculate the defocus value of.

以上が、撮影時の縦目光学系と横目学系のデフォーカス値選択時のフローチャートである。   The above is the flow chart when selecting the defocus value of the vertical-eye optical system and the horizontal-vision optical system at the time of shooting.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

12 焦点検出光学系、21 デフォーカス値検出手段、
22 遠景被写体領域抽出手段、36 光電変換画素
12 focus detection optical system, 21 defocus value detection means,
22 distant subject area extraction means, 36 photoelectric conversion pixels

Claims (1)

所定の範囲内の被写体像を、第一の方向と、第一の方向に直交する第二の方向とにそれぞれ対となる二領域ずつに分割し、各領域を通過する光束を光電変換画素上に結像させる焦点検出光学系と、
前記光電変換画素は、前記の対となる方向と、それに直交する方向とに配列された二次元エリアセンサとして構成され、
前記第一の方向と前記第二の方向それぞれについて、前記焦点検出光学系を通過した光電変換画素上の光学像の前記の対となる方向の位置関係から、前記の対と直交する方向にそれぞれ前記所定の範囲内におけるデフォーカス値を検出するデフォーカス値検出手段と、
前記デフォーカス値検出結果から、前記の対と直交する方向に遠景被写体領域を抽出する遠景被写体領域抽出手段と、
を持ち、
前記第二の方向における前記遠景被写体領域抽出結果をもとに前記第一の方向におけるデフォーカス値検出結果の信頼性を判定する第一方向信頼性判定手段と、
前記第一の方向における前記遠景被写体領域抽出結果をもとに前記第二の方向におけるデフォーカス値検出結果の信頼性を判定する第二方向信頼性判定手段と、
を持ち、
前記第一方向信頼性判定結果と、第二方向信頼性判定の結果から、撮影レンズのデフォーカス値を算出するのに使用する方向を選択することを特徴とする焦点検出装置。
A subject image within a predetermined range is divided into two regions, each forming a pair in a first direction and a second direction orthogonal to the first direction, and the light flux passing through each region is on a photoelectric conversion pixel A focus detection optical system for forming an image on the
The photoelectric conversion pixel is configured as a two-dimensional area sensor arranged in the pairing direction and a direction orthogonal thereto.
For each of the first direction and the second direction, based on the positional relationship of the pairwise direction of the optical image on the photoelectric conversion pixel that has passed through the focus detection optical system, each in the direction orthogonal to the pair Defocus value detection means for detecting the defocus value within the predetermined range;
A distant view object area extraction unit that extracts a distant view object area in the direction orthogonal to the pair from the defocus value detection result;
Have
First direction reliability determination means for determining the reliability of the defocus value detection result in the first direction based on the distant subject region extraction result in the second direction;
A second direction reliability determination unit that determines the reliability of the defocus value detection result in the second direction based on the distant subject region extraction result in the first direction;
Have
A focus detection device comprising: selecting a direction to be used to calculate a defocus value of a photographing lens from the first direction reliability determination result and the second direction reliability determination result.
JP2017076343A 2017-04-07 2017-04-07 Imaging device Pending JP2018180134A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017076343A JP2018180134A (en) 2017-04-07 2017-04-07 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017076343A JP2018180134A (en) 2017-04-07 2017-04-07 Imaging device

Publications (1)

Publication Number Publication Date
JP2018180134A true JP2018180134A (en) 2018-11-15

Family

ID=64275224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017076343A Pending JP2018180134A (en) 2017-04-07 2017-04-07 Imaging device

Country Status (1)

Country Link
JP (1) JP2018180134A (en)

Similar Documents

Publication Publication Date Title
JP5211714B2 (en) Imaging device
JP5168797B2 (en) Imaging device
JP4972960B2 (en) Focus adjustment device and imaging device
JP5857547B2 (en) Focus detection device and focus adjustment device
JP2014153509A (en) Imaging device and imaging method
JP2012234152A (en) Imaging apparatus and control method thereof
JP2013254166A (en) Imaging device and control method of the same
JP2015152749A (en) Imaging device and control method of the same
JP2010128205A (en) Imaging apparatus
JP2010109923A (en) Imaging apparatus
JP6271911B2 (en) Imaging apparatus, control method therefor, and defocus amount calculation method
JP2016200629A (en) Image pickup apparatus, and control method, and program for the same
JP5157073B2 (en) Focus adjustment device and imaging device
JP4560420B2 (en) Imaging device
JP2018180135A (en) Imaging device
US8676051B2 (en) Focus detection device, focus detection method, and camera
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP5256847B2 (en) Imaging device
JP2014194502A (en) Imaging apparatus and imaging system
JP5610005B2 (en) Imaging device
JP2005308960A (en) Imaging apparatus provided with automatic focusing device
JP2018180134A (en) Imaging device
JP6530610B2 (en) Focusing device, imaging device, control method of focusing device, and program
JP2009081522A (en) Imaging apparatus
JP2005140851A (en) Autofocus camera

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125