JP7381065B2 - Imaging system and imaging optical system with attitude detection - Google Patents

Imaging system and imaging optical system with attitude detection Download PDF

Info

Publication number
JP7381065B2
JP7381065B2 JP2019204704A JP2019204704A JP7381065B2 JP 7381065 B2 JP7381065 B2 JP 7381065B2 JP 2019204704 A JP2019204704 A JP 2019204704A JP 2019204704 A JP2019204704 A JP 2019204704A JP 7381065 B2 JP7381065 B2 JP 7381065B2
Authority
JP
Japan
Prior art keywords
correction
optical system
unit
imaging device
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019204704A
Other languages
Japanese (ja)
Other versions
JP2021076765A5 (en
JP2021076765A (en
Inventor
岳志 高橋
理人 長江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sigma Inc
Original Assignee
Sigma Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sigma Inc filed Critical Sigma Inc
Priority to JP2019204704A priority Critical patent/JP7381065B2/en
Publication of JP2021076765A publication Critical patent/JP2021076765A/en
Publication of JP2021076765A5 publication Critical patent/JP2021076765A5/ja
Application granted granted Critical
Publication of JP7381065B2 publication Critical patent/JP7381065B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、姿勢検知を有した撮像システム及び用いた撮影光学系に関するものである。 The present invention relates to an imaging system with attitude detection and an imaging optical system used therein.

近年、撮像装置の撮像素子を焦点検出用センサとして用いる焦点調節方法として、コントラストAFと像面位相差AFとが一般的である。これらのコントラストAFと像面位相差AF(以下、位相差AF)は、ビデオカメラやデジタルスチルカメラで多く用いられているAF方式である。 In recent years, contrast AF and image plane phase difference AF have become common as focus adjustment methods that use an image sensor of an imaging device as a focus detection sensor. These contrast AF and image plane phase difference AF (hereinafter referred to as phase difference AF) are AF methods often used in video cameras and digital still cameras.

これらのAF方式では、光学系の諸収差により、焦点検出結果に誤差が生じる場合がある。そのためこの誤差を低減するための方法が、提案されている。 In these AF methods, errors may occur in focus detection results due to various aberrations of the optical system. Therefore, methods have been proposed to reduce this error.

引用文献1では、像面倒れ量を取得し、焦点検出補正値を算出して合焦ズレ量を補正することが可能となるレンズ鏡筒が開示されている。 Cited Document 1 discloses a lens barrel that is capable of acquiring an image surface tilt amount, calculating a focus detection correction value, and correcting an out-of-focus amount.

特開2018-21971号公報Japanese Patent Application Publication No. 2018-21971

引用文献1に記載のレンズ鏡筒は、製造段階で点像分布データテーブルが書き込まれてある。初回の電源投入時に撮像装置との通信にてレンズ鏡筒より、撮像装置のメモリに点像分布データテーブルを送る。撮像装置は、予め点像分布データテーブル生成装置のメモリに撮影光学系(各種交換レンズ)の光学設計情報と焦点検出光学系(マイクロレンズなど)の光学設計情報などが格納されている。点像分布データテーブル生成装置は、レンズ種別識別情報に対応した交換レンズの光学設計情報と焦点検出光学系の光学設計情報に基づき、絞りF値、フォーカスレンズ位置、ズームレンズ位置の組み合わせに応じた点像分布データを算出する。最終的には、撮像装置の点像分布データテーブル生成装置で生成された点像分布データテーブルは、レンズ鏡筒に送られ内部メモリに格納される。 In the lens barrel described in Cited Document 1, a point spread data table is written at the manufacturing stage. When the power is turned on for the first time, a point spread data table is sent from the lens barrel to the memory of the imaging device through communication with the imaging device. In the imaging device, optical design information of the photographing optical system (various types of interchangeable lenses), optical design information of the focus detection optical system (microlens, etc.), and the like are stored in advance in the memory of the point spread data table generation device. The point spread data table generation device generates data according to the combination of aperture F value, focus lens position, and zoom lens position based on the optical design information of the interchangeable lens corresponding to the lens type identification information and the optical design information of the focus detection optical system. Calculate point spread data. Finally, the point spread data table generated by the point spread data table generation device of the imaging device is sent to the lens barrel and stored in the internal memory.

レンズ鏡筒は、撮影時に設定された絞りF値、フォーカスレンズ位置、ズームレンズ位置の情報に基づき、撮影光学系の状態に応じた点像分布データを点像分布データテーブルより選択し、撮像装置へ送る。点像分布データを受け取った撮像装置は、オフセット量を算出した後、像ズレ量を補正することが開示されている。 The lens barrel selects point spread data from the point spread data table according to the state of the shooting optical system based on the information about the aperture F value, focus lens position, and zoom lens position set at the time of shooting, and selects point spread data from the point spread data table, and send to It is disclosed that the imaging device that receives the point spread data calculates the offset amount and then corrects the image shift amount.

しかし、引用文献1に記載のレンズ鏡筒は、撮影時の絞りF値、フォーカスレンズ位置、ズームレンズ位置のデータをもとに製造段階で書き込まれた点像分布でデータテーブルをもとに補正値を算出するため、製造誤差によるレンズの個体差を補正するために有効であるが、絞りF値、スケール位置、ズーム位置以外の要因による像面位置の変化に対応できないという課題を有する。 However, the lens barrel described in Cited Document 1 is corrected based on a data table with a point spread distribution written at the manufacturing stage based on the data of the aperture F value, focus lens position, and zoom lens position at the time of shooting. This method is effective for correcting individual differences in lenses due to manufacturing errors, but it has the problem that it cannot cope with changes in the image plane position due to factors other than the aperture F value, scale position, and zoom position.

本発明はこのような状況に鑑みてなされたものであり、撮影時に時々刻々と変化する撮影光学系の姿勢に応じた光学素子の倒れ(傾き)成分に応じて焦点検出を補正することで精度向上したAFを可能とした撮像システム及び撮影光学系を提供することを目的とする。 The present invention was made in view of these circumstances, and improves accuracy by correcting focus detection according to the inclination (tilt) component of the optical element corresponding to the attitude of the photographing optical system that changes moment by moment during photographing. An object of the present invention is to provide an imaging system and a photographing optical system that enable improved AF.

上記課題を解決するための手段である第1の発明は、撮影光学系と撮像装置とを含む撮像システムにおいて、前記撮像装置は、前記撮影光学系を通過した光を信号に変換し出力する撮像素子と、前記撮像素子から出力された信号に基づいて、前記撮影光学系を合焦状態に制御するための合焦評価値を検出する焦点検出部と、前記合焦評価値を補正する補正部とを有し、前記撮影光学系の姿勢情報を検出する姿勢検知部と、前記合焦評価値を補正する補正値を演算する補正値演算部と、前記補正値演算部は、前記撮影光学系と前記撮像装置の撮影条件をもとに補正式を用いて前記補正値を演算し、前記姿勢情報をもとに、前記補正式を補正する補正式補正部と、を前記撮影光学系と前記撮像装置のいずれかに有し、前記補正部は、前記補正式補正部に補正された補正式を用いて前記補正値演算部の演算結果である前記補正値をもとに前記合焦評価値を補正することを特徴とする撮像システム。 A first invention, which is a means for solving the above problems, is an imaging system including a photographing optical system and an imaging device, wherein the imaging device converts light that has passed through the photographing optical system into a signal and outputs the signal. a focus detection section that detects a focus evaluation value for controlling the photographing optical system to a focused state based on a signal output from the image sensor, and a correction section that corrects the focus evaluation value. an attitude detection unit that detects attitude information of the photographing optical system; a correction value calculation unit that calculates a correction value for correcting the focus evaluation value; and a correction formula correcting unit that calculates the correction value using a correction formula based on the photographing conditions of the imaging device and corrects the correction formula based on the posture information. The correction unit is provided in any of the imaging devices, and the correction unit calculates the focus evaluation value based on the correction value that is the calculation result of the correction value calculation unit using the correction formula corrected by the correction formula correction unit. An imaging system characterized by correcting.

また、上述の課題を解決するための手段である第2の発明は、撮影光学系と撮像装置とを含む撮像システムにおいて、前記撮像装置は、前記撮影光学系を通過した光を信号に変換し出力する撮像素子と、前記撮像素子から出力された信号にもとづいて、前記撮影光学系を合焦状態に制御するための合焦評価値を検出する焦点検出部と、前記合焦評価値を補正する補正部と、を有し、前記撮影光学系の姿勢情報を検知する姿勢検知部と、前記合焦評価値を補正する補正値を演算する補正値演算部と、前記補正値演算部は、前記撮影光学系と前記撮像装置の撮影条件をもとに補正式を用いて前記補正値を演算し、前記姿勢情報と前記合焦評価値の変動量の関係を記憶する記憶部と、前記姿勢情報を取得し、前記姿勢情報に対応する変動量を前記記憶部より取得する変動量取得部と、を前記撮影光学系と前記撮像装置のいずれかに有し、前記補正部は、前記補正値演算部の演算結果である前記補正値と前記変動量取得部の取得した前記変動量をもとに前記合焦評価値を補正することを特徴とする撮像システム。 Further, a second invention, which is a means for solving the above-mentioned problem, is an imaging system including a photographing optical system and an imaging device, wherein the imaging device converts light that has passed through the photographing optical system into a signal. an image sensor to output, a focus detection unit that detects a focus evaluation value for controlling the photographing optical system to a focused state based on a signal output from the image sensor, and corrects the focus evaluation value. an attitude detection unit that detects attitude information of the photographing optical system; a correction value calculation unit that calculates a correction value for correcting the focus evaluation value; and the correction value calculation unit, a storage unit that calculates the correction value using a correction formula based on the imaging conditions of the imaging optical system and the imaging device, and stores a relationship between the attitude information and the amount of variation in the focus evaluation value; either the photographic optical system or the imaging device includes a variation acquisition unit that acquires information and obtains a variation amount corresponding to the posture information from the storage unit, and the correction unit is configured to acquire the variation amount corresponding to the posture information from the storage unit; An imaging system characterized in that the focus evaluation value is corrected based on the correction value that is a calculation result of the calculation section and the variation amount acquired by the variation amount acquisition section.

また、上述の問題を解決するための手段である第3の発明は、撮像装置と結合する撮影光学系において、前記撮影光学系の姿勢情報を検知する姿勢検知部と、前記撮影光学系と前記撮像装置の撮影条件をもとに補正式を用いて補正値を演算する補正値演算部と、前記姿勢情報をもとに前記補正式を補正する補正式補正部と、を有し、前記補正値演算部は、前記補正式補正部に補正された補正式を用いて演算し、演算結果である補正値を前記撮像装置へ送信することを特徴とする撮影光学系。 Further, a third aspect of the present invention, which is a means for solving the above-mentioned problem, includes, in a photographing optical system coupled to an imaging device, an attitude detection section that detects attitude information of the photographing optical system; a correction value calculation unit that calculates a correction value using a correction formula based on the photographing conditions of the imaging device; and a correction formula correction unit that corrects the correction formula based on the posture information; A photographing optical system characterized in that a value calculation unit performs calculation using the correction formula corrected by the correction formula correction unit, and transmits a correction value that is a calculation result to the imaging device.

また、前述の課題を解決するための手段である第4の発明は、撮像装置と結合する撮影光学系において、前記撮影光学系の姿勢情報を検知する姿勢検知部と、前記撮影光学系と前記撮像装置の撮影条件をもとに補正式を用いて補正値を演算する補正値演算部と、前記姿勢情報と合焦評価値の変動量の関係を記憶する記憶部と、前記姿勢情報を取得し、前記姿勢情報に対応する変動量を前記記憶部より取得する変動量取得部と、前記姿勢情報をもとに前記補正式を補正する補正式補正部と、を有し、前記補正値演算部は、前記補正式補正部に補正された補正式を用いて演算し、演算結果である補正値と前記変動量取得部の取得した変動量を前記撮像装置へ送信することを特徴とする撮影光学系。 A fourth aspect of the invention, which is a means for solving the above-mentioned problem, is a photographic optical system coupled to an imaging device, which includes an attitude detection unit that detects attitude information of the photographic optical system, and a position detection unit that detects posture information of the photographic optical system and the photographic optical system. a correction value calculation unit that calculates a correction value using a correction formula based on shooting conditions of the imaging device; a storage unit that stores a relationship between the posture information and the amount of variation in the focus evaluation value; and a storage unit that acquires the posture information. and a variation amount acquisition unit that obtains a variation amount corresponding to the posture information from the storage unit, and a correction formula correction unit that corrects the correction formula based on the posture information, and the correction value calculation unit The unit performs calculation using the correction formula corrected by the correction formula correction unit, and transmits the correction value that is the calculation result and the variation amount acquired by the variation amount acquisition unit to the imaging device. Optical system.

本発明によれば、撮影時に時々刻々と変化する撮影光学系の姿勢に応じた光学素子の倒れ(傾き)成分に応じて焦点検出を補正することで精度向上したAFを可能とした撮像システム及び撮影光学系を提供することができる。 According to the present invention, an imaging system and an imaging system capable of performing AF with improved accuracy by correcting focus detection according to a tilting (tilting) component of an optical element corresponding to the attitude of a photographing optical system that changes moment by moment during photographing; A photographic optical system can be provided.

本発明の実施例に係る撮像システムのブロック図Block diagram of an imaging system according to an embodiment of the present invention 本発明の実施例に係る受光画素を撮影光学系側から見た平面図A plan view of a light-receiving pixel according to an embodiment of the present invention viewed from the photographing optical system side 本発明の実施例に係る処理例を示すフローチャートFlowchart showing a processing example according to an embodiment of the present invention 本発明の実施例に係る焦点検出領域の一例を示す図A diagram showing an example of a focus detection area according to an embodiment of the present invention

以下、添付の図面に従って、本発明を実施するための最良の形態について説明する。尚、この実施の形態により本発明が限定されるものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS The best mode for carrying out the present invention will be described below with reference to the accompanying drawings. Note that the present invention is not limited to this embodiment.

例えば、以下の実施例では撮影光学系を交換可能な撮像装置を用いた実施形態について説明するが、本発明は撮影光学系の交換できない撮像装置すなわちデジタルカメラやビデオカメラに対しても適用可能である。 For example, in the following examples, an embodiment using an imaging device with a replaceable photographing optical system will be described, but the present invention is also applicable to an imaging device with a non-replaceable photographing optical system, such as a digital camera or a video camera. be.

図1は、本実施例の撮影光学系と撮像装置からなる撮像システムのブロック図である。尚、各図面は、本発明の説明を簡単にするために簡略化されている。また、特に説明がない場合、各図面は、左側が被写体側、右側が像側となり、上下方向をラジアル方向、左右方向をスラスト方向とする。 FIG. 1 is a block diagram of an imaging system including an imaging optical system and an imaging device according to this embodiment. Note that each drawing is simplified to simplify the explanation of the present invention. Furthermore, unless otherwise specified, in each drawing, the left side is the object side, the right side is the image side, the vertical direction is the radial direction, and the horizontal direction is the thrust direction.

本実施例において、100は撮影光学系、101はズームレンズ群、102は絞り、103はフォーカスレンズ、111はズーム駆動部、112は絞り駆動部、113はフォーカス駆動部、114は姿勢検知部、115はレンズCPU、116はレンズメモリとする。 In this embodiment, 100 is a photographing optical system, 101 is a zoom lens group, 102 is an aperture, 103 is a focus lens, 111 is a zoom drive unit, 112 is an aperture drive unit, 113 is a focus drive unit, 114 is an attitude detection unit, 115 is a lens CPU, and 116 is a lens memory.

撮影光学系100は、撮像装置200に脱着可能であり、図1中央の撮影光学系100と撮像装置200が互いに接する撮影光学系100のマウント部と撮像装置200のマウント部とがバヨネット機構などにより結合される。尚、本実施例にて用いる撮影光学系100は、ズームレンズであるので焦点距離を変更することが可能である。しかし、焦点距離が固定である所謂単焦点レンズでも構わないことは言うまでもない。 The photographing optical system 100 is detachable from the imaging device 200, and the mount portion of the photographing optical system 100 and the mount portion of the imaging device 200, where the photographing optical system 100 and the imaging device 200 in the center of FIG. 1 are in contact with each other, are connected by a bayonet mechanism or the like. be combined. Note that since the photographing optical system 100 used in this embodiment is a zoom lens, it is possible to change the focal length. However, it goes without saying that a so-called single focus lens with a fixed focal length may also be used.

また、本実施例の撮影光学系100の有するズームレンズ群101、絞り102、フォーカスレンズ103と撮像素子201の光軸は一致するように調整済みであることは言うまでもない。図1のスラスト方向に描かれている一点鎖線は光軸を表す。 Further, it goes without saying that the optical axes of the zoom lens group 101, the aperture 102, and the focus lens 103 of the photographing optical system 100 of this embodiment and the image sensor 201 have been adjusted to coincide with each other. The dashed line drawn in the thrust direction in FIG. 1 represents the optical axis.

ズームレンズ群101は、光軸に沿った方向であるスラスト方向に移動可能に保持されたレンズ群であり、ズームレンズ群101の位置によって撮影距離が変化する。 The zoom lens group 101 is a lens group that is held movably in the thrust direction, which is a direction along the optical axis, and the photographing distance changes depending on the position of the zoom lens group 101.

絞り102は、撮影光学系100を通過し、撮像素子201に入射する光量を調整する機能を有する。また、静止画撮影時にはメカニカルシャッタとしても機能する。但し、メカニカルシャッタを単体として撮影光学系100内に配置する構成としても問題ない。 The aperture 102 has a function of adjusting the amount of light that passes through the photographing optical system 100 and enters the image sensor 201. It also functions as a mechanical shutter when shooting still images. However, there is no problem in arranging the mechanical shutter as a single unit within the photographing optical system 100.

フォーカスレンズ103は、ズームレンズ群101と同様にスラスト方向へ移動可能である。フォーカスレンズ103のレンズ位置によって、合焦する合焦距離が変化する。 The focus lens 103 is movable in the thrust direction similarly to the zoom lens group 101. The focusing distance changes depending on the lens position of the focus lens 103.

ズーム駆動部111は、ズームレンズ群101を駆動するためのアクチュエータや駆動回路を有する。 The zoom drive unit 111 includes an actuator and a drive circuit for driving the zoom lens group 101.

絞り駆動部112は、絞り102を駆動するためのアクチュエータや駆動回路を有する。 The aperture drive unit 112 includes an actuator and a drive circuit for driving the aperture 102.

フォーカス駆動部113は、フォーカスレンズ103をスラスト方向に駆動するためのアクチュエータや駆動回路を有する。 The focus drive unit 113 includes an actuator and a drive circuit for driving the focus lens 103 in the thrust direction.

姿勢検知部114は、フォーカスレンズ103の姿勢を検知するためのセンサである。本実施例では、加速度センサを用いる。フォーカスレンズ103の姿勢を検知するセンサであれば、問題ないことは言うまでもない。 The attitude detection unit 114 is a sensor for detecting the attitude of the focus lens 103. In this embodiment, an acceleration sensor is used. Needless to say, there is no problem as long as the sensor detects the attitude of the focus lens 103.

また、本実施例では、フォーカスレンズ103の姿勢を検知しているが、撮影光学系100内の他のレンズ、または撮影光学系やカメラ筐体の姿勢情報など撮影光学系100に対する重力方向の姿勢情報が取得可能であれば、本願発明の姿勢検知部114に用いることが可能である。 Further, in this embodiment, the attitude of the focus lens 103 is detected, but the attitude of other lenses in the photographing optical system 100 or the posture information of the photographing optical system or the camera housing in the direction of gravity relative to the photographing optical system 100 is also detected. If the information can be acquired, it can be used in the attitude detection unit 114 of the present invention.

レンズCPU115は、ズーム駆動部111、絞り駆動部112、フォーカス駆動部113と接続されており、各部を制御することが可能となっている。さらには、レンズCPU115は、マウント部を通じてカメラCPU204と接続される。接続されることでコマンドやデータのやり取りが可能となる。レンズCPU115は、ズームレンズ群101や絞り102やフォーカスレンズ103の位置を取得し、カメラCPU204の要求に応じて位置情報や姿勢情報を取得し送信する。 The lens CPU 115 is connected to the zoom drive section 111, the aperture drive section 112, and the focus drive section 113, and is capable of controlling each section. Furthermore, the lens CPU 115 is connected to the camera CPU 204 through the mount section. Once connected, commands and data can be exchanged. The lens CPU 115 acquires the positions of the zoom lens group 101, the aperture 102, and the focus lens 103, and acquires and transmits position information and posture information in response to a request from the camera CPU 204.

また、レンズCPU115は、カメラCPU204の要求に応じて、ズーム駆動部111、絞り駆動部112、フォーカス駆動部113を通じて各部を制御する。 Further, the lens CPU 115 controls each section through the zoom drive section 111, the aperture drive section 112, and the focus drive section 113 in response to a request from the camera CPU 204.

レンズメモリ116は、自動焦点検出の際に用いる光学情報が記憶されている。また、補正値を求める際に用いる補正テーブルが記憶されている。具体的には、ズームレンズ群101の位置、絞り102の位置、フォーカスレンズ103の位置に応じたデータをテーブルとして記憶しておく。本実施例では、、撮影条件に対応した補正式の係数がテーブルとして記憶されている。 The lens memory 116 stores optical information used for automatic focus detection. Additionally, a correction table used when determining correction values is stored. Specifically, data corresponding to the position of the zoom lens group 101, the position of the aperture 102, and the position of the focus lens 103 is stored as a table. In this embodiment, the coefficients of the correction formula corresponding to the photographing conditions are stored as a table.

また、レンズメモリ116は、撮影光学系100の光学設計情報を記憶しておいてもよい。光学設計情報を用いて収差補正などに用いることが可能である。 Further, the lens memory 116 may store optical design information of the photographing optical system 100. The optical design information can be used for aberration correction, etc.

次に、本実施例の撮像装置200は、撮像素子201、信号処理部202、画像処理部203、カメラCPU204、表示部205、操作部206、記憶部207、焦点検出部208、補正部209、補正値演算部210、補正値補正部211、変動量取得部212を有する。 Next, the imaging device 200 of this embodiment includes an imaging element 201, a signal processing section 202, an image processing section 203, a camera CPU 204, a display section 205, an operation section 206, a storage section 207, a focus detection section 208, a correction section 209, It has a correction value calculation section 210, a correction value correction section 211, and a variation amount acquisition section 212.

本実施例にて用いる撮像素子201は、CMOSイメージセンサである。位相差AFに必要な画素は、瞳分割されているため、画像データを用いた位相差AFが可能となっている。尚、すべての画素が瞳分割されていても問題ない。 The image sensor 201 used in this embodiment is a CMOS image sensor. Pixels required for phase difference AF are divided into pupils, so phase difference AF using image data is possible. Note that there is no problem even if all pixels are divided into pupils.

信号処理部202は、不図示のA/D変換コンバータやゲイン可変アンプを備えており、撮像素子201を制御し取得した画像信号に対して、各処理を行った後、カメラCPU204へ送信する。 The signal processing unit 202 includes an A/D converter and a variable gain amplifier (not shown), and after controlling the image sensor 201 and performing various processes on the acquired image signal, transmits the signal to the camera CPU 204 .

画像処理部203は、撮像素子201が検知した光から変換した画像信号を位相差AF用の信号と表示、記憶する画像信号を生成する。また、画像信号に対し、ホワイトバランス調整、色再現処理、JPEG形式などの画像データへの現像処理といったデジタルカメラにて行われる一般的な画像信号処理を行う。 The image processing unit 203 generates an image signal that is converted from the light detected by the image sensor 201 and is displayed and stored as a signal for phase difference AF. Further, the image signal is subjected to general image signal processing performed in a digital camera, such as white balance adjustment, color reproduction processing, and development processing to image data such as JPEG format.

カメラCPU204は、撮像装置200に係るすべての演算制御を行う。具体的には、信号処理部202、画像処理部203、表示部205、操作部206、記憶部207、焦点検出部208、補正部209、補正値演算部210、補正式補正部211、変動量取得部212と接続されているので制御することが可能である。また、マウント部を介してレンズCPU115と電気的に接続されているので、コマンドやデータを通信のやり取りを行うことが可能である。レンズCPU115に対して、各種レンズや絞り位置の取得要求やズームレンズ群101、フォーカスレンズ103、絞り102などに対する駆動要求や撮影光学系固有の光学情報の取得を要求するコマンドを発行することで各種撮影条件の取得が可能となっている。 The camera CPU 204 performs all calculation controls related to the imaging device 200. Specifically, the signal processing section 202, the image processing section 203, the display section 205, the operation section 206, the storage section 207, the focus detection section 208, the correction section 209, the correction value calculation section 210, the correction formula correction section 211, and the amount of variation. Since it is connected to the acquisition unit 212, it can be controlled. Furthermore, since it is electrically connected to the lens CPU 115 via the mount, it is possible to exchange commands and data. By issuing commands to the lens CPU 115 to request acquisition of various lenses and aperture positions, drive requests for the zoom lens group 101, focus lens 103, diaphragm 102, etc., and request to acquire optical information specific to the photographic optical system, various It is now possible to obtain shooting conditions.

表示部205は、LCDやこれを制御する回路などを有し、撮影光学系100や撮像装置200の撮影条件や撮影モードに関する情報収集や撮影時のライブビュー、焦点検出時の合焦状態の表示、撮影後の確認のための撮影画像などを表示する。 The display unit 205 includes an LCD, a circuit for controlling the LCD, and the like, and collects information regarding the shooting conditions and shooting modes of the shooting optical system 100 and the imaging device 200, displays live view during shooting, and displays the focusing state during focus detection. , Displays captured images for confirmation after shooting.

操作部206は、電源スイッチ、レリーズ、ズーム操作スイッチ、撮影モード選択スイッチなどの操作部材であり、使用者がこれら操作部材を操作することで、カメラCPU204は所定の動作を行うコマンドを発行する。 The operation unit 206 includes operation members such as a power switch, a release switch, a zoom operation switch, and a shooting mode selection switch. When the user operates these operation members, the camera CPU 204 issues a command to perform a predetermined operation.

記憶部207は、姿勢検知部114が検知した姿勢情報やフォーカスレンズ103の位置、ズームレンズ群101の位置、焦点検出領域の座標などを記憶したり、姿勢情報と補正式の係数や変動量の関係をテーブルとして保持している。 The storage unit 207 stores the attitude information detected by the attitude detection unit 114, the position of the focus lens 103, the position of the zoom lens group 101, the coordinates of the focus detection area, etc., and stores the attitude information and the coefficients of the correction formula and the amount of variation. The relationships are stored as a table.

本実施例では、レンズメモリ116に撮影条件に対応した補正式の係数がテーブルとして記憶されているが、このテーブルを記憶部207に記憶しておいても問題ない。さらには、姿勢情報と補正式の係数や変動量をテーブルとして記憶部207に記憶しているが、これらをレンズメモリ116に記憶しても問題ない。 In this embodiment, the coefficients of the correction formula corresponding to the photographing conditions are stored in the lens memory 116 as a table, but there is no problem in storing this table in the storage unit 207. Furthermore, although the attitude information, the coefficients of the correction formula, and the amount of variation are stored in the storage unit 207 as a table, there is no problem in storing these in the lens memory 116 as well.

焦点検出部208は、画像処理部203により生成された焦点検出用信号を用いて焦点検出処理を行う。具体的には、位相差AF方式であれば、撮像素子201を通過した光束は、後述するような構造から一対の像データを生成することが可能である。生成した一対の像データからなる画像信号を焦点検出用信号とし、焦点検出用信号をもとに焦点評価値を算出し、最も高い焦点評価値である合焦評価値となった際のフォーカスレンズ103の位置、つまり焦点検出位置を求める。 The focus detection unit 208 performs focus detection processing using the focus detection signal generated by the image processing unit 203. Specifically, if the phase difference AF method is used, the light beam passing through the image sensor 201 can generate a pair of image data from a structure as described below. The image signal consisting of the generated pair of image data is used as a focus detection signal, a focus evaluation value is calculated based on the focus detection signal, and the focus lens is adjusted when the focus evaluation value is the highest focus evaluation value. The position 103, that is, the focus detection position is determined.

補正部209は、焦点検出部208が焦点検出用信号を用いた焦点評価値から求めた合焦評価値に補正値演算部210が演算した補正値を適用することで、合焦評価値を補正する。 The correction unit 209 corrects the focus evaluation value by applying the correction value calculated by the correction value calculation unit 210 to the focus evaluation value calculated by the focus detection unit 208 from the focus evaluation value using the focus detection signal. do.

補正値演算部210は、補正式や変動量をもとに合焦評価値に適用する補正値を演算する。 The correction value calculation unit 210 calculates a correction value to be applied to the focus evaluation value based on the correction formula and the amount of variation.

補正式補正部211は、姿勢検知部114の検出した姿勢情報を用いて補正式の係数を補正する。 The correction formula correction unit 211 uses the posture information detected by the posture detection unit 114 to correct the coefficients of the correction formula.

変動量取得部212は、姿勢検知部114の検知した姿勢情報をもとに記憶部207から変動量を取得する。取得した変動量を補正値演算部へ送信する。 The variation acquisition unit 212 obtains the variation amount from the storage unit 207 based on the posture information detected by the posture detection unit 114. The obtained variation amount is sent to the correction value calculation section.

以下に、焦点検出動作の説明を行う。図2は、本実施例にて用いる撮像素子201であり、CMOSセンサの1画素を抜き出して撮影光学系100側より見た状態である。撮像素子201は、この画素が行方向と列方向つまりY軸方向とX軸方向とに配置され集合したものである。 The focus detection operation will be explained below. FIG. 2 shows an image sensor 201 used in this embodiment, and shows a state in which one pixel of a CMOS sensor is extracted and viewed from the photographing optical system 100 side. The image sensor 201 is a collection of pixels arranged in a row direction and a column direction, that is, in a Y-axis direction and an X-axis direction.

本願実施例のカラーフィルタの配置は、ベイヤー配列とする。従って、奇数行の画素は、左から順に緑(G)と赤(R)のカラーフィルタが交互に並び、偶数行の画素には左から順に青(B)と緑(G)のカラーフィルタが交互に並ぶ。本願実施例では、一般的なベイヤー配列のカラーフィルタ配置としたが、変形フィルター配列などでも本願発明を適用することが可能である。 The arrangement of the color filters in this embodiment is a Bayer array. Therefore, pixels in odd-numbered rows have green (G) and red (R) color filters arranged alternately from the left, and pixels in even-numbered rows have blue (B) and green (G) color filters arranged in order from the left. Line up alternately. In the embodiment of the present application, a general Bayer array color filter arrangement is used, but the present invention can also be applied to a modified filter arrangement.

次に、図中の円300iは、マイクロレンズを表す。また、本実施例にて用いる撮像素子201のすべての画素の光電変換部は、列方向に2分割されている。図中の矩形の300aと300bはそれぞれ光電変換部を表す。この300aと300bの光電変換部に出力する画像信号が一対の像データである。 Next, a circle 300i in the figure represents a microlens. Furthermore, the photoelectric conversion units of all pixels of the image sensor 201 used in this embodiment are divided into two in the column direction. Rectangles 300a and 300b in the figure represent photoelectric conversion units, respectively. The image signals output to the photoelectric conversion units 300a and 300b are a pair of image data.

分割された片側の光電変換部の出力する画像信号と2つの光電変換部の画像信号の和とは、互いに独立して読み出すことができるよう信号処理部202を制御する。また、2つの光電変換部の画像信号の和から分割された片側の光電変換部の画像信号の差分を取ることで、分割された他方の光電変換部の画像信号を得ることができる。 The signal processing unit 202 is controlled so that the image signal output from the photoelectric conversion unit on one side of the division and the sum of the image signals of the two photoelectric conversion units can be read out independently from each other. Further, by taking the difference between the image signals of one of the divided photoelectric conversion units from the sum of the image signals of the two photoelectric conversion units, it is possible to obtain the image signal of the other divided photoelectric conversion unit.

上記方法にて取得した個々撮像素子201の片側の光電変換部の画像信号は、位相差AF用の画像信号として用いる。また、光電変換部の和の画像信号は、通常の撮影画像の画像信号として用いることができる。 The image signal of the photoelectric conversion unit on one side of the individual image sensor 201 obtained by the above method is used as an image signal for phase difference AF. Further, the sum image signal of the photoelectric conversion section can be used as an image signal of a normal photographed image.

次に、位相差AFを行う画像信号について説明する。本実施例では、同一画素行に配置された複数の画素300について、各画素300の光電変換部300aの出力する画像信号をつなぎ合わせたものをAF用L像とし、同様に光電変換部300bの出力する画像信号をつなぎ合わせたものをAF用R像とする。 Next, an image signal for performing phase difference AF will be described. In this embodiment, for a plurality of pixels 300 arranged in the same pixel row, the image signals output from the photoelectric conversion units 300a of each pixel 300 are combined to form an AF L image, and similarly, the image signals output from the photoelectric conversion units 300b of each pixel 300 are connected. The output image signals are combined to form an AF R image.

このようにして生成したAF用L像とAF用R像から相対的な像ズレ量を求め、求めた像ズレ量を検出することで、所定領域の焦点のズレ量であるデフォーカス量を検出することができる。 By calculating the relative image shift amount from the AF L image and AF R image generated in this way and detecting the obtained image shift amount, the defocus amount, which is the amount of focus shift in a predetermined area, is detected. can do.

また、カメラCPU204は、画像処理部203へ焦点検出領域の情報を送信し、焦点検出領域内に含まれる画素の出力から、AF用L像とAF用R像の画像信号を生成し、焦点検出部208へ出力する。 Further, the camera CPU 204 transmits information on the focus detection area to the image processing unit 203, generates image signals of an AF L image and an AF R image from the output of pixels included in the focus detection area, and performs focus detection. 208.

本実施例における画像信号の読み出しについて説明する。一般的には、合焦までの時間が短いことが望まれる。従って、すべての画素の画像信号を読み出して、デフォーカス量を算出するのでは、合焦までに時間を要してしまう。そこで、位相差AFなど画像信号を用いた合焦地点の探索やライブビュー動画を表示する際には、すべての画素の画像信号を読み出して信号処理を行うのではなく、撮像素子201のX軸方向とY軸方向ともに一定の比率で間引いた画素からのみ画像信号を読み出す、いわゆる間引き信号処理をすることが一般的である。 Readout of image signals in this embodiment will be explained. Generally, it is desired that the time until focusing be short. Therefore, if the image signals of all pixels are read out and the defocus amount is calculated, it will take time to bring the image into focus. Therefore, when searching for a focusing point using image signals such as phase difference AF or displaying a live view video, instead of reading out the image signals of all pixels and performing signal processing, It is common to perform so-called thinning signal processing in which image signals are read only from pixels thinned out at a constant ratio in both the Y-axis direction and the Y-axis direction.

以下に、本実施例の撮像装置200における自動焦点検出(AF)について図3のフローチャートを用いて説明する。 The automatic focus detection (AF) in the imaging device 200 of this embodiment will be explained below using the flowchart of FIG. 3.

ステップ#1は、カメラCPU204が、焦点検出領域を設定する。本ステップにて設定する焦点検出領域とは、図4に示すように横軸をX軸とし、縦軸をY軸として中央の被写体400に対して焦点検出領域401を設定し、焦点検出領域401を代表する座標を先ほどのX軸とY軸を用いて(X1,Y1)と設定する。なお、(X1,Y1)は図4の焦点検出領域301の中心などで構わない。 In step #1, the camera CPU 204 sets a focus detection area. The focus detection area set in this step is a focus detection area 401 set for the central subject 400 with the horizontal axis as the X axis and the vertical axis as the Y axis, as shown in FIG. The representative coordinates are set as (X1, Y1) using the X and Y axes mentioned earlier. Note that (X1, Y1) may be the center of the focus detection area 301 in FIG. 4 or the like.

ステップ#2は、焦点検出部208が位相差AFに用いる焦点検出信号を取得する。同一画素行に配置された所定範囲内の画素300について、光電変換部300aの出力をつなぎ合わせたAF用L像、光電変換部300bの出力をつなぎ合わせたAF用R像をそれぞれ取得する。 In step #2, the focus detection unit 208 acquires a focus detection signal used for phase difference AF. For pixels 300 within a predetermined range arranged in the same pixel row, an AF L image obtained by stitching together the outputs of the photoelectric conversion sections 300a and an AF R image obtained by stitching together the outputs of the photoelectric conversion sections 300b are obtained, respectively.

ステップ#3は、ステップ#2にて取得した焦点検出信号を用いて焦点検出部208は、焦点評価値をもとに位相差AFの処理に基づいて焦点となる合焦評価値の検出を行う。この時、焦点評価値を用いて合焦か否かを判断し、最も高い評価値を合焦評価値とする。また、合焦評価値を取得した際のフォーカスレンズ位置を焦点検出位置とする。さらに、合焦評価値を取得した際のフォーカスレンズ103の位置、ズーム状態を示すズームレンズ群101の位置、焦点検出領域の座標(X1,Y1)などの情報を記憶部207に記憶しておく。 In step #3, the focus detection unit 208 uses the focus detection signal acquired in step #2 to detect a focus evaluation value that is a focus based on the focus evaluation value and based on phase difference AF processing. . At this time, it is determined whether or not focus is achieved using the focus evaluation value, and the highest evaluation value is set as the focus evaluation value. Further, the focus lens position at the time when the focus evaluation value is acquired is defined as the focus detection position. Furthermore, the storage unit 207 stores information such as the position of the focus lens 103 when the focus evaluation value was acquired, the position of the zoom lens group 101 indicating the zoom state, and the coordinates (X1, Y1) of the focus detection area. .

また、位相差AFにて検出した焦点評価値が最良となる合焦評価値を取得したフォーカスレンズ位置と、実際に撮影した画像における最良のピントとなるフォーカスレンズ位置とでは、レンズの光学特性や前述したように位相差AF時には画像信号を間引き読み出しした画像信号をもとに合焦評価値を算出していることなどの要因により、差が生じることがある。この差を補正するのが補正値である。 In addition, the optical characteristics of the lens and the focus lens position where the focus evaluation value detected by phase difference AF is the best and the focus lens position where the best focus is obtained in the image actually taken are different. As described above, during phase difference AF, a difference may occur due to factors such as the fact that the focus evaluation value is calculated based on an image signal obtained by thinning out and reading out an image signal. The correction value corrects this difference.

加えて、撮影光学系100内のレンズが重力により、レンズの姿勢が変化することで、収差も変化する。その結果、前述して求めた合焦評価値を補正する補正値に姿勢変化の影響も加味する必要がある。 In addition, the aberrations of the lenses in the photographic optical system 100 change as the posture of the lenses changes due to gravity. As a result, it is necessary to take into account the influence of posture change in the correction value for correcting the focus evaluation value obtained above.

ステップ#4は、カメラCPU204は、補正値の算出に必要な補正値算出条件を取得する。補正値は、フォーカスレンズ103の位置、ズーム状態を示すズームレンズ群101の位置、絞り102の絞り値、焦点検出領域の位置座標(X1,Y1)など、撮影光学系の変化や焦点検出光学系の変化に伴って変化する。また、カメラCPU204は、姿勢検知部114が検知したフォーカスレンズ103の姿勢情報を取得し、記憶部207に記憶しておく。従って、カメラCPU204は、ステップ#3で記憶部207に記憶したフォーカスレンズ103の位置、ズーム状態を示すズームレンズ群101の位置、焦点検出領域の座標(X1,Y1)などの情報を取得しておく。 In step #4, the camera CPU 204 obtains correction value calculation conditions necessary for calculating a correction value. The correction value is based on changes in the photographing optical system and the focus detection optical system, such as the position of the focus lens 103, the position of the zoom lens group 101 indicating the zoom state, the aperture value of the aperture 102, and the position coordinates (X1, Y1) of the focus detection area. changes with changes in Further, the camera CPU 204 acquires the attitude information of the focus lens 103 detected by the attitude detection unit 114 and stores it in the storage unit 207. Therefore, the camera CPU 204 acquires information such as the position of the focus lens 103, the position of the zoom lens group 101 indicating the zoom state, and the coordinates (X1, Y1) of the focus detection area, which were stored in the storage unit 207 in step #3. put.

ステップ#5は、カメラCPU204が、ステップ#4にて姿勢検知部114が検出したフォーカスレンズ103の姿勢をもとに、補正式補正部211が補正式を補正した補正後の補正式を用いて焦点検出位置の補正をするための補正値を補正値演算部210が演算し、カメラCPU204へ演算結果である補正値を送信する。 In step #5, the camera CPU 204 uses the corrected correction formula obtained by correcting the correction formula by the correction formula correction unit 211 based on the attitude of the focus lens 103 detected by the attitude detection unit 114 in step #4. A correction value calculation unit 210 calculates a correction value for correcting the focus detection position, and transmits the correction value that is the calculation result to the camera CPU 204.

ステップ#6は、補正値演算部210が、ステップ#5にて演算した補正値を用いて、ステップ#3にて取得した焦点検出の結果である合焦評価値に補正部209が補正値を適用して補正する。 In step #6, the correction value calculation unit 210 uses the correction value calculated in step #5, and the correction unit 209 applies the correction value to the focus evaluation value that is the result of the focus detection acquired in step #3. Apply and correct.

以下に、具体的な補正方法の説明を行う。 A specific correction method will be explained below.

ステップ#5では、カメラCPU204から要求を受けたレンズCPU115は、ステップ#4にて取得したフォーカスレンズ103の位置、ズームレンズ群101の位置、および絞り102の位置に応じたデータを基にレンズメモリ116に記憶した補正データテーブルから、補正データを算出する。その後、マウント部を通じてカメラCPU204に送信する。これらのデータを受信したカメラCPU204は、像高r=√(X1^2+Y1^2)において、補正値は下記多項式(以下、補正式)にて表すことが可能である。 In step #5, the lens CPU 115 receives the request from the camera CPU 204, and stores the data in the lens memory based on the data corresponding to the position of the focus lens 103, the position of the zoom lens group 101, and the position of the aperture 102 acquired in step #4. Correction data is calculated from the correction data table stored in 116. After that, it is transmitted to the camera CPU 204 through the mount unit. When the camera CPU 204 receives these data, the correction value can be expressed by the following polynomial equation (hereinafter referred to as correction equation) when the image height r=√(X1^2+Y1^2).

下記補正式は画面中心即ち光軸に関して対称な0次項(定数),2次項,および4次項(6次以上も同様、以下偶数次項とする)は、光学特性による収差を補正し、画面中心に関して符号が逆転する1次項と3次項(5次以上も同様、以下奇数次項とする)については製造誤差による個体差とレンズを構成する光学素子の倒れ(傾き)や偏芯といったレンズの姿勢が主な要因とする収差を補正し、光学特性および個体差やレンズ姿勢による収差の補正は、撮影時の焦点距離や撮影距離や絞り値を基にレンズメモリ116に記憶したテーブルを用いて補正式の係数が決定する。さらに姿勢検知部114が検知したレンズ姿勢から補正式補正部211が、記憶部207に記憶されているテーブルより係数を読みだすことで、奇数次項の係数を算出し、下記補正式に反映させることで、レンズ姿勢により合焦評価値のズレを補正するが可能となる。 In the following correction formula, the 0th-order term (constant), 2nd-order term, and 4th-order term (sixth order and above are also referred to as even-order terms) that are symmetrical with respect to the center of the screen, that is, the optical axis, correct aberrations due to optical characteristics, and are symmetrical with respect to the center of the screen. Regarding the first-order terms and third-order terms (same as fifth-order terms and above, hereinafter referred to as odd-numbered terms) whose signs are reversed, the main factors are individual differences due to manufacturing errors and lens posture such as tilting (tilting) and eccentricity of the optical elements that make up the lens. Aberrations caused by optical characteristics, individual differences, and lens posture are corrected using a correction formula using a table stored in the lens memory 116 based on the focal length, shooting distance, and aperture value at the time of shooting. The coefficient is determined. Furthermore, the correction formula correction unit 211 reads out coefficients from the table stored in the storage unit 207 based on the lens attitude detected by the attitude detection unit 114, calculates coefficients of odd-numbered terms, and reflects the coefficients in the correction equation below. This makes it possible to correct deviations in the focus evaluation value depending on the lens posture.

説明を補足すると、レンズ姿勢や倒れ(傾き)や偏芯といった影響は軸対称ではなく重力に依存した方向性がある。従って、奇数次項が支配的になる。本実施例の補正式は、補正値の精度と計算量のバランスからrの4乗までとなっているが、rの乗数を増やしても問題ないことは言うまでもない。また、奇数次項におけるrの符号は、重力方向(図1及び図2の下方向)を正、反対方向(図1及び図2の上方向)を負とする。尚、逆でも構わない。 To add to the explanation, effects such as lens posture, inclination (tilt), and eccentricity are not axially symmetrical, but have directionality that depends on gravity. Therefore, odd-order terms become dominant. Although the correction formula of this embodiment is set to the fourth power of r in view of the balance between the accuracy of the correction value and the amount of calculation, it goes without saying that there is no problem even if the multiplier of r is increased. Further, the sign of r in the odd-numbered terms is positive in the direction of gravity (downward in FIGS. 1 and 2) and negative in the opposite direction (upward in FIGS. 1 and 2). However, the reverse is also possible.

補正式=C0+C1r+C2r^2+C3r^3+C4r^4
(C0,C1,C2,C3,C4は係数)
Correction formula = C0+C1r+C2r^2+C3r^3+C4r^4
(C0, C1, C2, C3, C4 are coefficients)

以上の説明したように、ステップ#5では上記補正式を用いて焦点検出結果をレンズCPU115が補正演算した後、演算結果をカメラCPU204へ送信する。ステップ#6へ進む。 As described above, in step #5, the lens CPU 115 performs a correction calculation on the focus detection result using the above correction formula, and then transmits the calculation result to the camera CPU 204. Proceed to step #6.

ステップ#7は、カメラCPU204が、フォーカス駆動部113を介して、補正後の焦点検出結果である焦点検出位置へフォーカスレンズ103を駆動する。 In step #7, the camera CPU 204 drives the focus lens 103 via the focus drive unit 113 to the focus detection position that is the focus detection result after correction.

ステップ#8は、カメラCPU204が、合焦判定を行う。合焦したと判定した場合、AF処理が終了し、合焦したと判定されなかった場合、ステップ#1へ戻る。 In step #8, the camera CPU 204 performs focus determination. If it is determined that the object is in focus, the AF process ends; if it is not determined that the object is in focus, the process returns to step #1.

また、以下に実施例2を説明する。ステップ#1~ステップ#4とステップ#7以降は、実施例1と同様なので、説明を省略する。 Further, Example 2 will be described below. Steps #1 to #4 and steps #7 and subsequent steps are the same as in the first embodiment, so their explanations will be omitted.

実施例1では、ステップ#5にてレンズの姿勢を加味するために、姿勢検知部114の検出した姿勢情報をもとに補正式補正部211が補正式の係数を補正し、補正後の補正式より補正値演算部210が、補正値を求め、ステップ#6にてステップ#3にて求めた合焦評価値に補正部209が、補正後の補正値を適用し、演算を行うことで合焦評価値の補正を行っていた。その結果、補正後の合焦評価値は、レンズの姿勢によるズレが考慮されたものとなっていた。 In the first embodiment, in order to take into account the attitude of the lens in step #5, the correction equation correction unit 211 corrects the coefficients of the correction equation based on the attitude information detected by the attitude detection unit 114, and the correction after correction The correction value calculation unit 210 calculates a correction value from the formula, and in step #6, the correction unit 209 applies the corrected correction value to the focus evaluation value calculated in step #3 and performs calculation. The focus evaluation value was corrected. As a result, the corrected focus evaluation value takes into account the deviation due to the posture of the lens.

一方、実施例2のステップ#5では、撮影時の焦点距離や撮影距離や絞り値を基にレンズメモリ116のテーブルから上記補正式の係数が決定するので、補正式を用いて補正値を求めるとともに、姿勢検知部114が検知したレンズの姿勢による合焦評価値への影響の補正は、記憶部207へ姿勢情報と変動量の関係をテーブルとして記憶させておき、変動量取得部212が、変動量を取得することで、姿勢検知部114が検知したレンズ姿勢から変動量を求めることが可能となる。先ほどの補正値と変動量をカメラCPU204へ送信し、ステップ#6へ進む。 On the other hand, in step #5 of the second embodiment, the coefficients of the above correction formula are determined from the table in the lens memory 116 based on the focal length, shooting distance, and aperture value at the time of shooting, so the correction value is determined using the correction formula. In addition, to correct the influence of the lens orientation detected by the orientation detection unit 114 on the focus evaluation value, the relationship between orientation information and the amount of variation is stored in the storage unit 207 as a table, and the amount of variation acquisition unit 212 By acquiring the amount of variation, it becomes possible to obtain the amount of variation from the lens attitude detected by the attitude detection unit 114. The aforementioned correction value and variation amount are sent to the camera CPU 204, and the process proceeds to step #6.

ステップ#6では、受信した補正値と変動量をもとに、補正値演算部210が補正値を演算し、演算結果を受けて補正部209が、ステップ#3にて取得した位相差AFの結果である合焦評価値に適用して補正することで実施例1と同様にレンズ姿勢による影響も補正した合焦評価値とすることが可能となる。ステップ#7以降の処理は、実施例1と同様であるので省略する。 In step #6, the correction value calculation unit 210 calculates a correction value based on the received correction value and variation amount, and upon receiving the calculation result, the correction unit 209 calculates the correction value of the phase difference AF obtained in step #3. By applying and correcting the resulting focus evaluation value, it becomes possible to obtain a focus evaluation value that also corrects the influence of the lens posture, as in the first embodiment. The processing after step #7 is the same as that in the first embodiment, and will therefore be omitted.

本実施例1と実施例2は、撮影光学系100に姿勢検知部114を配置し、撮像装置200に撮像素子201と焦点検出部208と補正部209と補正値演算部210と補正式補正部211と変動量取得部212を配置している。こうすることで、これは、レンズCPU115よりもカメラCPU204の方が処理能力が高いことが一般的であるので、補正値を求めるまでの演算をカメラCPU204にて行わせることで高速化を目的とした。レンズCPU115とカメラCPU204の処理能力や両CPU間の通信速度次第で、各部の配置を変更させても問題ない。 In the first and second embodiments, an attitude detection section 114 is arranged in the photographing optical system 100, and an image sensor 201, a focus detection section 208, a correction section 209, a correction value calculation section 210, and a correction formula correction section are arranged in the imaging device 200. 211 and a variation acquisition unit 212 are arranged. By doing this, since the camera CPU 204 generally has higher processing power than the lens CPU 115, the purpose of speeding up the calculation is to have the camera CPU 204 perform the calculations up to the point of calculating the correction value. did. There is no problem in changing the arrangement of each part depending on the processing capabilities of the lens CPU 115 and camera CPU 204 and the communication speed between the two CPUs.

撮影光学系100に姿勢検知部114と補正値演算部210と補正式補正部211と変動量取得部212とを配置し、撮像装置200に撮像素子201と焦点検出部208と補正部209とを配置することとしても問題ない。この場合、それぞれの撮影光学系100に依存する収差補正に用いるデータなどをレンズメモリ116に記憶しておくことで、結合する撮影光学系100ごとの補正データを撮像装置200が保持する必要がなくなる。 The photographic optical system 100 includes an attitude detection section 114, a correction value calculation section 210, a correction formula correction section 211, and a variation acquisition section 212. There is no problem in placing it. In this case, by storing data used for aberration correction depending on each photographing optical system 100 in the lens memory 116, the imaging device 200 does not need to hold correction data for each photographing optical system 100 to be combined. .

つまり、撮像装置200は結合した撮影光学系100に対応する補正データを保持していない場合、撮像装置200のアップデートなどでインストールする必要がある。しかし、前段落のように各部を配置することで、撮像装置のアップデートが不要となる利点がある。 That is, if the imaging device 200 does not hold the correction data corresponding to the coupled photographic optical system 100, it is necessary to install it by updating the imaging device 200 or the like. However, by arranging each part as described in the previous paragraph, there is an advantage that there is no need to update the imaging device.

一例として、実施例1と実施例2は、撮影光学系に姿勢情報と撮影条件を取得することで補正値を算出するまでの演算を撮影光学系内で完結することが可能である。その結果、演算した補正値及び変動量を撮像装置へ転送し、受信した撮像装置は合焦評価値へ適用することも可能である。 As an example, in the first and second embodiments, by acquiring posture information and photographing conditions in the photographing optical system, it is possible to complete calculations up to calculating the correction value within the photographing optical system. As a result, it is possible to transfer the calculated correction value and variation amount to the imaging device, and the imaging device that receives them can apply them to the focus evaluation value.

本実施例では、AFとして瞳分割がなされた撮像素子201を用いることで位相差AFを採用して説明したが、コントラストAFを用いても本願発明を実現することができる。 Although this embodiment has been described using phase difference AF by using the pupil-divided image sensor 201 as AF, the present invention can also be implemented using contrast AF.

100 撮影光学系
101 ズームレンズ群
102 絞り
103 フォーカスレンズ
111 ズーム駆動部
112 絞り駆動部
113 フォーカス駆動部
114 姿勢検知部
115 レンズCPU
116 レンズメモリ
200 撮像装置
201 撮像素子
202 信号処理部
203 画像処理部
204 カメラCPU
205 表示部
206 操作部
207 記憶部
208 焦点検出部
209 補正部
210 補正値演算部
211 補正式補正部
212 変動量取得部
100 Photographic optical system 101 Zoom lens group 102 Aperture 103 Focus lens 111 Zoom drive unit 112 Aperture drive unit 113 Focus drive unit 114 Posture detection unit 115 Lens CPU
116 Lens memory 200 Imaging device 201 Imaging element 202 Signal processing unit 203 Image processing unit 204 Camera CPU
205 Display section 206 Operation section 207 Storage section 208 Focus detection section 209 Correction section 210 Correction value calculation section 211 Correction formula correction section 212 Variation amount acquisition section

Claims (3)

撮影光学系と撮像装置とを含む撮像システムにおいて、
前記撮像装置は、
前記撮影光学系を通過した光を信号に変換し出力する撮像素子と、
前記撮像素子から出力された信号に基づいて、前記撮影光学系を合焦状態に制御するための合焦評価値を検出する焦点検出部と、
前記合焦評価値を補正する補正部と
を有し、
前記撮影光学系の姿勢情報を検出する姿勢検知部と、
前記合焦評価値を補正する補正値を演算する補正値演算部と、
前記補正値演算部は、前記撮影光学系と前記撮像装置の撮影条件をもとに補正式を用いて前記補正値を演算し、
前記姿勢情報をもとに、前記補正式を補正する補正式補正部と、
を前記撮影光学系と前記撮像装置のいずれかに有し、
前記補正部は、前記補正式補正部に補正された補正式を用いて前記補正値演算部の演算結果である前記補正値をもとに前記合焦評価値を補正することを特徴とする撮像システム。
In an imaging system including a photographing optical system and an imaging device,
The imaging device includes:
an image sensor that converts the light that has passed through the photographic optical system into a signal and outputs the signal;
a focus detection unit that detects a focus evaluation value for controlling the photographing optical system to a focused state based on a signal output from the image sensor;
and a correction unit that corrects the focus evaluation value,
an attitude detection unit that detects attitude information of the photographing optical system;
a correction value calculation unit that calculates a correction value for correcting the focus evaluation value;
The correction value calculation unit calculates the correction value using a correction formula based on the shooting conditions of the shooting optical system and the imaging device,
a correction formula correction unit that corrects the correction formula based on the posture information;
in either the photographing optical system or the imaging device,
The correction unit corrects the focus evaluation value based on the correction value that is a calculation result of the correction value calculation unit using the correction formula corrected by the correction formula correction unit. system.
撮像装置と結合する撮影光学系において、
前記撮影光学系の姿勢情報を検知する姿勢検知部と、
前記撮影光学系と前記撮像装置の撮影条件をもとに補正式を用いて補正値を演算する補正値演算部と、
前記姿勢情報をもとに前記補正式を補正する補正式補正部と、
を有し、
前記補正値演算部は、前記補正式補正部に補正された補正式を用いて演算し、演算結果である補正値を前記撮像装置へ送信することを特徴とする撮影光学系。
In the photographing optical system coupled to the imaging device,
an attitude detection unit that detects attitude information of the photographing optical system;
a correction value calculation unit that calculates a correction value using a correction formula based on the shooting conditions of the shooting optical system and the imaging device;
a correction formula correction unit that corrects the correction formula based on the posture information;
has
The photographing optical system is characterized in that the correction value calculation unit performs calculation using the correction formula corrected by the correction formula correction unit, and transmits the correction value that is the calculation result to the imaging device.
撮像装置と結合する撮影光学系において、
前記撮影光学系の姿勢情報を検知する姿勢検知部と、
前記撮影光学系と前記撮像装置の撮影条件をもとに補正式を用いて補正値を演算する補正値演算部と、
前記姿勢情報と合焦評価値の変動量の関係を記憶する記憶部と、
前記姿勢情報を取得し、前記姿勢情報に対応する変動量を前記記憶部より取得する変動量取得部と、
前記姿勢情報をもとに前記補正式を補正する補正式補正部と、
を有し、
前記補正値演算部は、前記補正式補正部に補正された補正式を用いて演算し、演算結果である補正値と前記変動量取得部の取得した変動量を前記撮像装置へ送信することを特徴とする撮影光学系。
In the photographing optical system coupled to the imaging device,
an attitude detection unit that detects attitude information of the photographing optical system;
a correction value calculation unit that calculates a correction value using a correction formula based on the shooting conditions of the shooting optical system and the imaging device;
a storage unit that stores the relationship between the posture information and the amount of variation in the focus evaluation value;
a fluctuation amount acquisition unit that acquires the posture information and acquires a fluctuation amount corresponding to the posture information from the storage unit;
a correction formula correction unit that corrects the correction formula based on the posture information;
has
The correction value calculation unit performs calculation using the correction formula corrected by the correction formula correction unit, and transmits the correction value that is the calculation result and the variation amount obtained by the variation amount acquisition unit to the imaging device. Features a photographic optical system.
JP2019204704A 2019-11-12 2019-11-12 Imaging system and imaging optical system with attitude detection Active JP7381065B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019204704A JP7381065B2 (en) 2019-11-12 2019-11-12 Imaging system and imaging optical system with attitude detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019204704A JP7381065B2 (en) 2019-11-12 2019-11-12 Imaging system and imaging optical system with attitude detection

Publications (3)

Publication Number Publication Date
JP2021076765A JP2021076765A (en) 2021-05-20
JP2021076765A5 JP2021076765A5 (en) 2022-09-01
JP7381065B2 true JP7381065B2 (en) 2023-11-15

Family

ID=75899002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019204704A Active JP7381065B2 (en) 2019-11-12 2019-11-12 Imaging system and imaging optical system with attitude detection

Country Status (1)

Country Link
JP (1) JP7381065B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003222781A (en) 2002-01-29 2003-08-08 Canon Inc Device for controlling lens, and camera
JP2011027774A (en) 2009-07-21 2011-02-10 Nikon Corp Lens barrel and optical equipment
JP2017122791A (en) 2016-01-06 2017-07-13 キヤノン株式会社 Optical controller, optical instrument and optical control program
JP2019184971A (en) 2018-04-17 2019-10-24 キヤノン株式会社 Imaging device and exchangeable lens

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003222781A (en) 2002-01-29 2003-08-08 Canon Inc Device for controlling lens, and camera
JP2011027774A (en) 2009-07-21 2011-02-10 Nikon Corp Lens barrel and optical equipment
JP2017122791A (en) 2016-01-06 2017-07-13 キヤノン株式会社 Optical controller, optical instrument and optical control program
JP2019184971A (en) 2018-04-17 2019-10-24 キヤノン株式会社 Imaging device and exchangeable lens

Also Published As

Publication number Publication date
JP2021076765A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
KR101280248B1 (en) Camera and camera system
JP5458475B2 (en) Focus detection apparatus and imaging apparatus
JP5169499B2 (en) Imaging device and imaging apparatus
JP5066851B2 (en) Imaging device
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
JP5966426B2 (en) Focus detection device
JP6843604B2 (en) Information processing device and information processing method
JPWO2013047111A1 (en) Imaging apparatus and focusing parameter value calculation method
CN103837959A (en) Focus detection apparatus, focus detection method, and image capturing apparatus
JP2013037296A (en) Image pickup apparatus and image pickup device
JP5781021B2 (en) LENS DEVICE AND IMAGING DEVICE
JP5348258B2 (en) Imaging device
JP6529387B2 (en) Imaging device, control method therefor, program, storage medium
JP2013097154A (en) Distance measurement device, imaging apparatus, and distance measurement method
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP2010263255A (en) Interchangeable lens camera having chromatic aberration correction function
JP7381065B2 (en) Imaging system and imaging optical system with attitude detection
JP2018021971A (en) Focus detection method, and imaging apparatus
JP2010091848A (en) Focus detecting apparatus and imaging apparatus
JP2009251523A (en) Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus
JP6576114B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
CN114518641A (en) Image pickup apparatus, lens apparatus, control method thereof, and storage medium
JP5885421B2 (en) Imaging device
US10623671B2 (en) Image-capturing apparatus and control method therefor
JP2019091067A (en) Lens assembly and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231026

R150 Certificate of patent or registration of utility model

Ref document number: 7381065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150