JP2021015162A - Image processing device and control method therefor - Google Patents
Image processing device and control method therefor Download PDFInfo
- Publication number
- JP2021015162A JP2021015162A JP2019128723A JP2019128723A JP2021015162A JP 2021015162 A JP2021015162 A JP 2021015162A JP 2019128723 A JP2019128723 A JP 2019128723A JP 2019128723 A JP2019128723 A JP 2019128723A JP 2021015162 A JP2021015162 A JP 2021015162A
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- subject
- image
- result
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、ピントを合わせる被写体への被写体追尾処理と焦点検出処理とに関する。 The present invention relates to a subject tracking process and a focus detection process for a subject to be focused.
従来、固体撮像素子を搭載したカメラにおいて、連続して撮像される画像から任意の被写体像を抽出し、連続するコマ間で被写体を追尾し続ける機能が実用化されている。連続撮影中の各画像における被写体像の位置検出によって、適切な自動焦点調節と自動露出演算が可能となる。被写体追尾法としては、画像内における被写体像の領域をテンプレートとしてテンプレートマッチングを行って被写体を探索する方法が知られている。 Conventionally, in a camera equipped with a solid-state image sensor, a function of extracting an arbitrary subject image from continuously captured images and continuously tracking the subject between continuous frames has been put into practical use. By detecting the position of the subject image in each image during continuous shooting, appropriate automatic focus adjustment and automatic exposure calculation become possible. As a subject tracking method, a method of searching for a subject by performing template matching using the area of the subject image in the image as a template is known.
特許文献1では被写体追尾処理と焦点検出処理を異なるセンサを用いて処理し、かつ被写体追尾結果を焦点検出結果に反映させることで精度の高い被写体追尾処理と焦点検出処理が可能となる方法が開示されている。 Patent Document 1 discloses a method that enables highly accurate subject tracking processing and focus detection processing by processing the subject tracking process and the focus detection process using different sensors and reflecting the subject tracking result in the focus detection result. Has been done.
しかしながら、特許文献1では被写体追尾処理と焦点検出処理が同期して動作することが前提になっており、ここが非同期で動作周期に時間的な差がある場合が考慮されていない。動いている被写体を撮影した際に、非同期動作で各処理に時間差がある場合、それぞれの処理における被写体の位置は異なる可能性があるがこの問題について解決できていなかった。 However, Patent Document 1 presupposes that the subject tracking process and the focus detection process operate in synchronization, and does not consider the case where the subject tracking process and the focus detection process are asynchronous and have a time difference in the operation cycle. When shooting a moving subject, if there is a time difference in each process due to asynchronous operation, the position of the subject in each process may be different, but this problem has not been solved.
そこで、本発明は、移動する被写体に対してより精度よくピントを合わせることができる画像処理装置及びその制御方法を提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing device capable of focusing on a moving subject with higher accuracy and a control method thereof.
本発明は、焦点検出領域に対応して焦点検出を行う焦点検出手段と、被写体の色情報を含む測光画像データを検出する測光手段と、フォーカスレンズを有する画像処理装置であって、前記焦点検の結果を取得して焦点調節に用いる前記焦点検出領域の選択および前記焦点検出領域での焦点ずれ量の演算を行う第1演算手段と、前記測光手段が検出した前記測光画像データを取得して被写体の追尾用領域を決定して追尾処理の演算を行う第2演算手段と、前記第1演算手段の演算結果を取得して前記フォーカスレンズの駆動を制御する制御手段を備え、前記第1演算を実行する第1のタイミングと、前記第2演算を実行する第2のタイミングとが異なっており、前記第1演算の焦点検出手段で焦点検出領域を選択する際に、時系列的に前後する前記第2演算の結果に基づいて、被写体の位置を判断し、その位置情報を利用するよう構成したことを特徴とする。 The present invention is an image processing device including a focus detection means that performs focus detection corresponding to a focus detection region, a photometric image data that includes color information of a subject, and a focus lens. The first calculation means for selecting the focus detection region to be used for focus adjustment and calculating the amount of defocus in the focus detection region, and the photometric image data detected by the photometric means are acquired. The first calculation means is provided with a second calculation means for determining a tracking area of a subject and performing a calculation of tracking processing, and a control means for acquiring a calculation result of the first calculation means and controlling driving of the focus lens. The first timing for executing the second calculation is different from the second timing for executing the second calculation, and when the focus detection region of the first calculation selects the focus detection area, it moves back and forth in chronological order. It is characterized in that the position of the subject is determined based on the result of the second calculation and the position information is used.
本発明によれば、移動する被写体に対してより精度よくピントを合わせることができる。 According to the present invention, it is possible to focus on a moving subject with higher accuracy.
[実施形態1]
以下、添付図面を参照して、本発明の実施形態に係る撮像装置について説明する。
[Embodiment 1]
Hereinafter, the imaging apparatus according to the embodiment of the present invention will be described with reference to the accompanying drawings.
[撮像装置の構成]
図2を参照して本実施形態に係るカメラの構成を説明する。当該カメラは画像処理装置や撮像装置の一例である。図2の構成例に示す撮像装置において、カメラ本体部201の前面には撮影レンズ202が装着される。撮影レンズ202は交換可能であり、カメラ本体部201と撮影レンズ202は、マウント接点群215を介して電気的に接続されている。撮影レンズ202は、内部にフォーカスレンズ213と絞りシャッタ214を備えており、マウント接点群215を介した制御により、カメラ内に取り込む光量とピントを調整する。カメラ本体部201内に配置された可動のメインミラー203はハーフミラーであり、ファインダ観測状態で撮影光路上に斜設され、撮影レンズ202からの撮影光束をファインダ光学系へと反射する。一方、メインミラー203の透過光は可動のサブミラー204を介してAF(オートフォーカス)装置205に入射する。AF装置205は焦点検出センサを備え、撮影レンズ202の二次結像面を焦点検出ラインセンサ上に形成することで、位相差検出方式により撮影レンズ202の焦点調節状態を検出する。ピント板206はファインダ光学系を構成し、撮影レンズ202の予定結像面に配置されている。ペンタプリズム207はファインダ光路を変更し、アイピース209からユーザがピント板206を観察することで撮影画面を確認できる。
[Configuration of imaging device]
The configuration of the camera according to the present embodiment will be described with reference to FIG. The camera is an example of an image processing device and an imaging device. In the image pickup apparatus shown in the configuration example of FIG. 2, a photographing
なお本実施例においては後述するメインセンサ211での焦点検出処理をメインのAF処理とし、以降AF装置205でのAF処理については説明を省略し、単純にAFと記載した場合にはメインセンサでのAF処理を指すものとする。
In this embodiment, the focus detection process by the
AE(自動露出)装置208は測光センサを備え、これに照射される光信号から測光画像データを生成する。測光画像データは輝度データと色差データを有する。AE装置208は、測光画像データを用いて被写体の明るさを検出し、露出演算および被写体追尾処理を行う。サブミラー204の背後にはフォーカルプレーンシャッタ210が配置され、さらにメインセンサ211が位置する。メインミラー203およびサブミラー204が撮影光束上から退避し、フォーカルプレーンシャッタ210が開くことにより、メインセンサ211が露光される。カメラ本体部201の背面には表示手段としてディスプレイユニット212が設けられており、ユーザが撮影情報や撮影画像を確認できる。
The AE (automatic exposure)
次に、本実施形態の撮像装置の機能について、図2の模式図および図3の構成図を用いて説明する。なお、図3は本発明に関連する構成要素のみを示す。 Next, the function of the image pickup apparatus of this embodiment will be described with reference to the schematic diagram of FIG. 2 and the configuration diagram of FIG. Note that FIG. 3 shows only the components related to the present invention.
操作部301はユーザが操作する操作部材を備えており、カメラ本体部201に取り付けられたボタン、スイッチ、ダイヤル、接続機器等を介してユーザが行った操作を検知し、操作指示に応じた信号をシステム制御部306へ送る。操作部301は、ユーザがレリーズボタンを半押し操作した場合に発する指示信号(以下、SW1信号という)と、レリーズボタンを深く押し込む全押し操作を行った場合に発する指示信号(以下、SW2信号という)をシステム制御部306に出力する。ここで、ユーザがレリーズボタンの半押し操作を維持した状態を「SW1保持状態」と呼び、レリーズボタンの全押し操作を維持した状態を「SW2保持状態」と呼ぶこととする。また、操作部301は、ユーザがSW1保持状態にてレリーズボタンを離した瞬間にSW1解除信号をシステム制御部306に出力し、SW2保持状態にてユーザがレリーズボタンを離した瞬間にSW2解除信号をシステム制御部306に出力する。
The
自動露出演算および被写体追尾を行うAE装置208は、AE制御部302および測光センサ303を備える。測光センサ303は、被写体の色情報を含む測光画像データを検出する。AE制御部302は、測光センサ303が検出した測光画像データを取得して被写体の追尾用領域を決定して追尾処理の演算を行う。AE制御部302は、撮像画面に対応する測光画像データに対して追尾用領域内の画像との相関演算により追尾対象位置を設定する。連写撮影の場合、連続して取得される撮像信号に対応する測光画像データに対して、追尾用領域内の画像との相関演算が行われる。また、AE制御部302は、測光センサ303の測光画像データに基づいて自動露出演算を行い、演算結果をシステム制御部306に出力する。システム制御部306はAE制御部302からの自動露出演算結果に基づいて、絞りシャッタ214の絞りを制御し、カメラ本体部201内の入射光量を調節する。さらに、自動露出演算結果に基づいて、レリーズ操作時にフォーカルプレーンシャッタ210の制御が行われ、撮像素子211の露光時間が調節される。また、SW1保持状態および連写撮影中において、AE制御部302は測光センサ303から取得した測光画像データを用いて被写体追尾処理を行い、追尾対象となる被写体の位置データをシステム制御部306に出力する。システム制御部306はAE制御部302から出力された追尾対象の位置データをAF処理に用いる。詳細は後述する。
The
システム制御部306は、操作部301の出力信号に基づいてメインミラー203、サブミラー204、およびフォーカルプレーンシャッタ210を制御する。システム制御部306は、操作部301の出力信号がSW2信号である場合、メインミラー203およびサブミラー204のアップ動作制御を行って撮影光路上から退避させ、フォーカルプレーンシャッタ210を制御してメインセンサ211へ光を照射させる。そして、シャッタ制御が終了すると、システム制御部306はメインミラー203およびサブミラー204のダウン動作制御を行う。
The
つまり、メインミラー203が退避された際には、メインセンサ211で行うAF制御が可能となり、一方メインミラー203が再度挿入されるとAE制御部203の処理が可能となることから、これらの処理は排他で処理されることとなる。
That is, when the
メインセンサ211は撮影レンズ202を通して入射する被写体からの光を電気信号に変換して画像データを生成し、システム制御部306へ出力する。システム制御部306はメインセンサ211から取得した画像データに従ってディスプレイユニット212の画面上に画像を表示させるとともに、画像記憶装置304へ画像データを書き込む制御を行う。
The
AF制御部305はメインセンサ211の出力画像から行うAF処理を行う。具体的な処理について図4を用いて説明する。本実施例ではメインセンサ211から出力される画像は視差のある2枚の画像(以下A像、B像という)であるものとし、その2画像の像ずれ量を求める位相差式の焦点検出を行う。視差のある2枚の画像出力について、図4(a)を用いて説明する。
The
メインセンサ211の各画素は2つのフォトダイオードPDを保持している。フォーカスレンズ213を通過した光束をマイクロレンズMLで分離し、この2つのフォトダイオードPDで結像することで、撮像用と焦点検出用の2つの信号が取り出せるようになっている。2つのフォトダイオードPDの信号を加算した信号A+Bが撮像信号であり、個々のフォトダイオードの信号A、信号Bが焦点検出用の2つの像信号(焦点検出信号)になっている。各画素からこの信号Aと信号Bを読み出して、A像、B像として出力している。
Each pixel of the
次に本実施例の焦点検出方法について図4(b)、(c)を用いて説明する。 Next, the focus detection method of this embodiment will be described with reference to FIGS. 4 (b) and 4 (c).
図4(b)は、入力されたA像、B像の説明図であり、縦軸は像信号のレベル(値)、横軸は画素位置をそれぞれ示している。一対の位相差検出用信号の像ずれ量を算出するため、相関演算を行う。相関演算では、A像信号およびB像信号の画素をシフトさせながら相関量が演算される。図4(c)は、像信号の画素をシフトさせていった時の相関量(以下、相関量波形という)を示す図である。図4(c)において、横軸は画素のシフト量、縦軸はその時のA像信号とB像信号の相関量それぞれ示している。相関量が最大になる位置同士の差が像ずれ量として算出される。相関量を算出する際、二つの像信号を重ねて、それぞれ対応する信号同士を比較し、小さい方の値の累積を取得する。なお、大きい方の値の累積を取得しても良い。また、これらの値の差分を取得しても良い。累積は、相関を指し示す指標となり、小さい方の値の累積を取得した場合には、この値が最も大きいときが相関の高い時である。なお、大きい方の値の累積を取得した場合、または差分を取得した場合、この値が最も小さい時が相関の高い時となる。 FIG. 4B is an explanatory diagram of the input A image and B image. The vertical axis shows the level (value) of the image signal, and the horizontal axis shows the pixel position. Correlation calculation is performed to calculate the amount of image shift of the pair of phase difference detection signals. In the correlation calculation, the correlation amount is calculated while shifting the pixels of the A image signal and the B image signal. FIG. 4C is a diagram showing a correlation amount (hereinafter, referred to as a correlation amount waveform) when the pixels of the image signal are shifted. In FIG. 4C, the horizontal axis represents the pixel shift amount, and the vertical axis represents the correlation amount between the A image signal and the B image signal at that time. The difference between the positions where the amount of correlation is maximized is calculated as the amount of image shift. When calculating the amount of correlation, two image signals are superposed, the corresponding signals are compared with each other, and the accumulation of the smaller value is obtained. It should be noted that the cumulative value of the larger value may be acquired. Further, the difference between these values may be acquired. The accumulation is an index indicating the correlation, and when the accumulation of the smaller value is acquired, the time when this value is the largest is the time when the correlation is high. When the cumulative value of the larger value is acquired or the difference is acquired, the time when this value is the smallest is the time when the correlation is high.
このように算出された像ずれ量は、ズームレンズ位置、絞り値、撮像面の像高等を考慮した変換係数を掛けることでデフォーカス量へと変換される。デフォーカス量は更にフォーカスレンズの駆動量へと変換される。なお、ここで像ずれ量及びこれに対応するデフォーカス量を、焦点検出結果とも称する。 The image shift amount calculated in this way is converted into a defocus amount by multiplying the conversion coefficient in consideration of the zoom lens position, the aperture value, the image height of the imaging surface, and the like. The defocus amount is further converted into the drive amount of the focus lens. Here, the image shift amount and the corresponding defocus amount are also referred to as focus detection results.
[本実施形態が想定している課題]
ここでAE装置208による被写体追尾処理とメインセンサ211からの出力によるAF処理の動作シーケンスについて図5を用いて説明する。
[Issues assumed by this embodiment]
Here, the operation sequence of the subject tracking process by the
ある移動している被写体を撮影しているものとし、レリーズボタンが半押しされ、SW1保持状態となったとする(図6タイミングt1)。その際の測光センサ303による画像の蓄積と読み出しが行われるが、その画像が画像501(フレームA1)であったとする。読み出された画像から被写体追尾処理が行われる。さらに直後にレリーズボタンが全押しされ、SW2保持状態となったものとする(図6タイミングt2)。その際、メインセンサ211での蓄積と読み出しが行なれ、その時の画像が画像521(フレームB1)であったとする。この時、メインセンサ211は測光センサ303より画素数が多いため、読み出しに時間がかかる。そこで読み出された画像部分から順次AF処理を行うことで処理時間の短縮を図る。その間、メインセンサ211での画像の蓄積が完了していればミラーダウン可能なので再度測光センサ303による画像の蓄積、読み出しを行う。(図6タイミングt3)その時の画像が画像502(フレームA2)であったものとする。その後の動作は記載しないがもしSW2保持状態が続いている場合は再度ミラーアップしてメインセンサ211での画像読み出し処理を行う。
It is assumed that a moving subject is being photographed, the release button is pressed halfway, and the SW1 holding state is set (timing t1 in FIG. 6). At that time, the
この時撮影された前述の3枚の画像における被写体追尾処理とAF処理との関係性について図6を用いて説明する。 The relationship between the subject tracking process and the AF process in the above-mentioned three images taken at this time will be described with reference to FIG.
まず画像501と画像502は測光センサ303によって読み出されたものであるため、被写体追尾処理のみが実行される。画像501の被写体追尾結果の位置を示すものが破線枠511である。同様に画像502の被写体追尾結果の位置は破線512である。
First, since the
画像521はメインセンサ211から読み出された画像であり、AF処理を行う。なお本実施例において、図6のAF枠531に示すように画像全体で分割した領域がAF枠である。AF処理において、AF枠毎に位相差焦点検出処理を行うものとする。なお、AF枠を焦点検出領域とも称する。
The
この時、画像521の直前の被写体追尾結果となる画像501での被写体追尾結果位置に相当するAF枠は斜線枠541となる。しかし被写体は移動しているため、その1つとなりの枠に移動してしまっている。
At this time, the AF frame corresponding to the subject tracking result position in the
このように被写体追尾処理とAF処理とで処理する画像に時間差があるため、移動する被写体を撮影した際に、単純に被写体追尾結果をAF処理に適用すると正しい結果が得られない場合があった。 Since there is a time lag between the images processed by the subject tracking process and the AF process in this way, when shooting a moving subject, if the subject tracking result is simply applied to the AF process, the correct result may not be obtained. ..
そこで本実施例においては、AF処理を行う前後の被写体追尾結果の位置から補間して被写***置を推測することで適切な枠位置を判断する。 Therefore, in this embodiment, an appropriate frame position is determined by estimating the subject position by interpolating from the position of the subject tracking result before and after performing the AF process.
[撮像装置の動作]
次に、図1を用いてユーザのSW1操作とSW2操作があった場合のカメラ全体の制御シーケンスについて記載する。
[Operation of imaging device]
Next, with reference to FIG. 1, the control sequence of the entire camera when the user operates SW1 and SW2 will be described.
S101において、ユーザからのSW1操作があるか判定する。SW1操作があった場合はS102に進む。S102ではメインミラー203とサブミラー204をダウン動作して、AE制御部203の処理を可能な状態とする。S103ではAE制御部203において測光センサ303の蓄積および画像の読み出しを行う。S104では読み出された画像から被写体追尾処理を行う。S105ではSW2操作があるか判断する。SW2操作がない場合はS101に戻り、SW1操作が継続しているか判断する。S105でSW1操作からSW2に切り替わった場合、S106でメインミラー203とサブミラー204をアップ動作して、メインセンサ211での処理を可能な状態とする。S107ではメインセンサ211での蓄積および画像の読み出しを行う。S108では読み出されたA像とB像を用いてAF制御部305によって位相差焦点検出処理を行う。このとき、前述したようにメインセンサ211は多画素であり、読み出しに時間がかかる。その間にもう一度AE制御部の処理を実行する。S109〜S111はS102〜S104と同様のため説明は省略する。S112ではS104とS111で行った被写体追尾処理の結果を用いて、S108のAF処理におけるどの枠位置の結果を用いるかを判定する。このAF枠位置選択の詳細は後述する。そしてS105に戻ってSW2操作が継続されている、いわゆる連写操作が行われているかを判定する。
In S101, it is determined whether there is a SW1 operation from the user. If there is a SW1 operation, the process proceeds to S102. In S102, the
ここでS108のAF処理時の枠位置選択について図6を用いて説明する。前述の通り図6における3枚の画像は時系列としては測光センサ303による画像501、メインセンサ211による画像521、測光センサ303による画像502の順となる。
Here, the frame position selection at the time of AF processing of S108 will be described with reference to FIG. As described above, the three images in FIG. 6 are in the order of
また前述の通り、画像501の追尾結果511をそのまま画像521のAF枠に適用しようとすると被写体が移動しており、正しい位置にならない。同様に画像502の追尾処理結果512も被写体がさらに外に移動しているためそのまま利用しても正しい位置とはならない。
Further, as described above, if the
つまり、この2つの画像の間に撮影されたメインセンサ画像上の被写***置をより精度よく求めるにはこの2つの結果から位置を補間する必要がある。補間の方法はいずれの方法でもよく、本実施例においては追尾検出結果の2点間の中心位置とする。図6において追尾結果511と512の中間位置を破線551で示す。このように破線551上にある枠位置を選択することで画像521における被写体が存在する枠位置を選択することが可能となる。
That is, in order to obtain the subject position on the main sensor image captured between these two images with higher accuracy, it is necessary to interpolate the position from these two results. Any method may be used for interpolation, and in this embodiment, the center position between the two points of the tracking detection result is used. In FIG. 6, the intermediate position between the tracking
[本実施例による効果]
以上のように、本実施形態では移動する被写体であっても精度よく追従して焦点検出処理を行い焦点検出の追従性能を向上させることができる。
[Effect of this example]
As described above, in the present embodiment, even a moving subject can be accurately followed and the focus detection process can be performed to improve the tracking performance of the focus detection.
[実施形態2]
次に、本発明の実施例2における枠位置補正処理について説明する。
[Embodiment 2]
Next, the frame position correction process according to the second embodiment of the present invention will be described.
実施例1では2つの被写体追尾結果を用いて補間したが、本実施例ではこの2つの被写体追尾結果の差に対して閾値を設け、閾値以上となった場合には枠位置補間を行わない。 In the first embodiment, the interpolation was performed using the two subject tracking results, but in the present embodiment, a threshold value is set for the difference between the two subject tracking results, and when the threshold value is exceeded, the frame position interpolation is not performed.
図7を用いて本実施例の枠位置補間処理とその結果に応じたAF処理について説明する。前述の図5の各タイミングt1、t2、t3において撮影された画像が図7の画像701、画像721、画像702であったとする。
The frame position interpolation processing of this embodiment and the AF processing according to the result will be described with reference to FIG. 7. It is assumed that the images taken at the respective timings t1, t2, and t3 of FIG. 5 described above are the
この時、画像701と画像702の被写体追尾結果を示すものが破線枠711と破線枠712であり、2点間の距離を幅751で示している。このとき幅751が閾値以上かを判定する。本実施例においては閾値をAF枠3枠分の距離とする。図7において幅751はAF枠3枠以上の距離があるため、閾値以上となり枠位置補間不能と判断する。
At this time, the dashed
このとき、AF処理としては枠位置補間ができなかったので、どのAF枠位置結果を用いればいいか特定できていないため、前後の被写体追尾処理結果との間にあるAF枠(図7の斜線領域741)すべてを評価して、最も評価が高いものを選択する。本実施例においてAF処理の評価値としては前述の相関量を用いるものとする。評価値としてはこれに限ったものでなく、被写体のコントラスト値を評価値に含めて総合的に判断してもよい。 At this time, since the frame position interpolation could not be performed as the AF processing, it was not possible to specify which AF frame position result should be used. Therefore, the AF frame between the front and rear subject tracking processing results (diagonal line in FIG. 7). Region 741) Evaluate all and select the one with the highest rating. In this example, the above-mentioned correlation amount is used as the evaluation value of the AF process. The evaluation value is not limited to this, and the contrast value of the subject may be included in the evaluation value for comprehensive judgment.
[本実施例による効果]
以上のように、本実施形態では移動速度の速い被写体であった場合は、移動経路上で最も評価値の高いものを選択することで、誤測距を抑制し焦点検出の追従性能を向上させることができる。
[Effect of this example]
As described above, in the case of a subject having a high moving speed in the present embodiment, by selecting the subject having the highest evaluation value on the moving path, erroneous distance measurement is suppressed and the tracking performance of focus detection is improved. be able to.
[その他の構成]
以上のように本実施例のAF処理における枠選択において、被写体追従結果をもとに枠位置を決定したが、さらにその後でAFとしての評価値でさらにそのAF枠が適切か判断してもよい。AFとしての評価値が低い場合には周辺のAF枠の評価値も参照してもっとも評価値の高かったAF枠の結果を最終的に選択する。なお、前述の実施例でフローチャートを用いて説明した動作は、同様の目的を達成することができるように、適宜実行されるステップの順序を変更することが可能である。
[Other configurations]
As described above, in the frame selection in the AF processing of this embodiment, the frame position is determined based on the subject tracking result, but after that, it may be further determined whether the AF frame is appropriate based on the evaluation value as AF. .. When the evaluation value as AF is low, the result of the AF frame having the highest evaluation value is finally selected by referring to the evaluation values of the surrounding AF frames. In addition, in the operation described by using the flowchart in the above-described embodiment, the order of the steps to be executed can be changed as appropriate so that the same purpose can be achieved.
また、本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワークあるいは記憶媒体を介してシステム又は装置に供給し、そのシステムあるいは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、ここでは本発明の好ましい実施形態について説明した。なお、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 The preferred embodiment of the present invention has been described above. The present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.
213 フォーカスレンズ
302 AE制御部
305 AF制御部
306 システム制御部
213
Claims (4)
前記焦点検の結果を取得して焦点調節に用いる前記焦点検出領域の選択および前記焦点検出領域での焦点ずれ量の演算を行う第1演算手段と、
前記測光手段が検出した前記測光画像データを取得して被写体の追尾用領域を決定して追尾処理の演算を行う第2演算手段と、
前記第1演算手段の演算結果を取得して前記フォーカスレンズの駆動を制御する制御手段を備え、
前記第1演算を実行する第1のタイミングと、前記第2演算を実行する第2のタイミングとが異なっており、前記第1演算の焦点検出手段で焦点検出領域を選択する際に、時系列的に前後する前記第2演算の結果に基づいて、被写体の位置を判断し、その位置情報を利用することを特徴とする画像処理装置。 An image processing device having a focus detection means for performing focus detection corresponding to a focus detection region, a photometric means for detecting photometric image data including color information of a subject, and a focus lens.
A first calculation means for acquiring the result of the focus inspection, selecting the focus detection region to be used for focus adjustment, and calculating the amount of defocus in the focus detection region.
A second calculation means that acquires the photometric image data detected by the photometric means, determines a tracking area for the subject, and performs a tracking process calculation.
A control means for acquiring the calculation result of the first calculation means and controlling the driving of the focus lens is provided.
The first timing for executing the first operation and the second timing for executing the second operation are different, and when the focus detection means of the first operation selects the focus detection region, the time series An image processing apparatus characterized in that the position of a subject is determined based on the result of the second calculation before and after the target, and the position information is used.
前記第1演算の焦点検出手段で焦点検出領域を選択する際に、前記補間手段による補間の結果を用いて焦点検出領域を決定することを特徴とする請求項1に記載の画像処理装置。 It is provided with an interpolation means for interpolating the tracking processing result of the second operation that moves back and forth in time series.
The image processing apparatus according to claim 1, wherein when the focus detection region of the first calculation is selected, the focus detection region is determined by using the result of interpolation by the interpolation means.
前記第1演算手段の焦点検出手段は前記2つの追尾処理結果の間にある焦点検出領域すべてに対して焦点検出を行うことを特徴とする請求項2又は請求項3に記載の画像処理装置。 The interpolation means determines that interpolation is not possible when the difference in position of the tracking processing result of the second operation that precedes and decreases in time series is equal to or greater than the threshold value.
The image processing apparatus according to claim 2 or 3, wherein the focus detecting means of the first calculation means performs focus detection on the entire focus detection region between the two tracking processing results.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019128723A JP2021015162A (en) | 2019-07-10 | 2019-07-10 | Image processing device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019128723A JP2021015162A (en) | 2019-07-10 | 2019-07-10 | Image processing device and control method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021015162A true JP2021015162A (en) | 2021-02-12 |
Family
ID=74531448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019128723A Pending JP2021015162A (en) | 2019-07-10 | 2019-07-10 | Image processing device and control method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021015162A (en) |
-
2019
- 2019-07-10 JP JP2019128723A patent/JP2021015162A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5388544B2 (en) | Imaging apparatus and focus control method thereof | |
JP6405243B2 (en) | Focus detection apparatus and control method thereof | |
JP5653035B2 (en) | Imaging apparatus, focus detection method, and control method | |
JP5623254B2 (en) | Imaging apparatus and control method thereof | |
JP6506560B2 (en) | Focus control device and method therefor, program, storage medium | |
US9380200B2 (en) | Image pickup apparatus and control method in which object searching based on an image depends on pixel combining on the image | |
JP5925186B2 (en) | Imaging apparatus and control method thereof | |
JP2018031877A (en) | Image pickup device and focus adjusting method | |
JP6175748B2 (en) | Imaging device | |
US8724010B2 (en) | Image pickup apparatus with thinning-out section | |
JP2017126035A (en) | Imaging apparatus, control method, program, and storage medium | |
JP2000180709A (en) | Range-finding device | |
JP2013254166A (en) | Imaging device and control method of the same | |
JP2013113857A (en) | Imaging device, and control method therefor | |
JP4693709B2 (en) | Image processing apparatus and image processing method | |
JP2016142999A (en) | Imaging device and control method of the same | |
JP5418010B2 (en) | Imaging apparatus and tracking method | |
JP6611559B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6305016B2 (en) | FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE | |
JP2021015162A (en) | Image processing device and control method therefor | |
JP2018006802A (en) | Imaging apparatus, control method therefor, and program | |
JP2020127202A (en) | Imaging apparatus | |
JP5446660B2 (en) | Image recognition apparatus and imaging apparatus | |
JP2016099432A (en) | Focus detection device, and method, program and storage medium | |
JP7207874B2 (en) | CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |