JP2013130827A - レンズ制御装置 - Google Patents
レンズ制御装置 Download PDFInfo
- Publication number
- JP2013130827A JP2013130827A JP2011282056A JP2011282056A JP2013130827A JP 2013130827 A JP2013130827 A JP 2013130827A JP 2011282056 A JP2011282056 A JP 2011282056A JP 2011282056 A JP2011282056 A JP 2011282056A JP 2013130827 A JP2013130827 A JP 2013130827A
- Authority
- JP
- Japan
- Prior art keywords
- lens
- lens unit
- focus
- correction
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Focusing (AREA)
- Lens Barrels (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
【課題】ズーミング中の像ぼけの発生を低減させるレンズ制御装置を提供する。
【解決手段】変倍用の第1レンズユニット102の移動に際して、像面移動を補正するために第2レンズユニット105の駆動を制御するレンズ制御装置において、所定の合焦距離に対して作成された、第1のレンズユニットの位置に応じた第2レンズユニットの位置を示すデータを記憶した記憶手段120と、該データに基づいて、第2レンズユニットの駆動を制御するための情報を生成し、該情報に基づいて第2レンズユニットの駆動を制御する制御手段119(116)と、合焦対象物までの距離を検出する距離検出手段127と 前記情報の範囲の制限の適用有無を判定する判定手段を有し、前記判定手段は、撮影情報及びレンズ装置の動作状態に関する情報に応じて前記情報の範囲の制限の適用有無を判定する。
【選択図】図16
【解決手段】変倍用の第1レンズユニット102の移動に際して、像面移動を補正するために第2レンズユニット105の駆動を制御するレンズ制御装置において、所定の合焦距離に対して作成された、第1のレンズユニットの位置に応じた第2レンズユニットの位置を示すデータを記憶した記憶手段120と、該データに基づいて、第2レンズユニットの駆動を制御するための情報を生成し、該情報に基づいて第2レンズユニットの駆動を制御する制御手段119(116)と、合焦対象物までの距離を検出する距離検出手段127と 前記情報の範囲の制限の適用有無を判定する判定手段を有し、前記判定手段は、撮影情報及びレンズ装置の動作状態に関する情報に応じて前記情報の範囲の制限の適用有無を判定する。
【選択図】図16
Description
本発明は、ビデオカメラ等の光学機器に用いられるレンズを制御するレンズ制御装置に関する。
特許文献1には、コントラスト方式で映像信号の高周波成分から得られるAF評価値信号(鮮鋭度信号)を用いて、ズームレンズの移動(変倍)の際に、フォーカスレンズを合焦位置よりピントをずらすように強制的に移動させる構成が開示されている。また特許文献1には、フォーカスレンズを合焦方向に向かうように切換え移動させる(軌跡に対する追従速度を変化させる)制御を繰り返し行う制御方法(ジグザグ動作)が開示されている。これにより、追従軌跡が補正される。
しかしながら、AF評価値は像のぼけ状態によって変化するだけでなく、被写体の絵柄変化によっても変化するため、追従軌跡の補正範囲は広範囲に設定されている。ところが、広い補正範囲が設定されている場合、本来の追従すべき軌跡から外れてしまうと、再び正しい軌跡に戻るまでに像ぼけが発生する。
そこで特許文献2には、検出した合焦対象物までの距離に基づいてレンズユニットの移動範囲を制限するズーム制御方法が開示されている。このズーム制御方法においては、検出した合焦対象物までの距離に基づいて追従軌跡の補正範囲を設定することで、レンズユニットの移動範囲を制限する。このため、本来の追従すべき軌跡から外れた距離情報が生成されることを回避でき、ズーミング中の像ぼけの発生を低減させることが可能となる。
しかしながら、特許文献2のズーム制御方法では、撮影条件を考慮せずに全ての場合においてその移動範囲を制限している。このため、撮影条件によっては、レンズユニットの移動範囲の制限が適切でない場合がある。このように不適切な移動範囲の制限を行うと、ズーミング中に像ぼけが発生してしまう。
そこで本発明は、ズーミング中の像ぼけの発生を低減させるレンズ制御装置を提供する。
本発明の一側面としてのレンズ制御装置は、変倍用の第1レンズユニットおよび焦点調節用の第2レンズユニットの移動を制御するレンズ制御装置であって、所定の被写体距離ごとに作成された、前記第1レンズユニットの位置と前記第2レンズユニットの位置との関係を示すデータを記憶した記憶手段と、前記データに基づいて、前記第2レンズユニットの移動を制御するための情報を生成し、前記第1レンズユニットの移動に伴う該第2レンズユニットの移動を制御する制御手段と、前記被写体距離に対応する情報を検出する検出手段とを有し、前記制御手段は、前記被写体距離に対応する前記情報および撮影条件に応じて前記第2レンズユニットの移動範囲を変更する。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、ズーミング中の像ぼけの発生を低減させるレンズ制御装置を提供することができる。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
まず、本実施例における概略的事項について説明する。図9は、インナーフォーカスタイプのレンズシステムにおけるフォーカスレンズの軌跡追従方法の説明図である。図9において、Z0、Z1、Z2、…、Z6はズームレンズの位置を示し、a0、a1、a2、…、a6およびb0、b1、b2、…、b6は、不図示のマイクロコンピュータに予め記憶されている被写体距離に応じたフォーカスレンズの位置を示す。これらのフォーカスレンズ位置の集合体(a0、a1、a2、…、a6およびb0、b1、b2、…、b6)が、代表的な被写体距離ごとのフォーカスレンズが追従すべき合焦軌跡(代表軌跡)となる。
また、p0、p1、p2、…、p6は、上記2つの代表軌跡に基づいて算出された、フォーカスレンズが追従すべき合焦軌跡上の位置である。この合焦軌跡上の位置P(n+1)は、以下の式(1)で表される。
p(n+1)=|p(n)−a(n)|/|b(n)−a(n)|×|b(n+1)−a(n+1)|+a(n+1) … (1)
上記の式(1)によれば、例えば図9においてフォーカスレンズが位置p0にある場合、位置p0が線分b0−a0を内分する比を求め、 この比に従って線分b1−a1を内分する点を位置p1とする。この位置差p1−p0と、ズームレンズが位置Z0からZ1まで移動するのに要する時間とから、合焦を保つためのフォーカスレンズの移動速度が得られる。
上記の式(1)によれば、例えば図9においてフォーカスレンズが位置p0にある場合、位置p0が線分b0−a0を内分する比を求め、 この比に従って線分b1−a1を内分する点を位置p1とする。この位置差p1−p0と、ズームレンズが位置Z0からZ1まで移動するのに要する時間とから、合焦を保つためのフォーカスレンズの移動速度が得られる。
次に、ズームレンズの停止位置が、記憶された代表軌跡データを有するズームエリアの境界上のみという制限がないとした場合について説明する。図10は、ズームレンズの移動方向における内挿方法の説明図であり、図9の一部を抽出してズームレンズの位置を任意としたものである。
図10において、縦軸はフォーカスレンズの位置、横軸はズームレンズの位置を示している。ズームレンズの位置をZ0、Z1、…、Zk−1、Zk、…、Znとしたとき、フォーカスレンズ位置を被写体距離別に、a0、a1、…、ak−1、…、ak、…an、および、b0、b1、…、bk−1、bk、…、bnとする。これらの関係は、マイクロコンピュータに記憶されている。
ここで、ズームレンズがズームエリア境界上でない位置Zxにあり、フォーカスレンズが位置pxにある場合、位置ax、bxはそれぞれ以下の式(2)、(3)のように表される。
ax=ak−(Zk−Zx)×(ak−ak−1)/(Zk−Zk−1) … (2)
bx=bk−(Zk−Zx)×(bk−bk−1)/(Zk−Zk−1) … (3)
すなわち、位置ax、bxは、現在のズームレンズ位置とそれを挟む2つのズームエリア境界位置(例えば、図10におけるZkとZk−1)とから得られる内分比に従って求められる。より具体的には、位置ax、bxは、マイクロコンピュータに記憶されている4つの代表軌跡データ(図10中の位置ak、ak−1、bk、bk−1)のうち同一被写体距離のものを上述の内分比で内分することにより求められる。そして、 位置ax、px、bxから得られる内分比に従い、マイクロコンピュータに予め記憶されている上記4つの代表データのうち、同一焦点距離のものを式(1)のように上述の内分比で内分することにより、位置pk、pk−1を求めることができる。
bx=bk−(Zk−Zx)×(bk−bk−1)/(Zk−Zk−1) … (3)
すなわち、位置ax、bxは、現在のズームレンズ位置とそれを挟む2つのズームエリア境界位置(例えば、図10におけるZkとZk−1)とから得られる内分比に従って求められる。より具体的には、位置ax、bxは、マイクロコンピュータに記憶されている4つの代表軌跡データ(図10中の位置ak、ak−1、bk、bk−1)のうち同一被写体距離のものを上述の内分比で内分することにより求められる。そして、 位置ax、px、bxから得られる内分比に従い、マイクロコンピュータに予め記憶されている上記4つの代表データのうち、同一焦点距離のものを式(1)のように上述の内分比で内分することにより、位置pk、pk−1を求めることができる。
そして、ワイドからテレへのズーム時には、追従移動先のフォーカス位置pkおよび現在のフォーカス位置pxの差と、ズームレンズが位置Zxから位置Zkまで移動するのに要する時間とから、合焦を保つために必要なフォーカスレンズの移動速度が得られる。一方、テレからワイドへのズーム時には、追従移動先のフォーカス位置pk−1および現在のフォーカス位置Pxの差と、ズームレンズが位置Zxから位置Zk−1まで移動するのに要する時間とから、合焦を保つためのフォーカスレンズの移動速度が得られる。
図11は、マイクロコンピュータに予め記憶されている合焦軌跡情報のテーブルデータの一例である。図11は、ズームレンズ位置により変化する、被写体距離別のフォーカスレンズ位置データA(n、v)を示している。 変数nの列方向に被写体距離、変数vの行方向にズームレンズ位置(焦点距離)が変化している。ここでは、n=0が無限遠の被写体距離を表し、nが大きくなるに従って被写体距離は最至近距離側に変化する。n=mは1cmの被写体距離を示す。一方、v=0はワイド端を表す。さらに、vが大きくなるに従って焦点距離が増し、v=sがテレ端のズームレンズ位置を表している。従って、1列のテーブルデータで1本の代表軌跡が描かれることになる。
次に、図12を参照して、ワイドからテレ方向におけるズーミング時にフォーカスレンズが辿るべき軌跡が判別できなくなる問題を解消するための軌跡追従方法について説明する。図12(A)、(B)において、横軸は変倍レンズ(ズームレンズ)の位置を示している。また、図12(A)において、縦軸はTV−AF方式により撮像信号から得られるAF評価信号を示す。このAF評価信号は、撮像信号の高周波成分(鮮鋭度信号)のレベルを表している。また図12(B)において、横軸はフォーカスレンズの位置を示す。図12(B)において、1304は、ある距離に位置する被写体に対して合焦を得ながらズーミングを行う際にフォーカスレンズが辿るべきカム軌跡(フォーカスレンズ位置の集合体)であり、フォーカスレンズの目標軌跡を示す。
ここで、ズームレンズの位置1306(位置Z14)よりもワイド側での合焦軌跡追従のための標準移動速度を正(フォーカスレンズ至近方向に移動)とする。また、位置1306よりもテレ側でフォーカスレンズが無限遠方向に移動する際の合焦軌跡追従のための標準移動速度を負とする。合焦を維持しながらフォーカスレンズが目標軌跡1304を辿るとき、AF評価信号の大きさは、図12(A)に最大値1301として示されるレベルとなる。一般に、合焦を維持したズーミングでは、AF評価信号レベルはほぼ一定値となる。
図12(B)において、ズーミングの際に、目標軌跡1304をトレースするフォーカスレンズの標準移動速度をVf0とする。実際のフォーカスレンズの移動速度をVfとし、移動速度Vfを標準移動速度Vf0 に対して大小させながらズーミングすると、その軌跡は1305で示されるようにジグザグな軌跡となる(以下、このようなズーミング動作を「ジクザク補正動作」という)。このとき、AF評価信号レベルは、図12(A)中に1303で示されるように、山と谷を生ずるように変化する。目標軌跡1304と実際のジグサグな軌跡1305が交わる位置において、AF評価信号レベル1303は最大値1301(位置Z0、Z1、Z2、…、Z16の偶数のポイント)となる。また、実際の軌跡1305の移動方向ベクトルが切り換わる位置Z0、Z1、Z2、…、Z16の奇数のポイントにおいて、AF評価信号レベル1303は最小値1302となる。
一方、AF評価信号レベル1303の最小値1302である値TH1を予め設定する(すなわち、合焦とみなせる最小レベルTH1のAF評価信号を下限とする合焦許容範囲を設定する)。そして、AF評価信号レベル1303の大きさがTH1と等しくなる毎に、軌跡1305の移動方向ベクトルを切り換える。これにより、切り換え後のフォーカスレンズの移動方向は、目標軌跡1304に近づく方向に設定される。すなわち、AF評価信号の最大値1301と最小値1302(TH1)の差分だけ像がぼける毎に、このぼけを減らすようにフォーカスレンズの駆動条件である駆動方向および駆動速度を制御することで、ぼけ量の発生を低減したズーミングが可能となる。
このような手法を用いることにより、被写体距離別の合焦軌跡が収束から発散していくワイドからテレへのズーミングにおいて、合焦を維持する標準移動速度Vf0がそのときの被写体距離に対して最適でない場合でも、合焦軌跡の再特定が可能である。図8は、被写体距離に応じた合焦軌跡を示す概念図である。式(1)から得られる位置p(n+1)に基づき算出される標準移動速度に対して、フォーカスレンズの移動速度Vfを制御しながら、AF評価信号レベルの変化に従って軌跡1305で示されるような切り換え動作を繰り返す。これにより、AF評価信号レベルが最小値1302(TH1)より低下することなく、すなわち一定量以上のぼけを生じることなく、合焦軌跡の再特定(再生成)を行うことができる。また、TH1を適切に設定することにより、見た目には像ぼけが判別できないようなズーミングが可能である。
ここで、フォーカスレンズの移動速度Vfは、標準移動速度に対して加える正方向の補正速度をVf+、負方向の補正速度をVf−とすると、以下の式(4)または式(5)のように表される。
Vf=Vf0+Vf+ … (4)
Vf=Vf0+Vf− … (5)
補正速度Vf+、Vf−は、上記ズーミング手法による追従軌跡の選択時に片寄りが生じないように、式(4)、(5)により得られる移動速度Vfの2つの方向ベクトルの内角が、標準移動速度Vf0の方向ベクトルにより2等分されるように決定される。なお、以上のズーミング制御は、撮像素子からの撮像信号を用いて焦点検出を行うため、一般的には映像の垂直同期信号に同期して行われる。
Vf=Vf0+Vf− … (5)
補正速度Vf+、Vf−は、上記ズーミング手法による追従軌跡の選択時に片寄りが生じないように、式(4)、(5)により得られる移動速度Vfの2つの方向ベクトルの内角が、標準移動速度Vf0の方向ベクトルにより2等分されるように決定される。なお、以上のズーミング制御は、撮像素子からの撮像信号を用いて焦点検出を行うため、一般的には映像の垂直同期信号に同期して行われる。
次に、図7を参照して、本実施例におけるズーム制御について説明する。図7は、ズーム制御のフローチャートであり、マイクロコンピュータ(制御手段)の指令に基づいて実行される。ステップS701においてズーミング制御が開始すると、ステップS702において初期設定が行われる。初期設定では、マイクロコンピュータ内のRAMや各種ポートの初期化が行われる。続いてステップS703において、マイクロコンピュータは、カメラ本体の操作系の状態を検出する。マイクロコンピュータは、ここで撮影者が操作するズームスイッチユニットの情報を受け取り、撮影者にズーム処理の実行中であることを知らせるための、ズームレンズ位置などの変倍動作情報をディスプレイに表示する。
次にステップS704において、マイクロコンピュータはAF処理を行う。すなわち、AF評価信号の変化に応じて自動焦点調節処理を行う。続いてステップS705において、マイクロコンピュータはズーミング処理を行う。すなわち、変倍に際して合焦を維持するためのコンペセータ動作(補正動作)の処理を行う。具体的には、図9に示されるような軌跡をほぼトレースするために、フォーカスレンズの標準駆動方向および標準駆動速度を算出する。
続いてS706において、AF処理およびズーム処理の際に(ステップS704およびステップS705の処理ルーチンで)算出されるズームレンズおよびフォーカスレンズの駆動方向および駆動速度のうちいずれを使用するかを選択する。これらの処理ルーチンは、ズームレンズやフォーカスレンズを、それぞれがメカ端に当たらないようにソフト的に設けている制御上のテレ端およびワイド端の間または制御上の至近端および無限端の間で駆動するルーチンである。続いてステップS707において、マイクロコンピュータは、ステップS706で選択されたズームおよびフォーカス用の駆動方向情報および駆動速度情報に応じて、モータドライバに制御信号を出力し、レンズの駆動/停止を制御する。そしてステップS707の処理終了後、フローはステップS703に戻る。なお、図7に示される一連の処理は、垂直同期信号に同期して実行される(ステップS703において、次の垂直同期信号が入力されるまで待機する)。
図4乃至図6は、1垂直同期時間に1回、マイクロコンピュータで実行される制御のフローチャートであり、図7のステップS705で実行されるズーム処理に関する制御を示す。以下、図4乃至図7、および、図9を参照して、本実施例におけるズーム処理について詳述する。 図4乃至図7に示されるズーム処理は、マイクロコンピュータの指令に基づいて行われる。図4のステップS400では、ズームスイッチユニットの操作情報に応じて、自然な変倍動作が行えるようズームモータの駆動速度Zspを設定する。続いてステップS401では、現在のズームレンズおよびフォーカスレンズの位置から、撮影している被写体までの距離(被写体距離)を特定(推定)する。そして、その被写体距離情報を3つの軌跡パラメータ(目標位置情報を得るためのデータ)α、β、γとしてRAMなどのメモリ領域に記憶する。本実施例では、図5に示される処理が行われる。なお、以下の説明を簡単にするため、現在のレンズ位置にて合焦状態が維持されているものとして図5に示される処理について説明する。図5のステップS501では、現在のズームレンズ位置Zx が、図11に示したデータテーブル上で、ワイド端からテレ端までをs等分したうちの何番目のズームエリアvに存在するのかを算出する。その算出方法については、以下、図6を参照して詳述する。
まずステップS601において、ズームエリア変数vをクリアする。ステップS602において、以下の式(6)に従って、ズームエリアvの境界上のズームレンズ位置Z(v)を算出する。ズームレンズ位置Z(v)は、図9で示されるズームレンズ位置Z0、Z1、Z2、…に相当する。
Z(v)=(テレ端ズームレンズ位置−ワイド端ズームレンズ位置)×v/s+ワイド端ズームレンズ位置 … (6)
続いてステップS603において、ステップS602で求めたズームレンズ位置Z(v) が現在のズームレンズ位置Zxと等しいか否かを判定する。これらの位置が等しい場合、ズームレンズ位置Zxはズームエリアvの境界上に位置するとして、ステップS607において境界フラグに1を立てる。一方、ステップS603でこれらの位置が等しくない場合、ステップS604において、Zx<Z(v)が成立するか否かを判定する。ステップS604における不等式が成立する場合(Yes)、位置Zxは位置Z(v−1)と位置Z(v)との間にあることになり、ステップS606において境界フラグを0とする。一方、ステップS604における不等式が成立しない場合(No)、ステップS605でズームエリアvをインクリメントし、ステップS602に戻る。
続いてステップS603において、ステップS602で求めたズームレンズ位置Z(v) が現在のズームレンズ位置Zxと等しいか否かを判定する。これらの位置が等しい場合、ズームレンズ位置Zxはズームエリアvの境界上に位置するとして、ステップS607において境界フラグに1を立てる。一方、ステップS603でこれらの位置が等しくない場合、ステップS604において、Zx<Z(v)が成立するか否かを判定する。ステップS604における不等式が成立する場合(Yes)、位置Zxは位置Z(v−1)と位置Z(v)との間にあることになり、ステップS606において境界フラグを0とする。一方、ステップS604における不等式が成立しない場合(No)、ステップS605でズームエリアvをインクリメントし、ステップS602に戻る。
以上の処理を繰り返し行うことにより、図6のフローを抜けるときには、現在のズームレンズ位置Zxが図11のデータテーブル上におけるv=k番目のズームエリアに存在し、さらに位置Zxがズームエリア境界上であるか否かを知ることができる。図5のステップS501で図6に示される処理により現在のズームエリアが定まったため、続いてフォーカスレンズが図11のデータテーブル上のどこに位置するのかを算出する。
まずステップS502において、被写体距離変数nをクリアする。続いてステップS503において、現在のズームレンズ位置がズームエリアの境界上に存在しているか否かを判定する。境界フラグが0である場合、境界上にないとしてステップS505に進む。ステップS505では、ZkにZ(v)をセットし、またZk−1にZ(v−1)をセットする。次にステップS506では、4つのテーブルデータA(n、v−1)、A(n、v)、A(n+1、v−1)、A(n+1、v)を読み出す。そしてステップS507において、上記の式(2)、(3)から位置ax、bx をそれぞれ算出する。一方、ステップS503にて境界フラグが1と判定された場合、ステップS504に進む。ステップS504では、被写体距離nでのズームレンズ位置(ここではv)に対する合焦位置A(n、v)および被写体距離n+1でのズームレンズ位置に対する合焦位置A(n+1、v)を呼び出し、これらの合焦位置をそれぞれ位置ax、bxとして記憶する。
続いてステップS508において、現在のフォーカスレンズ位置pxが位置ax以上であるか否かを判定する。現在のフォーカスレンズ位置pxが位置ax以上である場合、ステップS509において現在のフォーカスレンズ位置pxが位置bx以上であるか否かを判定する。ステップS509にて現在のフォーカスレンズ位置pxが位置bx以上でない場合、フォーカスレンズ位置pxは被写体距離nとn+1の間にあることになり、このときの軌跡パラメータをステップS513、S514、S515においてメモリに格納する。ステップS513にてα=px−ax、ステップS514にてβ=bx−ax、ステップS515にてγ=nとする。
ステップS508でNoとなるのは、フォーカスレンズ位置pxが超無限遠位置である場合である。このとき、ステップS512でα=0としてステップS514およびS515に進み、無限遠の軌跡パラメータを記憶する。ステップS509でYesとなるのは、フォーカスレンズ位置pxがより至近側である場合である。このとき、ステップS510で被写体距離nをインクリメントし、ステップS511でnが最至近距離に対応した位置mより無限遠側であるか否かを判定する。最至近距離位置mより無限遠側である場合、ステップS503へ戻る。ステップS511でNoとなるのは、フォーカスレンズ位置pxが超至近位置である場合である。このとき、ステップS512、S514、および、S515へ進み、最至近距離に対する軌跡パラメータを記憶する。
前述のように、図4中のステップS401では、現在のズームレンズ位置およびフォーカスレンズ位置が図8に示されるいずれの軌跡上の位置であるかを知るための軌跡パラメータの記憶を行う。続いてS402では、1垂直同期時間(1V)後にズームレンズが到達しているズームレンズ位置(現在位置からの移動先の位置)Zx’を算出する。ここで、ステップS400で決定されたズーム速度をZsp(pps)とすると、1垂直同期時間後のズームレンズ位置Zx’は、以下の式(7)で表される。ppsは、ステッピングモータの回転速度を表す単位であり、1秒間当たりの回転するステップ量(1ステップ=1パルス)を示す。また式(7)の符号は、ズームレンズの移動方向に応じて、テレ方向は+、ワイド方向は−としている。
Zx’=Zx±Zsp/垂直同期周波数 … (7)
次に、ズームレンズ位置Zx’がいずれのズームエリアv’に存在するかをステップS403において決定する。ステップS403では、図6の処理と同様の処理を行い、図6におけるズームレンズ位置ZxをZx’に、ズームエリアvをv’に置き換えて、図6と同様の処理を行う。 続いてステップS404において、1垂直同期時間後のズームレンズ位置Zx’がズームエリアの境界上に存在しているか否かを判定する。ここで境界フラグ=0である場合には境界上ではないとして、ステップS405に進む。ステップS405では、Zk←Z(v’)、Zk−1←Z(v’−1)と設定する。次にステップS406では、図5の処理により被写体距離γが特定された4つのテーブルデータA(γ、v’−1)、A(γ、v’)、A(γ+1、v’−1)、A(γ+1、v’)を読み出す。またステップS407において、上記の式(2)、(3)から位置ax’、bx’を算出する。一方、ステップS403でYesと判定された場合、ステップS408において被写体距離γでのズームエリアv’に対する合焦位置A(γ,v’)、および、被写体距離γ+1でのズームエリアv’に対する合焦位置A(γ+1,v’)を呼び出す。そして、それぞれを位置ax’、bx’として記憶する。
次に、ズームレンズ位置Zx’がいずれのズームエリアv’に存在するかをステップS403において決定する。ステップS403では、図6の処理と同様の処理を行い、図6におけるズームレンズ位置ZxをZx’に、ズームエリアvをv’に置き換えて、図6と同様の処理を行う。 続いてステップS404において、1垂直同期時間後のズームレンズ位置Zx’がズームエリアの境界上に存在しているか否かを判定する。ここで境界フラグ=0である場合には境界上ではないとして、ステップS405に進む。ステップS405では、Zk←Z(v’)、Zk−1←Z(v’−1)と設定する。次にステップS406では、図5の処理により被写体距離γが特定された4つのテーブルデータA(γ、v’−1)、A(γ、v’)、A(γ+1、v’−1)、A(γ+1、v’)を読み出す。またステップS407において、上記の式(2)、(3)から位置ax’、bx’を算出する。一方、ステップS403でYesと判定された場合、ステップS408において被写体距離γでのズームエリアv’に対する合焦位置A(γ,v’)、および、被写体距離γ+1でのズームエリアv’に対する合焦位置A(γ+1,v’)を呼び出す。そして、それぞれを位置ax’、bx’として記憶する。
続いてS409において、ズームレンズ位置がZx’ に達したときのフォーカスレンズの合焦位置(目標位置)px’を算出する。式(1)を用いて、1垂直同期時間後の追従目標位置は、以下の式(8)のように表せる。
px’=(bx’−ax’)×α/β+ax’ … (8)
したがって、追従目標位置と現在のフォーカスレンズ位置との差ΔFは、以下の式(8a)のように表される。
したがって、追従目標位置と現在のフォーカスレンズ位置との差ΔFは、以下の式(8a)のように表される。
ΔF=(bx’−ax’)×α/β+ax’−px … (8a)
次にステップS410において、フォーカスレンズの標準移動速度Vf0を算出する。標準移動速度Vf0は、フォーカスレンズの位置差ΔFを移動するのに要するズームレンズの移動時間で除算して得られる。以下、図12(B)に示されるフォーカスレンズの移動速度補正(ジグザグ動作)を行うための補正速度の算出方法について説明する。
次にステップS410において、フォーカスレンズの標準移動速度Vf0を算出する。標準移動速度Vf0は、フォーカスレンズの位置差ΔFを移動するのに要するズームレンズの移動時間で除算して得られる。以下、図12(B)に示されるフォーカスレンズの移動速度補正(ジグザグ動作)を行うための補正速度の算出方法について説明する。
ステップS411では、各種パラメータを初期値化し、以後の処理で用いる「反転フラグ」をクリアする。ステップS412では、ステップS410で得られた標準移動速度Vf0から、ジグザグ動作用の補正速度Vf+、Vf−を算出する。ここで、補正量パラメータδおよび補正速度Vf+、Vf−は、以下のように算出される。図13は、補正量パラメータδに応じた補正速度Vf+、Vf−の算出方法の説明図である。図13において、横軸はズームレンズ位置を示し、縦軸はフォーカスレンズ位置を示している。1304は、追従すべき目標軌跡である。
ズームレンズ位置がxだけ変化するとき、フォーカスレンズ位置がy変化する(すなわち、目標位置に到達する)フォーカス速度がベクトル1403で示される標準移動速度Vf0である。ズームレンズ位置がxだけ変化するとき、フォーカスレンズ位置が変位yを基準としてn又はmだけ変化するフォーカス速度が、それぞれ、補正速度Vf+、Vf−である。図13において、1401は、変位yよりさらに至近側に駆動する速度(標準移動速度Vf0に正方向の補正速度Vf+を加算した速度)の方向ベクトルである。1402は、変位yより無限遠側に駆動する速度(標準移動速度Vf0に負方向の補正速度Vf−を加算した速度)の方向ベクトルである。方向ベクトル1401、1402が、方向ベクトル1403に対して等しい角度δだけ互いに離れた方向ベクトルとなるように、n、mの値を決定する。
m、nは、図13を参照して、以下の式(9a)、(9b)、(9c)、(10)を用いて求められる。
tanθ=y/x … (9a)
tan(θ−δ)=(y−m)/x … (9b)
tan(θ+δ)=(y+n)/x … (9c)
tan(θ±δ)=(tanθ±tanδ)/{1±(−1)×tanθ×tanδ) … (10)
そして、式(9a)、(9b)(9c)、(10)より、m、nはそれぞれ以下の式(11)、(12)のように得られる。
tan(θ−δ)=(y−m)/x … (9b)
tan(θ+δ)=(y+n)/x … (9c)
tan(θ±δ)=(tanθ±tanδ)/{1±(−1)×tanθ×tanδ) … (10)
そして、式(9a)、(9b)(9c)、(10)より、m、nはそれぞれ以下の式(11)、(12)のように得られる。
m=(x2+y2)/(x/k+y) … (11)
n=(x2+y2)/(x/k−y) … (12)
(但し、tanδ=k)
ここで補正角度δは、被写界深度の深さや、焦点距離等をパラメータとした変数としている。これにより、フォーカスレンズの駆動状態に応じて変化するAF評価信号レベルの増減周期を、所定のフォーカスレンズ位置変化量に対して一定に保つことができる。このため、ズーミング中にフォーカスレンズが追従すべき合焦軌跡を見逃す可能性を低減することが可能となる。
n=(x2+y2)/(x/k−y) … (12)
(但し、tanδ=k)
ここで補正角度δは、被写界深度の深さや、焦点距離等をパラメータとした変数としている。これにより、フォーカスレンズの駆動状態に応じて変化するAF評価信号レベルの増減周期を、所定のフォーカスレンズ位置変化量に対して一定に保つことができる。このため、ズーミング中にフォーカスレンズが追従すべき合焦軌跡を見逃す可能性を低減することが可能となる。
補正角度δの値に応じて、マイクロコンピュータのメモリ内にデータテーブルとしてkの値を記憶し、必要に応じて読み出すことにより、上記の式(11)、(12)の演算を行う。ここで、ズームレンズ位置が単位時間当たりx変化する場合、ズーム速度Zsp=x、標準速度Vf0=y、補正速度Vf+=n、Vf−=mとなる。そして式(11)、(12)により、補正速度Vf+、Vf−(負の速度)が得られる。
ステップS413では、図7のステップS703で得られたズームスイッチユニットの操作状態を示す情報に応じて、ズーミング中であるか否かを判定する。ズーミング中の場合、ステップS416に進む。一方、ズーミング中でない場合、ステップS414にてAF評価信号レベルの現在値から任意の定数μを減算した値をTH1に設定する。このTH1は、図12(A)を参照して説明したように、補正方向のベクトルの切換基準(ジグザグ動作の切換基準)となるAF評価信号レベルを決定する。このTH1は、ズーミング開始直前に決定され、値TH1が図12(A)中の最小値1302に対応する。続いてステップS415では、補正フラグをクリアし、本処理(ステップS705)を抜ける。ここで、補正フラグとは、軌跡追従状態が正方向の補正がかかった状態(補正フラグ=1)、または、負方向の補正状態(補正フラグ=0)のいずれであるかを示すフラグである。
一方、ステップS413でズーミング中と判定されると、ステップS414において、ズーミング方向がワイドからテレ方向であるか否かを判定する。テレからワイド方向である場合、ステップS419でVf+=0、Vf−=0とし、ステップS420に進む。一方、ワイドからテレ方向である場合、ステップS417で現在のAF評価信号レベルが、値TH1より小さいか否かを判定する。AF評価信号レベルが値TH1以上である場合、ステップ420へ進む。一方、AF評価信号レベルが値TH1より小さい場合、現在のAF評価信号レベルが図12(A)の値TH1(1302)のレベルを下回ったことになる。したがって、補正方向の切り換えを行うため、ステップS418で反転フラグに1をセットする。
ステップS420では、反転フラグが1か否かを判定する。反転フラグ=1である場合、ステップS421において、補正フラグが1か否かを判定する。一方、ステップS421で補正フラグ=1でない場合、ステップS424において、補正フラグ=1(正方向の補正状態)とする。そして式(4)により、フォーカスレンズの移動速度Vf=Vf0+Vf+(但し、Vf+≧0)とする。一方、ステップS421にて補正フラグ=1である場合、ステップS423において補正フラグ=0(負方向の補正状態)とする。そして式(5)により、フォーカスレンズの移動速度Vf=Vf0+Vf−(但し、Vf−≦0)とする。
また、ステップS420で反転フラグが1でない場合、ステップS422において、補正フラグ=1か否かを判定する。補正フラグ=1である場合、ステップS424に進む。一方、補正フラグ=1でない場合、ステップS423に進む。本処理(ステップS705)の終了後、図7に示されるステップS706において、動作モードに応じてフォーカスレンズおよびズームレンズの駆動方向と駆動速度が選択される。ズーミング動作の場合、ステップS423またはステップS424で求めたフォーカスレンズの移動速度Vfが正または負のいずれかであるのかに応じて、フォーカスレンズの駆動方向がそれぞれ、至近方向、無限遠方向に設定される。このように、フォーカスレンズのジグザグ駆動を行いながら、トレースすべき軌跡の再特定を行うよう動作する。
次に、本発明の実施例1におけるレンズ制御装置について説明する。図1は、本実施例のレンズ制御装置を搭載した撮像装置(光学機器)としてのビデオカメラの構成図である。本実施例のレンズ制御装置は、後述のように、変倍用の第1レンズユニットおよび焦点調節用の第2レンズユニットの移動を制御する。なお本実施例は、撮影レンズ一体型の撮像装置を対象としているが、これに限定されるものではなく、交換レンズとこれに装着されるカメラ本体とを有する撮像システムの交換レンズ(光学機器)にも適用可能である。この場合、カメラ本体側から送信された信号に応答してレンズ内のマイクロコンピュータが後述のズーミング動作を行う。また本実施例は、ビデオカメラに限定されるものではなく、デジタルスチルカメラ等の各種の撮像装置にも適用可能である。
図1において、物体側から順に、101は固定の前玉レンズユニット、102は光軸OAの方向(光軸方向)に移動して変倍を行うズームレンズユニット(第1レンズユニット)、103は絞り、104は固定レンズユニットである。105は、焦点調節機能と変倍による像面移動を補正するコンペセータ機能とを兼ね備え、光軸方向に移動するフォーカスレンズユニット(第2レンズユニット)である。前玉レンズユニット101、ズームレンズユニット102、絞り103、固定レンズユニット104、および、フォーカスレンズユニット105は、物体側から像側へ順に配置されている。これらのレンズユニットにより構成される撮影光学系は、物体側(図の左側)から順に、正、負、正、正の光学パワーを有する4つのレンズユニットで構成されたリアフォーカス光学系である。なお図1中には、各レンズユニットが1枚のレンズにより構成されているように記載されているが、実際には、1枚のレンズにより構成されていてもよいし、また、複数枚のレンズにより構成されていてもよい。
106は、CCDやCMOSセンサにより構成される撮像素子である。撮影光学系を通ってきた物体からの光束は、撮像素子106上に結像する。撮像素子106は、結像した物体像を光電変換して撮像信号を出力する。撮像信号は、増幅器107(AGC)で最適なレベルに増幅されてカメラ信号処理回路108へ入力される。カメラ信号処理回路108は、入力された撮像信号を標準テレビ信号に変換した後、増幅器110に出力する。増幅器110で最適レベルに増幅されたテレビ信号は、磁気記録再生装置111に出力され、磁気記録再生装置111において磁気テープ等の磁気記録媒体に記録される。記録媒体としては、磁気記録媒体に限定されるものではなく、半導体メモリや光ディスクなど他の種類の記録媒体を用いてもよい。
また、増幅器110で増幅されたテレビ信号は、LCD表示回路114にも送られ、LCD115に撮影画像として表示される。なお、LCD115には、撮影モードや撮影状態、警告等を撮影者に知らせる画像も表示される。このような画像は、カメラマイクロコンピュータ116(制御手段)がキャラクタジェネレータ113を制御して、ここからの出力信号をLCD表示回路114でテレビ信号にミックスすることで、撮影画像に重畳して表示される。
一方、カメラ信号処理回路108に入力された撮像信号を、同時に内部メモリを使って圧縮処理した後、カードメディア等の静止画記録媒体112に記録することもできる。また、カメラ信号処理回路108に入力された撮像信号は、焦点情報生成手段としてのAF信号処理回路109へも入力される。AF信号処理回路109で生成されたAF評価値信号(焦点信号)は、カメラマイクロコンピュータ116との通信によりデータとして読み出される。また、カメラマイクロコンピュータ116は、ズームスイッチ130およびAFスイッチ131の状態を読み込み、さらにフォトスイッチ134の状態も検出する。
フォトスイッチ134が半押しの状態では、AFによる合焦動作が開始され、合焦状態にてフォーカスロックされる。さらに、全押し(深押し)状態では、合焦非合焦に関わらずフォーカスロックして、カメラ信号処理回路108内のメモリ(不図示)に画像を取り込み、磁気テープや静止画記録媒体112に静止画記録を行う。なお、カメラマイクロコンピュータ116は、モードスイッチ133の状態に応じて動画撮影モードまたは静止画撮影モードのいずれであるかを判定し、カメラ信号処理回路108を介して磁気記録再生装置111や静止画記録媒体112を制御する。これにより、記録媒体に適したテレビ信号をこれに供給し、また、モードスイッチ133が再生モードにセットされている場合には磁気記録再生装置111や静止画記録媒体112からこれらに記録されたテレビ信号の再生制御を行う。
カメラマイクロコンピュータ116内のコンピュータズームユニット119(制御手段)は、AFスイッチ131がオフでズームスイッチ130が操作されている場合、内部のプログラムに従い、ズームモータドライバ122に対して所定の駆動信号を出力する。所定の駆動信号は、ズームレンズユニット102をズームスイッチ130の操作されている方向に対応したテレまたはワイド方向に駆動するための信号である。ズームモータドライバ122は、この駆動信号を受けて、ズームモータ121を介してズームレンズユニット102をテレまたはワイド方向に駆動する。
120は、所定の被写体距離ごとに作成された、ズームレンズユニット102の位置とフォーカスレンズユニット105の位置との関係を示すデータを記憶したカムデータメモリ(記憶手段)である。コンピュータズームユニット119は、カムデータメモリ120に予め記憶されたレンズカムデータ(図10に示されるような複数の被写体距離に応じた代表軌跡のデータや軌跡パラメータのデータ)に基づいて、フォーカスモータドライバ126を制御する。フォーカスモータドライバ126は、フォーカスモータ125を駆動し、変倍に伴う像面移動を補正するようにフォーカスレンズユニット105を移動させる。このようにコンピュータズームユニット119は、カムデータメモリ120のデータに基づいて、フォーカスレンズユニット105の移動を制御するための情報を生成し、ズームレンズユニット102の移動に伴うフォーカスレンズユニット105の移動を制御する。
また、カメラマイクロコンピュータ116内のAF制御ユニット117は、AFスイッチ131がオンで、ズームスイッチ130が操作されている場合、合焦状態を保ち続けつつ変倍動作を行う必要がある。このため、コンピュータズームユニット119は、内部プログラムにより、ズームレンズユニット102およびフォーカスレンズユニット105を駆動する。この駆動は、カムデータメモリ120に記憶されたレンズカムデータのみならず、AF信号処理回路109から送られるAF評価値信号や被写体距離検出回路127により検出された被写体距離に対応する情報(合焦対象物までの距離情報)に基づいて行われる。本実施例において、コンピュータズームユニット119は、被写体距離に対応する情報および撮影条件に応じてフォーカスレンズユニット105の移動範囲を変更する。より具体的には、コンピュータズームユニット119は、被写体距離に対応する情報に基づいてフォーカスレンズユニット105の補正範囲を決定し、撮影条件に基づいて、決定した補正範囲を適用するか否かを判定する。この判定方法については図16を参照して後述する。
なお、被写体距離検出回路127(検出回路)からの出力信号は、カメラマイクロコンピュータ116内の距離情報処理部128で演算処理される。距離情報処理部128は、一定時間の出力信号を蓄積し、距離のばらつき範囲W’の算出と、その結果に基づいた信頼性を表す情報の算出を行う。ここで、信頼性を表す情報とは、被写体までの距離算出に伴い得られる情報のことをいい、詳細は後述する。
また、ズームレンズユニット102およびフォーカスレンズユニット105と被写体距離検出回路127にはパララックスがある。このため、被写体距離検出回路127の測距枠は、撮像素子106上の常に中心とは限らない。測距枠の位置は、被写体距離と焦点距離によって変化するため、上記の情報に基づいて測距枠位置SDistを算出する。そして、被写体距離検出回路127からの出力は、被写体距離情報、信頼性を表す情報、距離ばらつき範囲、測距枠位置SDistとして、コンピュータズームユニット119に出力される。
また、装置動き検出回路127Aからの出力は、カメラマイクロコンピュータ116内の装置動き情報処理部128Aで演算処理され、動き情報としてコンピュータズームユニット119に出力される。装置動き情報処理部128Aは、角速度センサや、加速度センサ、画像処理による動きベクトル抽出による方法も用いることができる。角速度センサを用いる場合、装置動き情報処理部128Aにおいて、角速度センサから得られる角速度ωを算出する。角速度ωは、動き情報としてコンピュータズームユニット119に出力される。
また、被写体動き検出回路127Bからの出力は、カメラマイクロコンピュータ116内の被写体動き情報処理部128Bで演算処理され、被写体動き情報としてコンピュータズームユニット119に出力される。被写体動き情報処理部128Bは、画像処理による動き検出や被写体距離変化による動き検出による方法も用いることができる。
画像処理による動き検出方法の場合、撮像素子106により取得された画像情報に基づいて動きベクトルを抽出する。時間Tにおいて取得された画像Iと時間T’において取得された画像I’を比較し、変化量を求める、その変化量から動きベクトルVと算出する。例えば、カメラがパンニング動作をした場合や被写体が動いた場合、画像IとI’に変化が生じるため、動きベクトルVが増加する。よって、動きベクトルVを検出することにより、パンニング動作や、被写体動き判定に用いることが可能である。
また、AFスイッチ131がオンで、ズームスイッチ130が操作されていない場合、AF制御ユニット117は、AF信号処理回路109からのAF評価値信号が最大となるようにフォーカスモータドライバ126に信号を出力する。この信号に基づいて、フォーカスモータドライバ126は、フォーカスモータ125を駆動してフォーカスレンズユニット105を移動させる。これにより、自動焦点調節動作が行われる。
ここで、被写体距離検出回路127は、アクティブセンサを用いた三角測距方式で被写体までの距離を測定し、その測定結果である距離情報を出力する。この場合のアクティブセンサとしては、コンパクトカメラによく使用される赤外線センサを用いることができる。なお本実施例の距離検出手段は、三角測距方式で距離検出を行うように構成されているが、これに限定されるものではなく、三角測距方式以外の距離検出手段を用いることもできる。例えば、TTL位相差検出方式による距離検出を行ってもよい。この場合、撮影レンズの射出瞳を通過した光を分割する素子(ハーフプリズム又はハーフミラー)を設け、この素子から射出した光をサブミラーや結像レンズを介して少なくとも2つのラインセンサへと導く。そして、これらラインセンサの出力の相関を取り、これらの出力のずれ方向およびずれ量を検出し、これらの検出結果から被写体までの距離を求める。
図14および図15を参照して、三角測距および位相差検出方式による距離測定について説明する。図14は、三角測距方式による距離測定の説明図である。図15は、位相差検出方式による距離測定の説明図である。図14において、201は被写体、202は第1の光路用の結像レンズ、203は第1の光路用のラインセンサ、204は第2の光路用の結像レンズ、205は第2の光路用のラインセンサである。両ラインセンサ203、205は、基線長Bだけ離れて設置されている。被写体201からの光のうち、結像レンズ202によって第1の光路を通った光がラインセンサ203上に結像し、結像レンズ204によって第2の光路を通った光がラインセンサ205上に結像する。
図15は、第1の光路と第2の光路を通って結像した2つの被写体像を受けたラインセンサ203、205から読み出された信号の例を示している。2つのラインセンサ203、205は基線長Bだけ離れているため、図14からわかるように、被写体像信号は画素数Xだけずれたものとなる。そこで2つの信号の相関を、画素をずらしながら演算し、相関が最大になる画素ずらし量を求めることで画素数Xが演算可能である。画素数Xと基線長B、および結像レンズ202、204の焦点距離fより、三角測量の原理で被写体までの距離Lが、L=B×f/Xにより求められる。
また、同時に距離情報処理部128において信頼性を表す情報の算出を行う。位相差検出方式の場合、2つの信号の相関値から算出することができる。被写体までの距離Lを算出する際に、2つの信号の相関量が最大となる画素ずらし量を求める。この相関値の最大量、すなわちピーク値は、入力された2つの信号によって変化する。コントラストの低い信号などは、相間値のピークが低くなる場合があるため、同じ被写体距離結果でも、相関値のピークが高い場合と低い場合の結果が混在する。そこで、相関値を被写体距離の信頼性を表す情報として利用する。相間値のピークが高い場合、高い信頼性を持つ距離検出結果であるとする。なお、位相差検出方式の場合、信頼性が低い計測結果は利用しないこととする。
また距離検出手段として、超音波センサを用いてその伝搬速度を測定して被写体までの距離を検出する方法も採用することができる。この場合、信頼性を表す情報として、反射率や減衰率などを利用する。被写体表面の性質によっては、超音波の反射率が下がり、計測が困難になる。このため、反射率を求めることにより、検出結果の信頼性を把握することが可能となる。また、超音波信号の被写体距離に伴う減衰率も同様である。
被写体距離検出回路127からの距離情報は、距離情報処理部128に送られる。距離情報処理部128では、以下の3つの処理を行う。第一に、現在のズームレンズユニット102およびフォーカスレンズユニット105の位置が、図8上のどの距離のカム軌跡上の位置に対応するかを算出する。カム軌跡の算出は、例えば、図4のステップS401で説明したように、現在のレンズユニット位置を基に、図11の列方向のγ列とγ+1列のカム軌跡をα/βの比率に内分する仮想的なカム軌跡が、被写体距離として何mに相当するのかを出力する。軌跡パラメータα、β、γと、被写体距離とは、所定の相関テーブルデータで変換され、主被写体の実距離が出力可能である。
第二に、被写体距離検出回路127からの被写体の実距離を、上記の相関テーブルの逆変換を行うことで、軌跡パラメータα、β、γで表現される図8上のカム軌跡を求める。このとき、相関テーブルの逆変換処理は、図8のカム軌跡が収束しているワイド側のデータは使用せず、軌跡が分散している、出来るだけテレ側のデータを用いて行われ、最も分解能の高い軌跡パラメータが得られるようにしている。
第三に、上述の第一の処理と第二の処理における実距離差と差分方向を算出する。これら3つの処理のうち、第二の処理により、被写体距離検出回路127で検出された検出距離に相当するカム軌跡データの特定を行うことができる。一方、カメラマイクロコンピュータ116は、露出制御も行う。カメラマイクロコンピュータ116は、カメラ信号処理回路108で生成されたテレビ信号の輝度レベルを参照し、輝度レベルが露出に適正となるようアイリスドライバ124を制御してIGメータ123を駆動し、絞り103の開口を制御する。絞り103の開口量は、アイリスエンコーダ129により検出され、絞り103のフィードバック制御が行われる。また、絞り103のみでは適正な露出制御ができない場合、撮像素子106の露光時間をタイミングジェネレータ132(TG)により制御し、高速シャッターから所謂スローシャッターと呼ばれる長時間露光まで対応する。また、低照度下での撮影など露出が不足する際には、増幅器107を通じてテレビ信号のゲインを制御する。撮影者は、メニュースイッチユニット135を操作することで、撮影条件に適した撮影モードやカメラの機能切換えをマニュアル操作できる。
次に、図3を参照して、ズーミング動作時のアルゴリズムについて説明する。本実施例では、カメラマイクロコンピュータ116内のコンピュータズームユニット119が、前述の各動作フロー(プログラム)を含めて、以下に説明する動作フローの処理を実行する。また本実施例では、被写体距離検出回路127より得られる距離情報に応じて、追従すべきカム軌跡を特定(生成)し、ズーミング動作を行う。図3の動作フローは、距離情報を用いて、追従すべきカム軌跡であるズームトラッキングカーブを特定(生成)しながらズーミング動作する方法の例である。この方法は、超高速ズームなどAF評価値の検出周期が粗くなり、TV−AFの参照信号(AF評価値信号)だけではズームトラッキングカーブの特定に充分な精度が上げられない場合に有効である。
図3のフローは、本実施例において、先に説明した図7のステップS705に相当し、図4と同様な処理(ステップ)については、同一符号を付して説明を省略する。まずステップS400において、ズーム動作時のズーム速度を決定する。続いてステップS300では、被写体距離検出回路127の出力信号に応じて、現在の主被写体の撮影距離が、図8に示される代表軌跡のうちいずれのカム軌跡に対応する距離であるかを判定し、軌跡パラメータα、β、γを算出する。また同時に、図4のステップS401で説明した、現在のズームレンズ位置およびフォーカスレンズ位置に応じた軌跡パラメータαnow、βnow、γnowを算出する。ここで、αnow、βnow、γnow は、図5のステップS512からステップS515に至る処理で算出したα、β、γをそれぞれαnow、βnow、γnowとしてメモリに格納された値である。
一方、被写体距離検出回路127により得られた距離情報に基づく軌跡パラメータは、α、β、γとして、例えば以下の方法で算出される。まず、出力される距離情報と図8に示される代表軌跡(カム軌跡)との相関を得るために、予め代表的な被写体距離のカム軌跡(カムカーブ)形状が均一な範囲で、距離の変化と軌跡パラメータとの相関をテーブルデータ化する。これにより、距離情報を入力として、軌跡パラメータの算出を行う。カム軌跡形状が変化する被写体距離では、別の相関関係を表すルックアップテーブルを設け、これらテーブルを複数持つことで、全ての被写体距離毎に軌跡パラメータが得られる。
焦点距離に関しては、メモリ内にデータとして有している図8の離散的なカム軌跡情報のうち、軌跡パラメータα、β、γの分解能が最も高い長焦点距離側での軌跡パラメータが出力できるように構成する。これにより、図8に示されるように、ワイド側でカム軌跡が収束している位置に現在のレンズ位置が存在しても、距離情報に応じて、カム軌跡が発散しているテレ側のポイントでの軌跡パラメータを引き出すことが可能となる。したがって、ズームレンズユニット102がワイド側に位置している時点で、テレ側での軌跡パラメータを基に(内挿)演算することで、フォーカスレンズユニット105が辿るべきカム軌跡を1本特定することが可能となる。なお、ステップS300は、所定周期(例えば、1垂直同期周期)ごとに実行される。このため、ズーミング中に被写体距離が変化したとしても、被写体距離検出回路127の出力に従い、最新の辿るべきカム軌跡が逐次更新される。
次にステップS301では、被写体距離検出回路127の出力(すなわちステップS300で算出したα、β、γ)に基づき、カム軌跡の補正範囲を決定する。この補正範囲は、TV−AF信号(AF評価値)を用いた追従カム軌跡の補正動作における補正範囲に相当する。この補正範囲は、例えば、図2に示されるカム軌跡の補正範囲において、補正範囲上限1201と補正範囲下限1202とで挟まれた範囲である。この補正範囲は、被写体距離検出回路127による距離情報と検出精度に基づいて大まかな追従すべきカム軌跡を特定した後、TV−AF信号による補正動作(ジグザグ動作)により精密な追従カム軌跡を再特定する際の再特定範囲を制限するために設定される。
例えば、被写体距離検出回路127からの出力が、5mの被写体距離1203に対応する場合、補正範囲をその被写体距離の±50cmの範囲に制限する。すなわち、補正範囲上限1201は4.5mの被写体距離に対応するカム軌跡に相当し、補正範囲下限1202は5.5mの被写体距離に対応するカム軌跡に相当する。なお、この補正範囲は、被写体距離検出回路127の検出精度に応じて決定すればよい。
ただし、この補正範囲の制限を全ての撮影条件と全てのカメラ動作状況に対して適用すると、被写体距離に対応しない補正範囲の制限や、追従すべきカム軌跡の特定を妨げる場合がある。そこで本実施例のレンズ制御装置は、撮影条件(撮影情報およびレンズ制御装置の動作状態に関する情報)に応じて、補正範囲の制限を適用するか否かを判定する。以下、図16を参照して、この判定方法について説明する。
図16は、レンズ制御装置が補正範囲の適用の可否を判定するフローチャートである。移動範囲判定部128Cは、コンピュータズームユニット119に送られる情報およびマイクロコンピュータ118で算出される情報に基づいて、補正範囲の適用の可否を判定する。まずステップS801において、検出精度に基づいて補正範囲Wを決定する。補正範囲Wは、例えば被写体距離5mに対してその±50cmの範囲というように、被写体距離に対応する情報に基づいて予め決められた範囲である。
続いて、ステップS802〜S805において、被写体距離検出回路127の測距対象と撮像素子106から得られる焦点信号の測距対象とが同一であるか否か、すなわち同一被写体を測定しているか否かを判定する。まずステップS802において、AF信号処理回路109からの焦点信号(焦点状態を表す焦点信号)の測距枠位置SAFを取得する。続いてステップS803において、距離情報処理部128(被写体距離検出回路127)からの測距枠位置SDistを取得する。ステップS804において、取得した測距枠位置SAF、SDistに基づいて、これら2つの枠位置の一致率Eを算出する。そしてステップS805において、一致率Eを閾値Th1と比較する。一致率Eが閾値Th1未満である場合、同一被写体を測距していないと判定し、補正範囲Wを適用しない(ステップS823)。一方、一致率Eが閾値Th1よりも高い場合、同一被写体を測距しているものと判定し、ステップS806に進む。
このようにカメラマイクロコンピュータ116は、被写体距離検出回路127の測距枠位置SDistと焦点状態を表す焦点信号の測距枠位置SAFとの差異を検出する差異検出手段(不図示)を有する。そしてコンピュータズームユニット119は、この差異が所定の閾値以上(一致率Eが閾値Th1以下)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は差異検出手段により検出される差異である。
次にステップS806、S807において、カメラのパンニング動作の判定を行う。まずステップS806において、装置動き情報処理部128Aは、装置動き検出回路127A(角速度検出手段)により検出された角速度ωを取得する。そしてステップS807において、角速度ω(|ω|)を閾値Th2と比較する。閾値Th2は、パンニング動作を判定するのに十分な値であるとする。角速度ωが閾値Th2以上である場合、パンニング動作にて被写体が変更されるものと判定し、補正範囲Wを適用しない(ステップS823)。一方、角速度ωが閾値Th2よりも小さい場合、パンニング動作ではなく被写体の変更がないものと判定し、ステップS808に進む。このようにコンピュータズームユニット119は、角速度ωが所定の閾値以上(閾値Th2以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、装置動き検出回路127Aにより検出される角速度ωである。
次にステップS808、S809において、被写体の変更の有無を判定する。まずステップS808において、被写体動き情報処理部128Bは、被写体動き検出回路127B(被写体動き検出手段)により検出された動きベクトルVを取得する。そしてステップS809において、動きベクトルV(|V|)を閾値Th3と比較する。なお、閾値Th3は被写体の動きを検知できる十分な値とする。動きベクトルVが閾値Th3以上であり、被写体の動きが検知されたと判定された場合、合焦を得たい被写体が移動し被写体距離の変更が生じた可能性があるため、補正範囲Wを適用しない(ステップS823)。以上の各処理を行うことにより、実際に合焦を得たい被写体までの距離に対応しない補正範囲の決定を回避できる。一方、被写体が同一であると判定され、かつ、レンズ一体型カメラのパンニング動作、被写体が動いたことによる被写体距離の変化がないと判定された場合、ステップS810に進む。このようにコンピュータズームユニット119は、動きベクトルVが所定の閾値以上(閾値Th3以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、被写体動き検出回路127Bにより検出される動きベクトルVである。
続いてステップS810〜S814では、被写体距離検出回路127の出力と信頼性を表す情報に基づいて、補正範囲Wを適用するか否かの判定を行う。まずステップS810、S811において、被写体距離検出回路127から検出された、一定時間における被写体距離に対応する情報のばらつき分布(ばらつき範囲W’)に応じた補正範囲Wの適用有無の判定を行う。ステップS810にて、距離情報処理部128は、ばらつき分布(ばらつき範囲W’)を取得する。ばらつき範囲W’が、ステップS801にて検出精度に基づき決定された補正範囲Wより比較的大きい場合、測距対象の測距が困難である可能性がある。例えば、被写体距離検出回路127が位相差方式である場合や、測定対象から得られる輝度信号が同じ波形の繰り返しである場合など、誤った相関を取って測定結果がばらつくことがある。このとき、ばらつき範囲W’が比較的大きくなる。この場合、検出結果に基づいた補正範囲Wを適用すると、誤差により、フォーカスレンズが焦点深度を超えて像ボケの原因になる可能性がある。このため、ばらつき範囲W’が比較的大きい場合には補正範囲Wを適用しない。本実施例では、ステップS811において、補正範囲Wに係数Kをかけた値とばらつき範囲W’とを比較している。この値がばらつき範囲W’以上である場合、補正範囲Wを適用しない(ステップS823)。一方、この値がばらつき範囲W’よりも小さい場合、ステップS812に進む。このようにコンピュータズームユニット119は、ばらつき範囲W’が補正範囲Wに所定の定数を掛けて得られた値がばらつき範囲W’を超えている場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、距離情報処理部128により得られたばらつき範囲W’である。
また、距離情報処理部128は、被写体距離に対応する情報の信頼性を取得するが、この信頼性を表す情報においても同様である。信頼性が低い結果に基づく制限は、実際に合焦を得たい対象物までの距離に対応しない補正範囲を生成する場合がある。そこで、まずステップS812において、距離情報処理部128は、被写体距離検出回路127から被写体距離に対応する情報の信頼性を取得する。そしてステップS813において、この情報(信頼性)が所定の閾値Th4以下である場合、その検出結果には誤差を含んでいる可能性があるため補正範囲Wを適用しない。このようにコンピュータズームユニット119は、信頼性が所定の閾値以下(閾値Th4以下)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、距離情報処理部128により得られた信頼性である。
ただし、明るさにより、信頼性が閾値Th4を超えていなくても補正範囲Wを適用したほうがよい場合がある。そこでステップS814において、この信頼性と、閾値Th4よりも小さい閾値Th5とを比較する。この信頼性が閾値Th5以下である場合、いかなる明るさであっても補正範囲Wを適用しない(ステップS823)。一方、信頼性が閾値Th5より大きい場合、明るさの判定を行うため、ステップS815に進む。
撮像素子106は撮影可能照度を有するため、この照度よりも低い照度での撮影は困難である。また、映像信号を用いるTVAF制御方式も制御が困難となる。そこで、被写体距離検出回路127の検出可能最低照度が撮像素子106の撮影可能最低照度よりも低い場合、被写体距離検出回路127の検出結果を信頼し、補正範囲Wを適用する。このためステップS815において、撮像素子106(CCD)からの明るさYを取得する。そしてステップS816において、明るさYが基準照度(閾値Th6)以上である場合、補正範囲Wを適用しない(ステップS823)。一方、明るさYが閾値Th6より小さい場合、撮像素子106の照度不足と判定する。この場合、信頼性が低い場合でも距離検出結果を用いた制限を行う。このように、被写体距離がある程度信頼できると判定された場合、ステップS817に進む。
このように、撮像素子106は、ズームレンズユニット102およびフォーカスレンズユニット105を含む光学系により形成された光学像を検出する照度検出手段である。そしてコンピュータズームユニット119は、明るさY(照度)が所定の閾値以上(閾値Th6以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、撮像素子106により検出された明るさY(照度)である。
次にステップS817〜S821において、撮影時のカメラの設定に応じた判定を行う。まずステップS817において、ズームレンズ速度Vzを取得する。続いてステップS818において、シャッター速度Vsを取得する。ズームレンズが低速で動いている場合、ワイドからテレまでの移動に十分な時間が取れるため、AF評価値信号の取得回数も必然的に多くなる。このため、補正範囲Wを適用しなくても追従すべき軌跡を特定することが可能である。一方、ズームレンズが高速の場合、AF評価値信号の取得回数が少ないため、軌跡の特定が困難である。このため、距離検出結果を用いた補正範囲Wを適用する方が軌跡の特定に効果的である。これにより、低速の場合の不必要な補正範囲Wを回避できる。また、シャッター速度Vsについても同様である。シャッター速度Vsが低速の場合、ズーミング中のAF評価値信号の取得回数が少なくなるため、軌跡の特定が困難である。このため、距離検出結果を用いた補正範囲Wを適用する方が軌跡の特定に効果的である。
このためステップS819において、ステップS817にてズームスイッチ130の情報から得られたズームレンズ速度Vzと、ステップS818にてカメラマイクロコンピュータ116により算出されたシャッター速度Vsとを用いた判定が行われる。具体的には、ステップS819において、ズームレンズ速度Vzと所定の閾値Th7とを比較し、また、シャッター速度Vsと所定の閾値Th8とを比較する。このように、ズームレンズ速度Vzおよびシャッター速度Vsに応じた補正範囲Wの適用判定を行うことで、不必要な補正範囲の設定を回避する。なお、閾値Th7としてはTVAFで十分に合焦できるズームレンズ速度が設定される。閾値Th8としては、通常撮影時のサンプル周期(一般的なビデオカメラの場合は60Hz)などが設定される。ステップS819において、ズームレンズ速度Vzが閾値Th7以下であり、かつ、シャッター速度Vsが閾値Th8以上である場合、補正範囲Wを適用しない(ステップS823)。一方、ズームレンズ速度Vzが閾値Th7より大きいか、または、シャッター速度Vsが閾値Th8よりも小さい場合、ステップS820に進む。
このように、レンズ制御装置はズームレンズユニット102の速度を検出する速度検出手段を有する。そしてコンピュータズームユニット119は、速度が所定の閾値以上(閾値Th7以下)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。このとき、撮影条件は、ズームレンズユニット102の速度である。またレンズ制御装置は、ズームレンズユニット102およびフォーカスレンズユニット105を含む光学系により形成された光学像の撮像素子106に対する露光時間を制御するシャッター(露光時間制御手段)を有する。そしてコンピュータズームユニット119は、露光時間が所定の閾値以下(シャッター速度Vsが閾値Th8以上)である場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。
次にステップS820、S821において、絞り103(光量調節手段)の光量調節結果から決定される焦点深度に応じた補正範囲Wの適用可否の判定を行う。絞り103が小さく開いている場合には焦点深度が大きくなるため、焦点深度よりも小さい補正範囲にする必要はない。一方、焦点深度が小さい場合、距離検出結果を用いた補正範囲Wを適用する。このため、まずステップS820において、絞り103の値(絞り値)から焦点深度Wfを取得する。そしてステップS821において、ばらつき範囲W’と焦点深度Wfとを比較する。ばらつき範囲W’が焦点深度Wfより大きい場合、ステップS822に進み、補正範囲Wを適用する。一方、ばらつき範囲W’が焦点深度Wf以下である場合、ステップS823に進み、補正範囲Wを適用しない。このようにコンピュータズームユニット119は、焦点深度Wfがばらつき範囲W’を超えている場合、補正範囲Wを適用せずにフォーカスレンズユニット105の移動を制御する。
以上のとおり、撮影情報及びレンズ装置の動作状態に関する情報に基づいて補正範囲の適用有無を判定することにより、実際に合焦を得たい対象物までの距離に対応しない、不必要な補正範囲の適用を回避できる。また、補正範囲を適用することにより、被写体距離検出回路127の検出分解能(検出精度)を高める必要はない。この結果、安価で小型の撮像装置を提供することができる。また本実施例では、TV−AF信号を用いて追従カム軌跡を再特定する際のジグザグ動作の方向の切替回数を増加させ、かつ、同一の補正方向に補正し続ける頻度を減らす。このため、周波数の高い被写体を撮影する場合等で発生する場合があった、ジグザグ動作の動きどおりにジャスピンと若干の像ぼけを周期的に繰り返す様なぼけの発生を防止することが可能となる。更に、追従カム軌跡を間違えた時の像ぼけや正しいカム軌跡にリカバーする際の像ぼけの発生を低減することが可能となる。
実際の動作としては、TV−AF信号を用いた追従カム軌跡の補正動作(ジグザグ駆動)を、補正範囲上限1201と補正範囲下限1202とで挟まれた範囲内でのみ行う。この範囲を超えるような場合には、この補正範囲内に戻るようにフォーカスレンズユニット105の駆動方向を反転させるようにする。この結果、補正範囲上限1201と補正範囲下限1202との間の範囲外でのカム軌跡の再特定が禁止される。
本実施例では、被写体距離検出回路127の検出分解能に応じて補正範囲を設定し、その範囲内でのみTV−AF信号による精密な追従カム軌跡の特定を許可することにより、TV−AF信号の併用による誤動作および像ぼけの誘発を低減する。すなわち、被写体距離検出回路127からの出力に基づくカム軌跡の特定方法とTV−AF信号という合焦状態の検出信号に基づくカム軌跡の特定方法の2種類のカム軌跡特定方法による特定結果が一致する場合にのみ追従カム軌跡の再特定を許可する。この結果、それぞれの特定方法の長所のみを組み合わせた極めて精度の高いカム軌跡追従方式が実現可能となる。
特に、TV−AF信号による追従軌跡の特定時には、ジグザグ動作のためのフォーカスレンズの駆動速度(補正速度)を、無限側のカム軌跡から至近側のカム軌跡までカバー可能な速度に設定する必要がある。これに対し、本実施例ではカム軌跡の補正範囲を限定することにより、例えばフォーカスレンズの補正速度が同一でもその移動範囲が狭くなるため、単位時間当たりのジグザグ動作回数を第1の回数まで増やすことが可能となる。したがって、高速ズームの場合でもTV−AF信号によるカム軌跡特定精度を向上させることが可能となる。
一方、ジグザグ動作回数を第1の回数まで増やさない場合、その分補正速度の設定値を下げることが可能となる。このため、高周波被写体を撮影する際の補正動作でのジャスピンと若干の像ぼけを周期的に繰り返すようなぼけの発生も低減可能である(詳細は実施例2で説明する)。従って、同じ手法であっても、ズーム速度優先、見え優先と、提供する撮像装置の製品仕様に応じて最適な制御方法でズーム性能を実現する高い自由度を有するズーミングシステムが提供可能となる。
図3の説明に戻る。以下、制限範囲を適用した場合のレンズ制御について説明する。ステップS302では、「AF補正フラグ」がセット状態か否かを判定する。セット状態であれば、ステップS303に進む。ステップS303では、軌跡パラメータαAF、βAF、γAFが、図2に示される補正範囲(補正範囲上限1201と補正範囲下限1202の間の範囲)内に含まれているか否かを判定する。軌跡パラメータαAF、βAF、γAFは、後述するステップS311において、AF評価値が図12にて説明した最大値1301となったことが検出されるごとに更新される。ステップS303において、軌跡パラメータαAF、βAF、γAFが補正範囲内にある場合、ステップS304において、軌跡パラメータαAF、βAF、γAFのそれぞれをα、β、γに設定する。そして、フォーカスレンズユニット105がこの補正動作によって再特定されたカム軌跡をトレースするように制御する。
一方、ステップS303で軌跡パラメータαAF、βAF、γAFが補正範囲外である場合、または、ステップS302で「AF補正フラグ」がクリアであった場合、ステップS300で既に決定されている軌跡パラメータα、β、γを保持する。軌跡パラメータα、β、γは、被写体距離検出回路127による距離情報に基づいて特定されている。そして、軌跡パラメータα、β、γにより特定されるカム軌跡をトレースするようにフォーカスレンズユニット105を制御する。
ここで、「AF補正フラグ」は、後述するTV−AF信号によって追従カム軌跡が再特定されたか否かを表すフラグである。被写体距離検出回路127による距離情報に基づく特定しかなされていない場合(再特定されていないか、または再特定されようとしているカム軌跡が図2の補正範囲外であり、誤特定の可能性が高い場合)、ステップS305で「AF補正フラグ」をクリアする。そして次回以降、補正動作によるカム軌跡の再特定がなされるまで、距離情報に基づく特定結果を優先して軌跡トレース制御を行う。
以下、図4と同様にステップS402〜S410を行う。その後、本処理を終了して、図7のステップS706に進む。ズーミング動作中である場合、ステップS410で決定したフォーカス速度で、フォーカス速度の符号方向(至近方向を正、無限遠方向を負とする)に移動し、コンペンセータ動作(補正動作)が行われる。ステップS411では、各種パラメータが初期値化される。ここでは、以後の処理で用いる「反転フラグ」のクリアを行う。ステップS412では、ステップS410で得たフォーカス標準移動速度Vf0から、ジグザグ動作用の補正速度Vf+,Vf−を算出する。ここで、補正量パラメータδおよび補正速度Vf+,Vf−は、図13を用いて説明したように、式(9)〜(12)を用いて算出される。
ステップS413では、図7のステップS703で得られたズームスイッチ130の操作状態を示す情報に応じて、ズーミング中か否かを判定する。判定結果がYesの場合、ステップS416に進む。判定結果がNoの場合、ステップS309で「AF補正フラグ」をクリアし、次回のワイドからテレ方向のズーミング動作の準備をする。そしてステップS414では、AF評価信号レベルの現在値から任意の定数μを減算した値をTH1(図12(A)中の最小値1302)とする。そして、前述の補正方向のベクトルの切換基準(ジグザグ動作の切換基準)となるAF評価信号レベルを決定する。
次にステップS415では、「補正フラグ」をクリアし、本処理を抜ける。ここで「補正フラグ」とは、前述したように、カム軌跡の追従状態が正方向の補正がかかった状態(補正フラグ=1)、または、負方向の補正がかかった状態(補正フラグ=0)のいずれであるかを示すフラグである。
ステップS413でズームミング中であると判定すると、ステップS414において、ズーミング方向がワイドからテレ方向であるか否かを判定する。判定結果がNoの場合にはステップS309と同様に、「AF補正フラグ」をクリアし、次回のワイドからテレ方向のズーミング動作の準備を行う(ステップS308)。そして、ステップS419において、Vf+=0,Vf−=0とし、ステップS420に進み、ジグザグ駆動を実質行わない。
ステップS413での判定結果がYesである場合、ステップS306において、現在のズームレンズ位置に対するフォーカスレンズ位置が、図2に示される補正範囲上限1201を超えているか否かを判定する。補正範囲上限1201を超えている場合、補正範囲内へフォーカスレンズ位置を戻すようにステップS423へ進む。ステップS423では、算出されたフォーカス速度(標準移動速度)Vf0に負の補正速度Vf−が加算される(無限遠方向に補正される)。これにより、フォーカスレンズユニット105は、補正範囲上限1201よりも補正範囲下限1202の方向に強制的に戻される。
一方、ステップS306で補正範囲上限1201を超えていない場合、ステップS307において、現在のズームレンズ位置に対するフォーカスレンズ位置が、図2の補正範囲下限1202を超えているか否かを判定する。補正範囲下限1202を超えている場合、補正範囲内へフォーカスレンズ位置を戻すためにステップS424へ進む。ステップS424では、算出されたフォーカス速度(標準移動速度)Vf0に正の補正速度Vf+が加算される(至近方向に補正される)。これにより、フォーカスレンズユニット105は、補正範囲下限1202よりも補正範囲上限1201の方向に強制的に戻される。このように、フォーカスレンズユニット105の移動範囲は補正範囲内に制限される。この結果、ジグザグ動作によって再特定されるカム軌跡もこの補正範囲内に制限される。
ステップS306およびS307にてフォーカスレンズ位置が補正範囲を超えていない場合、ジグザグ動作を実行するために、ステップS417において現在のAF評価信号レベルがTH1より小さいか否かを判定する。判定結果がYesの場合、現在のAF評価信号レベルが図12(A)のTH1(1302)のレベルを下回るため、補正方向の切り換えを行うためにステップS418で反転フラグをセットする。
ステップS420では、反転フラグ=1か否かを判定する。判定結果がYesの場合、ステップS421に進み、補正フラグが1か否かを判定する。一方、ステップS421で判定結果がNoの場合、ステップS424に進み、補正フラグに1(正方向の補正状態)をセットする。また、上記の式(4)により、フォーカス速度Vfを、Vf=Vf0+Vf+(但し、Vf+≧0)とする。一方、ステップS421で判定結果がYesの場合、ステップS423に進み、補正フラグに0(負方向の補正状態)をセットする。また、上記の式(5)により、フォーカス速度VfをVf=Vf0+Vf−(但し、Vf−≦0)とする。
ステップS420でNoと判定された場合、ステップS422で補正フラグが1であるか否かを判定する。この判定結果がYesの場合にはステップS424へ進む。一方、この判定結果がNoの場合にはステップS423へ進む。
本処理の終了後、図7に示されるステップS706において、動作モードに応じて、フォーカスレンズユニット105およびズームレンズユニット102の駆動方向と駆動速度が選択される。ズーミング動作の場合、ここでは、ステップS423またはステップS424で求めたフォーカス速度Vf が正であるのか負であるのかにより、フォーカスレンズユニット105の駆動方向をそれぞれ、至近方向または無限方向に設定する。このようにして、フォーカスレンズユニット105のジグザグ駆動を行いながらトレースすべきカム軌跡の再特定を行う。
ジグザグ駆動を行いながらステップS417からステップS424において、TV−AFにおけるAF評価信号が、図12(A)に示される最大値1301になったことが検出される。ステップS417でNoと判定された場合、ステップS310で最大値1301が検出されたか否かを判定する。ピークレベルが検出された場合、ステップS311で、「AF補正フラグ=1」および軌跡パラメータの現在値をTV−AFによる再特定軌跡パラメータとして、αAF←αnow、βAF←βnow、γAF←γnowとセットする。そして、次回のステップS302およびステップS303における条件が満たされた場合(両ステップの判別結果がともにYesである場合)、ステップS304において、特定カム軌跡が更新される。今回、ステップS304で更新され再特定された軌跡パラメータは、検出した距離情報の変化によりステップS301における補正範囲の変更、ズーミング動作の停止、または、ズーミング方向の逆転により、距離情報に基づいて特定されるカム軌跡に更新される。
次回のステップS302またはS303での条件が満たされない場合、新たにピークレベルが検出されるごとに(ステップS310)、ステップS311でαAF、βAF、γAFの更新を繰り返しつつ、ズーミング動作中に最適なカム軌跡が随時更新される。なお、ステップS310でAF評価値レベルがピークレベルになったことが検出されない場合、そのままステップS420に進む。そして、ジグザグ動作による補正方向の切り換えを行わずに、前回決定済の補正方向に補正しながらフォーカスレンズユニット105を駆動する。
以上の処理により、被写体までの距離情報に基づいて、TV−AF信号を用いた追従すべきカム軌跡の特定を行う際の特定範囲(補正範囲)を限定することにより、TV−AF信号を用いたカム軌跡の特定精度を大幅に改善することができる。したがって、誤ったカム軌跡をトレースすべき軌跡と誤判断することが低減される。また、ジグザグ動作の切り換えタイミングを間違うなどの誤動作問題の発生を低減することもできる。したがって、像ぼけの発生を低減することが可能である。
特に、距離情報で基準となるカム軌跡を特定し、補正範囲を限定しつつTV−AF信号を用いてカム軌跡を補正する(再特定する)ことで、TV−AF信号に基づく追従カム軌跡の補正精度を向上させることができる。このため、被写体距離検出回路127の検出精度をある程度粗くすることが可能となり、被写体距離検出回路127を小型で安価なタイプを選定することが可能となる。
次に、本発明の実施例2におけるレンズ制御装置について説明する。 実施例1では、TV−AF信号によるフォーカスレンズユニット105の補正動作における補正速度が、図4の場合と同じ速度が算出される場合について説明した。このため、実施例1では、補正範囲の限定によりフォーカスレンズユニット105の移動距離(移動範囲)が減少し、その結果、補正範囲内のジグザグ動作の周波数が高くなる。したがって、高速ズーム等でも追従カム軌跡の特定能力が高いシステムとなっている。
これに対し、本実施例では、補正速度を実施例1の場合よりも遅く設定することにより、ジグザグ動作に伴って像がぼけたりピントがあったりの周期的な像ぼけの低減を図っている。例えば、補正速度を実施例1の1/2の大きさに設定すると、図12(B)に示されるフォーカスレンズユニット105の駆動方向反転タイミング(AF評価値信号が最小値1302以下となるタイミング)でのオーバーシュート量が減少する。このため、見た目において像がぼけたりピントがあったりの周期的な変化を軽減することが可能となる。
補正速度を1/2にするには、例えば、図3中のステップS412で算出される補正速度Vf+、Vf−を1/2とする処理を追加すればよい。また、式(4)、(5)に係数を設けることにより、それぞれ以下の式(4’)、(5’)として演算すればよい。
フォーカス速度Vf=Vf0+Vf+/2(但し、Vf+≧0) …(4’)
フォーカス速度Vf=Vf0+Vf−/2(但し、Vf−≦0) …(5’)
なお、上記各実施例では、被写体までの距離情報に基づいて追従すべきカム軌跡(α,β,γ)を特定(生成)する際のその範囲を制限する場合について説明したが、これに限定されるものでない。各実施例は、フォーカスレンズの目標位置を算出(生成)する際に、その範囲を被写体までの距離情報に基づいて制限する場合にも適用することができる。
フォーカス速度Vf=Vf0+Vf−/2(但し、Vf−≦0) …(5’)
なお、上記各実施例では、被写体までの距離情報に基づいて追従すべきカム軌跡(α,β,γ)を特定(生成)する際のその範囲を制限する場合について説明したが、これに限定されるものでない。各実施例は、フォーカスレンズの目標位置を算出(生成)する際に、その範囲を被写体までの距離情報に基づいて制限する場合にも適用することができる。
上記各実施例によれば、検出した合焦対象物までの距離と撮影情報及びレンズ装置の動作状態に関する情報に応じて、第2レンズユニットの駆動を制御するために生成する情報(軌跡情報等)の範囲を制限するかの適用有無の判定を行う。これにより、実際に合焦を得たい対象物までの距離に対応しない移動範囲の制限や、不必要な移動範囲制限を回避することが可能となる。このため、ズーミング中の像ぼけの発生を低減させるレンズ制御装置を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
102 ズームレンズユニット
105 フォーカスレンズユニット
119 コンピュータズームユニット
120 カムデータメモリ
127 被写体距離検出回路
105 フォーカスレンズユニット
119 コンピュータズームユニット
120 カムデータメモリ
127 被写体距離検出回路
Claims (11)
- 変倍用の第1レンズユニットおよび焦点調節用の第2レンズユニットの移動を制御するレンズ制御装置であって、
所定の被写体距離ごとに作成された、前記第1レンズユニットの位置と前記第2レンズユニットの位置との関係を示すデータを記憶した記憶手段と、
前記データに基づいて、前記第2レンズユニットの移動を制御するための情報を生成し、前記第1レンズユニットの移動に伴う該第2レンズユニットの移動を制御する制御手段と、
前記被写体距離に対応する情報を検出する検出手段と、を有し、
前記制御手段は、前記被写体距離に対応する前記情報および撮影条件に応じて前記第2レンズユニットの移動範囲を変更する、ことを特徴とするレンズ制御装置。 - 前記制御手段は、
前記被写体距離に対応する前記情報に基づいて前記第2レンズユニットの補正範囲を決定し、
前記撮影条件に基づいて前記補正範囲を適用するか否かを判定する、ことを特徴とする請求項1に記載のレンズ制御装置。 - 前記検出手段の測距枠の位置と焦点状態を表す焦点信号の測距枠の位置との差異を検出する差異検出手段を更に有し、
前記撮影条件は、前記差異検出手段により検出される前記差異であり、
前記制御手段は、前記差異が所定の閾値以上である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2に記載のレンズ制御装置。 - 前記レンズ制御装置の角速度を検出する角速度検出手段を更に有し、
前記撮影条件は、前記角速度検出手段により検出される前記角速度であり、
前記制御手段は、前記角速度が所定の閾値以上である場合、前記補正範囲を適用しないように前記第2レンズユニットの移動を制御することを特徴とする請求項2または3に記載のレンズ制御装置。 - 被写体の動きベクトルを検出する被写体動き検出手段を更に有し、
前記撮影条件は、前記被写体動き検出手段により検出される前記動きベクトルであり、
前記制御手段は、前記動きベクトルが所定の閾値以上である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至4のいずれか1項に記載のレンズ制御装置。 - 前記検出手段により一定時間における前記被写体距離に対応する前記情報のばらつき範囲を取得する距離情報処理手段を更に有し、
前記撮影条件は、前記距離情報処理手段により得られた前記ばらつき範囲であり、
前記制御手段は、前記ばらつき範囲が前記補正範囲に所定の定数を掛けて得られた値が前記ばらつき範囲を超えている場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至5のいずれか1項に記載のレンズ制御装置。 - 前記検出手段により前記被写体距離に対応する前記情報の信頼性を取得する距離情報処理手段を更に有し、
前記撮影条件は、前記距離情報処理手段により得られた前記信頼性であり、
前記制御手段は、前記信頼性が所定の閾値以下である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至6のいずれか1項に記載のレンズ制御装置。 - 前記第1レンズユニットおよび前記第2レンズユニットを含む光学系により形成された光学像の照度を検出する照度検出手段を更に有し、
前記撮影条件は、前記照度検出手段により検出された前記照度であり、
前記制御手段は、前記照度が所定の閾値以上である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至7のいずれか1項に記載のレンズ制御装置。 - 前記第1レンズユニットの速度を検出する速度検出手段を更に有し、
前記撮影条件は、前記速度検出手段により検出された前記速度であり、
前記制御手段は、前記速度が所定の閾値以下である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至8のいずれか1項に記載のレンズ制御装置。 - 前記第1レンズユニットおよび前記第2レンズユニットを含む光学系により形成された光学像の撮像素子に対する露光時間を制御する露光時間制御手段を更に有し、
前記撮影条件は、前記露光時間制御手段により制御される前記露光時間であり、
前記制御手段は、前記露光時間が所定の閾値以下である場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至9のいずれか1項に記載のレンズ制御装置。 - 前記第1レンズユニットを介して得られた光量を調節する光量調節手段と、
前記検出手段により一定時間における前記被写体距離に対応する前記情報のばらつき範囲を取得する距離情報処理手段と、を更に有し、
前記撮影条件は、前記光量調節手段により得られた焦点深度であり、
前記制御手段は、前記焦点深度が前記ばらつき範囲を超えている場合、前記補正範囲を適用せずに前記第2レンズユニットの移動を制御することを特徴とする請求項2乃至10のいずれか1項に記載のレンズ制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011282056A JP2013130827A (ja) | 2011-12-22 | 2011-12-22 | レンズ制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011282056A JP2013130827A (ja) | 2011-12-22 | 2011-12-22 | レンズ制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013130827A true JP2013130827A (ja) | 2013-07-04 |
Family
ID=48908393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011282056A Pending JP2013130827A (ja) | 2011-12-22 | 2011-12-22 | レンズ制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013130827A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103856717A (zh) * | 2014-03-06 | 2014-06-11 | 浙江宇视科技有限公司 | 一种摄像机对焦控制方法及装置 |
JP2017181979A (ja) * | 2016-03-31 | 2017-10-05 | キヤノン株式会社 | レンズ制御装置、制御方法 |
WO2017169491A1 (ja) * | 2016-03-30 | 2017-10-05 | 富士フイルム株式会社 | 撮像装置及びフォーカス制御方法 |
KR20180124981A (ko) * | 2016-06-03 | 2018-11-21 | 구글 엘엘씨 | 광 흐름 기반 자동 초점 |
WO2019061887A1 (zh) * | 2017-09-28 | 2019-04-04 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、飞行体、控制方法以及程序 |
WO2020020042A1 (zh) * | 2018-07-23 | 2020-01-30 | 深圳市大疆创新科技有限公司 | 控制装置、移动体、控制方法以及程序 |
US10617282B2 (en) | 2016-01-13 | 2020-04-14 | Olympus Corporation | Endoscope apparatus and method for focusing based on motion information |
US10799085B2 (en) | 2015-06-11 | 2020-10-13 | Olympus Corporation | Endoscope apparatus and focus control method |
JP7087052B2 (ja) | 2020-12-10 | 2022-06-20 | キヤノン株式会社 | レンズ制御装置、制御方法 |
WO2023234050A1 (ja) * | 2022-05-30 | 2023-12-07 | ソニーグループ株式会社 | レンズ装置、レンズ装置における処理方法、プログラムおよび撮像装置 |
-
2011
- 2011-12-22 JP JP2011282056A patent/JP2013130827A/ja active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103856717B (zh) * | 2014-03-06 | 2017-04-19 | 浙江宇视科技有限公司 | 一种摄像机对焦控制方法及装置 |
CN103856717A (zh) * | 2014-03-06 | 2014-06-11 | 浙江宇视科技有限公司 | 一种摄像机对焦控制方法及装置 |
US10799085B2 (en) | 2015-06-11 | 2020-10-13 | Olympus Corporation | Endoscope apparatus and focus control method |
US10617282B2 (en) | 2016-01-13 | 2020-04-14 | Olympus Corporation | Endoscope apparatus and method for focusing based on motion information |
JP2019074756A (ja) * | 2016-03-30 | 2019-05-16 | 富士フイルム株式会社 | 撮像装置及びフォーカス制御方法 |
WO2017169491A1 (ja) * | 2016-03-30 | 2017-10-05 | 富士フイルム株式会社 | 撮像装置及びフォーカス制御方法 |
JP6462183B2 (ja) * | 2016-03-30 | 2019-01-30 | 富士フイルム株式会社 | 撮像装置及びフォーカス制御方法 |
JPWO2017169491A1 (ja) * | 2016-03-30 | 2019-02-28 | 富士フイルム株式会社 | 撮像装置及びフォーカス制御方法 |
US10564392B2 (en) | 2016-03-30 | 2020-02-18 | Fujifilm Corporation | Imaging apparatus and focus control method |
US9973684B2 (en) | 2016-03-31 | 2018-05-15 | Canon Kabushiki Kaisha | Lens control apparatus and control method |
JP2017181979A (ja) * | 2016-03-31 | 2017-10-05 | キヤノン株式会社 | レンズ制御装置、制御方法 |
KR20180124981A (ko) * | 2016-06-03 | 2018-11-21 | 구글 엘엘씨 | 광 흐름 기반 자동 초점 |
KR102137768B1 (ko) * | 2016-06-03 | 2020-07-24 | 구글 엘엘씨 | 광 흐름 기반 자동 초점 |
CN109844634A (zh) * | 2017-09-28 | 2019-06-04 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、飞行体、控制方法以及程序 |
WO2019061887A1 (zh) * | 2017-09-28 | 2019-04-04 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、飞行体、控制方法以及程序 |
CN109844634B (zh) * | 2017-09-28 | 2021-08-17 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、飞行体、控制方法以及程序 |
WO2020020042A1 (zh) * | 2018-07-23 | 2020-01-30 | 深圳市大疆创新科技有限公司 | 控制装置、移动体、控制方法以及程序 |
JP7087052B2 (ja) | 2020-12-10 | 2022-06-20 | キヤノン株式会社 | レンズ制御装置、制御方法 |
WO2023234050A1 (ja) * | 2022-05-30 | 2023-12-07 | ソニーグループ株式会社 | レンズ装置、レンズ装置における処理方法、プログラムおよび撮像装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5328384B2 (ja) | レンズ制御装置、光学機器及びレンズ制御方法 | |
JP5335445B2 (ja) | レンズ制御装置、光学機器およびレンズ制御方法 | |
JP2013130827A (ja) | レンズ制御装置 | |
JP5247044B2 (ja) | 撮像装置 | |
JP4478419B2 (ja) | レンズ制御装置、光学機器およびレンズ制御方法 | |
US8619374B2 (en) | Lens control apparatus and interchangeable lens including lens control apparatus | |
US20110305445A1 (en) | Image pickup apparatus and method for controlling image pickup apparatus | |
US8861948B2 (en) | Image pickup apparatus | |
CN106054350B (zh) | 光学装置和显示控制方法 | |
US20080187302A1 (en) | Imaging device | |
US20050052564A1 (en) | Image-taking apparatus and focus control program for image-taking apparatus | |
JP5559242B2 (ja) | 交換レンズ、カメラ及びカメラシステム | |
JP2013083843A (ja) | 光学機器、レンズ鏡筒および自動焦点調節方法 | |
JP6639117B2 (ja) | 光学機器およびフォーカス制御プログラム | |
JP2016118636A (ja) | 撮像装置及びその制御方法 | |
JP4721394B2 (ja) | レンズ制御装置、光学機器およびレンズ制御方法 | |
JP4721395B2 (ja) | レンズ制御装置、光学機器およびレンズ制御方法 | |
JP7362299B2 (ja) | レンズ装置、カメラ、カメラシステム、制御方法 | |
JP2005326686A (ja) | レンズ制御装置、光学機器およびレンズ制御方法 | |
JP5930979B2 (ja) | 撮像装置 | |
JP2014035505A (ja) | レンズ装置、撮像装置およびこれらの制御方法 | |
JP5743710B2 (ja) | 撮像装置およびその制御方法 | |
JP6700698B2 (ja) | 光学機器、表示制御方法および表示制御プログラム | |
JP2023054610A (ja) | 制御装置、レンズ装置、制御方法、およびプログラム | |
JP2016224344A (ja) | 光学機器、表示制御方法および表示制御プログラム |