JPH06233168A - Camera - Google Patents

Camera

Info

Publication number
JPH06233168A
JPH06233168A JP5321467A JP32146793A JPH06233168A JP H06233168 A JPH06233168 A JP H06233168A JP 5321467 A JP5321467 A JP 5321467A JP 32146793 A JP32146793 A JP 32146793A JP H06233168 A JPH06233168 A JP H06233168A
Authority
JP
Japan
Prior art keywords
tracking
zoom
focus
curve
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5321467A
Other languages
Japanese (ja)
Other versions
JP3415235B2 (en
Inventor
Hitoshi Hashimoto
仁史 橋本
Atsujirou Ishii
敦次郎 石井
Naoki Fujii
尚樹 藤井
Akio Terane
明夫 寺根
Masao Sato
政雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP32146793A priority Critical patent/JP3415235B2/en
Publication of JPH06233168A publication Critical patent/JPH06233168A/en
Application granted granted Critical
Publication of JP3415235B2 publication Critical patent/JP3415235B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Lens Barrels (AREA)

Abstract

PURPOSE:To obtain the camera which can reflect a photographer's will with regard to an object to be photographed, for executing an auto focus(AF), in the case a manual focus(MF) mode is switched to an auto focus mode. CONSTITUTION:After a stand-by processing is finished, an AF side is turned on by operating an MF/AF switch 32, and when it is shifted to a recording operation by operating an REC/STANDBY switch 104, a photographer selects it intentionally at the time of stand-by. Subsequently, it is shifted to 'F mode processing' of AF priority in a state locked to an object to be photographed focused by an MF operation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カメラ、詳しくは、オ
ートフォーカスモードとマニュアルフォーカスモードと
を選択的に適用可能なカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera, and more particularly to a camera to which an auto focus mode and a manual focus mode can be selectively applied.

【0002】[0002]

【従来の技術】従来、ビデオカメラ等においては、ズー
ム式レンズのズーミング時にはピント位置補正のための
ズームトラッキング制御動作が行われるものが多い。図
25は、例えば、該ズームトラッキング動作におけるズ
ームレンズ中のバリエータレンズの位置(以下、ズーム
レンズ位置と記載する)に対するフォーカスレンズ補正
位置の変化を示したズームトラッキングカーブであっ
て、該トラッキング動作時には、各ズームレンズ位置に
対し、フォーカスレンズを上記図25のカーブに沿っ
て、移動させる。
2. Description of the Related Art Conventionally, in many video cameras and the like, a zoom tracking control operation for correcting a focus position is performed during zooming of a zoom lens. FIG. 25 is, for example, a zoom tracking curve showing changes in the focus lens correction position with respect to the position of the variator lens in the zoom lens in the zoom tracking operation (hereinafter referred to as the zoom lens position). For each zoom lens position, the focus lens is moved along the curve shown in FIG.

【0003】上記図25のズームトラッキングカーブを
利用したズームトラッキング制御方式として、従来、各
種の方式が提案されている。例えば、「NATIONAL TECHN
ICAL REPORT 」(VOL. 37 NO.3 JUN. 1991、P338〜344
)に記載されているビデオカメラのズームレンズのズ
ームトラッキング方式は、メモリに記憶されたズームト
ラッキングカーブのテーブルデータを読み出し、テーブ
ル補間することにより、フォーカスレンズの適正移動量
を演算し、トラッキングを行うものである。
Conventionally, various types of methods have been proposed as zoom tracking control methods using the zoom tracking curve of FIG. For example, "NATIONAL TECHN
ICAL REPORT "(VOL. 37 NO.3 JUN. 1991, P338-344)
In the zoom tracking method of the zoom lens of the video camera described in (1), the table data of the zoom tracking curve stored in the memory is read and the table is interpolated to calculate the appropriate movement amount of the focus lens and perform tracking. It is a thing.

【0004】上記テーブル補間によるズームトラッキン
グ方式について詳細に説明すると、図26は、前記図2
5のズームトラッキングカーブのうち、基準被写体距離
L1(=∞)と被写体距離L2、更に、距離L1とL2
の間で補間される被写体距離L3に対するトラッキング
カーブを抜き出して示した線図である。ズーミング位置
Zaにおける被写体距離L1,L2に対するフォーカス
レンズ位置を示す点A1,A2とし、ズーミング位置Z
bにおける被写体距離L1,L2に対するフォーカスレ
ンズ位置を示す点B1,B2とする。なお、これらのデ
ータは、当該カメラに適用されたメモリに格納されてい
るものとする。そして、該位置A1,B1とA2,B2
間の繰り出し量を図示のように値Db,Ddとする。
The zoom tracking method based on the table interpolation will be described in detail with reference to FIG.
Of the zoom tracking curves of 5, the reference subject distance L1 (= ∞) and the subject distance L2, and further the distances L1 and L2
It is the diagram which extracted and showed the tracking curve with respect to the to-be-photographed object distance L3 interpolated between. The points A1 and A2 indicating the focus lens positions with respect to the subject distances L1 and L2 at the zooming position Za are set to
Points b1 and B2 indicating the focus lens position with respect to the subject distances L1 and L2 in b. Note that these data are assumed to be stored in the memory applied to the camera. Then, the positions A1, B1 and A2, B2
The amount of extension is set to values Db and Dd as shown in the figure.

【0005】いま、ズームレンズが位置Zaにあり、被
写体距離L3のトラッキングカーブ上の位置A3にフォ
ーカスレンズが位置しているとする。該位置A3は、そ
のズーム位置Zaに対するフォーカスレンズ位置A1,
A2の繰り出し量Dbとフォーカスレンズ位置A1,A
3の繰り出し量Daから相対的に定義することができ
る。そこで、ズームレンズ位置がZbに変化したとす
る。被写体距離L3のトラッキングカーブが、上記フォ
ーカスレンズ位置A1,A2による上記繰り出し量の比
率である繰り出し比Da/Dbを一定値に保持するよう
に推移してゆくとすれば、位置B1からの繰り出し量D
cが求められ、その結果、位置B3が求められる。な
お、上記一定値とする繰り出し比Da/Dbが、後述の
実施例に適用されるトラッキング補間演算の基準値の1
つに対応する。
Now, it is assumed that the zoom lens is located at the position Za and the focus lens is located at the position A3 on the tracking curve of the object distance L3. The position A3 is the focus lens position A1, relative to the zoom position Za.
A2 extension amount Db and focus lens positions A1, A
It can be relatively defined from the delivery amount Da of 3. Therefore, it is assumed that the zoom lens position changes to Zb. Assuming that the tracking curve of the object distance L3 changes so as to keep the feed ratio Da / Db, which is the ratio of the feed amount by the focus lens positions A1 and A2, at a constant value, the feed amount from the position B1. D
c is obtained, and as a result, the position B3 is obtained. The feed ratio Da / Db, which is the constant value, is 1 which is the reference value of the tracking interpolation calculation applied to the embodiment described later.
Correspond to one.

【0006】しかしながら、実際の製品として製造され
るものは、レンズおよび鏡枠の製造上のバラツキを含ん
でいる。即ち、図27に示すような設計により求められ
た適正位置を与える設計値トラッキングカーブLT0.5
(被写体距離0.5 mに対するカーブ)〜LT∞(無限遠
の被写体距離に対するカーブ)に対して、実際の製品で
の適正位置を与えるトラッキングカーブは、例えば、図
28に示すように設計値トラッキングカーブLTからず
れた実際値トラッキングカーブLP0.5 〜LP∞とな
る。そして、トラッキング制御を行う場合、特に被写体
距離を考慮することなく、実際値トラッキングカーブL
Pがそれぞれ該当するライン間の領域R1,R2,R3
内を一定比で内挿されるものとしてトラッキング駆動カ
ーブを求め、トラッキングを実行する。従って、設計値
カーブLTと実際値カーブLPのカーブ形状が一致して
さえすれば、正しいトラッキング制御を行うことができ
る。
However, what is actually manufactured includes variations in manufacturing of the lens and the lens frame. That is, a design value tracking curve LT0.5 that gives an appropriate position determined by the design shown in FIG.
A tracking curve that gives a proper position in an actual product with respect to (curve for subject distance of 0.5 m) to LT∞ (curve for subject distance at infinity) is, for example, a design value tracking curve LT as shown in FIG. The actual value tracking curve deviates from LP0.5 to LP∞. When tracking control is performed, the actual value tracking curve L
Areas R1, R2, R3 between lines to which P corresponds respectively
The tracking drive curve is obtained by interpolating the inside with a constant ratio, and tracking is executed. Therefore, correct tracking control can be performed as long as the curve shapes of the design value curve LT and the actual value curve LP match.

【0007】また、トラッキング制御における設計値カ
ーブLTと実際値カーブLPのカーブ形状が一致しない
ようなカメラに対しては、本出願人が先に提案した特許
平4−288921号のカメラのズームトラッキング制
御方式が有効である。本トラッキング制御は、設計上の
設計値であるズームトラッキングカーブと実際のトラッ
キングカーブとの差の変化を2次曲線で近似し、その2
次曲線に沿ってトラッキング制御を行うものである。
Further, for a camera in which the curve shapes of the design value curve LT and the actual value curve LP in tracking control do not match, the zoom tracking of the camera of Japanese Patent Application Laid-Open No. 4-288921 proposed by the applicant of the present invention. The control method is effective. In this tracking control, the change in the difference between the zoom tracking curve, which is the designed value in design, and the actual tracking curve is approximated by a quadratic curve.
Tracking control is performed along the next curve.

【0008】そして、図29のトラッキングカーブに示
すように、実際値のトラッキングカーブLPと理論上の
設計値のトラッキングカーブLTとは、ズーム位置のワ
イド端(以下、W端と記載する)とテレ端(以下、T端
と記載する)で実際のトラッキングカーブLPを理論上
のトラッキングカーブLTに一致するように調節されて
いるものとする。
As shown by the tracking curve in FIG. 29, the actual value tracking curve LP and the theoretical design value tracking curve LT are the zoom position at the wide end (hereinafter referred to as the W end) and the telephoto end. It is assumed that the actual tracking curve LP is adjusted at the end (hereinafter referred to as the T end) so as to match the theoretical tracking curve LT.

【0009】図30のズームレンズ位置X1にて、フォ
ーカスレンズが合焦位置であるP1位置にあり、その
後、ズームレンズ位置X2までズーミングする場合の動
作について説明すると、まず、実際値カーブLP上の位
置であるフォーカスレンズ位置P1に対してW,T端が
一致する設計値カーブLT上のフォーカス位置P2を求
める。なお、この動作は、上記特願平4−288921
号に「WT間補正演算」として説明されている。
At the zoom lens position X1 of FIG. 30, the operation when the focus lens is at the focus position P1 position and then zooming to the zoom lens position X2 will be described. First, on the actual value curve LP. A focus position P2 on the design value curve LT where the W and T ends coincide with the focus lens position P1 which is the position is obtained. This operation is the same as the above-mentioned Japanese Patent Application No. 4-288921.
No. WT inter-WT correction calculation.

【0010】次に、この設計値ズームトラッキングカー
ブLTに沿ってズーム位置X2に対するフォーカスレン
ズ位置P3を求める。そこで、再度、ズームレンズ位置
X2での「WT間補正演算」を行う。即ち、設計値カー
ブLT上のフォーカス位置P3に対する実際値カーブ上
のフォーカスレンズの補正位置P4を求める。この位置
P4は、ズームレンズ位置X2において、現実に合焦が
得られる点である。最終的に、該ズームトラッキング補
正位置P4へ前記位置P1からフォーカスレンズの駆動
を行い、1つのズームトラッキング動作を終了すること
になる。
Next, the focus lens position P3 with respect to the zoom position X2 is obtained along the design value zoom tracking curve LT. Therefore, the “WT correction calculation” at the zoom lens position X2 is performed again. That is, the correction position P4 of the focus lens on the actual value curve with respect to the focus position P3 on the design value curve LT is obtained. This position P4 is a point at which actual focusing can be obtained at the zoom lens position X2. Finally, the focus lens is driven from the position P1 to the zoom tracking correction position P4, and one zoom tracking operation is completed.

【発明が解決しようとする課題】[Problems to be Solved by the Invention]

【0011】ところで、従来、スタンバイ処理が終了
し、マニュアルフォーカスモードからオートフォーカス
モードに切り換えられた場合、オートフォーカスを行う
被写体としては、画面中央の被写体が指定されてしま
い、撮影者の意志が反映されないといった課題を有して
いた。本発明は、従来のカメラのこのような課題を考慮
し、スタンバイ処理中、あるいは終了した後、マニュア
ルフォーカスモードからオートフォーカスモードに切り
換えられた場合、オートフォーカスを行う被写体に関し
て、撮影者の意志を反映することができるカメラを提供
することを目的とする。
Conventionally, when the standby process is completed and the manual focus mode is switched to the autofocus mode, the subject at the center of the screen is designated as the subject to be autofocused, and the intention of the photographer is reflected. There was a problem that it was not done. In consideration of such a problem of the conventional camera, the present invention, when the manual focus mode is switched to the auto focus mode during the standby process or after the completion of the standby process, changes the intention of the photographer with respect to the subject to be auto-focused. The purpose is to provide a camera that can be reflected.

【0012】[0012]

【課題を解決するための手段】本発明は、オートフォー
カスモードとマニュアルフォーカスモードとを選択的に
適用可能なカメラであって、記録の準備に係るスタンバ
イ動作中乃至その直後にはマニュアルフォーカスモード
が自動的に優先適用される第1の優先モードとなり記録
動作を行うための指令を認識して以降はオートフォーカ
スモードが自動的に優先適用される第2の優先モードと
なる優先モード選択手段を備えたカメラである。
SUMMARY OF THE INVENTION The present invention is a camera in which an auto focus mode and a manual focus mode can be selectively applied, and a manual focus mode is set during or immediately after a standby operation for recording preparation. A first priority mode is automatically applied, and a priority mode selection unit that recognizes a command for performing a recording operation and then becomes a second priority mode in which the autofocus mode is automatically applied first is provided. It is a camera.

【0013】[0013]

【作用】本発明では、優先モード選択手段により、記録
の準備に係るスタンバイ動作中乃至その直後にはマニュ
アルフォーカスモードが自動的に優先適用される第1の
優先モードとなり記録動作を行うための指令を認識して
以降はオートフォーカスモードが自動的に優先適用され
る第2の優先モードとなる。
According to the present invention, the priority mode selection means causes the manual focus mode to be the first priority mode in which the manual focus mode is automatically and preferentially applied during or immediately after the standby operation for recording preparation. After recognizing, the autofocus mode becomes the second priority mode in which priority is automatically applied.

【0014】[0014]

【実施例】以下、本発明の実施例を図に基づいて説明す
る。図1は、本発明のビデオカメラの主要構成を示す図
であって、本実施例のカメラは、ズームトラッキング制
御を行うことが可能なカメラである。そして、該ズーム
トラッキング制御は、前記従来の「テーブル補間演
算」,「WT間補正演算」等による行われるものとす
る。そして、本カメラのフォーカシング制御は、映像信
号中に含まれる高周波成分の高低に関して合焦判定を実
行する方式のものする。この方式では直接被写体の距離
情報そのものが得られない。そこで、本カメラでは、ス
トロボ撮影時、あるいは、ファインダに距離情報を表示
する場合等で被写体距離情報が必要になったときに、ズ
ームトラッキング制御に用いられるトラッキングカーブ
を用いて被写体距離情報を得ることが可能とする。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a main configuration of a video camera of the present invention, and the camera of the present embodiment is a camera capable of performing zoom tracking control. The zoom tracking control is performed by the conventional "table interpolation calculation", "WT correction calculation", and the like. Then, the focusing control of the present camera is of a type in which the focus determination is executed regarding the level of the high frequency component included in the video signal. In this method, the distance information itself of the subject cannot be directly obtained. Therefore, this camera obtains subject distance information using the tracking curve used for zoom tracking control when subject distance information is needed during flash photography or when distance information is displayed in the viewfinder. Is possible.

【0015】また、本実施例のカメラは、そのフォーカ
シング動作としては、マニュアルフォーカス(以下、M
Fと記載する)動作を優先する第1の優先モードである
MFモードとオートフォーカス(以下、AFと記載す
る)動作を優先する第2の優先モードであるFモードの
2モードを有し、更に、Fモード動作時にも一次的にM
F処理に切り換えることを可能とする。また、MFモー
ドで指定した合焦対象領域を、そのまま、Fモード動作
時のAF処理の合焦対象領域とすることを可能とするカ
メラである。
In the focusing operation of the camera of this embodiment, manual focusing (hereinafter referred to as M
And a second mode F, which is a second priority mode that prioritizes an autofocus (hereinafter, referred to as AF) operation, and an MF mode that is a first priority mode that prioritizes an operation. , Even when operating in F mode
It is possible to switch to F processing. Further, it is a camera that enables the focusing target area designated in the MF mode to be the focusing target area of the AF processing during the F mode operation as it is.

【0016】そこで、上記カメラは、被写体像を取り込
み、映像信号を出力するカメラ部101と、カメラ部1
01より出力された映像信号を所定の記録媒体に記録す
る記録部102と、上記カメラ部101と記録部102
の動作をコントロールするカメラ制御部103と、記録
動作と記録スタンバイ動作の指示を行う記録/スタンバ
イ(以下、REC/STANDBYと記載する)スイッ
チ104とで構成される。
Therefore, the camera described above captures a subject image and outputs a video signal, and a camera unit 101 and a camera unit 1.
01, a recording unit 102 for recording the video signal output from the recording medium 101 on a predetermined recording medium, the camera unit 101, and the recording unit 102.
And a recording / standby (hereinafter referred to as REC / STANDBY) switch 104 for instructing a recording operation and a recording standby operation.

【0017】上記カメラ部101の主要な構成は、図2
のブロック図に示すように4群構成のズームレンズであ
る固定レンズ群である第1群レンズ1,変倍用第2群レ
ンズのズームレンズ2、固定レンズ群で成る第3レンズ
群3,第4群レンズのフォーカスレンズ4と、被写体2
0の像を電気信号に変換するCCD5と、CCD5の撮
像信号を映像信号に変換し、図示しない記録回路等に出
力する映像回路6と、テレ、および、ワイド方向のズー
ム動作を指示するズームスイッチ12,13と、該ズー
ムスイッチ12,13の出力信号によりズームスイッチ
が押されたこととズームの方向を認識するズームスイッ
チ検出ブロック14と、EEPROM等で構成され、設
計値のズームトラッキングデータ保有手段としてのメモ
リ15と、上記ズームスイッチ12,13の信号に基づ
いて、ズームトラッキング制御を行う上記ズームトラッ
キング制御ブロック7と、上記ズームスイッチの信号に
基づいてズームレンズ2を駆動する上記ズームレンズ駆
動ブロック8と、ズームレンズ2の移動量を検出し、そ
の信号をズームトラッキング制御ブロック7に入力する
ズームエンコーダ9と、上記ズームトラッキング制御ブ
ロック7、および、AF制御ブロック10の出力に基づ
いてフォーカスレンズ4を駆動する駆動ブロックであっ
て、ステッピングモータ等を含んで構成されるフォーカ
スレンズ駆動ブロック11と、後述するAF制御ブロッ
ク10等により構成されている。
The main structure of the camera section 101 is shown in FIG.
As shown in the block diagram of FIG. 1, the first lens group 1 is a fixed lens group which is a zoom lens system with four lens groups, the zoom lens 2 is a second lens group for zooming, the third lens group 3 is a fixed lens group, and the third lens group is a third lens group. Focus lens 4 of the fourth group lens and subject 2
A CCD 5 for converting an image of 0 into an electric signal, a video circuit 6 for converting an image pickup signal of the CCD 5 into a video signal and outputting the video signal to a recording circuit (not shown), and a zoom switch for instructing a zoom operation in the tele and wide directions. 12, 13, a zoom switch detection block 14 for recognizing that the zoom switch has been pressed and the zoom direction by the output signals of the zoom switches 12, 13, and an EEPROM or the like, which is a zoom tracking data holding means of a designed value. 15, a zoom tracking control block 7 for performing zoom tracking control based on signals from the zoom switches 12 and 13, and a zoom lens drive block driving the zoom lens 2 based on signals from the zoom switch. 8 and the amount of movement of the zoom lens 2 are detected and the signal is zoomed A zoom encoder 9 input to the tracking control block 7, the zoom tracking control block 7, and a drive block that drives the focus lens 4 based on the outputs of the AF control block 10, and includes a stepping motor and the like. A focus lens driving block 11 and an AF control block 10 described later are included.

【0018】なお、本例のものでは前記第3群レンズ3
は固定であるが、ズームレンズ2の働きに合わせてフォ
ーカスレンズ4を補助するように移動するようにしても
よい。また、上記フォーカスレンズ4の移動位置につい
ては、駆動ブロック11がステッピングモータで構成さ
れることから検出の必要はないので、フォーカスレンズ
用のエンコーダは不要である。上記ズームトラッキング
制御ブロック7には、メモリ15に保有されるズームト
ラッキングデータを基礎とする補正演算を行う補正手段
と上記補正手段により算出されたフォーカスレンズの適
正位置の実際値に対応する距離を算出する演算手段も内
蔵している。
In this embodiment, the third lens group 3 is used.
Is fixed, but the focus lens 4 may be moved in accordance with the function of the zoom lens 2. Further, the moving position of the focus lens 4 does not need to be detected because the drive block 11 is composed of a stepping motor, so that an encoder for the focus lens is unnecessary. The zoom tracking control block 7 calculates a distance corresponding to the actual value of the correct position of the focus lens calculated by the correction means for performing a correction calculation based on the zoom tracking data stored in the memory 15. It also has a built-in calculation means.

【0019】上記AF制御ブロック10は、映像回路ブ
ロック6より、映像信号に含まれている合焦の度合いを
示すAF評価情報、この場合、山登り合焦方式における
コントラスト情報を抽出し、フォーカスレンズ駆動ブロ
ック11に対してフォーカスレンズのAF制御信号を出
力するブロックであって、後述するMFモードでの合焦
調節の対象に関する情報を保持する合焦対象情報保持手
段と、該合焦対象情報保持手段での保持情報に対応する
合焦調節の対象についてAFによる合焦調節動作を開始
するため合焦対象認識手段をも内蔵している。
The AF control block 10 extracts from the video circuit block 6 AF evaluation information indicating the degree of focusing included in the video signal, in this case, contrast information in the hill climbing focusing method, and drives the focus lens. A block for outputting an AF control signal of the focus lens to the block 11, a focusing target information holding unit that holds information regarding a target of focusing adjustment in an MF mode described later, and the focusing target information holding unit. A focus object recognition unit is also built in for starting the focus adjustment operation by AF for the focus adjustment target corresponding to the held information in (3).

【0020】該AF制御ブロック10の詳細な構成は、
図3に示されるように映像信号を取り込むBPF(バン
ドパス フィルタ)21と、BPF21で抽出された高
周波信号をA/D変換するA/D変換回路22と、該A
/D変換出力を撮影画面40上、例えば、分割エリアA
〜Iに9分割する(図4参照)エリア分割回路23と、
各エリアに対応する抽出信号を積分し、該積分値をAF
演算回路25に出力する積分回路24と、被写体の輝度
情報,色情報,画角情報を取り込み、対応する動体であ
る被写体の追尾エリアを検出する追尾回路28と、上記
積分回路24からの積分値より求められるAF評価値の
高いエリアをAF目標エリアとするか、あるいは、追尾
回路28からの追尾エリアを合焦対象領域であるAF目
標エリアとし、上記AF目標エリアに対してレンズ制御
系の合焦制御を行うAF演算回路25と、MF動作とA
F動作のモード切り換え指示を行うモード切り換え手段
であるMF/AFスイッチ32と、MFモードにおい
て、近距離方向へのフォーカシングを指示する近距離方
向操作手段の近距離フォーカス用のMFスイッチ30
と、同じくMFモードにおいて、遠距離方向へのフォー
カシングを指示する遠距離方向操作手段の遠距離フォー
カス用のMFスイッチ31と、該MF/AFスイッチ3
2,MFスイッチ30,31からの出力を制御信号に変
換して上記AF演算回路25へ出力するスイッチ検出回
路29と、AF演算回路25により実行されるAF動作
モードやAFエリア等の情報の表示データを電子ビュー
ファインダ(以下、EVFと記載する)27に出力する
表示回路26と、上記EVF27とで構成されている。
The detailed structure of the AF control block 10 is as follows.
As shown in FIG. 3, a BPF (bandpass filter) 21 for taking in a video signal, an A / D conversion circuit 22 for A / D converting the high frequency signal extracted by the BPF 21, and the A
The D / D conversion output is displayed on the shooting screen 40, for example, in the divided area A.
An area division circuit 23 that divides the image into 9 to I (see FIG. 4),
The extracted signal corresponding to each area is integrated, and the integrated value is AF-converted.
An integration circuit 24 for outputting to the arithmetic circuit 25, a tracking circuit 28 for detecting the tracking area of the corresponding moving subject by taking in the brightness information, color information, and angle of view information of the object, and the integrated value from the integration circuit 24. An area having a higher AF evaluation value obtained more is set as an AF target area, or a tracking area from the tracking circuit 28 is set as an AF target area which is a focusing target area, and a lens control system is combined with the AF target area. AF calculation circuit 25 for performing focus control, MF operation and A
An MF / AF switch 32 which is a mode switching means for instructing a mode switching of the F operation, and an MF switch 30 for short-distance focusing of a short-distance direction operation means for instructing focusing in the short-distance direction in the MF mode.
Similarly, in the MF mode, the MF switch 31 for long-distance focusing of the long-distance direction operation means for instructing focusing in the long-distance direction, and the MF / AF switch 3
2, a switch detection circuit 29 that converts the output from the MF switches 30 and 31 into a control signal and outputs the control signal to the AF operation circuit 25, and a display of information such as the AF operation mode and AF area executed by the AF operation circuit 25. The display circuit 26 outputs data to an electronic viewfinder (hereinafter referred to as EVF) 27, and the EVF 27.

【0021】なお、上記MFスイッチ30と、MFスイ
ッチ31とは、共に2段動作式スイッチであって、これ
らのスイッチの操作部に指が接触したとき、まず、第1
段階の操作信号を出力する静電容量型の第1段スイッチ
30a,31aと、更に押圧したとき、第2段階の操作
信号を出力する第2段スイッチ30b、31bとで構成
されている。なお、上記スイッチ30a,30bは、静
電容量型でなく、2段押し動作スイッチの一段目スイッ
チを適用してもよい。また、上記MFスイッチ30,3
1を回動リングに連動するスイッチ構造としてもよい。
この場合は、スイッチ30a,31aを該リングに指が
接触したことを検出する静電容量型のスイッチとし、ス
イッチ30b,31bをリンクの回動に伴いパルス信号
を出力する構成のスイッチとする。
It should be noted that the MF switch 30 and the MF switch 31 are both two-stage operation switches, and when a finger touches the operating portion of these switches, first, the first
It is composed of capacitance-type first-stage switches 30a and 31a that output a stepwise operation signal, and second-stage switches 30b and 31b that output a second-step operation signal when further pressed. The switches 30a and 30b may be first-stage switches of the two-stage push operation switch instead of the capacitance type. In addition, the MF switches 30, 3
1 may be a switch structure that interlocks with the rotating ring.
In this case, the switches 30a and 31a are capacitance-type switches that detect the contact of a finger with the ring, and the switches 30b and 31b are switches that output a pulse signal as the link rotates.

【0022】以上のように構成された本例のカメラの被
写体距離情報の演算処理動作について説明する。なお、
この演算処理では、ズームトラッキング演算等を実施す
るが、そのとき直接、ズームレンズ2やフォーカスレン
ズ4を駆動するわけではなく、ただズームトラッキング
演算等を行って該当する被写体距離情報を求める演算を
行うのみである。
The calculation processing operation of the subject distance information of the camera of the present example configured as described above will be described. In addition,
In this calculation process, a zoom tracking calculation or the like is executed, but at that time, the zoom lens 2 or the focus lens 4 is not directly driven, but only the zoom tracking calculation or the like is performed to calculate the corresponding object distance information. Only.

【0023】図5は、本カメラのズームトラッキングカ
ーブの一例を示した図であって、横軸は、ズームレンズ
2の位置であってW端位置をZWとし、T端位置をZT
とする。更に、現在のズームレンズ位置をZSとする。
縦軸は、フォーカスレンズ4の位置を示す。そして、ト
ラッキングカーブLT∞,LTb,LTaは、それぞれ
被写体距離∞(無限遠),2m,1mに対する設計値ト
ラッキングカーブとする。トラッキングカーブLTaの
W、および、T端をトラッキング点PE、PCとする。
また、設計値カーブLTb,LT∞のT端のトラッキン
グ点PD、P∞とする。そして、トラッキング点PC,
PDに対するフォーカスレンズ位置をFT1,FT2と
する。更に、上記トラッキング点P∞とトラッキング点
PC,PD間のフォーカスレズ位置差をXT1,XT2
とする。一方、W端におけるLTa,LT∞のトラッキ
ング点のフォーカスレンズ位置の差の値をXW1とす
る。
FIG. 5 is a diagram showing an example of the zoom tracking curve of this camera. The horizontal axis is the position of the zoom lens 2, the W end position is ZW, and the T end position is ZT.
And Further, the current zoom lens position is ZS.
The vertical axis represents the position of the focus lens 4. The tracking curves LT ∞, LTb, and LTa are design value tracking curves for the subject distances ∞ (infinity), 2 m, and 1 m, respectively. The W and T ends of the tracking curve LTa are tracking points PE and PC.
Further, the tracking points PD and P∞ at the T end of the design value curves LTb and LT∞ are set. Then, the tracking point PC,
The focus lens positions with respect to PD are FT1 and FT2. In addition, the focus-less position difference between the tracking point P∞ and the tracking points PC and PD is calculated as XT1 and XT2.
And On the other hand, the difference between the focus lens positions of the tracking points LTa and LT∞ at the W end is XW1.

【0024】また、現在のズームレンズ位置ZSにおけ
る実際に合焦位置にあるとするフォーカスレンズ位置を
FSOとし、そのトラッキング点PAを通る実際値トラ
ッキングカーブをLPbとする。このカーブのW、およ
び、T端のトラッキング点は、予め調整されており、そ
のカーブに近い設計値カーブLTa上の点PE,PCと
一致している。そして、現在、フォーカスレンズ4が合
焦状態にある被写体の距離に対して設計上合焦するトラ
ッキングカーブが上記設計カーブLTbとする。なお、
ズームレンズ位置ZSのトラッキングカーブLPb,L
Ta,LT∞上のトラッキング点をPA,PB,PSと
する。そして、トラッキング点PAとPBに対するフォ
ーカスレンズ位置をFSO,FS1とする。更に、トラ
ッキング点PBとPSのフォーカスレンズ位置の差の値
をXS1とする。
Further, the focus lens position which is actually in the in-focus position at the current zoom lens position ZS is FSO, and the actual value tracking curve passing through the tracking point PA is LPb. The tracking points at the W and T ends of this curve are adjusted in advance and coincide with the points PE and PC on the design value curve LTa close to the curve. Then, the tracking curve designed by the focus lens 4 to focus on the distance of the object in focus is the design curve LTb. In addition,
Tracking curves LPb, L of zoom lens position ZS
The tracking points on Ta and LT∞ are PA, PB and PS. Then, the focus lens positions with respect to the tracking points PA and PB are set to FSO and FS1. Further, the value of the difference between the focus lens positions of the tracking points PB and PS is XS1.

【0025】上記図5のトラッキングカーブ上の値を適
用して、図6に示す距離情報演算処理のフローについて
説明すると、まず、ステップS1,2にて現在のフォー
カスレンズ位置FSOとズームレンズ位置ZSを読み取
る。ステップS3にて「WT間補正演算」処理を行い、
W端、T端が一致する設計値カーブLTaを選択して、
そのカーブのズームレンズ位置ZS上でのフォーカスレ
ンズ位置FS1を算出する。なお、この「WT間補正演
算」の処理は、前記特願平4−288921号のカメラ
のズームトラッキング制御方式で説明した処理と同一で
ある。
The flow of the distance information calculation process shown in FIG. 6 will be described by applying the values on the tracking curve of FIG. 5 above. First, in steps S1 and S2, the current focus lens position FSO and zoom lens position ZS are present. To read. In step S3, the "WT correction calculation" process is performed,
Select the design value curve LTa where the W and T ends match,
The focus lens position FS1 on the zoom lens position ZS of the curve is calculated. The process of "correction calculation between WTs" is the same as the process described in the zoom tracking control system of the camera of Japanese Patent Application No. 4-288921.

【0026】ついで、ステップS4にて、演算基準値の
演算を行う。この演算基準値の演算方式としては、後述
するように3通りの方式があって、テーブル補間演算に
よる基準繰り出し比Da/Db、あるいは、W端(ズー
ムレンズ位置ZW)でのカーブLTa,LT∞上のフォ
ーカスレンズ位置の差XW1を求める。そして、ステッ
プS5にて、T端のズームレンズ位置ZTを取り込む。
ステップS6で設計値カーブLTaに沿ったズームトラ
ッキング演算を行って、ズームレンズ位置ZTでのフォ
ーカスレンズ位置FT1を求めるが、この演算方式にも
後述するように上記ステップS4の処理に対応して、3
通りの方式がある。ついで、ステップS7において、上
記フォーカスレンズ位置FT1に基づいて、現合焦被写
体距離に対応した設計値カーブLTb上のT端のフォー
カスレンズ位置FT2との繰り出し量のずれを求め、そ
の値から該フォーカスレンズ位置FT2を求める。な
お、上記繰り出し量のずれを求める演算式は、 繰り出し量のずれ=FT1−FT2=P×XT1+Q …………(1) で示される。但し、上記値P,Qはそれぞれレンズ固有
の値であって、組立調節時に測定され、EEPROM等
に格納されている。
Then, in step S4, the calculation reference value is calculated. As the calculation method of the calculation reference value, there are three methods as will be described later, and there are the reference extension ratio Da / Db by the table interpolation calculation, or the curves LTa and LT∞ at the W end (zoom lens position ZW). The difference XW1 between the upper focus lens positions is obtained. Then, in step S5, the zoom lens position ZT at the T end is captured.
In step S6, zoom tracking calculation along the design value curve LTa is performed to obtain the focus lens position FT1 at the zoom lens position ZT. This calculation method also corresponds to the process of step S4 described above, as will be described later. Three
There is a street method. Next, in step S7, based on the focus lens position FT1, a shift in the amount of extension from the focus lens position FT2 at the T end on the design value curve LTb corresponding to the currently focused object distance is obtained, and from that value the focus is calculated. The lens position FT2 is obtained. The calculation formula for obtaining the deviation of the feeding amount is expressed by the following formula: deviation of feeding amount = FT1-FT2 = P × XT1 + Q (1) However, the above values P and Q are values unique to each lens, are measured at the time of assembly adjustment, and are stored in the EEPROM or the like.

【0027】次に、ステップS8で上記フォーカスレン
ズ位置FT2より該当する被写体距離L2を求める。そ
の演算式は、 L2=−(f2 /XT2)…………………………………(2) とする。ステップS9にて上記被写体距離L2のデータ
を図示しないストロボ制御系、または、表示回路26に
出力する。その後、本処理を終了する。
Next, in step S8, a corresponding subject distance L2 is obtained from the focus lens position FT2. Its calculation formula, L2 = - a (f 2 / XT2) ....................................... ( 2). In step S9, the data of the subject distance L2 is output to a strobe control system (not shown) or the display circuit 26. After that, this processing ends.

【0028】ここで、上記ステップS4、および、ステ
ップS6でコールされるサブルーチン処理の3通りの方
式について説明する。まず、第1の方式のものは、テー
ブル補間によりズームトラッキング演算のための演算基
準値となる基準繰り出し比を求め、ズームトラッキング
演算を行う演算方式のものである。図7,8は、それぞ
れステップS4,6でコールされるサブルーチン「演算
基準値の演算」,「ズームトラッキング演算」のフロー
チャートである。なお、本方式を採用する場合は、RO
M等のメモリ中にテーブル補間のために、8〜10本の
トラッキングカーブデータを記憶させておく必要があ
る。
Now, three methods of the subroutine processing called in the above step S4 and step S6 will be described. First, the first method is an operation method of performing zoom tracking calculation by obtaining a reference extension ratio which is an operation reference value for zoom tracking calculation by table interpolation. 7 and 8 are flowcharts of subroutines "calculation of calculation reference value" and "zoom tracking calculation" which are called in steps S4 and S6, respectively. In addition, when adopting this method, RO
It is necessary to store 8 to 10 tracking curve data in the memory such as M for table interpolation.

【0029】図7のサブルーチン「演算基準値の演算」
においては、まず、ステップS11にて、該当する設計
値トラッキングカーブ、例えば、図5でカーブLTaが
トラッキングカーブ群間のどのエリア、例えば、図27
で示す領域(エリア)R3,R2,R1の何れにあるか
をチェックする。ステップS12で該当するエリアの上
下のフォーカスレンズ位置を読み込む。例えば、該エリ
アが図26で示すカーブL2,L1間のエリアであれ
ば、トラッキング点A2,A1のフォーカスレンズ位置
FA2,FA1の値を読み込む。ステップS13にて上
記レンズ位置FA2,FA1の値の差を演算し、繰り出
し量Daを求める。更に、ステップS14でズームレン
ズ位置ZS上の上記カーブLTa上のフォーカスレンズ
位置FS1、即ち、該カーブが図26のカーブL3上で
は、レンズ位置FA3に対する前記フォーカスレンズ位
置FA1との差を演算し、繰り出し量Dbを求める。続
いて、ステップS15でトラッキング演算のための演算
基準値、ここでは、基準繰り出し比Da/Dbを演算す
る。
Subroutine "calculation of calculation reference value" in FIG.
In step S11, first, in step S11, a corresponding design value tracking curve, for example, the curve LTa in FIG.
It is checked which one of the areas (areas) R3, R2 and R1 indicated by. In step S12, the focus lens positions above and below the corresponding area are read. For example, if the area is the area between the curves L2 and L1 shown in FIG. 26, the values of the focus lens positions FA2 and FA1 at the tracking points A2 and A1 are read. In step S13, the difference between the values of the lens positions FA2 and FA1 is calculated to obtain the payout amount Da. Further, in step S14, the focus lens position FS1 on the curve LTa on the zoom lens position ZS, that is, on the curve L3 in FIG. 26, the difference between the focus lens position FA1 and the lens position FA3 is calculated, The feeding amount Db is calculated. Subsequently, in step S15, a calculation reference value for tracking calculation, here, a reference payout ratio Da / Db is calculated.

【0030】次に、サブルーチン「ズームトラッキング
演算」の処理について説明する。まず、ステップS21
において、ズームレンズ位置Zb上でのトラッキングカ
ーブL2,L1のトラッキング点B2,B1のフォーカ
スレンズ位置FB2,FB1を求める(図26参照)。
なお、上記ズームレンズ位置Zbは、本例の場合、図5
のT端でのズームレンズ位置ZTを対応させる。ステッ
プS22において、レンズ位置FB2,FB1の差を演
算して、繰り出し量Ddを求める。更に、ステップS2
3で繰り出し量Ddと、前記図7のサブルーチン「演算
基準値の演算」で求めた標準繰り出し比Da/Dbとか
ら、図26のズームレンズ位置Zbでの繰り出し量Dc
を演算する。ステップS24で図26上での目標とする
フォーカスレンズ位置FB3を上記レンズ位置FB1と
繰り出し量Dcとから求める。このレンズ位置FB3
は、図5上では、ズームレンズ位置のT端でのトラッキ
ング点Pcに対するフォーカスレンズ位置FT1に相当
する。
Next, the processing of the subroutine "zoom tracking calculation" will be described. First, step S21
At, the focus lens positions FB2 and FB1 of the tracking points B2 and B1 of the tracking curves L2 and L1 on the zoom lens position Zb are obtained (see FIG. 26).
The zoom lens position Zb is set as shown in FIG.
The zoom lens position ZT at the T end of is corresponded. In step S22, the difference between the lens positions FB2 and FB1 is calculated to obtain the extension amount Dd. Further, step S2
3 and the standard extension ratio Da / Db obtained by the "calculation of the calculation reference value" subroutine in FIG. 7, the extension amount Dc at the zoom lens position Zb in FIG.
Is calculated. In step S24, the target focus lens position FB3 on FIG. 26 is obtained from the lens position FB1 and the extension amount Dc. This lens position FB3
5 corresponds to the focus lens position FT1 with respect to the tracking point Pc at the T end of the zoom lens position in FIG.

【0031】次に、前記ステップS4、および、ステッ
プS6の処理の3通りの方式のうちの第2の方式は、被
写体距離∞でのトラッキングカーブデータと、各ズーム
位置に対応する繰り出し比とから演算基準値となるW端
繰り出し量を求め、ズームトラッキング演算を行う演算
方式である。図9,10は、それぞれステップS4,6
でコールされるサブルーチン「演算基準値の演算」,
「ズームトラッキング演算」のフローチャートである。
なお、本方式を採用する場合は、ROM等のメモリ中に
被写体距離∞でのトラッキングカーブデータと、W端繰
り出し量に対する繰り出し量の比率である繰り出し比デ
ータ(比DATA)を記憶させておく必要がある。な
お、この繰り出し比データ等の詳細については、特願平
4−268877号に記載されている。
Next, the second method of the three methods of the processing of steps S4 and S6 is based on the tracking curve data at the object distance ∞ and the extension ratio corresponding to each zoom position. This is a calculation method in which the amount of W edge extension, which is a calculation reference value, is obtained and zoom tracking calculation is performed. 9 and 10 show steps S4 and S6, respectively.
Sub-routine called "Calculation of calculation reference value",
It is a flowchart of "zoom tracking calculation."
When this method is adopted, it is necessary to store the tracking curve data at the object distance ∞ and the feed ratio data (ratio DATA) which is the ratio of the feed amount to the W end feed amount in a memory such as a ROM. There is. The details of the feed-out ratio data and the like are described in Japanese Patent Application No. 4-268877.

【0032】図9のサブルーチン「演算基準値の演算」
においては、まず、ステップS31にて、現実のフォー
カスレンズ位置FS0に対応する設計上のフォーカスレ
ンズ位置FS1と、ROMに記憶されているデータであ
って、ズームレンズ位置ZSでの被写体距離∞対応の繰
り出し量∞DATA(ZS)とから繰り出し量XS1
(図5参照)を求める。ステップS32にてズームレン
ズ位置ZS対応値であって、ROMに記憶されている繰
り出し比DATA(ZS)と、上記繰り出し量XS1と
から演算基準値となるW端繰り出し量XW1を求め、本
サブルーチンの処理を終了する。
Subroutine "calculation of calculation reference value" in FIG.
In step S31, first, in step S31, the designed focus lens position FS1 corresponding to the actual focus lens position FS0 and the data stored in the ROM that correspond to the object distance ∞ at the zoom lens position ZS. Feed amount ∞DATA (ZS) and feed amount XS1
(See FIG. 5). In step S32, the W-end feed-out amount XW1, which is the zoom lens position ZS-corresponding value and is the calculation reference value, is obtained from the feed-out ratio DATA (ZS) stored in the ROM and the feed-out amount XS1. The process ends.

【0033】次に、図10に示されるサブルーチン「ズ
ームトラッキング演算」の処理について説明する。ま
ず、ステップS35において、図5におけるT端での繰
り出し量XT1を上記W端に対応する繰り出し量XW1
と比DATA(ZT)とから求める。ステップS36に
おいて、上記T端での繰り出し量XT1とROMに記憶
されている被写体距離∞での繰り出し量∞DARA(Z
T)とから目標フォーカスレンズ位置FT1を演算し、
本サブルーチンの処理を終了する。
Next, the processing of the subroutine "zoom tracking calculation" shown in FIG. 10 will be described. First, in step S35, the payout amount XT1 at the T end in FIG. 5 is changed to the payout amount XW1 corresponding to the W end.
And the ratio DATA (ZT). In step S36, the extension amount XT1 at the T end and the extension amount ∞ DARA (Z
The target focus lens position FT1 is calculated from
The processing of this subroutine ends.

【0034】続いて、前記ステップS4、および、ステ
ップS6の処理の3通りの方式のうち、第3の方式のも
のは、被写体距離∞でのトラッキングカーブデータと、
各ズームレンズ位置に対応する係数α,βから演算され
る繰り出し比とから演算基準値となるW端繰り出し量を
求め、ズームトラッキング演算を行う演算方式である。
図11,12は、それぞれステップS4,6でコールさ
れるサブルーチン「演算基準値の演算」,「ズームトラ
ッキング演算」のフローチャートである。なお、本方式
を採用する場合、ROM等のメモリ中には、被写体距離
∞でのトラッキングカーブデータと、各ズームレンズ位
置に対応した繰り出し比を求めるための係数α,βと、
T端でのW端繰り出し量に対する1つのデータである繰
り出し比データ(比DATA(ZT))を記憶させて置
く必要がある。なお、この繰り出し比データ等の詳細に
ついては、特願平4−268877号に記載されてい
る。
Subsequently, of the three methods of the processing of steps S4 and S6, the third method is tracking curve data at the object distance ∞,
This is a calculation method in which the zoom tracking calculation is performed by obtaining the W-end extension amount that is the calculation reference value from the extension ratio calculated from the coefficients α and β corresponding to each zoom lens position.
11 and 12 are flowcharts of subroutines "calculation of calculation reference value" and "zoom tracking calculation" which are called in steps S4 and S6, respectively. When this method is adopted, the tracking curve data at the subject distance ∞ and the coefficients α and β for obtaining the extension ratio corresponding to each zoom lens position are stored in the memory such as the ROM.
It is necessary to store and store the feed-out ratio data (ratio DATA (ZT)) which is one data for the W-end feed-out amount at the T-end. The details of the feed-out ratio data and the like are described in Japanese Patent Application No. 4-268877.

【0035】図11のサブルーチン「演算基準値の演
算」においては、まず、ステップS41にて、現実のフ
ォーカスレンズ位置FS0に対応する設計上のフォーカ
スレンズ位置FS1と、ROMに記憶されているデータ
であって、ズームレンズ位置ZSでの被写体距離∞対応
の繰り出し量∞DATA(ZS)とから繰り出し量XS
1(図5参照)を求める。ステップS42にてズームレ
ンズ位置ZS対応値であって、比DATA(ZS)を求
めるための係数α(ZS),係数β(ZS)と、上記繰
り出し量XS1から繰り出し比である比DATA(Z
S)を求める。更に、ステップS43で上記繰り出し量
XS1と、上記繰り出し比(比DATA(ZS))とか
ら演算基準値となるW端繰り出し量XW1を求め、本サ
ブルーチンの処理を終了する。
In the subroutine "calculation of calculation reference value" of FIG. 11, first, in step S41, the designed focus lens position FS1 corresponding to the actual focus lens position FS0 and the data stored in the ROM are used. Therefore, the extension amount XS corresponding to the subject distance ∞ at the zoom lens position ZS and the extension amount XS from the extension amount ∞DATA (ZS).
1 (see FIG. 5). In step S42, the zoom lens position ZS corresponding value, the coefficient α (ZS) and the coefficient β (ZS) for obtaining the ratio DATA (ZS), and the ratio DATA (Z, which is the feed ratio from the feed amount XS1.
S) is calculated. Further, in step S43, the W-end feed-out amount XW1, which is a calculation reference value, is obtained from the feed-out amount XS1 and the feed-out ratio (ratio DATA (ZS)), and the processing of this subroutine ends.

【0036】次に、図12に示されるサブルーチン「ズ
ームトラッキング演算」の処理について説明する。ま
ず、ステップS45において、T端での繰り出し比(比
DATA(ZT))をROMから読み出す。ステップS
46において、図5におけるT端での繰り出し量XT1
を上記W端に対応する繰り出し量XW1と上記比DAT
A(ZT)とから求める。ステップS47において、上
記T端での繰り出し量XT1とROMに記憶されている
被写体距離∞での繰り出し量∞DATA(ZT)とから
目標フォーカスレンズ位置FT1を演算し、本サブルー
チンの処理を終了する。
Next, the processing of the subroutine "zoom tracking calculation" shown in FIG. 12 will be described. First, in step S45, the feed ratio (ratio DATA (ZT)) at the T end is read from the ROM. Step S
46, the feeding amount XT1 at the T end in FIG.
Is the feed amount XW1 corresponding to the W end and the ratio DAT
Calculated from A (ZT). In step S47, the target focus lens position FT1 is calculated from the extension amount XT1 at the T end and the extension amount ∞DATA (ZT) at the subject distance ∞ stored in the ROM, and the processing of this subroutine ends.

【0037】以上述べたように本例のカメラの被写体距
離情報演算処理においては、ストロボ撮影,被写体距離
の表示等で距離情報が必要になった場合、仮想的に、即
ち、実際にレンズ駆動することなく演算上のみでT端ま
でズームトラッキングを行う。この際、製造上のバラツ
キ補正を行う。そして、T端での繰り出し量ずれ補正式
(前記式(1))をもとに補正し、正確な距離情報を得
ることができる。本演算処理の特徴は、既存の電気的ズ
ームトラッキング制御処理をそのまま利用し、T端にお
ける上記繰り出し量ずれ補正式で正確な距離が求められ
る点にある。
As described above, in the subject distance information calculation processing of the camera of this example, when distance information is needed for stroboscopic photography, display of subject distance, etc., the lens is driven virtually, that is, the lens is actually driven. Without performing the zoom tracking to the T end only by calculation. At this time, manufacturing variation correction is performed. Then, it is possible to obtain accurate distance information by performing correction based on the feed amount deviation correction formula at the T end (the above formula (1)). The feature of this calculation processing is that the existing electric zoom tracking control processing is used as it is, and an accurate distance is obtained by the above-described formula for correcting the amount of extension at the T end.

【0038】なお、本例のものでは、被写体距離を求め
るためのトラッキング演算をズームレンズ位置のT端で
行うようにしたが、これに限らず、他のズームレンズ位
置、あるいは、複数のズームレンズ位置でトラッキング
演算を行うようにしてもよい。要は、トラッキング演算
により上記繰り出し量のずれを求めて、正確な当該被写
体距離を求めるようにすればよい。
In this example, the tracking calculation for obtaining the subject distance is performed at the T end of the zoom lens position. However, the present invention is not limited to this, and another zoom lens position or a plurality of zoom lens positions is used. The tracking calculation may be performed at the position. In short, it suffices to find the shift in the amount of extension by tracking calculation and find the correct subject distance.

【0039】また、本例のようにトラッキング演算点を
W端ではなくT端上に選択した理由は、一般に各被写体
距離に対するW端側でのトラッキングカーブの間隔は狭
く、T端側でのトラッキングカーブの間隔は広くなって
おり、選択性がよいことから、該演算をT端側で行った
方が精度がよくなるためである。
Further, the reason why the tracking calculation point is selected not on the W end but on the T end as in this example is that the tracking curve interval on the W end side for each subject distance is generally narrow and the tracking on the T end side is narrowed. This is because the interval of the curve is wide and the selectivity is good, so that the precision is better when the calculation is performed on the T end side.

【0040】次に、本実施例のビデオカメラのフォーカ
シング動作について前記図1〜図3のブロック構成図、
また、図13〜図18のフローチャート等を用いて説明
する。従来、ビデオカメラにおけるフォーカシング制御
においては、中央領域重点式のAF(オートフォーカ
ス)動作で、中抜け合焦動作、あるいは、主要被写体の
前を移動物が通過したときAF動作が不自然になる横切
り時の不安定合焦動作等が発生すると予想されたとき、
これを防止するため、その度毎にMF(マニュアルフォ
ーカス)動作に切り換えて撮影していた。従って、動作
が煩雑化するばかりでなく、撮影のタイミングがずれる
ことも避けられなかった。
Next, the focusing operation of the video camera of the present embodiment will be described with reference to the block diagrams of FIGS.
Further, description will be made with reference to the flowcharts of FIGS. Conventionally, in focusing control in a video camera, a central area-focusing AF (autofocus) operation is used to perform a hollow focus operation, or a horizontal crossing that makes the AF operation unnatural when a moving object passes in front of the main subject. When it is predicted that unstable focusing operation at the time will occur,
In order to prevent this, the photographer switches to the MF (manual focus) operation each time. Therefore, not only the operation becomes complicated, but also the timing of shooting is inevitable.

【0041】また、従来のものではAFモードとMF
(マニュアルフォーカス)モードとは独立した処理が行
われており、互いの情報を渡し合う等の処理はなされて
いなかった。即ち、システム的にはMFモードでもAF
のための評価値、例えば、コントラスト情報が得られる
のに、特に利用されることなく、回路に無駄な電力を消
費するだけであった。また、MFモードからAFモード
に切り換えられた場合、合焦対象領域は画面中央にセッ
トされ、撮影者の意志は反映されにくかった。そのよう
な場合、撮影者がどこを見ているかを検出する視線検知
センサを組み込み、そのセンサの出力により合焦対象領
域を決定するカメラも提案されている。しかし、その制
御部は大型化し、高価な製品になってしまう。
Further, in the conventional one, the AF mode and the MF are
Processing independent of the (manual focus) mode is performed, and processing such as mutual information exchange is not performed. In other words, systematic AF is possible even in MF mode.
The evaluation value for, for example, the contrast information is obtained, but it is not particularly used, and the circuit consumes unnecessary power. Further, when the MF mode is switched to the AF mode, the focusing target area is set in the center of the screen, and it is difficult to reflect the intention of the photographer. In such a case, there is also proposed a camera that incorporates a line-of-sight detection sensor that detects where the photographer is looking, and determines the focusing target area based on the output of the sensor. However, the control unit becomes large and becomes an expensive product.

【0042】更にまた、従来のカメラでは、AF,AE
(自動露出制御)におけるターゲットとなる被写体の自
動追尾機能を内蔵するものも製品化されているが、撮影
の最初に対象被写体を捕捉し、ロックする操作が煩雑で
あった。即ち、画面中央に被写体を入れ、被写体をロッ
クするスイッチを押圧する等煩雑な作業を必要とした。
更に、画面任意の位置に対象被写体を位置させることが
できず、不自然な撮影画面になっていた。また、他に被
写体を捕捉する方法として、画面上の任意の位置情報を
トラックボール,ジョイスティック等により入力し、そ
の後、被写体ロックスイッチを操作する方法も考えられ
るが、やはリ操作が煩雑でコスト上も不利となり、更
に、トラックボール,ジョイスティック等の操作が手ブ
レ撮影につながっていた。
Furthermore, in the conventional camera, AF, AE
A product having a built-in automatic tracking function of a target subject in (automatic exposure control) has also been commercialized, but the operation of capturing and locking the target subject at the beginning of shooting was complicated. That is, a complicated work such as putting a subject in the center of the screen and pressing a switch for locking the subject is required.
Furthermore, the target subject cannot be positioned at any position on the screen, resulting in an unnatural shooting screen. Another method for capturing the subject is to input arbitrary position information on the screen with a trackball, a joystick, etc., and then operate the subject lock switch. However, the re-operation is complicated and costly. It was also a disadvantage, and the operation of the trackball, joystick, etc. also led to camera shake photography.

【0043】本カメラは、上述の各不具合点を解決する
フォーカシング制御を可能とするものであり、自動追尾
によるAF制御を行うカメラであって、そのフォーカシ
ング制御は、前記図2,3に示したAF制御ブロック1
0等によって行われる。
This camera enables focusing control for solving the above-mentioned problems, and is a camera for performing AF control by automatic tracking. The focusing control is shown in FIGS. AF control block 1
0 etc.

【0044】すなわち、次に本発明の一実施例を説明す
る。まず、カメラのパワースイッチがオン状態になる
と、図13に示す撮影メインルーチンの処理が開始され
る。そして、ステップS51にて、図1に示すカメラ部
101,記録部102等の初期設定を行う。そのとき、
AF処理における合焦対象エリアを中央に設定する。ス
テップS52において、REC/STANDBYスイッ
チ104のオンオフをチェックする。STANDBY側
がオンの場合、ステップS53へ進み、REC側がオン
の場合、ステップS55にジャンプする。
That is, one embodiment of the present invention will be described. First, when the power switch of the camera is turned on, the processing of the shooting main routine shown in FIG. 13 is started. Then, in step S51, the camera unit 101, the recording unit 102, and the like shown in FIG. 1 are initialized. then,
The focus area in the AF process is set to the center. In step S52, it is checked whether the REC / STANDBY switch 104 is on or off. If the STANDBY side is on, the process proceeds to step S53, and if the REC side is on, the process jumps to step S55.

【0045】上記ステップS53では、カメラ部10
1,記録部102を記録動作のためスタンバイ処理を行
う。そして、ステップS54に進み、後述するマニュア
ルフォーカスが優先適用されるサブルーチン「MF処
理」がコールされる。一方、ステップS55では、カメ
ラ部101から出力される映像信号を記録部102にて
記録する記録動作処理を行う。そして、ステップS56
に進み、後述するAF動作優先であるがMF動作も容易
に選択可能なサブルーチン「Fモード処理」がコールさ
れる。
In step S53, the camera unit 10
1. The recording unit 102 performs a standby process for recording operation. Then, the process proceeds to step S54, and a subroutine "MF processing" to which manual focus described later is preferentially applied is called. On the other hand, in step S55, a recording operation process of recording the video signal output from the camera unit 101 in the recording unit 102 is performed. Then, step S56
Then, the subroutine "F-mode processing", which has priority to AF operation but can easily select MF operation, which will be described later, is called.

【0046】この図13のルーチンによる通常の撮影で
は、スタンバイ処理が終了した後、MF/AFスイッチ
を操作して、AF側をオンとし、REC/STANDB
Yスイッチ104を操作して記録動作に移ると、スタン
バイ時に撮影者が意図的に選択し、MF動作で合焦した
被写体にロックした状態でAF優先の「Fモード処理」
に移ることができる。なお、従来のものでは、このとき
AFを行う被写体としては、画面中央の被写体が指定さ
れてしまい、撮影者の意志は反映されていなかった。更
に、後述するように該Fモード処理では容易に1時的な
MFモードに移すことができる。
In the normal photographing according to the routine of FIG. 13, after the standby processing is completed, the MF / AF switch is operated to turn on the AF side, and the REC / STANDB is turned on.
When the Y switch 104 is operated to shift to the recording operation, the "F mode processing" in which AF is preferentially selected in the standby mode by the photographer intentionally and locked in the subject focused by the MF operation.
You can move to. In the conventional art, the subject at the center of the screen is designated as the subject to be subjected to AF at this time, and the intention of the photographer is not reflected. Further, as will be described later, in the F mode processing, it is possible to easily shift to the temporary MF mode.

【0047】なお、変形例として、上記ステップS54
にてサブルーチン「Fモード処理」を、ステップS56
にてMF動作を行うサブルーチン「MF処理」をコール
するようなルーチンとすることも可能である。この変形
例では、スタンバイ処理時に、AF動作優先の処理とな
る。
As a modification, the above step S54
In the subroutine "F mode processing" in step S56
It is also possible to have a routine that calls a subroutine "MF processing" for performing the MF operation at. In this modification, the AF operation is prioritized during the standby processing.

【0048】上記メインルーチンでコールされるサブル
ーチン「Fモード処理」について、図14のフローチャ
ートによって説明する。まず、ステップS60におい
て、MF/AFスイッチ32のオンオフ状態をチェック
し、MF側がオンの場合、ステップS62にジャンプ
し、AF側がオンの場合、ステップS61に進む。該ス
テップS61では、近遠フォーカス用のMFスイッチ3
0,31の第1段階スイッチ30a、または、31aに
撮影者の指が接触しているかどうか、即ち、該スイッチ
のオンオフ状態をチェックする。そして、オンとなった
場合は、撮影者が現在AF動作中であるが、前記中抜
け,横切りによる合焦不安定等の状態が発生する可能性
があるとして一時的にMFモードとし、AFロックを行
うためにステップS62に進む。また、該スイッチ30
a、または、31aがオフである場合は、特に、MF動
作の必要はないとして、ステップS64に進む。
The subroutine "F mode processing" called in the main routine will be described with reference to the flowchart of FIG. First, in step S60, the on / off state of the MF / AF switch 32 is checked. If the MF side is on, the process jumps to step S62, and if the AF side is on, the process proceeds to step S61. In step S61, the MF switch 3 for near focus is used.
It is checked whether the photographer's finger is in contact with the 0, 31 first stage switch 30a or 31a, that is, the on / off state of the switch. If it is turned on, the photographer is currently performing the AF operation, but the MF mode is temporarily set because there is a possibility that the incomplete focusing, unstable focusing due to crossing, etc. may occur, and the AF lock is performed. To perform step S62. Also, the switch 30
If a or 31a is off, it is determined that the MF operation is not necessary, and the process proceeds to step S64.

【0049】上記ステップS62においては、後述する
サブルーチン「MF処理」がコールされ、MF動作が実
行される。また、上記ステップS64では、後述するサ
ブルーチン「AF処理」がコールされ、AF動作が実行
される。その後、ステップS63において、現在の処理
がMF処理であるかAF処理であるかをEVF27に表
示して、本ルーチンを終了する。
In step S62, a subroutine "MF processing", which will be described later, is called and the MF operation is executed. Further, in step S64, a subroutine "AF process" described later is called and the AF operation is executed. After that, in step S63, the EVF 27 displays whether the current process is the MF process or the AF process, and the present routine ends.

【0050】上記メインルーチンのステップS54、ま
たは、サブルーチン「Fモード処理」のステップS62
でコールされるサブルーチン「MF処理」について、図
15のフローチャートによって説明する。まず、ステッ
プS70、71において、近,遠フォーカス用MFスイ
ッチの2段目スイッチ30b,31bのオンオフ状態を
チェックし、オンの場合は、それぞれステップS73、
または、74にジャンプし、フォーカスモータを近、ま
たは、遠合焦距離側に駆動する。その後、ステップS7
5に進む。また、該スイッチ30b,31bがオフの場
合は、ステップS72に進み、フォーカスモータを停止
してステップS75に進む。なお、従来のMF動作で
は、ステップS70から上記動作の範囲での動作が行わ
れていたが、本例のものでは、更に、引き続きステップ
S75以下の処理が実行される。
Step S54 of the main routine or step S62 of the subroutine "F mode processing".
The subroutine "MF processing" called in step 1 will be described with reference to the flowchart of FIG. First, in steps S70 and 71, the on / off states of the second-stage switches 30b and 31b of the near and far focus MF switches are checked. If they are on, steps S73 and
Alternatively, it jumps to 74 and drives the focus motor to the near or far focus distance side. Then, step S7
Go to 5. If the switches 30b and 31b are off, the process proceeds to step S72, the focus motor is stopped, and the process proceeds to step S75. Note that, in the conventional MF operation, the operation within the above-described operation range is performed from step S70, but in the present example, the processing of step S75 and subsequent steps is further executed.

【0051】即ち、ステップS75において、サブルー
チン「合焦エリア判定」がコールされる。この処理は、
例えば、前記図4に示す撮影画面40において、エリア
A〜Iについて合焦状態の評価値であるコントラスト情
報を比較し、もっとも合焦度合いの高いエリアの検出を
行う。この処理の詳細は後述する。その後、ステップS
76において、EVF27に上記合焦エリアを表示し
て、本ルーチンを終了する。
That is, in step S75, the subroutine "focus area determination" is called. This process
For example, on the photographing screen 40 shown in FIG. 4, the contrast information, which is the evaluation value of the in-focus state for the areas A to I, is compared, and the area with the highest in-focus degree is detected. Details of this processing will be described later. After that, step S
At 76, the focusing area is displayed on the EVF 27, and this routine ends.

【0052】次に、前記サブルーチン「Fモード処理」
でコールされるサブルーチン「AF処理」について、図
16のフローチャートによって説明する。まず、ステッ
プS81で自動追尾処理を行う。この処理は輝度情報,
色情報,画角情報に基づいて、前回のAF目標エリアに
対して追尾すべき今回のAF目標エリアの決定を追尾回
路28で行う処理である。前回の目標エリアは、MF動
作後においては、前記「MF処理」におけるステップS
75で決定されたエリアが採用される。なお、このステ
ップS81の処理の詳細は、図18により後で説明す
る。
Next, the above-mentioned subroutine "F mode processing"
The subroutine "AF processing" called in step S6 will be described with reference to the flowchart of FIG. First, in step S81, automatic tracking processing is performed. This process is the brightness information,
This is a process in which the tracking circuit 28 determines the current AF target area to be tracked with respect to the previous AF target area based on the color information and the angle of view information. After the MF operation, the previous target area is the step S in the above-mentioned “MF processing”.
The area determined in 75 is adopted. The details of the processing in step S81 will be described later with reference to FIG.

【0053】続いて、ステップS82において、上記ス
テップS81で決定された今回の目標エリアをEVF2
7に表示する。このとき、撮影者は、もし、自動追尾に
より自動選択されたエリアが意図しているエリアと異な
っているかどうかのチェックができる。そして、ステッ
プS83に進み、山登りAF処理を実行する。このAF
処理は、上記今回の目標エリアについてのAF評価値、
即ち、コントラスト情報の値に基づいて、そのピーク点
の検出が行われる。
Subsequently, in step S82, the EVF2 is set to the target area of this time determined in step S81.
Display on 7. At this time, the photographer can check whether the area automatically selected by the automatic tracking is different from the intended area. Then, the process proceeds to step S83, and the hill-climbing AF process is executed. This AF
Processing is the AF evaluation value for the target area this time,
That is, the peak point is detected based on the value of the contrast information.

【0054】図19は、フォーカスレンズ位置に対する
AF評価値の変化を示す特性線図であって、この線図に
より上記山登り処理動作を具体的に説明すると、上記図
19において、フォーカスレンズ4が、最初、位置Q1
にあったとすると、まず、AF評価値特性線の登りの方
向を確認し、AF評価値を取り込みながら該登り方向に
フォーカスレンズ4を駆動する。AF評価値のピーク点
Q2を過ぎて、特性線が降下に転じたら、該ピーク点Q
2を通過したと判断し、フォーカスレンズ4を戻り方向
に駆動する。そして、該ピーク点に到達したときのフォ
ーカスレンズ位置F2を合焦位置として採用し、本ルー
チンを終了する。
FIG. 19 is a characteristic diagram showing a change in the AF evaluation value with respect to the focus lens position. The hill climbing processing operation will be specifically described with reference to this diagram. In FIG. First, position Q1
If so, first, the ascending direction of the AF evaluation value characteristic line is confirmed, and the focus lens 4 is driven in the ascending direction while taking in the AF evaluation value. When the characteristic line starts to fall after passing the peak point Q2 of the AF evaluation value, the peak point Q
It is determined that the light beam has passed 2, and the focus lens 4 is driven in the return direction. Then, the focus lens position F2 when the peak point is reached is adopted as the focus position, and this routine is ended.

【0055】次に、上記図15のサブルーチン「MF処
理」でコールされるサブルーチン「合焦エリア判定」に
ついて、図17のフローチャートによって説明する。ま
ず、ステップS91において、例えば、前記図4に示す
撮影画面40を分割した各エリアA〜IのAF評価値を
取り込む。ステップS92でエリア面積による正規化を
行う。この処理は、例えば、図20の撮影画面40Aに
示すように中心を含むエリアがJとKのように異なる場
合、該評価値の比較ができないので基準の面積相当の評
価値に正規化する処理である。続いて、ステップS93
において各エリアに対するAF評価値を比較して最も高
い値を示すエリアを目標エリアとして指定して、本ルー
チンを終了する。
Next, the subroutine "focus area determination" called in the subroutine "MF processing" of FIG. 15 will be described with reference to the flowchart of FIG. First, in step S91, for example, the AF evaluation values of the areas A to I obtained by dividing the photographing screen 40 shown in FIG. In step S92, the area area is normalized. In this process, for example, when the area including the center is different from J to K as shown in the shooting screen 40A of FIG. 20, the evaluation values cannot be compared, and thus the evaluation value is normalized to an evaluation value corresponding to a reference area. Is. Then, step S93
In, the AF evaluation values for the respective areas are compared, the area showing the highest value is designated as the target area, and this routine ends.

【0056】次に、前記サブルーチン「AF処理」でコ
ールされるサブルーチン「自動追尾」の処理について、
図18のフローチャートによって説明する。ステップS
95,96において、今回の目標エリアの追尾情報であ
る輝度、および、色情報を取り込む。そして、ステップ
S97において、今回ズーム動作が行われた場合、その
画角変更に伴う上記追尾情報の補正を行う。この処理
は、例えば、図21の(A)の撮影画面40Bがズーミ
ング動作により図21の(B)の撮影画面40Cに変化
した場合、前記の目標エリア「G」上の被写体像は今回
の目標エリア「G′」に位置することになる。従って、
上記追尾情報も今回の目標エリア「G′」に対応するデ
ータを取り込む処理である。
Next, regarding the processing of the subroutine "automatic tracking" called in the above-mentioned subroutine "AF processing",
This will be described with reference to the flowchart of FIG. Step S
At 95 and 96, the luminance and color information, which is the tracking information of the target area this time, are fetched. Then, in step S97, when the zoom operation is performed this time, the tracking information is corrected according to the change in the angle of view. In this process, for example, when the shooting screen 40B of FIG. 21A is changed to the shooting screen 40C of FIG. 21B by the zooming operation, the subject image on the target area “G” is the current target. It will be located in area "G '". Therefore,
The tracking information is also a process for fetching data corresponding to the target area "G '" of this time.

【0057】続いて、ステップS98において、目標エ
リアにおいて今回の輝度、および、色情報が前回のそれ
らの情報と異なっているかどうかをチェックする。変化
がない場合はそのまま本ルーチンを終了する。変化があ
った場合、ステップS99に進み、前回の目標エリアの
輝度、および、色情報と、今回の目標エリアの周辺のエ
リアの輝度、および、色情報を比較する。そして、最も
相関性が高いと認められるエリアを新しい目標エリアと
して登録し、本ルーチンを終了する。
Subsequently, in step S98, it is checked whether or not the current luminance and color information in the target area is different from the previous information. When there is no change, this routine is finished as it is. If there is a change, the process proceeds to step S99 to compare the brightness and color information of the previous target area with the brightness and color information of the area around the current target area. Then, the area recognized as having the highest correlation is registered as a new target area, and this routine ends.

【0058】以上述べたように本例のカメラのフォーカ
シング動作においては、図14のフローチャートに示す
ように、AF撮影中に前記横切り等によりAF動作の不
安定状態を予想される場合、MFスイッチ30a、また
は、31bを手で触れるだけで、フォーカスがロックさ
れ、AFによる不具合が避けられる。また、そのスイッ
チへの接触を解放すると元のAF動作状態に戻るので、
操作の煩雑性が改善される。
As described above, in the focusing operation of the camera of this embodiment, as shown in the flow chart of FIG. 14, when an unstable state of the AF operation is expected due to the transverse cut or the like during AF photographing, the MF switch 30a is used. , Or 31b is only touched by hand, the focus is locked, and troubles due to AF can be avoided. Also, when the contact to that switch is released, the original AF operation state is restored.
The complexity of operation is improved.

【0059】また、図15に示すように、MF処理にお
いて撮影者が意志をもってピント合わせした画面領域が
合焦エリアとして取り込まれるので、その後、AF動作
に切り換えられたとき、上記エリアがAFエリアとして
採用され、撮影者の意志を反映したAF動作が可能とな
る。また、上記合焦エリアはEVF27に表示されるの
で、操作の間違いも直ちに検知できる。
Further, as shown in FIG. 15, the screen area that the photographer has intentionally focused on in the MF process is taken in as the focus area. Therefore, when the AF operation is subsequently switched to, the area becomes the AF area. This is adopted, and AF operation that reflects the will of the photographer is possible. Further, since the focusing area is displayed on the EVF 27, an operation error can be immediately detected.

【0060】更に、図18に示すように自動追尾処理に
おいても、MF処理で得られた合焦エリアの合焦情報が
AF動作に切り換えた後の自動追尾の対象エリアを決定
する場合に使用されるので、簡単な構成の装置でしかも
簡単な操作で的確に被写体を捕らえることが可能となる
ものである。
Further, as shown in FIG. 18, also in the automatic tracking processing, the focusing information of the focusing area obtained by the MF processing is used when determining the target area of the automatic tracking after switching to the AF operation. Therefore, it is possible to accurately capture the subject with a device having a simple configuration and a simple operation.

【0061】本例のビデオカメラのズームトラッキング
制御においては、前述した従来の特願平4−28892
1号のカメラのズームトラッキング制御方式によるズー
ムトラッキングカーブ上の実際値と設計値の差を「WT
間補正演算」処理によって求め、その後、演算基準値を
求めてフォーカスレンズのトラッキング駆動が行われ
る。そして、上記「WT間補正演算」を行うには、図5
に示す実際値トラッキングカーブLPbに対してカーブ
のW端,T端点が一致する設計値カーブLTaを想定
し、更に、上記カーブLPbとLTaの差の値の最大値
が必要となる。従って、上記実際値トラッキングカーブ
を個々の製品の被検レンズ56(図2参照)となる第1
群レンズ1,ズームレンズ2,第3レンズ群3,フォー
カスレンズ4、および、撮像素子であるCCD5の撮影
光学系について測定することが必要となってくる。
In the zoom tracking control of the video camera of this example, the conventional Japanese Patent Application No. 4-28892 mentioned above is used.
The difference between the actual value and the designed value on the zoom tracking curve by the zoom tracking control method of the No. 1 camera is calculated as “WT
Then, the tracking drive of the focus lens is performed by obtaining the calculation reference value. Then, in order to perform the "inter-WT correction calculation",
Assuming a design value curve LTa in which the W end and the T end point of the curve coincide with the actual value tracking curve LPb shown in (3), and further, the maximum value of the difference between the curves LPb and LTa is required. Therefore, the actual value tracking curve becomes the first lens 56 (see FIG. 2) of the individual product under test.
It becomes necessary to measure the group lens 1, the zoom lens 2, the third lens group 3, the focus lens 4, and the photographing optical system of the CCD 5 which is the image sensor.

【0062】次に、その撮影光学系の実際値トラッキン
グカーブを個々の製品毎に実測する撮像素子装着位置補
正方式の1つを説明する。該補正方式の概要から説明す
ると、まず、図22に示すような、本発明の計測手段と
してのコリメータ装置等により各ズーム位置でのフォー
カスレンズのベストピント位置を測定する。即ち、撮像
素子であるCCD5を装着せず、CCD5結像面と等価
位置にコリメータのミラー面を配した状態で、上記被検
レンズ56を上記コリメータに装着し、各ズーム位置
(W端,焦点距離f(s)の位置,T端)でフォーカス
レンズ4を進退駆動してフォーカスレンズのベストピン
ト位置XA,XC,XB(図23のズーム倍率に対する
ベストピント位置の測定値線LXを示す図を参照)を測
定する。なお、上記焦点距離f(s)のズーム位置は、
実際値ずれ量最大を示すズーム標準位置とする。一方、
実際上はCCD5の結像面の位置のバラツキ(0.2〜
0.3mm程度)があり、その影響を補正する必要があ
る。そこで、被検レンズ56にCCD5を装着した後に
上記W端のズーム位置でのフォーカスレンズのベストピ
ント位置XA′(図23参照)を測定する。この測定
は、映像信号中の合焦度合いを示すコントラスト情報を
測定することによって行う。
Next, one of the image pickup device mounting position correction methods for measuring the actual value tracking curve of the photographing optical system for each individual product will be described. To explain from the outline of the correction method, first, as shown in FIG. 22, the best focus position of the focus lens at each zoom position is measured by a collimator device or the like as the measuring means of the present invention. That is, with the CCD 5 as the image pickup device not attached, the collimator lens 56 is attached to the collimator in a state where the mirror surface of the collimator is arranged at a position equivalent to the image forming plane of the CCD 5, and each zoom position (W end, focus) At the position of the distance f (s), at the T end, the focus lens 4 is driven back and forth to move the best focus positions XA, XC, and XB of the focus lens (the measurement value line LX of the best focus position with respect to the zoom magnification of FIG. 23). Measurement). The zoom position of the focal length f (s) is
The zoom standard position is the maximum actual value deviation amount. on the other hand,
Actually, the variation of the position of the image plane of the CCD 5 (0.2 to
0.3 mm), and it is necessary to correct the effect. Therefore, after mounting the CCD 5 on the lens 56 to be inspected, the best focus position XA '(see FIG. 23) of the focus lens at the zoom position at the W end is measured. This measurement is performed by measuring contrast information indicating the degree of focusing in the video signal.

【0063】そして、上記位置XAとXA′の差により
位置XC,XBを補正し、CCD5を装着したときのベ
ストピント位置XA′,XC′,XB′、または、X
C″,XB″を求める。これらの位置を結ぶ線LX′、
または、LX″が上記被検レンズ56とCCD5の組み
合わせ状態の実際値トラッキングカーブを与えることに
なる。
Then, the positions XC and XB are corrected by the difference between the positions XA and XA ', and the best focus positions XA', XC ', XB' or X when the CCD 5 is mounted.
Find C ″, XB ″. A line LX 'connecting these positions,
Alternatively, LX ″ gives the actual value tracking curve of the combination state of the lens 56 to be tested and the CCD 5.

【0064】上記測定装置、および、測定方法につい
て、詳細に説明する。図22は、上記コリメータ装置の
配置図であって、該装置は、主に投光部と受光部と結像
部とで構成され、受光部前面に被検レンズ56を配設す
る。上記投光部においては、光源部51とその前面部に
上記検出用チャート52が∞対応位置に配設され、上記
光源部51の射出光はコリメータレンズ部55を介し
て、前記被検レンズ56に平行光として射出される。被
検レンズ56からの光は、ミラー部57のミラー面57
aに結像する。その反射光が被検レンズ56を介してコ
リメータレンズを通り、ハーフミラー58で反射して、
上記受光部に入射する。該入射光は、該受光部の無限遠
対応位置に配設された振動チャート53を透過してCD
S54に照射される。上記CDS54の出力は、上記ミ
ラー面57aにベストピント像が結像したとき最大値を
示す。
The above measuring device and measuring method will be described in detail. FIG. 22 is a layout view of the collimator device. The device is mainly composed of a light projecting portion, a light receiving portion, and an image forming portion, and a lens 56 to be inspected is arranged in front of the light receiving portion. In the light projecting section, the light source section 51 and the detection chart 52 are arranged at the position corresponding to ∞ on the front surface section thereof, and the light emitted from the light source section 51 passes through the collimator lens section 55 and the test lens 56. Is emitted as parallel light. The light from the lens 56 to be inspected is reflected by the mirror surface 57 of the mirror unit 57.
Form an image on a. The reflected light passes through the collimator lens through the lens under test 56 and is reflected by the half mirror 58,
It is incident on the light receiving unit. The incident light passes through the vibration chart 53 arranged at the position corresponding to infinity of the light receiving portion and passes through the CD.
It is irradiated to S54. The output of the CDS 54 shows the maximum value when the best focus image is formed on the mirror surface 57a.

【0065】上記コリメータ装置により、前記フォーカ
スレンズのベストピント位置が測定された後、CCD5
を被検レンズ56の所定の組み付け位置に装着し、ズー
ムW端でのベストピント位置を測定するが、それらの動
作について図23の測定値線図と図24の測定処理のフ
ローチャートによって詳しく説明する。
After the best focus position of the focus lens is measured by the collimator device, the CCD 5
Is attached to a predetermined assembly position of the lens 56 to be inspected, and the best focus position at the zoom W end is measured. The operation thereof will be described in detail with reference to the measurement value diagram of FIG. 23 and the flowchart of the measurement process of FIG. .

【0066】まず、ステップS101,102におい
て、CCD5を装着しない状態の被検レンズ56をコリ
メータ装着に装着し、ズームレンズ2をW端位置に移動
させる。ステップS103において、フォーカスレンズ
4を進退せしめ、フォーカスレンズのベストピント位置
XAを求める。ステップS104,S105でズームレ
ンズ2をT端位置に移動させ、フォーカスレンズ4を進
退せしめ、結像面57a上の結像がベストピントになる
フォーカスレンズのベストピント位置XBを求める。更
に、ステップS106,S107でズームレンズ2を焦
点距離f(s)位置に移動させ、フォーカスレンズ4を
進退せしめ、フォーカスレンズのベストピント位置XC
を求める。上記の処理により図23に示すコリメータ測
定上のベストピント位置カーブLXが求められる。ま
た、この場合、結像面57aの位置は不変であり、図2
3では、結像面位置を示す線Yで示される。
First, in steps S101 and S102, the lens 56 to be inspected with the CCD 5 not attached is attached to the collimator attachment, and the zoom lens 2 is moved to the W end position. In step S103, the focus lens 4 is moved back and forth to obtain the best focus position XA of the focus lens. In steps S104 and S105, the zoom lens 2 is moved to the T end position, the focus lens 4 is moved back and forth, and the best focus position XB of the focus lens where the image formation on the image formation surface 57a is best focused is obtained. Further, in steps S106 and S107, the zoom lens 2 is moved to the focal length f (s) position, the focus lens 4 is moved back and forth, and the best focus position XC of the focus lens is set.
Ask for. With the above processing, the best focus position curve LX in collimator measurement shown in FIG. 23 is obtained. Further, in this case, the position of the image plane 57a is unchanged, and
In FIG. 3, the line Y indicates the image plane position.

【0067】続いて、ステップS108において、被検
レンズ56にCCD5を装着する。ステップS109に
てチャート52,53を∞対応位置に取り付ける。そし
て、ステップS110,111において、ズームレンズ
2をW端位置に移動させる。そして、フォーカスレンズ
を進退せしめて、CCD5の撮像信号のコントラスト情
報に基づいてベストピント位置XA′を求める。なお、
図23に示すように、このベストピント位置XA′と上
記結像面57aによるベストピント位置XAの差を補正
値xとする。結像面位置の変化を示す線Y′は、CCD
5が、実際、装着された位置を示す線を示すことにな
る。
Subsequently, in step S108, the CCD 5 is mounted on the lens 56 to be tested. In step S109, the charts 52 and 53 are attached to the infinity corresponding positions. Then, in steps S110 and 111, the zoom lens 2 is moved to the W end position. Then, the focus lens is moved back and forth, and the best focus position XA ′ is obtained based on the contrast information of the image pickup signal of the CCD 5. In addition,
As shown in FIG. 23, the difference between the best focus position XA 'and the best focus position XA due to the image plane 57a is defined as a correction value x. The line Y'representing the change in the image plane position is the CCD
5 will actually show a line indicating the installed position.

【0068】ステップS112において、上記補正値x
に基づいて、他のズーム位置での補正されたベストピン
ト位置を与えるカーブとして、差の値xだけ平行移動し
た位置XB′、位置XC′を与え、それらの点を通るL
X′が得られる。ここで、このカーブLX′について
は、更に、精度のよいカーブに変換することができる。
より精度のよいベストピント補正量xと、結像面のずれ
量yの関係式は次式で示される。即ち、 x=y/αn …………………(3) となる。ここで、値αnは、各ズームレンズ位置に対応
する係数であって、W端ではαW、T端ではαT、焦点
距離f(s)位置ではαSが与えられる。なお、この値
は、同種の撮影レンズ同士ではそれぞれ一定と見做して
良い。
In step S112, the correction value x
Based on the above, as a curve giving a corrected best focus position at another zoom position, a position XB 'and a position XC' which are translated by the difference value x are given, and L passing through these points is given.
X'is obtained. Here, the curve LX 'can be converted into a more accurate curve.
A more accurate relational expression between the best focus correction amount x and the image plane deviation amount y is given by the following equation. That is, x = y / αn (3) Here, the value αn is a coefficient corresponding to each zoom lens position, and αW is given at the W end, αT at the T end, and αS at the focal length f (s) position. It should be noted that this value may be considered to be constant between taking lenses of the same type.

【0069】W端ではベストピント補正量xが実測によ
り位置差XA−XA′で与えられており、T端でのベス
トピント補正量は、y/αTで与えられる。その値は、
式(3)より、 y/αT=(αW/αT)×x ………………(4) として求められる。一方、焦点距離f(s)位置でのベ
ストピント補正量は、y/αSで与えられ、その値は式
(3)より、 y/αS=(αW/αS)×x ………………(5) により求められる。
At the W end, the best focus correction amount x is given by the measured position difference XA-XA ', and the best focus correction amount at the T end is given by y / αT. Its value is
From the equation (3), y / αT = (αW / αT) × x (4) On the other hand, the best focus correction amount at the focal length f (s) position is given by y / αS, and the value is given by the formula (3) as follows: y / αS = (αW / αS) × x It is calculated by (5).

【0070】そして、W端,T端,焦点距離f(s)に
おけるベストピント補正位置XA′,XB″,XC″
(図23参照)はそれぞれ、 XA′=XA+x ………………(6) XB′=XB+(αW/αT)×x ……………(7) XC′=XC+(αW/αS)×x ……………(8) によって求められる。これらの演算は前記ステップS1
12にて行われ、本ルーチンを終了する。そして、上記
測定、および、演算により求められたトラッキングカー
ブの設計値に対する補正データは、図2のブロック図に
示すメモリ15に書き込まれる。なお、上記ベストピン
ト補正位置を示すカーブは図23のカーブLX″で示さ
れる。また、該図23に示される曲線Y″はベストピン
ト位置カーブLXを値xだけ平行移動したときのベスト
ピントを与える結像位置のカーブを示している。
The best focus correction positions XA ', XB ", XC" at the W end, the T end, and the focal length f (s).
(See FIG. 23) are respectively XA ′ = XA + x (6) XB ′ = XB + (αW / αT) × x (7) XC ′ = XC + (αW / αS) × x …………… (8). These calculations are performed in step S1.
This routine is finished at step S12. Then, the correction data for the design value of the tracking curve obtained by the above measurement and calculation is written in the memory 15 shown in the block diagram of FIG. The curve indicating the best focus correction position is shown by a curve LX ″ in FIG. 23. Further, the curve Y ″ shown in FIG. 23 indicates the best focus when the best focus position curve LX is translated by a value x. The curve of the image formation position to give is shown.

【0071】以上述べたように本例の実際値トラッキン
グカーブLX′,LX″を実測する撮像素子装着位置補
正方法によると、まず、コリメータ装置によってW端,
T端,焦点距離f(s)でのフォーカスレンズ4のベス
トピント位置を実測し、その後、CCD5を装着した状
態で少なくともW端1点のみのベストピント位置を実測
し、他のT端,焦点距離f(s)でのベストピント位置
は、上記実測結果に基づいて演算により求めるようにし
たので、CCD5装着状態での測定回数が少なくなり、
測定工数の削減が可能になる。また、上記のようにCC
D5を装着した状態での測定が少ないことから、塵埃等
がCCD結像面に付着する機会を減らすことができる。
更に、CCD5を静電気から保護することに有利となる
などの特徴を有している。なお、上記1点に於ける実測
によって撮像素子の現実の装着位置と設計位置との位置
ずれが測定されたとき、この実測値が反映されるように
予めROM中のズームトラッキングデータを改訂してお
くようにしてももちろんよい。
As described above, according to the image pickup element mounting position correcting method for actually measuring the actual value tracking curves LX 'and LX "in this example, first, the collimator device is used to detect the W end,
The best focus position of the focus lens 4 at the T end and the focal length f (s) is measured, and then the best focus position of at least one point at the W end is measured with the CCD 5 mounted, and the other T end and the focus are measured. Since the best focus position at the distance f (s) is calculated based on the above-mentioned actual measurement result, the number of measurements with the CCD 5 attached is reduced,
It is possible to reduce the measurement man-hours. Also, as described above, CC
Since the number of measurements with the D5 attached is small, it is possible to reduce the chance of dust and the like adhering to the CCD image forming surface.
Further, it is advantageous in protecting the CCD 5 from static electricity. When the displacement between the actual mounting position of the image sensor and the design position is measured by the actual measurement at the above-mentioned one point, the zoom tracking data in the ROM is revised in advance so that the actual measurement value is reflected. Of course you can leave it.

【0072】[0072]

【発明の効果】以上述べたところから明らかなように、
本発明は、スタンバイ処理中、または処理後、マニュア
ルフォーカスモードからオートフォーカスモードに切り
換えられた場合、オートフォーカスを行う被写体に関し
て、撮影者の意志を反映することができるという長所を
有する。
As is apparent from the above description,
The present invention has an advantage that, when the manual focus mode is switched to the auto focus mode during or after the standby process, the intention of the photographer can be reflected in the subject to be auto-focused.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のビデオカメラの主要構成を
示す図。
FIG. 1 is a diagram showing a main configuration of a video camera according to an embodiment of the present invention.

【図2】上記図1のビデオカメラのカメラ部のブロック
構成図。
FIG. 2 is a block diagram of a camera section of the video camera shown in FIG.

【図3】上記図1のビデオカメラのAF制御ブロック構
成図。
3 is an AF control block configuration diagram of the video camera of FIG.

【図4】上記図1のビデオカメラの撮影画面の分割エリ
アを示す図。
FIG. 4 is a diagram showing divided areas of a shooting screen of the video camera shown in FIG.

【図5】上記図1のビデオカメラの説明に用いるズーム
トラッキングカーブの一例を示す図。
5 is a diagram showing an example of a zoom tracking curve used to describe the video camera shown in FIG.

【図6】上記図1のビデオカメラの距離情報演算処理の
フローチャート。
6 is a flowchart of distance information calculation processing of the video camera of FIG.

【図7】上記図6の距離情報演算処理でコールされる演
算基準値の演算処理のフローチャート。
7 is a flowchart of a calculation process of a calculation reference value called in the distance information calculation process of FIG.

【図8】上記図6の距離情報演算処理でコールされるズ
ームトラッキング演算のフローチャート。
8 is a flowchart of zoom tracking calculation called in the distance information calculation process of FIG.

【図9】上記図7の演算基準値の演算処理の変形例を示
すフローチャート。
9 is a flowchart showing a modified example of the calculation processing of the calculation reference value in FIG.

【図10】上記図8のズームトラッキング演算処理の変
形例を示すフローチャート。
10 is a flowchart showing a modified example of the zoom tracking calculation process of FIG.

【図11】上記図7の演算基準値の演算処理の別の変形
例を示すフローチャート。
11 is a flowchart showing another modified example of the calculation processing of the calculation reference value in FIG.

【図12】上記図8のズームトラッキング演算処理の別
の変形例を示すフローチャート。
FIG. 12 is a flowchart showing another modification of the zoom tracking calculation process of FIG.

【図13】本発明の一実施例のカメラの撮影メインルー
チンのフローチャート。
FIG. 13 is a flowchart of a shooting main routine of the camera according to the embodiment of the present invention.

【図14】上記図13に示されるメインルーチンでコー
ルされるサブルーチン「Fモード処理」のフローチャー
ト。
14 is a flowchart of a subroutine "F mode processing" called in the main routine shown in FIG.

【図15】上記図13に示されるメインルーチンでコー
ルされるサブルーチン「MF処理」のフローチャート。
15 is a flowchart of a subroutine "MF processing" called in the main routine shown in FIG.

【図16】上記図14に示されるサブルーチン「Fモー
ド処理」でコールされるサブルーチン「AF処理」のフ
ローチャート。
16 is a flowchart of a subroutine "AF processing" called in the subroutine "F mode processing" shown in FIG.

【図17】上記図15に示されるサブルーチン「MF処
理」でコールされるサブルーチン「合焦エリア判定」の
フローチャート。
17 is a flowchart of a subroutine "focus area determination" called in the subroutine "MF processing" shown in FIG.

【図18】上記図16に示されるサブルーチン「AF処
理」でコールされるサブルーチン「自動追尾」のフロー
チャート。
18 is a flowchart of a subroutine "automatic tracking" called in the subroutine "AF processing" shown in FIG.

【図19】上記図16のサブルーチン「AF処理」での
山登りAF処理動作に用いられるAF評価値の特性線
図。
FIG. 19 is a characteristic diagram of an AF evaluation value used in the hill-climbing AF processing operation in the subroutine “AF processing” in FIG. 16 described above.

【図20】上記図17のサブルーチン「合焦エリア判
定」処理における対象撮影エリアの変化状態を示す図。
FIG. 20 is a diagram showing a change state of a target photographing area in the subroutine “focus area determination” processing of FIG.

【図21】上記図18のサブルーチン「自動追尾」処理
における対象撮影エリアの変化状態を示す図であって、
(A)はテレ状態、(B)はワイド状態での撮影画面の
分割エリアを示す図。
FIG. 21 is a diagram showing a change state of the target photographing area in the subroutine “automatic tracking” process of FIG.
FIG. 6A is a diagram showing a divided area of a shooting screen in a tele state and FIG.

【図22】本例のビデオカメラの実際値トラッキングカ
ーブを実測するためのコリメータ装置の配置図。
FIG. 22 is a layout view of a collimator device for actually measuring an actual value tracking curve of the video camera of this example.

【図23】上記図22のコリメータ装置で測定されるト
ラッキングカーブ。
23 is a tracking curve measured by the collimator device of FIG. 22.

【図24】上記図22のコリメータ装置によりトラッキ
ングカーブを実測する処理のフローチャート。
24 is a flowchart of a process of actually measuring a tracking curve by the collimator device of FIG. 22.

【図25】従来のビデオカメラのズームトラッキング制
御に用いられるトラッキングカーブの一例。
FIG. 25 is an example of a tracking curve used for zoom tracking control of a conventional video camera.

【図26】上記図25のトラッキングカーブの一部を抜
きだして示した図。
FIG. 26 is a diagram showing a part of the tracking curve shown in FIG. 25.

【図27】上記図25の設計値トラッキングカーブのレ
ンジを示す図。
27 is a diagram showing a range of the design value tracking curve in FIG. 25.

【図28】従来のビデオカメラのズームトラッキング制
御に用いられる設計値トラッキングカーブと実際値トラ
ッキングカーブとを示した図。
FIG. 28 is a diagram showing a design value tracking curve and an actual value tracking curve used for zoom tracking control of a conventional video camera.

【図29】従来のビデオカメラのズームトラッキング制
御に用いられる設計値トラッキングカーブに対して、ワ
イド端とテレ端とを一致させた実際値トラッキングカー
ブを示す図。
FIG. 29 is a diagram showing an actual value tracking curve in which a wide end and a tele end are matched with a design value tracking curve used for zoom tracking control of a conventional video camera.

【図30】従来のビデオカメラのズームトラッキング制
御に用いられる設計値トラッキングカーブと、ワイド端
とテレ端が一致させた実際値トラッキングカーブのうち
の一組を示した図。
FIG. 30 is a diagram showing a set of a design value tracking curve used for zoom tracking control of a conventional video camera and an actual value tracking curve in which the wide end and the tele end are matched.

【符号の説明】[Explanation of symbols]

15 …………………………メモリ(ズームトラッキン
グデータ保有手段) 7 …………………………ズームトラッキング制御ブロ
ック LT,LTa、LTb,LT1,LT2,LT∞………
…………設計値トラッキングカーブ FSO…………………実際値トラッキングカーブ上のフ
ォーカスレンズ位置 101・・・・・・・・・・・・・・・ カメラ部 102・・・・・・・・・・・・・・・ 記録部 104・・・・・・・・・・・・・・・ REC/STANDBYスイッ
15 ………………………… Memory (zoom tracking data holding means) 7 ………………………… Zoom tracking control block LT, LTa, LTb, LT1, LT2, LT∞ …………
………… Design value tracking curve FSO …………………… Focus lens position on the actual value tracking curve 101 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ Camera section 102 ・ ・ ・ ・ ・···· Recording unit 104 ·········· REC / STANDBY switch

───────────────────────────────────────────────────── フロントページの続き (72)発明者 寺根 明夫 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 佐藤 政雄 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Akio Terane 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd. (72) Inventor Masao Sato 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Industry Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】オートフォーカスモードとマニュアルフォ
ーカスモードとを選択的に適用可能なカメラであって、 記録の準備に係るスタンバイ動作中乃至その直後には前
記マニュアルフォーカスモードが自動的に優先適用され
る第1の優先モードとなり、記録動作を行うための指令
を認識して以降は、前記オートフォーカスモードが自動
的に優先適用される第2の優先モードとなる優先モード
選択手段を備えたことを特徴とするカメラ。
1. A camera capable of selectively applying an auto focus mode and a manual focus mode, wherein the manual focus mode is automatically applied preferentially during or immediately after a standby operation for recording preparation. The first priority mode is set, and after the command for performing the recording operation is recognized, a priority mode selection unit is provided that becomes the second priority mode in which the autofocus mode is automatically applied with priority. And the camera.
JP32146793A 1993-12-21 1993-12-21 camera Expired - Fee Related JP3415235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32146793A JP3415235B2 (en) 1993-12-21 1993-12-21 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32146793A JP3415235B2 (en) 1993-12-21 1993-12-21 camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP5001369A Division JPH06205260A (en) 1993-01-07 1993-01-07 Camera

Publications (2)

Publication Number Publication Date
JPH06233168A true JPH06233168A (en) 1994-08-19
JP3415235B2 JP3415235B2 (en) 2003-06-09

Family

ID=18132895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32146793A Expired - Fee Related JP3415235B2 (en) 1993-12-21 1993-12-21 camera

Country Status (1)

Country Link
JP (1) JP3415235B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301080A (en) * 2005-04-18 2006-11-02 Ricoh Co Ltd Imaging apparatus
JP2008009053A (en) * 2006-06-28 2008-01-17 Nikon Corp Tracking device, automatic focus device and camera
JP2010175696A (en) * 2009-01-28 2010-08-12 Nikon Corp Autofocus device
US8253800B2 (en) 2006-06-28 2012-08-28 Nikon Corporation Tracking device, automatic focusing device, and camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301080A (en) * 2005-04-18 2006-11-02 Ricoh Co Ltd Imaging apparatus
JP2008009053A (en) * 2006-06-28 2008-01-17 Nikon Corp Tracking device, automatic focus device and camera
US8253800B2 (en) 2006-06-28 2012-08-28 Nikon Corporation Tracking device, automatic focusing device, and camera
US9063290B2 (en) 2006-06-28 2015-06-23 Nikon Corporation Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
US9639754B2 (en) 2006-06-28 2017-05-02 Nikon Corporation Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
JP2010175696A (en) * 2009-01-28 2010-08-12 Nikon Corp Autofocus device

Also Published As

Publication number Publication date
JP3415235B2 (en) 2003-06-09

Similar Documents

Publication Publication Date Title
US7710491B2 (en) Optical equipment and its control method, and computer-readable storage medium
US7936371B2 (en) Image-taking apparatus having functions that automatically adjust parameters relating to image-taking, and control method of the image-taking apparatus
CN101247477B (en) Image-pickup apparatus and control method thereof
US7742693B2 (en) Interchangeable lens type digital camera
US5867217A (en) Photographing apparatus and lens position control device
US7193651B2 (en) Camera system, lens apparatus and camera
JP2000131598A (en) Automatic focusing device
US20120044409A1 (en) Image pickup system, camera and interchangeable lens
JP2004279683A (en) Image input device
US5802405A (en) Camera apparatus that can have the time for moving rear lens group reduced when powered
JP2004112529A (en) Camera and camera system
KR101129385B1 (en) Zoom tracking method and image processing device executing the same
JP2003241074A (en) Automatic focusing device and camera system
JPH11122517A (en) Image pickup device and storage medium read by computer
JPH06233168A (en) Camera
JPH06205260A (en) Camera
US7548687B2 (en) Focus detecting apparatus and optical device
JP3415233B2 (en) Image sensor mounting position correction method
JPH06205261A (en) Camera
JP2011075647A (en) Imaging optical system having autofocus function, and photographing system of the same
JPH06233167A (en) Camera
JP4060953B2 (en) Electronic camera
JP2000131595A (en) Camera and focusing device
JP2009109792A (en) Autofocusing device and camera using it
JP2010136097A (en) Camera apparatus and camera system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees