JPH0943682A - Finder device - Google Patents

Finder device

Info

Publication number
JPH0943682A
JPH0943682A JP19357995A JP19357995A JPH0943682A JP H0943682 A JPH0943682 A JP H0943682A JP 19357995 A JP19357995 A JP 19357995A JP 19357995 A JP19357995 A JP 19357995A JP H0943682 A JPH0943682 A JP H0943682A
Authority
JP
Japan
Prior art keywords
light
subject
light receiving
finder
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP19357995A
Other languages
Japanese (ja)
Inventor
Takeshi Musashi
剛 八道
Sumio Kawai
澄夫 川合
Hiroyuki Takizawa
宏行 滝沢
Kiyoshi Tosaka
清 登坂
Yoshie Kobayashi
芳恵 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP19357995A priority Critical patent/JPH0943682A/en
Publication of JPH0943682A publication Critical patent/JPH0943682A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a finder device capable of performing range-finding with high accuracy from a long distance to a short distance in a device where a range-finder and an autofocusing unit are combined and the base length of both of them is made equal so that an incident window may be integrated. SOLUTION: A luminous flux from a subject is guided by an objective lens 10 and photoelectrically converted at a photodetector part 16a on an image sensor 16, then the luminous flux from the subject is guided by an objective lens 22 arranged by a specified distance apart from the lens 10 and photoelectrically converted at a photodetector part 16b. Furthermore, light is projected to the subject by an IRED 32 in order to illuminate the subject and the reflected luminous flux reflected from the subject is photoelectrically converted at a photodetector part 16c through the lens 10. Then, the range- finding at the comparatively long distance is performed according to detection signals photoelectrically converted by the photodetector parts 16a and 16b and the range-finding at the comparatively short distance is performed according to the detection signal photoelectrically converted by the photodetector part 16c.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、光学的に距離情報
が認識できるファインダ、いわゆるレンジファインダ
と、電気的に距離情報が検出できるオートフォーカスユ
ニットとを備えたファインダ装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a finder device including a finder capable of optically recognizing distance information, a so-called range finder, and an autofocus unit capable of electrically detecting distance information.

【0002】[0002]

【従来の技術】カメラなどのファインダ装置は、被写体
像の中からフィルム面に結像する像とほぼ等価な像を撮
影者の目に導くという機能を有している。そこで、この
ファインダ装置では、被写体にピントが合っているかど
うかのピント調節状態の確認を行うことも可能である。
ここで、ピント調節を行うための測距方法には、光学的
に距離を検出して目視で確認するレンジファインダによ
る方法と、電気的に距離を検出するオートフォーカスに
よる方法とが現在用いられている。従来より撮影レンズ
とファインダ装置とが独立したタイプのカメラには、上
記レンジファインダにより目視で距離情報が得られるよ
うにしたカメラが製品化されている。
2. Description of the Related Art A finder device such as a camera has a function of guiding an image substantially equivalent to an image formed on a film surface out of a subject image to a photographer's eye. Therefore, with this finder device, it is also possible to confirm the focus adjustment state of whether or not the subject is in focus.
Here, as a distance measuring method for performing focus adjustment, a method using a range finder that optically detects a distance and visually confirms it, and a method that uses an auto focus to electrically detect a distance are currently used. There is. 2. Description of the Related Art Conventionally, as a camera of a type in which a taking lens and a finder device are independent, a camera has been commercialized in which range information can be visually obtained by the range finder.

【0003】このレンジファインダでは、図8に示すよ
うにファインダ対物レンズ101を通った被写体からの
光束はハーフミラー102、接眼レンズ103を通り、
目に導かれる。一方、上記ファインダ対物レンズ101
と所定の距離Lを隔てた位置に設けられた保護ガラス1
04と測距視野マスク105を通った被写体の光束は反
射ミラー106で全反射され、補助対物レンズ107を
通り、ハーフミラー102で反射されて接眼レンズ10
3を通り、目に導かれる。このような構成になっている
ため、後述する三角測距の原理により、ファインダを通
して像が2重になることから、像の合致度で距離を求め
ることができる。
In this range finder, as shown in FIG. 8, the light flux from the subject that has passed through the finder objective lens 101 passes through the half mirror 102 and the eyepiece 103,
Guided by the eyes. On the other hand, the finder objective lens 101
And a protective glass 1 provided at a position separated by a predetermined distance L
The light flux of the subject passing through 04 and the distance measuring field mask 105 is totally reflected by the reflection mirror 106, passes through the auxiliary objective lens 107, is reflected by the half mirror 102, and is reflected by the eyepiece lens 10.
Pass through 3 and be guided by the eyes. With such a configuration, the image is doubled through the finder according to the principle of triangulation, which will be described later, so that the distance can be obtained by the degree of coincidence of the images.

【0004】また図9は、オートフォーカスユニットに
用いられる三角測距の原理を示した図である。同図にお
いて、距離Xに置かれた被写体110からの光束は基線
長Safだけ離れた光軸を有する受光レンズ111,1
12で受光され、焦点距離fafの位置に置かれた光電
変換センサ113,114上へ結像される。
FIG. 9 is a diagram showing the principle of triangulation used in an autofocus unit. In the figure, the light flux from the subject 110 placed at a distance X has a light receiving lens 111, 1 having an optical axis separated by a base line length Saf.
The light is received at 12, and an image is formed on the photoelectric conversion sensors 113 and 114 placed at the position of the focal length faf.

【0005】このとき、この光電変換センサ113,1
14上へ結像された像が受光レンズ111,112の光
軸から各々Z/2画素だけずれた位置に形成されたとす
ると、センサピッチをPとして、被写体までの距離X
は、 X = (faf×Saf)/(Z×P) …(1) により求めることができる。
At this time, the photoelectric conversion sensors 113, 1
Assuming that the images formed on 14 are formed at positions shifted by Z / 2 pixels from the optical axes of the light receiving lenses 111 and 112, the sensor pitch is P, and the distance to the subject is X.
Can be obtained by X = (faf × Saf) / (Z × P) (1)

【0006】[0006]

【発明が解決しようとする課題】従来の上記レンジファ
インダとオートフォーカスユニットの両方を備えたファ
インダ装置としたとき、それぞれが2つの視差のある被
写体からの光束に基づいて測距を行うため、装置として
大型化してしまう。
When a conventional finder device is provided with both the range finder and the autofocus unit, each of them performs distance measurement based on the luminous fluxes from the two parallax-bearing objects. It will become large as.

【0007】この対策として、上記レンジファインダと
オートフォーカスユニットの2つの装置を一体化して小
型化する構成とすることが考えられる。すなわち、この
ファインダ装置は2つの装置の基線長を等しくして、さ
らに入射窓を一体化するというものである。このファイ
ンダ装置では、測距精度を高めるには基線長を長くとる
必要がある。
As a countermeasure against this, it is conceivable to integrate the two devices of the range finder and the autofocus unit into a compact structure. That is, in this finder device, the baseline lengths of the two devices are made equal, and the entrance window is further integrated. In this finder device, it is necessary to lengthen the base line length in order to improve the distance measurement accuracy.

【0008】また、上記レンジファインダとオートフォ
ーカスユニットの2つの装置を一体化して小型化する構
成としたファインダ装置において、レンジファインダと
オートフォーカスユニットとのパララックスをなくすに
は、オートフォーカスユニットを上記図9に示したもの
とは異なり、図10に示すようにファインダ光軸とオー
トフォーカスユニットの1つの光電変換センサの中心を
一致させる構成として、一方の像を固定してその光軸上
の像に対して測距を行うようにすればよい。図10に示
したファインダ装置は、一対の受光レンズ115,11
6が基線長Saf離れた位置に置かれ、受光レンズ11
5,116の焦点距離fafの位置に受光用の光電変換
センサ117,118がそれぞれ配置されたものであ
る。
Further, in the finder device having the structure in which the two devices of the range finder and the auto focus unit are integrated and miniaturized, in order to eliminate the parallax between the range finder and the auto focus unit, the auto focus unit is Different from the one shown in FIG. 9, as shown in FIG. 10, the optical axis of the finder is aligned with the center of one photoelectric conversion sensor of the autofocus unit, and one image is fixed and the image on that optical axis is fixed. It suffices to measure the distance to. The viewfinder device shown in FIG. 10 includes a pair of light receiving lenses 115, 11
6 is placed at a position away from the base line length Saf, and the light receiving lens 11
Photoelectric conversion sensors 117 and 118 for receiving light are arranged at positions of focal lengths faf of 5 and 116, respectively.

【0009】そこで、上述のように構成されたファイン
ダ装置では、光電変換センサ117,118上に結像す
る像は被写体が至近側に位置するとき、光電変換センサ
117,118上の2像は2像間隔が広くなる方向へ移
動し、被写体像が無限遠から点bまでの範囲内にあると
き、2つの光電変換センサ117,118は同じ視野の
像を見ることができる。
In view of this, in the viewfinder device having the above-described structure, the images formed on the photoelectric conversion sensors 117 and 118 are two images on the photoelectric conversion sensors 117 and 118 when the object is located on the near side. The two photoelectric conversion sensors 117 and 118 can see the images in the same field of view when the subject images are in the range from infinity to the point b when moving in the direction in which the image interval becomes wider.

【0010】しかしながら、図10に示した構成のオー
トフォーカスユニットでは、図9に示した構成のオート
フォーカスユニットに比べ、同じ距離の被写体に対して
受光光束の入射角度が大きくなるため、約2倍程度至近
限界が遠くなり、測距可能範囲が狭くなるという問題点
を有している。
However, in the autofocus unit having the configuration shown in FIG. 10, the incident angle of the received light beam is larger for an object at the same distance than in the autofocus unit having the configuration shown in FIG. There is a problem that the close range limit becomes far and the range that can be measured becomes narrow.

【0011】そこで本発明は、上記問題点を解決するた
めになされたものであり、レンジファインダとオートフ
ォーカスユニットとを組み合せ、この2つの基線長を等
しくして入射窓を一体化した装置において、遠距離から
近距離まで高い精度で測距を行うことができるファイン
ダ装置を提供することを目的とする。
Therefore, the present invention has been made in order to solve the above-mentioned problems, and in a device in which a range finder and an autofocus unit are combined and the two baseline lengths are made equal to each other and the entrance window is integrated, An object of the present invention is to provide a finder device capable of performing distance measurement with high accuracy from a long distance to a short distance.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
に、本発明のファインダ装置は、被写体からの光束を導
く第1光学手段と、この第1光学手段と所定距離隔置さ
れ、上記被写体からの光束を導く第2光学手段と、上記
被写体を照明するために該被写体に向けて投光を行う投
光手段と、上記第1光学手段によって導かれた光束を受
光して光電変換を行う第1受光手段と、上記第2光学手
段によって導かれた光束を受光して光電変換を行う第2
受光手段と、上記投光手段によって投光されて上記被写
体から反射する反射光束を上記第1光学手段を介して受
光して光電変換を行う第3受光手段とを具備することを
特徴とする。
In order to achieve the above object, the finder device of the present invention comprises a first optical means for guiding a light beam from an object, and a predetermined distance from the first optical means. Second optical means for guiding the light flux from the light source, a light projecting means for projecting light to the subject to illuminate the subject, and a light flux guided by the first optical means for photoelectric conversion. A first light receiving means and a second light receiving means for receiving the light flux guided by the second optical means and performing photoelectric conversion.
It is characterized by comprising: a light receiving means; and a third light receiving means for performing photoelectric conversion by receiving the reflected light flux projected by the light projecting means and reflected from the subject through the first optical means.

【0013】またさらに、本発明のファインダ装置は、
上記投光手段が上記第1光学手段と第2光学手段との光
軸を結ぶ方向とほぼ直交する方向に配置されることを特
徴とする。
Furthermore, the finder device of the present invention is
The light projecting means is arranged in a direction substantially orthogonal to a direction connecting the optical axes of the first optical means and the second optical means.

【0014】またさらに、本発明のファインダ装置は、
上記第1受光手段と第3受光手段とがほぼ直交する方向
に沿って配置され、かつ、該第3受光手段が上記第1光
学手段の光軸上から外れた位置に配置されていることを
特徴とする。
Furthermore, the finder device of the present invention is
The first light receiving means and the third light receiving means are arranged along a direction substantially orthogonal to each other, and the third light receiving means is arranged at a position off the optical axis of the first optical means. Characterize.

【0015】すなわち、本発明のファインダ装置では、
被写体からの光束が第1光学手段により導かれ、この第
1光学手段によって導かれた光束が第1受光手段に受光
されて光電変換が行われ、また、上記被写体からの光束
が上記第1光学手段と所定距離隔置された第2光学手段
により導かれ、この第2光学手段によって導かれた光束
が第2受光手段に受光されて光電変換が行われる。さら
に、上記被写体を照明するために該被写体に向けての投
光が投光手段により行われ、この投光手段によって投光
されて上記被写体から反射された反射光束が上記第1光
学手段を介して第3受光手段により受光されて光電変換
が行われる。そして、上記第1受光手段及び第2受光手
段により光電変換された検出信号にて比較的遠距離の測
距が行われ、上記第3受光手段により光電変換された検
出信号にて比較的近距離の測距が行われる。
That is, in the finder device of the present invention,
The light flux from the subject is guided by the first optical means, the light flux guided by the first optical means is received by the first light receiving means for photoelectric conversion, and the light flux from the subject is the first optical means. The second optical means, which is separated from the means by a predetermined distance, guides the light beam, and the light beam guided by the second optical means is received by the second light receiving means and photoelectrically converted. Further, a light projecting unit projects light to illuminate the object, and a reflected light beam projected by the light projecting unit and reflected from the object passes through the first optical unit. The light is received by the third light receiving means and photoelectric conversion is performed. A relatively long distance is measured by the detection signals photoelectrically converted by the first light receiving means and the second light receiving means, and a relatively short distance is detected by the detection signals photoelectrically converted by the third light receiving means. Distance measurement is performed.

【0016】[0016]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。まず、本発明に係る第1の実施の
形態のファインダ装置について説明する。図1は、第1
の実施の形態のファインダ装置の構成を示す斜視図であ
る。このファインダ装置は、実像式のレンジファインダ
とオートフォーカスユニットとの基線長を等しくして一
体化した例である。
Embodiments of the present invention will be described below with reference to the drawings. First, the finder device according to the first embodiment of the present invention will be described. Figure 1
FIG. 3 is a perspective view showing the configuration of the finder device of the embodiment. This finder device is an example in which the base lengths of the real-image type range finder and the autofocus unit are made equal and integrated.

【0017】同図において、対物レンズ10から入射し
た光束はポロプリズム12を通過した際、このポロプリ
ズム12により上記光束の一部がミラー14へ導かれ、
さらにこのミラー14にて反射されてイメージセンサ1
6上の受光部16aに入射する。また、上記ポロプリズ
ム12を通過した際の残りの光束は、ハーフミラー18
へ導かれこのハーフミラー18、接眼レンズ20を通過
して撮影者の目に導かれる。なお、イメージセンサ16
上の受光部16a,16b,16cは、受光面側に形成
されているが、説明のため透視図として示している。
In the figure, when the light beam incident from the objective lens 10 passes through the Porro prism 12, the Porro prism 12 guides a part of the light beam to the mirror 14,
Further, the image sensor 1 is reflected by the mirror 14.
The light is incident on the light receiving portion 16a on the upper surface 6. Further, the remaining light flux when passing through the Porro prism 12 is the half mirror 18.
It is guided to the photographer's eyes through the half mirror 18 and the eyepiece lens 20. The image sensor 16
Although the upper light receiving portions 16a, 16b, 16c are formed on the light receiving surface side, they are shown as a perspective view for explanation.

【0018】また、対物レンズ10と基線長Safだけ
離れた位置に設けられた対物レンズ22から入射した光
束はポロプリズム24を通過した際、このポロプリズム
24により上記光束の一部がミラー14へ導かれ、さら
にこのミラー14にて反射されてイメージセンサ16上
の受光部16bに入射する。上記ポロプリズム24を通
過した際の残りの光束は、不図示の焦点調節用のレンズ
と連動した可動ミラー26へ導かれこの可動ミラー26
にて反射され、対物補助レンズ28を通過し、さらにハ
ーフミラー18にて反射され、接眼レンズ20を通過し
て撮影者の目に導かれる。以上より、上記ハーフミラー
18上で2つの対物レンズ10,22から入射した光束
により、被写体像が2重像として形成される。
Further, when the light beam incident from the objective lens 22 provided at a position separated from the objective lens 10 by the base line length Saf passes through the Porro prism 24, a part of the light beam is directed to the mirror 14 by the Porro prism 24. The light is guided, further reflected by the mirror 14, and incident on the light receiving portion 16 b on the image sensor 16. The remaining light flux after passing through the Porro prism 24 is guided to a movable mirror 26 which is interlocked with a focusing lens (not shown), and the movable mirror 26 is moved.
Is reflected by the objective auxiliary lens 28, further reflected by the half mirror 18, passes through the eyepiece 20, and is guided to the photographer's eyes. As described above, the light fluxes incident from the two objective lenses 10 and 22 on the half mirror 18 form a subject image as a double image.

【0019】また、赤外光投光用レンズ30をファイン
ダ用の対物レンズ10の上方に配置し、その焦点面に赤
外光発光ダイオード(以下、IREDと記す)32を配
置する。このIRED32から赤外光投光用レンズ30
を介して投光された光束は、被写体にて反射され対物レ
ンズ10に入射する。この対物レンズ10から入射した
光束は、ポロプリズム12にてミラー14へ導かれ、さ
らにこのミラー14にて反射されてイメージセンサ16
上の受光部16cに入射する。そして、イメージセンサ
16上の受光部16a,16bの出力対と、IRED3
2とイメージセンサ16上の受光部16cの出力とから
なる、2つの3角測距の情報から被写体までの距離(被
写体距離)を求める。
Further, an infrared light projecting lens 30 is arranged above the finder objective lens 10, and an infrared light emitting diode (hereinafter referred to as IRED) 32 is arranged on the focal plane thereof. From this IRED 32 to the infrared light projection lens 30
The light beam projected through the lens is reflected by the subject and enters the objective lens 10. The light beam incident from the objective lens 10 is guided to the mirror 14 by the Porro prism 12, and further reflected by the mirror 14 to be reflected by the image sensor 16
It is incident on the upper light receiving portion 16c. Then, the output pair of the light receiving portions 16a and 16b on the image sensor 16 and the IRED3
The distance to the subject (subject distance) is obtained from two pieces of triangulation distance information consisting of 2 and the output of the light receiving unit 16c on the image sensor 16.

【0020】図2は、上記オートフォーカスユニットに
て信号処理を行う信号処理系の構成を示すブロック図で
ある。CPU(Central Processing Unit ;CP
U)40は、イメージセンサ16上の受光部16cへ測
距開始信号を出力して測距動作を開始させる。すると、
受光部16cは受光した光束による被写体像を光電変換
して蓄積し、所定時間経過後、CPU40の要求を受け
てこの蓄積信号を出力する。
FIG. 2 is a block diagram showing the configuration of a signal processing system for performing signal processing in the autofocus unit. CPU (Central Processing Unit; CP)
U) 40 outputs a distance measurement start signal to the light receiving portion 16c on the image sensor 16 to start the distance measurement operation. Then
The light receiving unit 16c photoelectrically converts and stores a subject image formed by the received light flux, and outputs a storage signal in response to a request from the CPU 40 after a lapse of a predetermined time.

【0021】CPU40は、受光部16cからの上記蓄
積信号をアナログ/ディジタル変換し、測距演算して被
写体距離を求める。つづいて、CPU40はこの被写体
距離に基づいて撮影レンズ(焦点調節用のレンズ)駆動
制御部42に対して制御信号を出力し、この制御信号に
従って撮影レンズ駆動制御部42はアクチュエータ44
を駆動し、撮影レンズを動かして焦点調節を行う。
The CPU 40 performs analog / digital conversion of the above-mentioned accumulated signal from the light receiving portion 16c and calculates a distance to obtain a subject distance. Subsequently, the CPU 40 outputs a control signal to the photographic lens (focus adjustment lens) drive control unit 42 based on the subject distance, and the photographic lens drive control unit 42 causes the actuator 44 to operate in accordance with the control signal.
To adjust the focus by moving the taking lens.

【0022】さらに、CPU40は発光制御部46、E
EPROM48の制御を行う。上記発光制御部46は、
投光用のIRED32、キセノン管(Xe管)50の発
光を制御する。
Further, the CPU 40 controls the light emission control section 46, E
The EPROM 48 is controlled. The light emission control unit 46 is
The IRED 32 for projecting light and the emission of the xenon tube (Xe tube) 50 are controlled.

【0023】次に、上記測距に用いられる各種の分光特
性について説明する。図3は、測距に用いられる各種の
分光特性を示す図である。図3(a)は、イメージセン
サ16上の受光部16a,16a,16aの分光感度を
示す図であり、波長800nm付近にピークを持つ感度
分布となる。図3(b)は投光用のIRED32の発光
特性であり、850nm付近に感度のピークを持つ挟帯
域の特性を持つ。図3(c),(d)はイメージセンサ
16の入射面上に貼り付けられたフィルタの分光透過率
を示すものであり、図3(c)に示すのは可視光用の受
光部16a,16bの入射面上に設けられたフィルタ5
2の分光透過率であり、図3(d)に示すのは赤外光用
の受光部16cの入射面上に設けられたフィルタ54の
分光透過率である。上記フィルタ52は波長750nm
付近から長波長側を遮断するシャープカットフィルタで
あり、フィルタ54は波長750nm付近から短波長側
を遮断するシャープカットフィルタである。
Next, various spectral characteristics used for the above distance measurement will be described. FIG. 3 is a diagram showing various spectral characteristics used for distance measurement. FIG. 3A is a diagram showing the spectral sensitivities of the light receiving portions 16a, 16a, 16a on the image sensor 16 and has a sensitivity distribution having a peak near a wavelength of 800 nm. FIG. 3B shows a light emission characteristic of the IRED 32 for projecting light, which has a narrow band characteristic having a sensitivity peak near 850 nm. 3C and 3D show the spectral transmittance of the filter attached on the incident surface of the image sensor 16, and FIG. 3C shows the light receiving portion 16a for visible light, Filter 5 provided on the entrance surface of 16b
2 is the spectral transmittance, and FIG. 3D shows the spectral transmittance of the filter 54 provided on the incident surface of the infrared light receiving portion 16c. The filter 52 has a wavelength of 750 nm
The sharp cut filter cuts off the long wavelength side from the vicinity, and the filter 54 is the sharp cut filter cuts off the short wavelength side from the vicinity of the wavelength of 750 nm.

【0024】イメージセンサ16上の配置は図3(e)
に示すようになっており、可視光用センサのうち、受光
部16aはファインダ光軸上に配置され、光軸上の被写
体からの光束を受光する。よって、測距視野に相当する
だけの長さしか持たず、ファインダ光軸は受光部16a
の中央に位置する。一方、受光部16bは測距用であ
り、ファインダ光軸に対して視差を持った像を受光す
る。このため、ずれ量を検出するだけの長さを有してい
る。また、受光部16cは赤外光の投光による像を受光
するため、ずれ量を検出するだけの長さを有している。
The arrangement on the image sensor 16 is shown in FIG.
In the visible light sensor, the light receiving portion 16a is arranged on the optical axis of the finder and receives the light flux from the subject on the optical axis. Therefore, the viewfinder optical axis has a length corresponding to the distance measuring field, and the finder optical axis is the light receiving portion 16a.
Located in the center of. On the other hand, the light receiving unit 16b is for distance measurement and receives an image having a parallax with respect to the finder optical axis. Therefore, it has a length enough to detect the amount of deviation. Further, since the light receiving section 16c receives an image formed by projecting infrared light, it has a length sufficient to detect the amount of deviation.

【0025】次に、本第1の実施の形態のファインダ装
置を適用したカメラについて説明する。図4は本第1の
実施の形態のファインダ装置を適用したカメラの正面図
であり、図4(a)はフラッシュ装置(ストロボ)を収
納した状態を示し、図4(b)はフラッシュ装置をポッ
プアップ(立ち上げた)状態を示すものである。
Next, a camera to which the finder device of the first embodiment is applied will be described. FIG. 4 is a front view of a camera to which the viewfinder device of the first embodiment is applied, FIG. 4A shows a state in which a flash device (strobe) is housed, and FIG. 4B shows the flash device. This shows a pop-up (started up) state.

【0026】図4(a),(b)において、カメラボデ
ィ58には、ファインダ窓60が撮影レンズ62の光軸
に直交する位置に配置され、測距像窓64が上記ファイ
ンダ窓60と基線長Safだけ離れた位置に配置され
る。
In FIGS. 4A and 4B, a finder window 60 is arranged on the camera body 58 at a position orthogonal to the optical axis of the taking lens 62, and a distance measuring image window 64 and the finder window 60 and the base line. It is arranged at a position separated by the length Saf.

【0027】また、フラッシュ装置(ストロボ)66
は、撮影レンズ62とファインダ光軸との一直線上に配
置され、通常はカメラ内に収納されている。そして、フ
ラッシュ装置66の収納部には前面に赤外光投光用のフ
ィルタ付きレンズ部68が設けられ、フラッシュ装置収
納状態においてフラッシュを発光すると、このフィルタ
付きレンズ部68を通して、被写体に赤外光が投光され
る。
Further, a flash device (strobe) 66
Is arranged on a straight line between the taking lens 62 and the optical axis of the finder, and is normally housed in the camera. Further, a lens portion 68 with a filter for projecting infrared light is provided on the front surface of the housing portion of the flash device 66, and when a flash is emitted in the housing state of the flash device, an infrared ray is emitted to the subject through the lens portion 68 with the filter. Light is projected.

【0028】図4(c)は、レンジファインダの配置を
示す図であり、ファインダ窓60の光軸60aと測距像
窓64の光軸64aとの間隔が基線長Safとなってお
り、測距の光軸は、光軸60aである。
FIG. 4C is a diagram showing the arrangement of the range finder. The distance between the optical axis 60a of the finder window 60 and the optical axis 64a of the distance measuring image window 64 is the base line length Saf, The optical axis of the distance is the optical axis 60a.

【0029】図4(d)は、可視光パッシブ方式のオー
トフォーカスユニットの配置を示す図であり、基線長は
図4(c)と同じである。オートフォーカスの光軸はフ
ァインダ窓60の光軸60aと同一であり、受光部16
aはファインダ窓60の光軸から偏心しない位置に配置
される。一方、受光部16bは図4(d)に示すように
測距像窓64の光軸から偏心した位置に配置される。
FIG. 4D is a view showing the arrangement of the visible light passive type autofocus unit, and the base line length is the same as that in FIG. 4C. The optical axis of the autofocus is the same as the optical axis 60a of the finder window 60, and
a is arranged at a position not decentered from the optical axis of the finder window 60. On the other hand, the light receiving portion 16b is arranged at a position decentered from the optical axis of the distance measuring image window 64 as shown in FIG. 4 (d).

【0030】図4(e)は、赤外光投光アクティブ方式
のオートフォーカスユニットの配置を示す図であり、基
線長はファインダ窓60の光軸60aと赤外光投光用の
フィルタ付きレンズ部68の光軸68a間の距離Saf
2 である。受光部16cはファインダ窓60の光軸60
aから偏心した位置に配置される。
FIG. 4 (e) is a view showing the arrangement of an infrared light projecting active type autofocus unit. The base line has an optical axis 60a of the finder window 60 and a lens with a filter for projecting infrared light. Distance Saf between the optical axes 68a of the parts 68
It is 2. The light receiving portion 16c is the optical axis 60 of the finder window 60.
It is arranged at a position eccentric from a.

【0031】続いて、本第1の実施の形態のファインダ
装置を適用したカメラの動作について説明する。図5
は、本第1の実施の形態のファインダ装置を適用したカ
メラの動作としてのCPU40の処理を示すフローチャ
ートである。
Next, the operation of the camera to which the finder device of the first embodiment is applied will be described. FIG.
4 is a flowchart showing a process of the CPU 40 as an operation of a camera to which the finder device of the first embodiment is applied.

【0032】まず、CPU40は、不図示のシャッタボ
タンの半押しでオンするファーストレリーズスイッチ
(以下、1Rと記す)がオンするまで待機し(ステップ
S1)、1Rがオンしたらイメージセンサ16をリセッ
トする(ステップS2)。
First, the CPU 40 waits until a first release switch (hereinafter referred to as 1R) which is turned on by half-pressing a shutter button (not shown) is turned on (step S1), and when the 1R is turned on, the image sensor 16 is reset. (Step S2).

【0033】次に、フラッシュ装置66の発光モードS
TMODEを“1”に設定して(ステップS3)、フラ
ッシュ装置66をカメラボディ58に収納したまま発光
させる(ステップS4)。すると、このフラッシュ装置
66から発せられた光は、赤外光投光用のフィルタ付き
レンズ68を介して赤外光となり被写体に投光される。
そして、イメージセンサ16には被写体から反射された
上記赤外光と、投光によらない可視光が受光される。こ
のとき、イメージセンサ16は、赤外光を受光する受光
部16cと可視光を受光する受光部16a,16bとを
独立した積分制御にて蓄積量を制御する。
Next, the flash mode 66 of the flash device 66 will be described.
TMODE is set to "1" (step S3), and the flash device 66 is made to emit light while being housed in the camera body 58 (step S4). Then, the light emitted from the flash device 66 becomes infrared light through the lens 68 with a filter for projecting infrared light and is projected onto the subject.
Then, the image sensor 16 receives the infrared light reflected from the subject and the visible light not caused by the light projection. At this time, the image sensor 16 controls the storage amount by independent integration control of the light receiving unit 16c that receives infrared light and the light receiving units 16a and 16b that receive visible light.

【0034】CPU40は、イメージセンサ16に所定
量の蓄積が終了したら(ステップS5)、フラッシュ装
置66の発光を停止させ(ステップS6)、イメージセ
ンサ16から蓄積信号(データ)を読み出す(ステップ
S7)。
When the image sensor 16 has accumulated a predetermined amount (step S5), the CPU 40 stops the flash device 66 from emitting light (step S6), and reads the accumulated signal (data) from the image sensor 16 (step S7). .

【0035】続いて、CPU40は蓄積信号のうち、ま
ず、赤外光受光信号の判断を行う。上記赤外光受光信号
のコントラストCON1が所定値C1より大きいか否か
を判定し(ステップS8)、コントラストCON1が所
定値C1より大きいときは赤外光受光信号の光量の重心
位置x1を検出する(ステップS9)。この検出では、
イメージセンサ16上の各画素出力のうち、最大出力と
なる位置と、この最大出力に対してその両側の出力が半
減する位置とから受光ピーク位置を計算し、この受光ピ
ーク位置を重心位置x1とする。
Subsequently, the CPU 40 first determines the infrared light reception signal of the accumulated signals. It is determined whether or not the contrast CON1 of the infrared light reception signal is larger than a predetermined value C1 (step S8), and when the contrast CON1 is larger than the predetermined value C1, the barycentric position x1 of the light amount of the infrared light reception signal is detected. (Step S9). In this detection,
Among the pixel outputs on the image sensor 16, the light receiving peak position is calculated from the position where the maximum output is obtained and the positions where the outputs on both sides of the pixel output are halved with respect to this maximum output. To do.

【0036】次に、CPU40は、重心位置x1の検出
結果が信頼できる値か否かを判定する(ステップS1
0)。ここで、検出結果が信頼できると判断したとき
は、ずれ量xに重心位置x1を代入し(ステップS1
7)、ずれ量の検出を終了する。なお、このときの基線
長は赤外光投光用のフィルタ付きレンズ部68の光軸6
8aからファインダ窓60の光軸60aまでの距離で与
えられ、測距の光軸はファインダ窓60の光軸60aと
なる。
Next, the CPU 40 determines whether or not the detection result of the barycentric position x1 is a reliable value (step S1).
0). Here, when it is determined that the detection result is reliable, the barycentric position x1 is substituted for the displacement amount x (step S1).
7) The detection of the shift amount is completed. The base length at this time is the optical axis 6 of the lens unit 68 with a filter for projecting infrared light.
8a to the optical axis 60a of the finder window 60, and the optical axis for distance measurement is the optical axis 60a of the finder window 60.

【0037】上記ステップS10にて重心位置x1の検
出結果が信頼できないと判断したとき、または上記ステ
ップS8にてコントラストCON1が所定値C1より大
きくないときは、CPU40は蓄積信号のうち、イメー
ジセンサ16上の受光部16a,16bの蓄積信号であ
る可視光受光信号の判断に移る。上記可視光受光信号の
コントラストCON2が所定値C2より大きいか否かを
判定し(ステップS11)、コントラストCON2が所
定値C2より大きいときはイメージセンサ16上の各画
素位置に対してのずれ量x2を検出する(ステップS1
2)。このずれ量x2の検出は、公知の方法にて行う。
すなわち、基準像と参照像との一致度を、画素同士の差
分の絶対値和が最小となる位置として求め、この最小と
なる位置をずれ量x2とする。
When it is determined in step S10 that the detection result of the center of gravity position x1 is unreliable, or when the contrast CON1 is not larger than the predetermined value C1 in step S8, the CPU 40 selects the image sensor 16 among the accumulated signals. The process shifts to the determination of the visible light reception signal which is the accumulated signal of the upper light receiving portions 16a and 16b. It is determined whether or not the contrast CON2 of the visible light reception signal is larger than a predetermined value C2 (step S11). When the contrast CON2 is larger than the predetermined value C2, a shift amount x2 with respect to each pixel position on the image sensor 16 is determined. Is detected (step S1
2). The detection of this shift amount x2 is performed by a known method.
That is, the degree of coincidence between the standard image and the reference image is obtained as the position where the sum of absolute values of the differences between the pixels is minimum, and this minimum position is set as the shift amount x2.

【0038】続いて、CPU40は、ずれ量x2の検出
結果が信頼できる値か否かを判定する(ステップS1
3)。ここで、検出結果が信頼できると判断したとき
は、ずれ量xにx2を代入し(ステップS16)、ずれ
量の検出を終了する。
Subsequently, the CPU 40 determines whether or not the detection result of the shift amount x2 is a reliable value (step S1).
3). If it is determined that the detection result is reliable, x2 is substituted for the deviation amount x (step S16), and the detection of the deviation amount ends.

【0039】上記ステップS13にてずれ量x2の検出
結果が信頼できないと判断したとき、または上記ステッ
プS11にてコントラストCON2が所定値C2より大
きくないときは、CPU40は被写体の輝度が低輝度か
否かを判定する(ステップS14)。ここで、被写体の
輝度が低輝度でないときは測距不能と判断し(ステップ
S29)、本処理を終了する。
When it is determined in step S13 that the detection result of the shift amount x2 is unreliable, or when the contrast CON2 is not larger than the predetermined value C2 in step S11, the CPU 40 determines whether the brightness of the object is low. It is determined (step S14). Here, when the brightness of the subject is not low, it is determined that distance measurement is impossible (step S29), and this processing ends.

【0040】一方、被写体の輝度が低輝度であるとき
は、フラッシュ装置66の発光モードSTMODEを
“2”に設定して(ステップS15)、フラッシュ装置
66をポップアップした後(ステップS18)、イメー
ジセンサ16をリセットする(ステップS19)。続い
て、フラッシュ装置66を発光させ(ステップS2
0)、この光を被写体へ投光させる。イメージセンサ1
6は、被写体から反射された可視光を受光し、積分制御
にて蓄積量を制御する。
On the other hand, when the brightness of the subject is low, the flash mode 66 of the flash device 66 is set to "2" (step S15), and after popping up the flash device 66 (step S18), the image sensor 16 is reset (step S19). Then, the flash device 66 is caused to emit light (step S2
0), this light is projected onto the subject. Image sensor 1
Reference numeral 6 receives visible light reflected from the subject and controls the accumulation amount by integration control.

【0041】CPU40は、イメージセンサ16に所定
量の蓄積が終了したら(ステップS21)、フラッシュ
装置66の発光を停止させ(ステップS22)、イメー
ジセンサ16から蓄積信号(データ)を読み出す(ステ
ップS23)。
When the storage of a predetermined amount in the image sensor 16 is completed (step S21), the CPU 40 stops the light emission of the flash device 66 (step S22), and reads the storage signal (data) from the image sensor 16 (step S23). .

【0042】そして、上述と同様にCPU40は、イメ
ージセンサ16上の受光部16a,16bの蓄積信号で
ある可視光受光信号の判断を行う。まず、可視光受光信
号のコントラストCON2が所定値C2より大きいか否
かを判定し(ステップS24)、コントラストCON2
が所定値C2より大きいときはイメージセンサ16上の
各画素位置に対してのずれ量x2を検出する(ステップ
S25)。
Then, similarly to the above, the CPU 40 determines the visible light receiving signal which is the accumulated signal of the light receiving portions 16a and 16b on the image sensor 16. First, it is determined whether or not the contrast CON2 of the visible light reception signal is larger than the predetermined value C2 (step S24), and the contrast CON2
When is larger than the predetermined value C2, the shift amount x2 for each pixel position on the image sensor 16 is detected (step S25).

【0043】続いて、CPU40は、ずれ量x2の検出
結果が信頼できる値か否かを判定する(ステップS2
6)。ここで、検出結果が信頼できると判断したとき
は、ずれ量xにx2を代入し(ステップS28)、ずれ
量の検出を終了する。
Subsequently, the CPU 40 determines whether or not the detection result of the deviation amount x2 is a reliable value (step S2).
6). If it is determined that the detection result is reliable, x2 is substituted for the deviation amount x (step S28), and the detection of the deviation amount is completed.

【0044】上記ステップS26にてずれ量x2の検出
結果が信頼できないと判断したとき、または上記ステッ
プS24にてコントラストCON2が所定値C2より大
きくないときは、CPU40は測距不能と判断し(ステ
ップS27)、本処理を終了する。
If it is determined in step S26 that the detection result of the shift amount x2 is unreliable, or if the contrast CON2 is not larger than the predetermined value C2 in step S24, the CPU 40 determines that distance measurement is impossible (step S27), and this processing ends.

【0045】次に、第2の実施の形態のファインダ装置
を適用したカメラについて説明する。図6は、第2の実
施の形態のファインダ装置を適用したカメラの正面図で
ある。図6(a)において、カメラボディ80には、フ
ァインダ窓82が撮影レンズ84の光軸に直交する位置
に配置され、撮影レンズ84の近傍に赤外光投光部(以
下、IRED投光部)86が配置される。測距用受光窓
88はファインダ窓82と基線長Saf離れた位置に配
置され、その横にフラッシュ装置(ストロボ)90が配
置される。
Next, a camera to which the finder device of the second embodiment is applied will be described. FIG. 6 is a front view of a camera to which the finder device of the second embodiment is applied. In FIG. 6A, a finder window 82 is arranged in the camera body 80 at a position orthogonal to the optical axis of the taking lens 84, and an infrared light projecting unit (hereinafter, IRED projecting unit) is provided in the vicinity of the taking lens 84. ) 86 is arranged. The distance measuring light receiving window 88 is arranged at a position separated from the finder window 82 by the base line length Saf, and a flash device (strobe) 90 is arranged beside it.

【0046】図6(b)は、赤外光投光アクティブ方式
のオートフォーカスユニットの配置を示す図であり、フ
ァインダ窓82の光軸82aとIRED投光部86の光
軸86aとの間が基線長Saf2 となる。受光部16c
は図4(e)に示した配置と逆になり、IRED投光部
86に対してファインダ窓82の光軸82aより上方に
偏心した位置に配置される。また、レンジファインダと
可視光パッシブ方式のオートフォーカスユニットの配置
の関係は、上記図4(c),(d)に示したのと同一で
ある。
FIG. 6B is a view showing the arrangement of the infrared light projection active type autofocus unit, in which the space between the optical axis 82a of the finder window 82 and the optical axis 86a of the IRED light projecting section 86 is shown. The base line length becomes Saf2. Light receiving part 16c
Is opposite to the arrangement shown in FIG. 4E, and is arranged at a position eccentric with respect to the IRED light projecting portion 86 above the optical axis 82a of the finder window 82. Further, the relationship of arrangement of the range finder and the visible light passive type autofocus unit is the same as that shown in FIGS. 4 (c) and 4 (d).

【0047】次に、本第2の実施の形態のファインダ装
置を適用したカメラの動作について説明する。図7は、
本第2の実施の形態のファインダ装置を適用したカメラ
の動作としてのCPU40の処理を示すフローチャート
である。
Next, the operation of the camera to which the viewfinder device of the second embodiment is applied will be described. FIG.
9 is a flowchart showing a process of a CPU 40 as an operation of a camera to which the finder device according to the second embodiment is applied.

【0048】まず、CPU40は、不図示のシャッタボ
タンの半押しでオンする1Rがオンするまで待機し(ス
テップS101)、1Rがオンしたらイメージセンサ1
6をリセットする(ステップS102)。
First, the CPU 40 waits until 1R which is turned on by half-pressing a shutter button (not shown) is turned on (step S101), and when 1R is turned on, the image sensor 1 is turned on.
6 is reset (step S102).

【0049】次に、IRED投光部86をオンして、被
写体に赤外光を投光する(ステップS103)。これに
より、イメージセンサ16には被写体から反射された上
記赤外光と、投光によらない可視光が受光される。そし
て、上記第1の実施の形態と同様に、イメージセンサ1
6は赤外光を受光する受光部16cと可視光を受光する
受光部16a,16bとを独立した積分制御にて蓄積量
を制御する。
Next, the IRED light projecting unit 86 is turned on to project infrared light on the subject (step S103). As a result, the image sensor 16 receives the infrared light reflected from the subject and the visible light that is not emitted. Then, similarly to the first embodiment, the image sensor 1
Reference numeral 6 controls the storage amount by independent integration control of the light receiving portion 16c that receives infrared light and the light receiving portions 16a and 16b that receive visible light.

【0050】CPU40は、イメージセンサ16に所定
量の蓄積が終了したら(ステップS104)、IRED
投光部86をオフして(ステップS105)、イメージ
センサ16から蓄積信号(データ)を読み出す(ステッ
プS106)。
When the CPU 40 has finished storing a predetermined amount in the image sensor 16 (step S104), the IRED
The light projecting unit 86 is turned off (step S105), and the accumulated signal (data) is read from the image sensor 16 (step S106).

【0051】続いて、CPU40は蓄積信号のうち、ま
ず、赤外光受光信号の判断を行う。上記赤外光受光信号
のコントラストCON1が所定値C1より大きいか否か
を判定し(ステップS107)、コントラストCON1
が所定値C1より大きいときは赤外光受光信号の光量の
重心位置x1を検出する(ステップS108)。この検
出は、上記第1の実施の形態と同一の方法により行う。
Subsequently, the CPU 40 first determines the infrared light reception signal of the accumulated signals. It is determined whether or not the contrast CON1 of the infrared light reception signal is larger than a predetermined value C1 (step S107), and the contrast CON1
When is larger than the predetermined value C1, the barycentric position x1 of the light amount of the infrared light reception signal is detected (step S108). This detection is performed by the same method as in the first embodiment.

【0052】次に、CPU40は、重心位置x1の検出
結果が信頼できる値か否かを判定する(ステップS10
9)。ここで、検出結果が信頼できると判断したとき
は、ずれ量xに重心位置x1を代入し(ステップS11
6)、ずれ量の検出を終了する。なお、このときの基線
長はIRED投光部86の光軸86aからファインダ窓
82の光軸82aまでの距離で与えられ、測距の光軸は
IRED投光部86の光軸86aとなる。
Next, the CPU 40 determines whether or not the detection result of the barycentric position x1 is a reliable value (step S10).
9). Here, when it is determined that the detection result is reliable, the center of gravity position x1 is substituted for the displacement amount x (step S11).
6) Then, the detection of the shift amount is completed. The baseline length at this time is given by the distance from the optical axis 86a of the IRED light projecting unit 86 to the optical axis 82a of the finder window 82, and the optical axis for distance measurement is the optical axis 86a of the IRED light projecting unit 86.

【0053】上記ステップS109にて重心位置x1の
検出結果が信頼できないと判断したとき、または上記ス
テップS107にてコントラストCON1が所定値C1
より大きくないときは、CPU40は蓄積信号のうち、
イメージセンサ16上の受光部16a,16bの蓄積信
号である可視光受光信号の判断に移る。この可視光受光
信号のコントラストCON2が所定値C2より大きいか
否かを判定し(ステップS110)、コントラストCO
N2が所定値C2より大きいときはイメージセンサ16
上の各画素位置に対してのずれ量x2を検出する(ステ
ップS111)。このずれ量x2の検出は、上記第1の
実施の形態と同様な公知の方法にて行う。
When it is determined in step S109 that the detection result of the barycentric position x1 is unreliable, or in step S107, the contrast CON1 is the predetermined value C1.
When it is not larger, the CPU 40 selects one of the accumulated signals.
The process proceeds to the determination of the visible light reception signal which is the accumulated signal of the light receiving portions 16a and 16b on the image sensor 16. It is determined whether the contrast CON2 of the visible light reception signal is larger than a predetermined value C2 (step S110), and the contrast CO
When N2 is larger than the predetermined value C2, the image sensor 16
A shift amount x2 for each pixel position above is detected (step S111). The detection of the deviation amount x2 is performed by a known method similar to that of the first embodiment.

【0054】続いて、CPU40は、ずれ量x2の検出
結果が信頼できる値か否かを判定する(ステップS11
2)。ここで、検出結果が信頼できる値と判断したとき
は、ずれ量xにx2を代入し(ステップS115)、ず
れ量の検出を終了する。
Subsequently, the CPU 40 determines whether or not the detection result of the deviation amount x2 is a reliable value (step S11).
2). If it is determined that the detection result is a reliable value, x2 is substituted for the deviation amount x (step S115), and the deviation amount detection is ended.

【0055】上記ステップS112にてずれ量x2の検
出結果が信頼できないと判断したとき、または上記ステ
ップS110にてコントラストCON2が所定値C2よ
り大きくないときは、CPU40は被写体の輝度が低輝
度か否かを判定する(ステップS113)。ここで、被
写体の輝度が低輝度でないときは測距不能と判断し(ス
テップS126)、本処理を終了する。
When it is determined in step S112 that the detection result of the shift amount x2 is unreliable, or when the contrast CON2 is not larger than the predetermined value C2 in step S110, the CPU 40 determines whether the brightness of the object is low. It is determined whether or not (step S113). Here, when the brightness of the subject is not low, it is determined that distance measurement is impossible (step S126), and this processing ends.

【0056】一方、被写体の輝度が低輝度であるとき
は、イメージセンサ16をリセットする(ステップS1
14)。続いて、フラッシュ装置90を発光させ(ステ
ップS117)、この光を被写体へ投光させる。イメー
ジセンサ16は、被写体から反射された可視光を受光
し、積分制御にて蓄積量を制御する。
On the other hand, when the brightness of the subject is low, the image sensor 16 is reset (step S1).
14). Subsequently, the flash device 90 is caused to emit light (step S117), and this light is projected onto the subject. The image sensor 16 receives the visible light reflected from the subject and controls the accumulation amount by integration control.

【0057】CPU40は、イメージセンサ16に所定
量の蓄積が終了したら(ステップS118)、フラッシ
ュ装置90の発光を停止させ(ステップS119)、イ
メージセンサ16から蓄積信号(データ)を読み出す
(ステップS120)。
When the storage of the predetermined amount in the image sensor 16 is completed (step S118), the CPU 40 stops the light emission of the flash device 90 (step S119), and reads the storage signal (data) from the image sensor 16 (step S120). .

【0058】そして、上述と同様にCPU40は、イメ
ージセンサ16上の受光部16a,16bの蓄積信号で
ある可視光受光信号の判断を行う。まず、可視光受光信
号のコントラストCON2が所定値C2より大きいか否
かを判定し(ステップS121)、コントラストCON
2が所定値C2より大きいときはイメージセンサ16上
の各画素位置に対してのずれ量x2を検出する(ステッ
プS122)。
Then, similarly to the above, the CPU 40 determines the visible light reception signal which is the accumulated signal of the light receiving portions 16a and 16b on the image sensor 16. First, it is determined whether or not the contrast CON2 of the visible light reception signal is larger than the predetermined value C2 (step S121), and the contrast CON
When 2 is larger than the predetermined value C2, the shift amount x2 for each pixel position on the image sensor 16 is detected (step S122).

【0059】続いて、CPU40は、ずれ量x2の検出
結果が信頼できる値か否かを判定する(ステップS12
3)。ここで、検出結果が信頼できる値と判断したとき
はずれ量xにx2を代入し(ステップS125)、ずれ
量の検出を終了する。
Subsequently, the CPU 40 determines whether or not the detection result of the shift amount x2 is a reliable value (step S12).
3). When it is determined that the detection result is a reliable value, x2 is substituted for the deviation amount x (step S125), and the deviation amount detection is ended.

【0060】上記ステップS123にてずれ量x2の検
出結果が信頼できないと判断したとき、または上記ステ
ップS121にてコントラストCON2が所定値C2よ
り大きくないときは、CPU40は測距不能と判断し
(ステップS124)、本処理を終了する。
If it is determined in step S123 that the detection result of the shift amount x2 is unreliable, or if the contrast CON2 is not larger than the predetermined value C2 in step S121, the CPU 40 determines that distance measurement is impossible (step (S124), this process ends.

【0061】以上説明したように上記実施の形態におい
ては、第1の光学手段である対物レンズ10,ポロプリ
ズム12,ミラー14と、第2の光学手段である対物レ
ンズ22,ポロプリズム24,ミラー14とで導かれた
被写体光束を、第1の受光手段であるイメージセンサ1
6上の受光部16aと第2の受光手段であるイメージセ
ンサ16上の受光部16bにより検出して比較的遠距離
の測距を行い、投光手段である赤外光投光用レンズ3
0,IRED32により投光された光束の反射光を第3
の受光手段であるイメージセンサ16上の受光部16c
により検出して比較的近距離の測距を行うことにより、
高精度でかつ、測距範囲が広いファインダ装置が提供で
きる。
As described above, in the above embodiment, the objective lens 10, the Porro prism 12, and the mirror 14 which are the first optical means, and the objective lens 22, the Porro prism 24 and the mirror which are the second optical means. The image sensor 1 serving as the first light receiving means receives the subject light flux guided by
Infrared light projection lens 3 which is a light projecting means, which detects a relatively long distance by detecting by light receiving section 16a on 6 and light receiving section 16b on image sensor 16 which is a second light receiving means.
0, the reflected light of the light beam projected by the IRED 32
16c on the image sensor 16 which is the light receiving means of
By detecting by and measuring a relatively short distance,
It is possible to provide a finder device with high accuracy and a wide distance measuring range.

【0062】また、一対の受光レンズ(対物レンズ1
0,22)からの光束により、レンジファインダ、可視
光パッシブ方式のオートフォーカス、赤外光投光アクテ
ィブ方式のオートフォーカス、それぞれによる測距が可
能で小型のファインダ装置が提供できる。
A pair of light receiving lenses (objective lens 1
It is possible to provide a small finder device capable of distance measurement by a range finder, a visible light passive type autofocus, and an infrared light projection active type autofocus by the light fluxes from 0, 22).

【0063】以上詳述した如き本発明の実施の形態によ
れば、以下の如き構成を得ることができる。すなわち、 (1) 被写体からの光束を導く第1光学手段と、この
第1光学手段と所定距離隔置され、上記被写体からの光
束を導く第2光学手段と、上記被写体を照明するために
該被写体に向けて投光を行う投光手段と、上記第1光学
手段によって導かれた光束を受光して光電変換を行う第
1受光手段と、上記第2光学手段によって導かれた光束
を受光して光電変換を行う第2受光手段と、上記投光手
段によって投光されて上記被写体から反射する反射光束
を上記第1光学手段を介して受光して光電変換を行う第
3受光手段と、を具備することを特徴とするファインダ
装置。 (2) 上記投光手段は、上記第1光学手段と第2光学
手段との光軸を結ぶ方向とほぼ直交する方向に配置され
ることを特徴とする上記(1)に記載のファインダ装
置。 (3) 上記第1受光手段と第3受光手段とは、ほぼ直
交する方向に沿って配置され、かつ、該第3受光手段は
上記第1光学手段の光軸上から外れた位置に配置されて
いることを特徴とする上記(1)に記載のファインダ装
置。 (4) 上記第1受光手段,第2受光手段,そして第3
受光手段は、同一平面上に形成されていることを特徴と
する上記(1)に記載のファインダ装置。 (5) 上記第1受光手段,第2受光手段,そして第3
受光手段は、それぞれ所定の方向に並列される光電変換
素子列からなることを特徴とする上記(1)に記載のフ
ァインダ装置。 (6) 上記第1受光手段と第3受光手段とを形成する
光電変換素子列は、互いにほぼ直交する方向に並列され
ていることを特徴とする上記(5)に記載のファインダ
装置。 (7) 上記第1受光手段と第2受光手段とを形成する
光電変換素子列は、上記第1光学手段と第2光学手段と
の光軸を結ぶ方向に沿って並列されていることを特徴と
する上記(5)に記載のファインダ装置。 (8) 上記第1受光手段を形成する光電変換素子列
は、上記第1光学手段と第2光学手段との光軸を結ぶ方
向に沿って並列され、上記第3受光手段を形成する光電
変換素子列は、上記第1光学手段の光軸から外れた位置
にて、上記第1光学手段と第2光学手段との光軸を結ぶ
方向とほぼ直交する方向に沿って並列されていることを
特徴とする上記(5)に記載のファインダ装置。 (9) 上記第1受光手段と第2受光手段とを形成する
光電変換素子列は、上記第1光学手段と第2光学手段と
の光軸を結ぶ方向に沿って並列され、上記第3受光手段
を形成する光電変換素子列は、上記第1光学手段の光軸
から外れた位置にて、上記第1光学手段と第2光学手段
との光軸を結ぶ方向とほぼ直交する方向に沿って並列さ
れていることを特徴とする上記(5)に記載のファイン
ダ装置。
According to the embodiment of the present invention described in detail above, the following constitution can be obtained. That is, (1) first optical means for guiding a light flux from a subject, second optical means for guiding a light flux from the subject, which is separated from the first optical means by a predetermined distance, and the second optical means for illuminating the subject. A light projecting means for projecting light toward a subject, a first light receiving means for receiving a light beam guided by the first optical means for photoelectric conversion, and a light beam guided by the second optical means. Second light receiving means for performing photoelectric conversion, and third light receiving means for performing photoelectric conversion by receiving reflected light flux projected by the light projecting means and reflected from the subject through the first optical means. A finder device provided with. (2) The finder device according to (1), wherein the light projecting unit is arranged in a direction substantially orthogonal to a direction connecting the optical axes of the first optical unit and the second optical unit. (3) The first light receiving means and the third light receiving means are arranged along a direction substantially orthogonal to each other, and the third light receiving means is arranged at a position off the optical axis of the first optical means. The finder device according to (1) above. (4) The first light receiving means, the second light receiving means, and the third
The finder device according to (1) above, wherein the light receiving means are formed on the same plane. (5) The first light receiving means, the second light receiving means, and the third
The finder device according to (1) above, wherein the light receiving means is composed of photoelectric conversion element rows arranged in parallel in a predetermined direction. (6) The finder device according to (5), wherein the photoelectric conversion element arrays forming the first light receiving unit and the third light receiving unit are arranged in parallel in directions substantially orthogonal to each other. (7) The photoelectric conversion element arrays forming the first light receiving unit and the second light receiving unit are arranged in parallel along the direction connecting the optical axes of the first optical unit and the second optical unit. The finder device according to (5) above. (8) The photoelectric conversion element array forming the first light receiving unit is arranged in parallel along the direction connecting the optical axes of the first optical unit and the second optical unit, and the photoelectric conversion unit forming the third light receiving unit. The element rows are juxtaposed at a position deviated from the optical axis of the first optical means along a direction substantially orthogonal to a direction connecting the optical axes of the first optical means and the second optical means. The finder device according to the above (5), which is characteristic. (9) The photoelectric conversion element arrays forming the first light receiving unit and the second light receiving unit are arranged in parallel along the direction connecting the optical axes of the first optical unit and the second optical unit, and the third light receiving unit is arranged. The photoelectric conversion element array forming the means is located at a position deviated from the optical axis of the first optical means and extends along a direction substantially orthogonal to the direction connecting the optical axes of the first optical means and the second optical means. The finder device according to (5) above, which is arranged in parallel.

【0064】[0064]

【発明の効果】以上述べたように本発明によれば、レン
ジファインダとオートフォーカスユニットとを組み合
せ、この2つの基線長を等しくして入射窓を一体化した
装置において、遠距離から近距離まで高い精度で測距を
行うことができるファインダ装置を提供することが可能
である。
As described above, according to the present invention, in a device in which a range finder and an auto focus unit are combined and the two base lines are made equal to each other and the entrance window is integrated, from a long distance to a short distance. It is possible to provide a finder device that can perform distance measurement with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施の形態のファインダ装置の構成を示
す斜視図である。
FIG. 1 is a perspective view showing a configuration of a finder device according to a first embodiment.

【図2】上記オートフォーカスユニットにて信号処理を
行う信号処理系の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a signal processing system that performs signal processing in the autofocus unit.

【図3】測距に用いられる各種の分光特性を示す図であ
る。
FIG. 3 is a diagram showing various spectral characteristics used for distance measurement.

【図4】第1の実施の形態のファインダ装置を適用した
カメラの構成を示す図である。
FIG. 4 is a diagram showing a configuration of a camera to which the finder device according to the first embodiment is applied.

【図5】第1の実施の形態のファインダ装置を適用した
カメラの動作としてのCPU40の処理を示すフローチ
ャートである。
FIG. 5 is a flowchart showing a process of a CPU 40 as an operation of a camera to which the finder device according to the first embodiment is applied.

【図6】第2の実施の形態のファインダ装置を適用した
カメラの構成を示す図である。
FIG. 6 is a diagram showing a configuration of a camera to which a finder device according to a second embodiment is applied.

【図7】第2の実施の形態のファインダ装置を適用した
カメラの動作としてのCPU40の処理を示すフローチ
ャートである。
FIG. 7 is a flowchart showing a process of a CPU 40 as an operation of a camera to which the finder device according to the second embodiment is applied.

【図8】従来のレンジファインダの構成を示す図であ
る。
FIG. 8 is a diagram showing a configuration of a conventional range finder.

【図9】オートフォーカスユニットに用いられる三角測
距の原理を説明するための図である。
FIG. 9 is a diagram for explaining the principle of triangulation used in an autofocus unit.

【図10】一方の像を固定して行うオートフォーカスを
説明するための図である。
FIG. 10 is a diagram for explaining autofocus performed by fixing one image.

【符号の説明】[Explanation of symbols]

10…対物レンズ、12…ポロプリズム、14…ミラ
ー、16…イメージセンサ、16a,16b,16c…
受光部、18…ハーフミラー、20…接眼レンズ、22
…対物レンズ、24…ポロプリズム、26…可動ミラ
ー、28…対物補助レンズ、30…赤外光投光用レン
ズ、32…赤外光発光ダイオード(IRED)、40…
CPU(Central Processing Unit )、42…撮影
レンズ(焦点調節用のレンズ)駆動制御部、44…アク
チュエータ、46…発光制御部、48…EEPROM、
50…キセノン管(Xe管)、52,54…フィルタ。
10 ... Objective lens, 12 ... Porro prism, 14 ... Mirror, 16 ... Image sensor, 16a, 16b, 16c ...
Light receiving part, 18 ... Half mirror, 20 ... Eyepiece lens, 22
Objective lens, 24 ... Porro prism, 26 ... Movable mirror, 28 ... Objective auxiliary lens, 30 ... Infrared light projecting lens, 32 ... Infrared light emitting diode (IRED), 40 ...
CPU (Central Processing Unit), 42 ... Photographing lens (lens for focus adjustment) drive control unit, 44 ... Actuator, 46 ... Emission control unit, 48 ... EEPROM,
50 ... Xenon tube (Xe tube), 52, 54 ... Filter.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 登坂 清 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 小林 芳恵 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Kiyoshi Tosaka 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd. (72) Yoshie Kobayashi 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 被写体からの光束を導く第1光学手段
と、 この第1光学手段と所定距離隔置され、上記被写体から
の光束を導く第2光学手段と、 上記被写体を照明するために該被写体に向けて投光を行
う投光手段と、 上記第1光学手段によって導かれた光束を受光して光電
変換を行う第1受光手段と、 上記第2光学手段によって導かれた光束を受光して光電
変換を行う第2受光手段と、 上記投光手段によって投光されて上記被写体から反射す
る反射光束を上記第1光学手段を介して受光して光電変
換を行う第3受光手段と、 を具備することを特徴とするファインダ装置。
1. A first optical means for guiding a light flux from a subject, a second optical means for guiding a light flux from the subject, the second optical means being separated from the first optical means by a predetermined distance, and the second optical means for illuminating the subject. A light projecting means for projecting light toward an object, a first light receiving means for receiving the light flux guided by the first optical means and performing photoelectric conversion, and a light flux guided by the second optical means. Second light receiving means for performing photoelectric conversion, and third light receiving means for performing photoelectric conversion by receiving reflected light flux projected by the light projecting means and reflected from the subject through the first optical means. A finder device provided with.
【請求項2】 上記投光手段は、上記第1光学手段と第
2光学手段との光軸を結ぶ方向とほぼ直交する方向に配
置されることを特徴とする請求項1に記載のファインダ
装置。
2. The finder device according to claim 1, wherein the light projecting means is arranged in a direction substantially orthogonal to a direction connecting the optical axes of the first optical means and the second optical means. .
【請求項3】 上記第1受光手段と第3受光手段とは、
ほぼ直交する方向に沿って配置され、かつ、該第3受光
手段は上記第1光学手段の光軸上から外れた位置に配置
されていることを特徴とする請求項1に記載のファイン
ダ装置。
3. The first light receiving means and the third light receiving means,
The finder device according to claim 1, wherein the finder device is arranged along a substantially orthogonal direction, and the third light receiving means is arranged at a position deviated from the optical axis of the first optical means.
JP19357995A 1995-07-28 1995-07-28 Finder device Withdrawn JPH0943682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19357995A JPH0943682A (en) 1995-07-28 1995-07-28 Finder device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19357995A JPH0943682A (en) 1995-07-28 1995-07-28 Finder device

Publications (1)

Publication Number Publication Date
JPH0943682A true JPH0943682A (en) 1997-02-14

Family

ID=16310354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19357995A Withdrawn JPH0943682A (en) 1995-07-28 1995-07-28 Finder device

Country Status (1)

Country Link
JP (1) JPH0943682A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10333215A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH10333214A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH10333213A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH10333212A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH1144838A (en) * 1997-05-27 1999-02-16 Asahi Optical Co Ltd Finder device for camera
JP2002122907A (en) * 2000-10-12 2002-04-26 Nitto Kogaku Kk Optical equipment
JP2003161983A (en) * 2001-11-27 2003-06-06 Tamron Co Ltd Range finder interlocked type camera
US10225450B2 (en) 2017-03-06 2019-03-05 Canon Kabushiki Kaisha Image capturing apparatus and image capturing unit
US10530985B2 (en) 2017-03-06 2020-01-07 Canon Kabushiki Kaisha Image capturing apparatus, image capturing system, method of controlling image capturing apparatus, and non-transitory computer-readable storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10333215A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH10333214A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH10333213A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH10333212A (en) * 1997-05-27 1998-12-18 Asahi Optical Co Ltd Finder device for camera
JPH1144838A (en) * 1997-05-27 1999-02-16 Asahi Optical Co Ltd Finder device for camera
JP2002122907A (en) * 2000-10-12 2002-04-26 Nitto Kogaku Kk Optical equipment
JP2003161983A (en) * 2001-11-27 2003-06-06 Tamron Co Ltd Range finder interlocked type camera
US10225450B2 (en) 2017-03-06 2019-03-05 Canon Kabushiki Kaisha Image capturing apparatus and image capturing unit
US10530985B2 (en) 2017-03-06 2020-01-07 Canon Kabushiki Kaisha Image capturing apparatus, image capturing system, method of controlling image capturing apparatus, and non-transitory computer-readable storage medium

Similar Documents

Publication Publication Date Title
JPH0943682A (en) Finder device
JP2643326B2 (en) Single-lens reflex camera with focus detection device
US5526083A (en) Finder system of a camera
JPH0533366B2 (en)
JPS6120808A (en) Range measuring instrument
US6677568B2 (en) Surveying instrument having a phase-difference detection type focus detecting device
US4618762A (en) In-focus position detecting apparatus
US4723142A (en) Focus detecting device
JPS63259521A (en) Composite type focusing detection device
US5353090A (en) Camera
JP5043402B2 (en) Photometric device and camera
JP3292780B2 (en) Parallax correction mechanism in passive AF ranging system
US4428653A (en) Mirror reflex camera with an electronic range finder
JP3174128B2 (en) camera
JP3868035B2 (en) Ranging device
JP4590136B2 (en) camera
JP2537145B2 (en) Metering / ranging device
JP3290361B2 (en) Camera ranging device
JP2758625B2 (en) camera
JP3393887B2 (en) Distance measuring device
JPS63212912A (en) Focus detecting device
JP3063240B2 (en) Converter device and camera system using the same
JPS63139310A (en) Pattern projecting device for detecting focus
JPS6190113A (en) Single-lens reflex camera with automatic focusing mechanism
JPS6280511A (en) Optical system for range finding

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20021001