JP2001249266A - Range finder for camera - Google Patents

Range finder for camera

Info

Publication number
JP2001249266A
JP2001249266A JP2000057281A JP2000057281A JP2001249266A JP 2001249266 A JP2001249266 A JP 2001249266A JP 2000057281 A JP2000057281 A JP 2000057281A JP 2000057281 A JP2000057281 A JP 2000057281A JP 2001249266 A JP2001249266 A JP 2001249266A
Authority
JP
Japan
Prior art keywords
distance measuring
area
image
points
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000057281A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000057281A priority Critical patent/JP2001249266A/en
Publication of JP2001249266A publication Critical patent/JP2001249266A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera range finder capable of focusing on a main object at high speed by reducing the number of range finding points. SOLUTION: The camera range finder is provided with an image detecting means (sensor, photodetecting lens, A/D conversion part and calculation part, etc.), for detecting an image signal in a photographic field, and an eliminating means (prescribed steps S2, S3 and S4 of a program incorporated into a CPU) for eliminating an unnecessary range to be found in the photographic field in order to use part of the signals from the image detecting means as a range finding signal. The eliminating means is provided with a deciding means (the prescribed step of the program) for judging the similarity of adjacent ranges in accordance with brightness information, contrast information and color information from the object image signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画面内の複数のポ
イントを測距してピント合せをするAFカメラの測距装
置の改良に関し、詳しくは全画面AFの主要被写体を判
別できる機能を有する測距装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement in a distance measuring device of an AF camera which measures and focuses on a plurality of points on a screen, and more particularly, has a function of discriminating a main subject of full-screen AF. It relates to a distance measuring device.

【0002】[0002]

【従来の技術】近年の測距装置に関する技術としては、
例えば特開平11−109481号公報に教示された手
動選択の技術があり、これは45点AFの測距ポイント
を手動選択で行なう機能を有している。このようなAF
方式を一般に「マルチAF」と呼んでいる。1つのポイ
ントの距離を測定するにも、画素信号より被写体像信号
を検出するいわゆる「パッシブタイプ」のAFの場合、
まず適切な画素データの積分制御、相関演算および補間
演算等の複雑な演算が必要となる。しかも、これらの演
算は同時にはできず、順番に行なわなければならない。
従って、多くのポイントを測距しようとすると、同様な
プロセスを何度も繰り返さなければならない。
2. Description of the Related Art Recent technologies relating to distance measuring devices include:
For example, there is a manual selection technique taught in Japanese Patent Application Laid-Open No. H11-109481, which has a function of manually selecting a 45-point AF distance measurement point. Such AF
The method is generally called “multi AF”. To measure the distance of one point, in the case of a so-called “passive type” AF that detects a subject image signal from a pixel signal,
First, complicated calculations such as integration control of appropriate pixel data, correlation calculation and interpolation calculation are required. Moreover, these operations cannot be performed simultaneously, but must be performed sequentially.
Therefore, when trying to measure the distance of many points, the same process must be repeated many times.

【0003】詳しくは、図13(a)〜(c)に例示の
如く従来の測距方法では、図13(b)が示す画面内の
A,B,Cの3ポイントを測距する場合、まずAポイン
トについて積分制御、相関演算および補間演算を行なっ
て距離を求める。次に、同じプロセスをBポイントにつ
いて行ない、続くCポイントについても同様なプロセス
で距離を算出するが、このように複雑な演算制御を図1
3(a)のフローチャートの如き手順で繰り返えすと、
図13(c)に示すような例えば30ポイントもの多数
ポイントの測距を行なう場合には、前述の3ポイントを
測距する場合の十倍の時間がかかるので、シャッタータ
イムラグが生じて撮影者はシャッターチャンスを逃すこ
とになりかねない。
More specifically, in the conventional distance measuring method as illustrated in FIGS. 13A to 13C, when measuring three points A, B, and C in a screen shown in FIG. First, a distance is obtained by performing integral control, correlation calculation and interpolation calculation on the point A. Next, the same process is performed for the B point, and the distance is calculated for the subsequent C point by the same process.
By repeating the procedure shown in the flowchart of FIG.
In the case of performing distance measurement of as many as 30 points as shown in FIG. 13C, for example, it takes ten times as long as the case of measuring the three points described above. You might miss a photo opportunity.

【0004】また特開平10−142490号公報で
は、被写界を幾つかに分割して距離分布を求め、シーン
を分析する装置が提案されている。しかしこの技術で
も、時分割で演算を実行する場合、距離分布を求める事
自体に時間がかかってしまうとうい同様な不具合は回避
できない。
Japanese Patent Application Laid-Open No. H10-142490 proposes an apparatus for analyzing a scene by dividing a scene into several parts to obtain a distance distribution. However, even when this technique is used to execute the calculation in a time-sharing manner, the same problem cannot be avoided in that it takes time to obtain the distance distribution itself.

【0005】[0005]

【発明が解決しようとする課題】上述の如く、マルチA
Fは多数の被写体に対する測距を可能とする。しかしな
がら、画面内の測距ポイントの増加や被写界の分割数の
増加は、測距時間を長くしてしまうという副作用が無視
できなかった。そこで、この測距時間の増大に起因する
シャッタータイムラグを短くするためには、主要被写体
が存在しない領域を高速で検出し、測距の手間を省く技
術が重要となる。ただし、単に測距ポイントを減少させ
るだけだと、測距しなかった所に主要被写体が存在する
場合は、ピントがぼけてしまう可能性が高い。
As described above, the multi-A
F enables distance measurement for a large number of subjects. However, an increase in the number of distance measurement points in the screen and an increase in the number of divisions of the object field have a considerable side effect of increasing the distance measurement time. Therefore, in order to shorten the shutter time lag caused by the increase in the distance measurement time, a technique of detecting an area where a main subject does not exist at high speed and saving the trouble of the distance measurement is important. However, if the distance measurement points are simply reduced, the focus is likely to be out of focus if the main subject exists in a place where distance measurement was not performed.

【0006】本発明は、従来の不具合を考慮してなるべ
く測距のポイントを少なくし、高速で主要被写体にピン
ト合せを可能にするカメラの測距装置を提供することを
目的としている。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a camera distance measuring apparatus which can focus on a main subject at high speed by reducing distance measuring points as much as possible in consideration of the conventional problems.

【0007】[0007]

【課題を解決するための手段】上記課題を解決し目的を
達成するため、本発明では次のような手段を講じてい
る。例えば、通常のワンチップマイコン等の単純な演算
制御回路を用いて廉価に構成しながら、高速に効率よく
且つ正しくピント合せを行なえるカメラを実現する。こ
のため、本発明によれば、写真画面内の像信号を検出す
る像検出手段と、この像検出手段の信号の一部を測距用
信号として利用するためにこの画面内の測距不要の領域
を排除する排除手段と、を有するカメラの測距装置にお
いて、この排除手段は、その像信号の明るさ、コントラ
ストまたは色情報に従って、隣接領域の類似性を判断す
る判定手段を備えたような測距装置を提案する。
Means for Solving the Problems In order to solve the above problems and achieve the object, the present invention takes the following measures. For example, a camera capable of performing high-speed, efficient, and accurate focusing while realizing a low-cost configuration using a simple arithmetic control circuit such as a normal one-chip microcomputer is realized. For this reason, according to the present invention, there is provided an image detecting means for detecting an image signal in a photographic screen, and a distance measuring unnecessary in the screen for utilizing a part of the signal of the image detecting means as a distance measuring signal. Exclusion means for eliminating an area, wherein the exclusion means includes a determination means for determining the similarity between adjacent areas according to the brightness, contrast or color information of the image signal. A distance measuring device is proposed.

【0008】また、画面内の複数ポイントの像信号を検
出可能な測距装置において、この複数ポイントの互いに
隣接するポイントの像信号の類似性を比較可能な比較手
段を有し、この比較手段の出力と、類似性のあるポイン
トの数に従って、これらの複数ポイントのうち、測距用
の限られたポイントを選択する選択手段を更に備えたよ
うな測距装置を提案する。そして、写真画面内の像信号
を検出する像検出手段と、この像検出手段の信号の一部
を、測距用信号として利用するためにこの画面内の測距
不要の領域を排除する排除手段と、を有するカメラの測
距装置において、この排除手段は、この像信号の明る
さ、コントラストまたは色情報の同一性をもつ領域の面
積に従ってこの測距不要のポイントを決定するような測
距装置を提案する。さらには、画面周辺部に位置する第
一の領域の像信号を検出する第一の像検出手段と、この
第一の像検出手段の出力と類似の信号を出力する領域
を、測距を行なう対象領域から排除する排除手段を有し
たカメラの測距装置を提案する。
In a distance measuring apparatus capable of detecting image signals at a plurality of points in a screen, there is provided a comparing means which can compare the similarity of the image signals at points adjacent to each other at the plurality of points. According to the present invention, there is proposed a distance measuring apparatus further provided with a selecting means for selecting a limited point for distance measurement from the plurality of points according to the number of points having similarity to the output. And an image detecting means for detecting an image signal in the photographic screen, and an elimination means for eliminating an area not requiring distance measurement in the screen in order to use a part of the signal of the image detection means as a signal for distance measurement. Wherein the elimination means determines the point which does not need to be measured according to the area of the area having the same brightness, contrast or color information of the image signal. Suggest. Further, a first image detecting means for detecting an image signal of a first area located in a peripheral portion of the screen, and an area for outputting a signal similar to the output of the first image detecting means are subjected to distance measurement. A distance measuring device for a camera having an exclusion unit for exclusion from a target area is proposed.

【0009】[0009]

【発明の実施の形態】以下に複数の実施形態を挙げて、
本発明の測距装置の構成とその動作原理について詳しく
説明する。 (第1実施形態)本発明の測距装置は、従来の測距装置
が有するとほぼ同等な主要構成要素を利用しており、基
本的には図1に示すようにそれぞれが配置されている。
すなわち、構成的には、測距で求めようとする被写体距
離Lに位置する被写体5からの反射光が、この測距装置
を内包するカメラ前面において距離(基線長)Bだけ離
間して設けられた受光レンズ3a,3bにより集光さ
れ、これらレンズから距離f後方に並設された半導***
置検出素子(PSD等)から成る受光素子としてのセン
サ2a,2bに照射されて、被写体像がその受光面に結
像されるように構成されている。また、センサ2a,2
bは、光電変換した波形3a,3bの信号光電流をA/
D変換部34に供給し、デジタルに変換されたそれぞれ
の光電流成分信号の値を演算部35が、所定の測距アル
ゴリズムに基づき演算を行って被写体距離Lを求めるよ
うに構成されている。
BEST MODE FOR CARRYING OUT THE INVENTION A plurality of embodiments will be described below.
The configuration and operation principle of the distance measuring apparatus of the present invention will be described in detail. (First Embodiment) A distance measuring apparatus according to the present invention utilizes the same main components as those of a conventional distance measuring apparatus, and is basically arranged as shown in FIG. .
That is, structurally, reflected light from the subject 5 located at the subject distance L to be obtained by distance measurement is provided at a distance (base line length) B on the front of the camera including the distance measurement device. The light is condensed by the light receiving lenses 3a and 3b, and irradiates the sensors 2a and 2b as light receiving elements composed of semiconductor position detecting elements (PSD and the like) arranged in parallel behind the lenses by a distance f, and the subject image is received. It is configured to be imaged on a plane. Further, the sensors 2a, 2
b denotes the signal light current of the photoelectrically converted waveforms 3a and 3b, A /
The arithmetic unit 35 is configured to calculate the value of each of the photocurrent component signals that are supplied to the D conversion unit 34 and converted into digital, based on a predetermined distance measurement algorithm, to obtain the subject distance L.

【0010】一方、測距方法の概要は、パッシブ方式に
基づいて行うが、従来の如く複数ポイントのすべてに対
してそれぞれ同じような積分制御、相関演算、補間演算
を行なうのではなく、画面内に点在する複数ポイントの
うち主要被写体に対応する領域のみを残してその他の領
域は測距対象から排除するという前処理(詳細後述)を
行ってから、残る特定のポイントだけを対象とする受光
素子のみからの情報を基に被写体距離を求めることを一
特徴としている。
On the other hand, the outline of the distance measuring method is based on the passive method. However, instead of performing the same integral control, correlation operation, and interpolation operation on all of a plurality of points as in the prior art, the distance measurement method is performed on the screen. After performing preprocessing (details will be described later) of leaving a region corresponding to the main subject out of a plurality of points scattered and excluding other regions from a distance measurement target, light reception targeting only the remaining specific point is performed. One feature is that the subject distance is obtained based on information from only the elements.

【0011】積分制御は、図1のセンサ2a,2bのよ
うな一組から成るセンサアレイで被写体5の像信号を検
出するとき、センサアレイを構成する画素の出力電流を
コンデンサを介して電圧に変換する際、所定のダイナミ
ックレンジ以内に電圧信号を収めるという公知技術に基
づいて行なう。また相関演算は、次のように行う。各画
素について図2(a),(b)に示すような左右別々の
像信号が得られた場合、センサ2a側とセンサ2b側か
らのそれぞれの像位置の相対ズレ量xを画素のピッチ単
位で求める。これは、2つのセンサアレイの画素データ
毎に差をとってこれらを加算した結果を求め、次にセン
サ2b側からの画素データを1画素のみずらして、再び
同じプロセスで各画素データの差の加算を行ない、これ
を繰り返す演算で2つの像信号が一致したとき相関度が
高いと判断して、ズレ量xの概略値を求める。図2
(c)に示すように何画素分かずらしたとき、左右の両
データは一致して、加算値は最小(Fmin)となり、相
関度が最も良好となる。しかし、加算値が0にならない
場合は、画素のピッチ以下のズレ量があると考えられる
ので、更に詳細な補間演算を行なう。
In the integral control, when an image signal of the subject 5 is detected by a sensor array composed of a pair such as the sensors 2a and 2b in FIG. 1, the output current of a pixel constituting the sensor array is converted to a voltage via a capacitor. The conversion is performed based on a known technique of keeping a voltage signal within a predetermined dynamic range. The correlation calculation is performed as follows. When the left and right image signals as shown in FIGS. 2A and 2B are obtained for each pixel, the relative shift amount x of the respective image positions from the sensor 2a side and the sensor 2b side is represented by a pixel pitch unit. Ask for. This is because the difference is obtained for each pixel data of the two sensor arrays, the result of adding them is obtained, the pixel data from the sensor 2b is shifted by only one pixel, and the difference between the pixel data is again calculated in the same process. The addition is performed, and when the two image signals coincide with each other by repeating the calculation, it is determined that the degree of correlation is high, and an approximate value of the shift amount x is obtained. FIG.
When the pixels are shifted by several pixels as shown in (c), the left and right data coincide, the added value becomes the minimum (Fmin), and the degree of correlation becomes the best. However, when the added value does not become 0, it is considered that there is a shift amount equal to or less than the pixel pitch, and therefore a more detailed interpolation calculation is performed.

【0012】図3には回路図で、図1中の測距装置を構
成する要部を詳しく示している。センサアレイを構成す
る個々の素子は1つのバイアス回路に並列接続されて、
多数のセグメントS1〜S4 を形成している。それぞれ
はスイッチ7aを介して各セグメントに続く電気的ユニ
ットA1〜A4 に接続可能に回路構成されている。ま
た、CPU1はA/D変換回路1aおよび積分制御回路
1bを共に有していてもよい。各電気的ユニットの第1
の出力端はそれぞれ、スイッチ群7cを介して、画素単
位の画像信号にうちの最大なものを検出する最大値検出
回路6に接続されている。一方、第2の出力端はスイッ
チ8を介して選択的にA/D変換回路1aに接続される
ように構成されている。
FIG. 3 is a circuit diagram showing in detail a main part of the distance measuring apparatus shown in FIG. The individual elements constituting the sensor array are connected in parallel to one bias circuit,
A number of segments S1 to S4 are formed. Each circuit is configured to be connectable to the electrical units A1 to A4 following each segment via the switch 7a. Further, the CPU 1 may have both the A / D conversion circuit 1a and the integration control circuit 1b. The first of each electrical unit
Are connected via a switch group 7c to a maximum value detection circuit 6 for detecting the largest of the image signals in pixel units. On the other hand, the second output terminal is configured to be selectively connected to the A / D conversion circuit 1a via the switch 8.

【0013】センサアレイの各セグメントS1〜S4で検
知処理された画像信号は、積分制御回路1bで積分処理
され、図4(a),(b)に例示した如くの異なる値を
呈する。即ち、図4(a)のグラフに表わされたA/D
変換前後の画素単位の画像信号が示すような傾向を成
す。そしてA/D変換回路1aでデジタル値に変換され
ると、最大値検出回路6によってそれらの値のうちでセ
グメントS2 が検知処理した像の値(ダイナミックレン
ジ)が最大値を示すことがわかる。なお、A/D変換後
にはパルス波形が得られ、これが逐次モニタされる。
The image signals detected and processed by each of the segments S1 to S4 of the sensor array are integrated by an integration control circuit 1b and have different values as shown in FIGS. 4 (a) and 4 (b). That is, the A / D shown in the graph of FIG.
There is a tendency as shown by image signals in pixel units before and after conversion. When the digital value is converted by the A / D conversion circuit 1a, the maximum value detection circuit 6 finds that the value (dynamic range) of the image detected and processed by the segment S2 has the maximum value. Note that a pulse waveform is obtained after the A / D conversion, and this is sequentially monitored.

【0014】また、図4(b)に表わされたグラフのよ
うにセグメントS2 の値をピーク(最高値)とする被写体
像形状に近似したデジタル画像信号波形が得られる。こ
れにより、その最大値に対応する被写体像を検知したセ
ンサ(この例の場合はセグメントS2 )が、主要被写体
を逐次モニタしている中心近傍に配置されたセンサ部分
であるとみなせるので、そのセンサの検知領域(センサ
エリア)に関するデータを、中心となる処理対象として
選別すればよい。
Further, as shown in the graph of FIG. 4B, a digital image signal waveform approximate to the shape of the subject image having the peak of the value of the segment S2 (maximum value) is obtained. As a result, the sensor (segment S2 in this example) that has detected the subject image corresponding to the maximum value can be regarded as a sensor portion located near the center where the main subject is sequentially monitored. The data relating to the detection area (sensor area) may be selected as the central processing target.

【0015】本発明の測距装置の測距部を構成する受光
素子は、図5(a),(b)に示すような複数列に配置
されたラインセンサ2(2a,2b)であってもよい
し、図6に示すような平面的なエリアセンサ2a,2b
であってもよく、測距に使用する領域はその使用する素
子の形状、構成に合わせて一次元的または二次元的に選
択すればよい。
The light receiving elements constituting the distance measuring section of the distance measuring apparatus of the present invention are line sensors 2 (2a, 2b) arranged in a plurality of rows as shown in FIGS. 5 (a) and 5 (b). Or planar area sensors 2a and 2b as shown in FIG.
The area used for distance measurement may be selected one-dimensionally or two-dimensionally according to the shape and configuration of the element used.

【0016】次に、第1実施形態の測距装置の特徴的な
処理手順および受光素子の構成について詳しく説明す
る。最初に、前述の前処理についてその概要を説明する
と、この装置では、図7に示すフローチャートのような
測距プログラムによって、まず全画面の積分制御を行な
い(S1)、その結果により、画面内各ポイントの輝度
やコントラスト又は色の情報に従って測距ポイントの優
先度を決定する。例えば、所定面積以上の同一な値を示
す領域は主要被写体ではないと判断して測距対象から排
除する(S2、S3、S4)。そして、優先度の高い領
域、即ち、残った領域のみに対して積分制御し(S
5)、相関演算を行って(S6)、所定距離範囲内にあ
るもののみ補間演算(S7)まで行なうように制御され
る。
Next, the characteristic processing procedure of the distance measuring apparatus of the first embodiment and the configuration of the light receiving element will be described in detail. First, the outline of the pre-processing will be described. In this apparatus, first, integral control of the entire screen is performed by a distance measuring program as shown in the flowchart of FIG. 7 (S1). The priority of the ranging point is determined according to the information of the brightness, contrast, or color of the point. For example, a region having the same value equal to or larger than a predetermined area is determined not to be the main subject, and is excluded from distance measurement targets (S2, S3, S4). Then, the integral control is performed only on the high priority area, that is, the remaining area (S
5) Control is performed such that a correlation operation is performed (S6), and only those within a predetermined distance range are subjected to an interpolation operation (S7).

【0017】このような工夫によって、優先度の低いポ
イントは測距されることがないので、その分、高速な測
距ができピント合せも早くなる。よって、例えば30個
もの測距ポイントがある測距装置でも適用でき、必要な
ポイントだけにその数を絞り込んで測距ができるので、
実用に不具合ないような測距の高速化が達成できる。な
お、更に詳しい排除処理手順については、図8及び図9
を使って後に述べる。
With such a device, a low priority point is not measured, so that high-speed ranging can be performed and focusing can be quickened. Therefore, for example, the present invention can be applied to a distance measuring device having as many as 30 distance measuring points, and the distance can be measured by narrowing down the number to only necessary points.
It is possible to achieve a high-speed ranging without causing a problem in practical use. 8 and 9 for a more detailed exclusion processing procedure.
Will be described later.

【0018】上述した如く、各ポイントに関して色や、
コントラストおよび輝度を比較するためには、これらの
類似性を判断する技術が重要となる。このための光学素
子を次に説明する。図10(a)〜(c)には、本実施
形態で利用するセンサの一例を示す。図10(a)はエ
リアセンサとしての像センサの断面構造であり、ここで
は、光電変換機能をもつ半導体の受光層の上に各画素の
データを転送するゲートを含む層間酸化膜を構成し、更
にその上にR,G,Bの三色の光しか通さないカラーフ
ィルター層を設け、集光率を上げるためのマイクロレン
ズを配置している。また、図10(b)に示すように、
その像センサはこれを構成する画素のセグメントを平面
的に並べ、一画素中にR,G,Bの三つの色情報が入る
ようにする。このような構成のセンサアレイを、図6中
のエリアセンサ2a,2bに利用すれば、測距と同時に
色情報を含む画像情報が得られる。
As described above, for each point,
In order to compare the contrast and the luminance, a technique for judging the similarity is important. The optical element for this will be described below. FIGS. 10A to 10C show an example of a sensor used in the present embodiment. FIG. 10A shows a cross-sectional structure of an image sensor as an area sensor. Here, an interlayer oxide film including a gate for transferring data of each pixel is formed on a light receiving layer of a semiconductor having a photoelectric conversion function. Further, a color filter layer that allows light of only three colors of R, G, and B to pass therethrough is provided thereon, and a microlens for increasing the light collection rate is provided. Also, as shown in FIG.
The image sensor arranges the segments of the pixels constituting the image sensor in a plane so that three color information of R, G, and B are included in one pixel. If the sensor array having such a configuration is used for the area sensors 2a and 2b in FIG. 6, image information including color information can be obtained simultaneously with distance measurement.

【0019】なお、複数画素が幾つか集まって所定の1
エリアを構成すると定義して、その位置は座標表示のよ
うに(m,n)で表わし、その後の処理に用いる。上述
のセンサで得られた画像情報(色)は、図10(c)の
フローチャートが示す処理手順にしたがって隣接するも
のとの類似性が判断される。ここでは、画素の集合であ
る各エリアからの出力(即ち、(1,1)のエリアはR
フィルタからR(1,1)、GフィルタからはG(1,
1)、BフィルタからはB(1,1)の出力とする。又
これは各画素の和である。)を用いて、各画素の色情報
の類似性を判断する。
It is to be noted that a predetermined 1
The area is defined as constituting, and its position is represented by (m, n) as in the coordinate display, and is used for subsequent processing. The similarity of the image information (color) obtained by the above-described sensor with the adjacent information is determined according to the processing procedure shown in the flowchart of FIG. Here, the output from each area which is a set of pixels (that is, the area of (1, 1) is R
R (1,1) from the filter, G (1,1) from the G filter
1) The output of the B filter is B (1, 1). This is the sum of each pixel. ) Is used to determine the similarity of the color information of each pixel.

【0020】例えばステップS50,S51において
は、隣接する画素(m,n)及び(m,n+1)の色情
報について、R成分、R1 (m,n)及びR1 (m,n
+1)を主として順次に検出している(S50,S5
1)。ただしこのR1 (m,n)は、m,nの画素のR
(m,n)をR,G,Bの和によって正規化したもので
ある。こう処理しないと、明るさ情報に依存するが、こ
こではそれを防止している。
For example, in steps S50 and S51, the R component, R 1 (m, n) and R 1 (m, n) are determined for the color information of the adjacent pixels (m, n) and (m, n + 1).
+1) is mainly detected sequentially (S50, S5).
1). Here, this R 1 (m, n) is the R of the m, n pixel.
(M, n) is normalized by the sum of R, G, and B. If this is not done, it depends on the brightness information, but this is prevented here.

【0021】次には、G,B成分も同様にして検知して
判定すれば、さらに色判定の効果は高まるが、この例で
は単純化のためにR成分のみの情報R1 (m,n)の類
似性を判断している(S52)。例えば、R1 (1,
1)とR1 (1,2)との類似性を比較する際には、R
1 (1,2)がR1 (1,1)の所定の比率0.8〜
1.2の中に収まるか否かで判定している。もしこの範
囲に収まれば、類似性があると判断して、所定の類似処
理の後、図示しないメインルーチンにリターンする(S
53)。
Next, if the G and B components are also detected and determined in the same manner, the effect of color determination is further enhanced. In this example, information R 1 (m, n) of only the R component is used for simplicity. ) Is determined (S52). For example, R 1 (1,
When comparing the similarity between 1) and R 1 (1,2), R
1 (1,2) is a predetermined ratio of R 1 (1,1) 0.8 to
Judgment is made based on whether it is within 1.2. If it falls within this range, it is determined that there is similarity, and after a predetermined similar process, the process returns to the main routine (not shown) (S
53).

【0022】また、図11(a),(b)には、その他
の画像情報(コントラスト、輝度)の類似性を判断する
方法とその手順をフローチャートで示している。図11
(a)に示す如く波状に変化する色(像信号)によって
明るさが異なるのを防ぐために、測距センサのある一部
分のエリア(エリアセンサの一部分を切り出したアレイ
状部分)を図示のように一次元的に並べている。そし
て、各画素については、R+G+Bの加算値にて判断さ
れるものとする。
FIGS. 11A and 11B are flowcharts showing a method of determining the similarity of other image information (contrast and brightness) and its procedure. FIG.
In order to prevent the brightness from being different depending on the color (image signal) changing in a wave shape as shown in FIG. 2A, an area of a certain part of the distance measuring sensor (an array part obtained by cutting out a part of the area sensor) is shown in FIG. They are arranged one-dimensionally. Then, it is assumed that each pixel is determined by the added value of R + G + B.

【0023】アレイ状のセンサに対応して像信号の大き
さが変化している場合、エリア1,1とエリア2,1の
領域では、各々のMAX信号値およびMIN信号値を含
む値が検出できるようになる。その値の平均を輝度情報
Bとし、コントラスト情報Cを、MAX信号値とMIN
信号値の差と定義すると、コントラストおよび輝度につ
いても、図10(c)で示したと同様の方法で求められ
る。
When the magnitude of the image signal changes in accordance with the array-like sensor, values including the MAX signal value and the MIN signal value are detected in the areas 1 and 1 and the areas 2 and 1. become able to. The average of the values is defined as luminance information B, and the contrast information C is defined as the MAX signal value and MIN.
When defined as a difference between signal values, the contrast and the luminance can be obtained by the same method as shown in FIG.

【0024】図11(b)に沿って具体的に示すと、例
えばエリア1,1とエリア2,1のそれぞれの輝度B
(1,1)とB(2,1)、コントラストC(1,1)
とC(2,1)をそれぞれ計算する(S60〜62、S
63〜65)。エリア1,1とエリア2,1との類似性
をコントラストおよび輝度に基づいて比較する。まずコ
ントラストC(2,1)がC(1,1)の所定比率0.
8〜1.2の中に収まるか否かを判定する(S65)。
もし否であればこのままリターンするが、収まれば類似
性があるとして更に輝度に関して次のように比較する。
すなわち、B(2,1)がB(1,1)の所定比率0.
8〜1.2の中に収まるか否かを判定し(S67)、も
し否であればリターンするが、この範囲に収まれば、類
似性があると判断して、類似処理を行ない、リターンす
る。
FIG. 11B specifically shows, for example, the brightness B of each of the areas 1 and 1 and the areas 2 and 1.
(1,1) and B (2,1), contrast C (1,1)
And C (2,1) (S60-62, S
63-65). The similarity between the areas 1 and 1 and the areas 2 and 1 is compared based on contrast and luminance. First, the contrast C (2,1) is a predetermined ratio of 0.1 to C (1,1).
It is determined whether it falls within 8 to 1.2 (S65).
If not, the process returns as it is, but if it does, it is determined that there is similarity, and the brightness is further compared as follows.
That is, B (2,1) is a predetermined ratio of B (1,1) of 0.1.
It is determined whether the value falls within the range of 8 to 1.2 (S67). If not, the process returns. If the value falls within this range, it is determined that there is similarity, similar processing is performed, and the process returns. .

【0025】以上のような一連の手順で比較すること
で、二つの隣接エリア間での色、コントラストおよび輝
度情報の類似性の有無が判定できる。なお、本発明の第
1実施形態はこのような類似性判断を前提としている
が、輝度情報B、コントラスト情報Cまたは色情報Rの
うちからどれか任意の情報だけ選んでもよいし、すべて
を満たす場合に類似性があると判断する方法でもよい。
By comparing in a series of procedures as described above, it is possible to determine the similarity of the color, contrast and luminance information between two adjacent areas. Although the first embodiment of the present invention is based on such similarity determination, any one of the luminance information B, the contrast information C, and the color information R may be selected, or all the information may be satisfied. In such a case, a method of determining that there is similarity may be used.

【0026】本発明は、この類似性の判定方法を利用し
測距の高速化を図るために、多数の測距ポイントから測
距対象ポイントのデータ以外を排除するような次のよう
な排除処理機能を備えている。ここでは、上述の輝度
B、コントラストC、色Rの情報を示すデータを、従来
技術(参照図13(c))のようなm×nのエリアで、
P(m,n)として示す。またこの前提として、画面の
一番端部のエリア、1,1のポイントと1,5のポイン
ト(図1参照)には、主要被写体が存在し難いと判断し
て、まずこれを排除の基準信号とする。なぜならば、通
常、図1に示すような画面100内においては、これら
のエリア(画面端部や角部)には主要被写体が存在する
よりも、それ以外の背景等が存在することが多い故であ
る。
According to the present invention, in order to use this similarity determination method to speed up the distance measurement, the following exclusion processing for excluding data other than the data of the distance measurement target point from a large number of distance measurement points is performed. Has functions. Here, the data indicating the information of the above-described brightness B, contrast C, and color R is stored in an m × n area as in the related art (see FIG. 13C).
Shown as P (m, n). In addition, it is assumed that the main subject is unlikely to be present at the end portions of the screen, points 1 and 1 and points 1 and 5 (see FIG. 1). Signal. This is because usually, in the screen 100 shown in FIG. 1, these areas (screen edges and corners) often have a background other than the main subject rather than the main subject. It is.

【0027】ここで、図8のフローチャートに沿って詳
しくこの排除処理機能の手順を説明する。ステップS1
0にて、全画面相当の像を得る積分制御(即ち、像をダ
イナミックレンジ内に収める制御)を行ない、各情報を
その積分した結果より読み取って、P(m,n)と表わ
して各測距ポイントについてデータ化する(S10)。
Here, the procedure of the exclusion processing function will be described in detail with reference to the flowchart of FIG. Step S1
At 0, integration control for obtaining an image equivalent to the entire screen (that is, control for keeping the image within the dynamic range) is performed, each information is read from the result of integration, and each measurement is expressed as P (m, n). The distance points are converted into data (S10).

【0028】ステップS2では、当フローチャート内で
用いる各変数m,n,K1 ,K2 を初期化(リセット)
し、フラグFP1 ,FP2 、及びFP1 (m,n),F
2(m,n)を初期化する(S11)。このフローチ
ャート中のステップ群(A)では、まず、図9(b)に
示すように画面端部,左上部の情報P(1,1)を基準
とする(S12)。
In step S2, the variables m, n, K 1 and K 2 used in this flowchart are initialized (reset).
And the flags FP 1 , FP 2 and FP 1 (m, n), F
P 2 (m, n) is initialized (S11). In the step group (A) in this flowchart, first, as shown in FIG. 9B, the information P (1, 1) at the end of the screen and the upper left is used as a reference (S12).

【0029】続くステップS13にて隣接エリアとの比
較を行ない(S13)、これが略類似のデータならば、
比較されたm+1,nのポイントを表わすフラグFP1
(m+1,n)を1にセットする(S14)。そして、
この同一情報ポイント数K1をインクリメントし(S1
5)、この数と所定数K0 (例えば7ポイント)と比較
して(S16)、もし所定数K0 以上ならば、所定の面
積以上に画面端部情報と同じような特性のエリアが広が
っていると判断して、そのエリアを示すフラグFP
1 (1,1のエリアと同様情報エリア)を1にセットす
る(S17)。
In the following step S13, comparison with the adjacent area is performed (S13).
Flag FP 1 indicating the points of m + 1, n compared
(M + 1, n) is set to 1 (S14). And
The same information points K 1 is incremented (S1
5) Compare this number with a predetermined number K 0 (for example, 7 points) (S16). If the number is equal to or larger than the predetermined number K 0 , an area having characteristics similar to the screen edge information is spread over a predetermined area. And the flag FP indicating the area
1 (information area similar to the area of 1, 1) is set to 1 (S17).

【0030】次に、mをインクリメントして(S1
8)、図9(b)のように次のポイントの比較を続け
る。同様に次々と、横方向に次のポイントの比較を行な
い、端部まで処理する。この例ではエリアセンサを用い
ているので、今度は、ステップS21にて、その下段の
エリア(2列目)に移り、同様の比較を行なう(S2
1)。2列目の1つ目(12エリア)は、上段の列のエ
リアとまず類似性を比較し、それがステップS21でN
に分岐すると、ステップS22にてmをインクリメント
して(S22)、その横のエリアで類似性の比較を行な
う(S23)。
Next, m is incremented (S1
8), the comparison of the next point is continued as shown in FIG. Similarly, the next point is compared in the horizontal direction one after another, and processing is performed up to the end. Since an area sensor is used in this example, this time, in step S21, the process moves to the lower area (second column) and the same comparison is performed (S2).
1). The first (12 areas) in the second row first compares the similarity with the area in the upper row, and the similarity is determined by N in step S21.
Then, in step S22, m is incremented (S22), and the similarity is compared in the area next to it (S23).

【0031】一方、上記ステップS21でYに分岐する
場合は、今度はステップS24で次の列に移り、また、
横方向の類似性比較を上述したステップS13〜19の
一連のステップで行なう。ここ(即ちS24,S25)
で、同一段上の列の処理がすべて終了した場合は、次の
ステップ群に続く。
On the other hand, in the case of branching to Y in step S21, the process moves to the next column in step S24.
The similarity comparison in the horizontal direction is performed in a series of steps S13 to S19 described above. Here (that is, S24, S25)
If all the processes in the columns on the same row have been completed, the process continues to the next step group.

【0032】ステップ群(B)では、上述のステップ群
(A)と同様、図9(b)に示すように、今度は左下段
のエリアから同様の隣接情報判定を行っていく(S26
〜S39)。これら判定ステップにおいて、所定の面積
以上、同じようなパターンの部分が広がっていると、F
1 ,FP2 の面積判定フラグがステップS17,S3
1にて1となる。また、隣接類似と判断されたエリア
は、エリアを表わすフラグFP1 (m,n),FP
2 (m,n)がステップS14,S28にて1にセット
される。このような判断処理によって、各エリアには図
9(c)のように類似判定部分は1、それ以外はリセッ
トのままのエリア別フラグ情報が残ることとなる。
In the step group (B), similar to the above-mentioned step group (A), as shown in FIG. 9B, similar adjacent information determination is performed from the lower left area (S26).
To S39). In these determination steps, if a portion of a similar pattern is spread over a predetermined area, F
The area determination flags of P 1 and FP 2 are set in steps S17 and S3.
It becomes 1 by 1. The areas determined to be similar to the adjacent areas are flags FP 1 (m, n) and FP indicating the areas.
2 (m, n) is set to 1 in steps S14 and S28. By such a determination process, the similarity determination portion is 1 in each area as shown in FIG. 9C, and the other-area flag information remains reset in other areas.

【0033】ステップS40,S42での判断で、上記
FP1,FP2 の面積判定フラグが1である場合には、
上記エリア別フラグが1の部分が測距対象から排除され
る(S41、S43)。そして、残ったポイントのみで
測距を行なう(S44)。これにより、全エリアにわた
る測距を行なうよりも高速化が図れる。以上説明したよ
うに、図9(c)に例示したポートレート・シーンで
は、1のフラグの立ったエリアは測距せずに済み、残っ
た四つのポイントのみ測距すればよい。また、背景を分
離して主要被写体がどこにいても正しく検出される。同
じ情報を近似的にもつエリアが広いと、これは背景と判
断することができる。
If it is determined in steps S40 and S42 that the area determination flags of FP 1 and FP 2 are 1,
The part where the area flag is 1 is excluded from the distance measurement targets (S41, S43). Then, distance measurement is performed only on the remaining points (S44). As a result, speeding up can be achieved as compared to performing distance measurement over the entire area. As described above, in the portrait scene illustrated in FIG. 9C, the area where the flag 1 is set need not be measured, and only the remaining four points need to be measured. In addition, the background is separated, and the main subject is correctly detected wherever it is. If the area having the same information approximately is large, this can be determined to be the background.

【0034】(作用効果1)このように本発明の測距装
置を有するカメラでは、測距に先立ってシーンの判定を
行なうので主要被写体に正しくピント合せができる。特
に第1実施形態では、画面内の輝度分布からコントラス
ト、色分布を判定し、所定の条件を満たすものは測距の
優先度を下げて時間をかけて測距すべきポイントを絞り
込むという前処理に続いて、その絞り込まれたポイント
のみを対象として、積分制御、相関演算、補間演算を行
なうことによって、このように複雑な演算・制御を、ポ
イント数だけ繰り返すのではなく、図7のフローチャー
トのように、残った領域に対してのみ限定して測距のた
めの制御・演算を行なうので、従来のような多くの繰返
し処理に起因する長い時間はかからず、撮影者はシャッ
ターチャンスを逃すことはなくなる。
(Function and Effect 1) As described above, in the camera having the distance measuring apparatus of the present invention, the scene is determined before the distance measurement, so that the main subject can be correctly focused. In particular, in the first embodiment, the contrast and the color distribution are determined from the luminance distribution in the screen, and those that satisfy a predetermined condition are reduced in the priority of the distance measurement, and the points to be measured are narrowed down over time. Then, by performing integration control, correlation calculation, and interpolation calculation only on the narrowed points, the complicated calculation and control are not repeated by the number of points as described above. As described above, since the control / calculation for distance measurement is performed only for the remaining area, the photographer misses a photo opportunity without taking a long time due to many repetitive processes as in the related art. Will not be.

【0035】(第2実施形態)次に、図12のフローチ
ャートを用いて本発明の第2実施形態について説明す
る。この実施形態に係わる測距装置としての主要な構成
は、上述の第1実施形態と同等であることを前提として
おり、ここでは実行するプログラムとその処理手順で適
宜対処している。第2実施形態の一特徴は、上述の第1
実施形態のように画面端部の情報を基準としたものでは
なく、いわゆる基準コントラスト(P10)及び基準輝度
(P20)を判断の基準値として、各ポイントの測距を行
なうか否かの判断を行なうものである。例えば、明るく
てコントラストが低いものは空などの背景だから、これ
らに対しては測距不要であるという原則に基づいてい
る。
(Second Embodiment) Next, a second embodiment of the present invention will be described with reference to the flowchart of FIG. The main configuration of the distance measuring apparatus according to this embodiment is premised on the assumption that it is equivalent to that of the above-described first embodiment, and here, the program to be executed and its processing procedure are appropriately dealt with. One feature of the second embodiment is that the first
Instead of using the information at the end of the screen as in the embodiment, the so-called reference contrast (P 10 ) and reference luminance (P 20 ) are used as reference values for determination, and whether or not to perform distance measurement at each point is determined. It is for making a judgment. For example, it is based on the principle that distance measurement is not necessary for bright and low-contrast backgrounds such as the sky.

【0036】図12に示すフローチャートに沿って、前
述した図8のフローチャートと比較しながら、特徴のあ
る処理ステップを中心に説明する。ステップS50で
は、第1実施形態と同様、測距エリアすべての像データ
を同一の積分条件で制御入力する(S50)。
A description will be given of the characteristic processing steps along the flowchart shown in FIG. 12 and in comparison with the flowchart shown in FIG. In step S50, similarly to the first embodiment, the image data of all the distance measurement areas is controlled and input under the same integration condition (S50).

【0037】ステップS52,S53では、まず、その
制御入力の結果より、前述した図11中のステップS6
1,S62のような方法で、上記各エリアのコントラス
ト輝度情報をP1 (m,n),P2 (m,n)として、
CPU内のメモリに記憶させる(S52)。さらに、ス
テップS53にて、エリア番地を表わすm,nおよび、
削除ポイントフラグFP1 (m,n),FP2 (m,
n)、面積判断フラグFP1 ,FP2 を初期化する。
In steps S52 and S53, first, based on the result of the control input, step S6 in FIG.
1, the contrast luminance information of each area is defined as P 1 (m, n) and P 2 (m, n) by a method such as S62.
It is stored in the memory in the CPU (S52). Further, in step S53, m and n representing the area address and
Delete point flag FP 1 (m, n), FP 2 (m, n
n), the area determination flags FP 1 and FP 2 are initialized.

【0038】ステップ群(c)として、ステップS54
では、上記ステップS52で記憶された記憶内容より、
各エリアのコントラスト情報を順次所定のコントラスト
10と比較し、それと類似するポイントの測距の優先度
を下げるために、削除ポイントフラグFP1 (m,n)
をセットする(S55)。削除ポイントの数がK1 でカ
ウントされ(S56)、これが所定の量K0 より大きい
値になる場合は(S57)、画面内広い面積で、例えば
平坦なコントラストの面が広がっていると考えられるの
で、このエリアを背景であると判定すべく、フラグFP
1 をセットする(S58)。
As step group (c), step S54
Then, from the storage content stored in step S52,
Compared to the sequential predetermined contrast P 10 the contrast information of each area, therewith to lower the priority of the distance measuring point to be similar, deletion point flag FP 1 (m, n)
Is set (S55). The number of deletion point is counted by K 1 (S56), which is believed to have if a predetermined amount K 0 value greater than spreads (S57), on the screen a large area, for example the face of a flat contrast Therefore, in order to determine this area as the background, the flag FP
1 is set (S58).

【0039】また、ステップS59,S62にて、m,
nを更新させながら、画面内全域に分布した全エリアに
ついて、所定コントラストとの比較を行っていく(S5
9〜62)。以上がステップ群(c)として示したステ
ップだが、続くステップ群(d)のフローチャートでは
同様の考え方で各エリアの輝度を所定の輝度P2 Oと比
較し、類似のポイントは測距時に削除するために、位置
情報を示すフラグFP2 (m,n)をセットしていく。
In steps S59 and S62, m,
While updating n, comparison is made with the predetermined contrast for all areas distributed over the entire area in the screen (S5).
9-62). The steps described above are shown as the step group (c). In the flowchart of the subsequent step group (d), the luminance of each area is compared with a predetermined luminance P 2 O based on the same concept, and similar points are deleted during distance measurement. For this purpose, a flag FP 2 (m, n) indicating position information is set.

【0040】(d)の部分は削除ポイントフラグFP2
(m,n)に関する処理であり、上述した(c)の部分
と実質的には同じである。所定輝度のエリアは、FP2
(m,n)を1にセットされ、このようなエリアが増加
すると、同一輝度の面積の大小を示すフラグFP2 がセ
ットされる(S64〜S72)。
The part (d) is a deletion point flag FP 2.
This is a process related to (m, n), and is substantially the same as the above-described portion (c). The area of the predetermined brightness is FP 2
(M, n) is set to 1, when such area is increased, the flag FP 2 showing the size of the area of the same luminance is set (S64~S72).

【0041】上述したステップ群(c)及び(d)それ
ぞれの結果より、広い面積で同じコントラスト、同じ明
るさの部分が広がっていると判断されれば(S73,7
5)各エリアを示すフラグがセットされているので、ス
テップS74,76でそのエリアをすべて測距対象から
削除し(S74,76)、ステップS77にて残ったポ
イントのみを測距する(S77)。
If it is determined from the results of the steps (c) and (d) that the portions having the same contrast and the same brightness are spread over a wide area (S73, S7).
5) Since the flag indicating each area is set, all the areas are deleted from the objects to be measured in steps S74 and S76 (S74 and 76), and only the remaining points are measured in step S77 (S77). .

【0042】(作用効果2)このように本発明の第2実
施形態では、各ポイントの測距を行なうか否かの判断基
準として、例えば、明るくてコントラストが低いものは
空などの背景と判断することで測距不要としている。こ
のような原則に基づき単純な方法で背景の判定を行なえ
るので、従来のような多くの繰返し処理を要しない。よ
って、更なる高速での測距が可能になり、撮影者はシャ
ッターチャンスを逃すことはなくなる。
(Effect 2) As described above, in the second embodiment of the present invention, as a criterion for determining whether or not to measure the distance of each point, for example, a bright and low-contrast object is determined to be a background such as the sky. This eliminates the need for distance measurement. Since the background can be determined by a simple method based on such a principle, it is not necessary to perform many repetitive processes as in the related art. Therefore, the distance can be measured at a higher speed, and the photographer does not miss a photo opportunity.

【0043】(変形例)第2実施形態は次のように変形
実施してもよく、この実施形態と同等な効果が期待でき
る。例えば、ステップS51を付加してもよい。すなわ
ち、基準値P10,P20は必ずしも固定の値ではなく、上
記ステップS50で得られた積分の結果に応じて適宜な
値に切り換えるようにしてもよい(S51)。こうする
ことで、いっそう効果が上がる。例えば、背景の昼の空
でも夕方の空でも判断するためには、全体的に暗いシー
ンでは基準値P20やP10を下げるような制御をすればよ
い。このほかにも、本発明の要旨を逸脱しない範囲で種
々の変形実施が可能である。
(Modification) The second embodiment may be modified as follows, and an effect equivalent to that of this embodiment can be expected. For example, step S51 may be added. That is, the reference values P 10 and P 20 are not necessarily fixed values, and may be switched to appropriate values in accordance with the result of the integration obtained in step S50 (S51). By doing so, the effect is further improved. For example, in order to determine in daytime sky also evening sky background may be an overall control for lowering the reference value P 20 and P 10 in dark scenes. In addition, various modifications can be made without departing from the spirit of the present invention.

【0044】なお、特許請求の範囲に記載している各手
段のなかで、像検出手段は、センサ、受光レンズなどの
光学系と、A/D変換部および演算部を含むものとして
もよい。また排除手段は、CPUに組み込まれるプログ
ラムであり、これが有する判定手段や比較手段は、その
プログラムを構成するステップに該当する。
[0044] Among the means described in the claims, the image detecting means may include an optical system such as a sensor and a light receiving lens, and an A / D converter and an arithmetic unit. The exclusion means is a program incorporated in the CPU, and the determination means and the comparison means included in the exclusion means correspond to steps constituting the program.

【0045】以上、実施形態に基づき説明したが、本明
細書中には次の発明が含まれる。 (1) マルチポイント方式の測距方式を有する測距装
置において、測距は測距対象としての優先順に従って順
次行われ、測距の前に検知した画像のうちで、所定のコ
ントラストを有する画像部分は、測距しないように、測
距対象としての優先度を下げる処理を行なうことを特徴
とするカメラの測距装置を提供できる。
As described above, the present invention has been described based on the embodiments. However, the present invention includes the following inventions. (1) In a distance measuring apparatus having a multi-point distance measuring method, distance measuring is sequentially performed in accordance with a priority order of distance measuring objects, and an image having a predetermined contrast among images detected before distance measuring. It is possible to provide a camera distance measuring apparatus characterized in that the portion performs a process of lowering the priority as a distance measurement target so as not to perform distance measurement.

【0046】(2) マルチポイント方式の測距方式を
有する測距装置において、測距は測距対象としての優先
順に従って順次行われ、測距の前に検知した画像のうち
で、所定の色(例えば空や地面)の部分は、測距しない
ように、測距対象としての優先度を下げる処理を行なう
ことを特徴とするカメラの測距装置を提供できる。
(2) In a distance measuring apparatus having a multi-point distance measuring method, distance measuring is sequentially performed in accordance with the priority order of objects to be measured, and a predetermined color is selected from among images detected before distance measuring. It is possible to provide a ranging device for a camera, which performs a process of lowering the priority as a ranging object so as not to measure a distance (for example, the sky or the ground).

【0047】[0047]

【発明の効果】以上説明したように、本発明によれば、
なるべく測距のポイントを少なくし、高速で主要被写体
にピント合せを可能とするカメラの測距装置を提供する
ことが可能となり、主要被写体のみを効率的に測距する
ようなAFカメラが提供できる。よって撮影者は、画面
内のどの位置に被写体がいてもピント合せができ、且つ
高速でしかもピンボケのない写真撮影が楽しめるように
なる。
As described above, according to the present invention,
It is possible to provide a camera distance measuring device capable of focusing on a main subject at high speed by reducing the number of distance measuring points as much as possible, and it is possible to provide an AF camera capable of efficiently measuring only a main subject. . Therefore, the photographer can focus on the subject at any position on the screen, and can enjoy high-speed photographing without blurring.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明に係わる測距装置の基本構成と
その動作原理を示す概念図。
FIG. 1 is a conceptual diagram showing a basic configuration and an operation principle of a distance measuring apparatus according to the present invention.

【図2】 図2(a)〜(c)はこの測距装置の検知デ
ータを示し、図2(a)は、被写体の像信号と左右のず
らし量を表わすグラフ、図2(b)は、右側の画素信号
を画素ピッチ単位で表わすグラフ、図2(c)は、左側
の画素信号を画素ピッチ単位で表わすグラフ。
2 (a) to 2 (c) show detection data of the distance measuring apparatus, FIG. 2 (a) is a graph showing an image signal of a subject and a shift amount between left and right, and FIG. 2 (b) is FIG. 2C is a graph showing the pixel signals on the right side in pixel pitch units, and FIG. 2C is a graph showing the pixel signals on the left side in pixel pitch units.

【図3】図3は、この測距装置の要部の回路構成を示す
回路図。
FIG. 3 is a circuit diagram showing a circuit configuration of a main part of the distance measuring device.

【図4】 図4(a),(b)は検知した画像信号を示
し、図4(a)は、A/D変換前後の画素単位の画像信
号を示すグラフ、図4(b)は、デジタル画像信号が形
成する波形を示すグラフ。
FIGS. 4 (a) and 4 (b) show detected image signals, FIG. 4 (a) is a graph showing pixel-based image signals before and after A / D conversion, and FIG. 5 is a graph showing a waveform formed by a digital image signal.

【図5】図5は、測距装置の測距部(ラインセンサ)の
配置概要を示す模式図。
FIG. 5 is a schematic diagram showing an outline of an arrangement of a distance measuring unit (line sensor) of the distance measuring device.

【図6】図6は、測距装置の測距部(エリアセンサ)の
配置概要を示す模式図。
FIG. 6 is a schematic view showing an outline of an arrangement of a distance measuring unit (area sensor) of the distance measuring device.

【図7】図7は、本発明の第1実施形態の概略的な測距
処理手順を示すフローチャート。
FIG. 7 is a flowchart illustrating a schematic distance measurement processing procedure according to the first embodiment of the present invention;

【図8】図8は、第1実施形態の詳細な測距処理手順を
示すフローチャート。
FIG. 8 is an exemplary flowchart illustrating a detailed distance measurement processing procedure according to the first embodiment;

【図9】 図9(a)〜(c)は画面の測距ポイントの
分布を示し、図9(a)は、測距ポイントの処理される
順序を示す説明図、図9(b)は、測距ポイントの分布
を示す説明図、図9(c)は、測距ポイントと主要被写
体の関係を示す説明図。
9 (a) to 9 (c) show the distribution of ranging points on the screen, FIG. 9 (a) is an explanatory diagram showing the processing order of ranging points, and FIG. 9 (b) is FIG. 9C is an explanatory diagram showing the distribution of distance measuring points, and FIG. 9C is an explanatory diagram showing the relationship between the distance measuring points and the main subject.

【図10】 図10(a)〜(c)は色検知とその色比
較の方法を示し、図10(a)は、光学的センサの構造
を示す断面構造図、図10(b)は、画素領域(エリ
ア)を示す説明図、図10(c)は、色比較の処理手順
を示すフローチャート。
10 (a) to 10 (c) show a method of color detection and color comparison, FIG. 10 (a) is a sectional structural view showing a structure of an optical sensor, and FIG. FIG. 10C is an explanatory diagram showing a pixel area (area), and FIG. 10C is a flowchart showing a color comparison processing procedure.

【図11】 図11(a),(b)はコントラストや輝
度の類似性を判断する方法を示し、図11(a)は、セ
ンサの対応エリアと検知波形を示す説明図、図11
(b)は、コントラストおよび輝度比較の手順を示すフ
ローチャート。
11 (a) and 11 (b) show a method of judging the similarity of contrast and luminance. FIG. 11 (a) is an explanatory diagram showing a corresponding area of a sensor and a detection waveform.
(B) is a flowchart showing a procedure of contrast and brightness comparison.

【図12】図12は、本発明の第2実施形態の測距処理
手順を示すフローチャート。
FIG. 12 is a flowchart illustrating a distance measurement processing procedure according to the second embodiment of the present invention.

【図13】 図13(a)〜(c)は従来の測距装置の
測距方法を示し、図13(a)は、処理手順を示すフロ
ーチャート、図13(b)は、3ポイントの測距ができ
るカメラの視野画面、図13(c)は、30ポイントの
測距ができるカメラの視野画面。
13 (a) to 13 (c) show a distance measuring method of a conventional distance measuring device, FIG. 13 (a) is a flowchart showing a processing procedure, and FIG. 13 (b) is a three-point measuring method. A field-of-view screen of a camera capable of distance measurement, and FIG.

【符号の説明】[Explanation of symbols]

1…CPU、 1a…A/D変換回路、 1b…積分制御回路、 2,2a,2b…センサ(リニアセンサ、エリアセン
サ)、 3a,3b…受光レンズ、 5…バイアス回路、 6…最大値検出回路、 7a,7c…スイッチ、 8…スイッチ、 34…A/D変換部、 35…演算部、 100…視野画面。
DESCRIPTION OF SYMBOLS 1 ... CPU, 1a ... A / D conversion circuit, 1b ... Integral control circuit, 2, 2a, 2b ... Sensor (linear sensor, area sensor), 3a, 3b ... Light receiving lens, 5 ... Bias circuit, 6 ... Maximum value detection Circuit, 7a, 7c: switch, 8: switch, 34: A / D converter, 35: arithmetic unit, 100: visual field screen.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 写真画面内の像信号を検出する像検出手
段と、 上記像検出手段の信号の一部を、測距用信号として利用
するために上記画面内の測距不要の領域を排除する排除
手段と、 を有するカメラの測距装置において、 上記排除手段は、上記像信号の明るさ、コントラスト、
または色情報に従って、隣接領域の類似性を判断する判
定手段を具備することを特徴とする測距装置。
1. An image detecting means for detecting an image signal in a photographic screen, and an area not requiring distance measurement in the screen is eliminated in order to use a part of the signal of the image detecting means as a distance measuring signal. A distance measuring device for a camera, comprising:
Alternatively, a distance measuring apparatus including a determination unit configured to determine similarity between adjacent areas according to color information.
【請求項2】 画面内の複数ポイントの像信号を検出可
能なカメラの測距装置において、 上記複数ポイントの互いに隣接するポイントの像信号の
類似性を比較可能な比較手段を有し、 上記比較手段の出力と、類似性のあるポイントの数に従
って、上記複数ポイントのうち、測距用の限られたポイ
ントを選択する選択手段を更に有することを特徴とする
測距装置。
2. A distance measuring apparatus for a camera capable of detecting image signals at a plurality of points in a screen, comprising: comparing means for comparing similarities of image signals at mutually adjacent points of the plurality of points; A distance measuring apparatus further comprising a selecting means for selecting a limited point for distance measurement from the plurality of points according to an output of the means and the number of points having similarity.
【請求項3】 写真画面内の像信号を検出する像検出手
段と、 上記像検出手段の信号の一部を、測距用信号として利用
するために上記画面内の測距不要の領域を排除する排除
手段と、 を有するカメラの測距装置において、 上記排除手段は、上記像信号の明るさ、コントラスト、
または色情報の同一性をもつ領域の面積に従って上記測
距不要の測距ポイントを決定する測距装置。
3. An image detecting means for detecting an image signal in a photographic screen, and an area not requiring distance measurement in the screen is excluded in order to use a part of the signal of the image detecting means as a distance measuring signal. A distance measuring device for a camera, comprising:
Alternatively, a distance measuring device that determines the distance measuring point that does not require the distance measuring according to the area of a region having the same color information.
【請求項4】 画面周辺部に位置する第一の領域の像信
号を検出する第一の像検出手段と、 上記第一の像検出手段の出力と類似の信号を出力する領
域を、測距を行う対象領域から排除する排除手段を有す
るカメラの測距装置。
4. A first image detecting means for detecting an image signal of a first area located at a peripheral portion of a screen, and an area for outputting a signal similar to an output of the first image detecting means is distance-measured. Distance measuring device for a camera having an exclusion unit for excluding from a target area for performing the operation.
JP2000057281A 2000-03-02 2000-03-02 Range finder for camera Withdrawn JP2001249266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000057281A JP2001249266A (en) 2000-03-02 2000-03-02 Range finder for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000057281A JP2001249266A (en) 2000-03-02 2000-03-02 Range finder for camera

Publications (1)

Publication Number Publication Date
JP2001249266A true JP2001249266A (en) 2001-09-14

Family

ID=18578098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000057281A Withdrawn JP2001249266A (en) 2000-03-02 2000-03-02 Range finder for camera

Country Status (1)

Country Link
JP (1) JP2001249266A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7612823B2 (en) 2005-04-15 2009-11-03 Sony Corporation Control apparatus, control method, computer program, and camera
CN1731269B (en) * 2004-08-05 2010-10-13 松下电器产业株式会社 Imaging apparatus
JP2011248106A (en) * 2010-05-27 2011-12-08 Nikon Corp Imaging apparatus
JP2015040941A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Image-capturing device, control method therefor, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731269B (en) * 2004-08-05 2010-10-13 松下电器产业株式会社 Imaging apparatus
US7612823B2 (en) 2005-04-15 2009-11-03 Sony Corporation Control apparatus, control method, computer program, and camera
JP2011248106A (en) * 2010-05-27 2011-12-08 Nikon Corp Imaging apparatus
JP2015040941A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Image-capturing device, control method therefor, and program

Similar Documents

Publication Publication Date Title
US7450171B2 (en) Distance-measuring device installed in camera
JP3977062B2 (en) Imaging apparatus and focus adjustment method
US8576329B2 (en) Focus detection apparatus and control method therefor
CN102292974B (en) Image capturing apparatus
EP2430487B1 (en) Focus detection apparatus
US7358999B2 (en) Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
JP6249825B2 (en) Imaging device, control method thereof, and control program
US6747808B2 (en) Electronic imaging device focusing
US8233094B2 (en) Methods, systems and apparatuses for motion detection using auto-focus statistics
US7769286B2 (en) Method and apparatus of determining the best focus position of a lens
JP2003167182A (en) Automatic focusing device
JP2004309701A (en) Range-finding/photometric sensor and camera
US5784655A (en) Focus detecting apparatus having photoelectric area sensors
JP2001091819A (en) Range-finding device for camera
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP4549481B2 (en) Focusing device
US20070009248A1 (en) Method and apparatus for auto focusing an imaging device
US11115581B2 (en) Focus adjustment method and device using a determined reliability of a detected phase difference
JP2001249266A (en) Range finder for camera
JP3285376B2 (en) Automatic focus detection device
US6445883B1 (en) Detecting device and camera with the detecting device
JP6467289B2 (en) Imaging apparatus and control method thereof
US20180020152A1 (en) Imaging device and focusing evaluation device
JP3963535B2 (en) Multi-point distance measuring device
JP4997306B2 (en) How to determine the orientation of a person's face

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605