JP2504944B2 - Three-dimensional information processing method - Google Patents

Three-dimensional information processing method

Info

Publication number
JP2504944B2
JP2504944B2 JP61027912A JP2791286A JP2504944B2 JP 2504944 B2 JP2504944 B2 JP 2504944B2 JP 61027912 A JP61027912 A JP 61027912A JP 2791286 A JP2791286 A JP 2791286A JP 2504944 B2 JP2504944 B2 JP 2504944B2
Authority
JP
Japan
Prior art keywords
image
optical
image sensor
dimensional
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61027912A
Other languages
Japanese (ja)
Other versions
JPS62186380A (en
Inventor
誠宏 反町
茂 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP61027912A priority Critical patent/JP2504944B2/en
Priority to DE19863642051 priority patent/DE3642051A1/en
Priority to FR868617220A priority patent/FR2591329B1/en
Publication of JPS62186380A publication Critical patent/JPS62186380A/en
Priority to US07/289,456 priority patent/US4867570A/en
Application granted granted Critical
Publication of JP2504944B2 publication Critical patent/JP2504944B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Character Input (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は3次元情報処理方法に係り、さらに詳しくは
アクティブ方式により物体の形状を測定する3次元情報
処理方法に関するものである。
TECHNICAL FIELD The present invention relates to a three-dimensional information processing method, and more particularly to a three-dimensional information processing method for measuring the shape of an object by an active method.

[従来の技術] 従来より、画像センサなどを用いて3次元形状に関す
る情報を取得する方法として、光切断法(スリット
法)、ステレオ法などが知られている。
[Prior Art] Conventionally, a light cutting method (slit method), a stereo method, and the like are known as methods for acquiring information about a three-dimensional shape using an image sensor or the like.

光切断法は、対象物表面にスリット光を投射し、対象
物面上の投射線を投射方向と別の方向から観測し、対象
物の断面形状、距離などの情報を得るものである。この
方法では、撮像側は固定され、スリット投射方法を少し
ずつ換えながら複数枚の画像をスリット1本ごとに撮像
して3次元情報を取得する。
The light-section method is to obtain information such as a cross-sectional shape and a distance of an object by projecting slit light on the surface of the object and observing a projection line on the surface of the object from a direction different from the projection direction. In this method, the imaging side is fixed, and the three-dimensional information is acquired by imaging a plurality of images for each slit while changing the slit projection method little by little.

また、出願人が提案した特願昭59−44920号などにお
けるステレオ法は、像倍率の等しい光学系と組み合わさ
れた2次元の撮像素子を所定基線長だけ離して配置し、
異なる方向からみた2次元画像を得、2枚の画情報のず
れから対象物の各位置の高さ(撮像系までの距離)を算
出するものである。
In addition, the stereo method in Japanese Patent Application No. 59-44920 proposed by the applicant is such that a two-dimensional image pickup element combined with an optical system having the same image magnification is arranged with a predetermined base line distance,
A two-dimensional image viewed from different directions is obtained, and the height of each position of the object (distance to the imaging system) is calculated from the deviation of the image information of the two images.

[発明が解決しようとする問題点] ところが光切断では、撮像時のスリット投射方向の制
御が面倒で、撮像に時間がかかる問題がある。また、複
数枚のスリット画像から3次元情報を得るため、処理す
る情報量が多く、最終的な情報取得までに多大な時間を
要する欠点がある。また、ステレオ法では、スリット走
査などの制御が必要ないが、一般に従来方式はパッシブ
方式であるため、対象物表面が滑らかで、一様な輝度を
有している場合には、2つの撮像素子で得られる像のコ
ントラストが低下し、2枚の画像の比較による距離測定
が不可能になる問題がある。このような測定が不可能に
なってしまうケースは像倍率が大きくなる近距離におい
て出現頻度が多く、したがって対象物の形状、色、サイ
ズ、距離などが限定されてしまう。
[Problems to be Solved by the Invention] However, in the optical cutting, there is a problem that the control of the slit projection direction at the time of imaging is troublesome and the imaging takes time. Further, since three-dimensional information is obtained from a plurality of slit images, there is a drawback that the amount of information to be processed is large and it takes a lot of time until the final information is acquired. Further, in the stereo method, control such as slit scanning is not necessary, but since the conventional method is generally a passive method, two image pickup elements are used when the target surface is smooth and has uniform brightness. There is a problem that the contrast of the image obtained in step 1 is lowered, and it becomes impossible to measure the distance by comparing the two images. In the case where such measurement becomes impossible, the appearance frequency is high at a short distance where the image magnification becomes large, and therefore the shape, color, size, distance, etc. of the object are limited.

[問題点を解決するための手段] 以上の問題点を解決するために、本発明においては、
光軸を平行に、且つ所定基線距離隔てて配置されるとと
もに、対象物側の主平面をほぼ同一の平面内に整合させ
た複数の光学系と、前記の光学系の1つを通して光軸に
垂直な面内で一方向に分散するとともに前記一方向と異
る方向にも分散する複数のパターン光束を対象物に照射
する手段と、対象物上の前記パターン光束による像を、
前記と異なる光学系を通して受像する二次元画像センサ
とを設け、この二次元画像センサにより受像された前記
対象物上のパターン光束による光像の各位置を検出し、
該検出された各位置に基づいて各光像の距離を測定し、
対象物の3次元情報を取得する構成を採用した。
[Means for Solving Problems] In order to solve the above problems, in the present invention,
The optical axes are arranged in parallel with each other and are separated by a predetermined base line distance, and a plurality of optical systems in which the main planes on the object side are aligned in substantially the same plane and the optical axis are passed through one of the optical systems. A means for irradiating a target with a plurality of pattern light fluxes dispersed in one direction in a vertical plane and also dispersed in a direction different from the one direction, and an image formed by the pattern light flux on the target object,
A two-dimensional image sensor that receives an image through an optical system different from the above is provided, and each position of the optical image by the pattern light flux on the object received by the two-dimensional image sensor is detected,
Measuring the distance of each optical image based on each detected position,
The configuration that acquires the three-dimensional information of the object is adopted.

なお、主平面とは光学系の横倍率が1になるような1
対の共役点(主点)を通り、光軸に垂直な平面である。
The principal plane is 1 so that the lateral magnification of the optical system becomes 1.
It is a plane that passes through the conjugate points (principal points) of the pair and is perpendicular to the optical axis.

[作 用] 以上の構成によれば、平行配置された光学系の基線方
向に沿った2方向分散パターン光束の光像位置を光軸に
垂直な二次元面内に渡って二次元画像センサで検出する
ことにより、各光像に対応した対象物の距離を各々測定
でき、これによって対象物の3次元形状に関する情報を
取得することができる。しかもパターン光束照射系と、
受像系の光学系の主平面を一致させることにより、1つ
のパターン光束による光像が二次元画像センサ上で、そ
の照射点の距離に応じて一直線に移動するようにできる
ため、共に光軸に垂直な面内で2方向に分散している、
パターン光束と画像センサ上の光像との対応付けが容易
になり、簡単な画像処理により、高速な3次元情報の取
得が実現できる。
[Operation] According to the above configuration, the optical image position of the two-direction dispersed pattern light beam along the base line direction of the optical system arranged in parallel is detected by the two-dimensional image sensor in the two-dimensional plane perpendicular to the optical axis. By detecting, the distance of the target object corresponding to each light image can be measured, respectively, and thus, information about the three-dimensional shape of the target object can be acquired. Moreover, with a pattern light beam irradiation system,
By aligning the principal planes of the optical system of the image receiving system, the light image of one pattern light beam can be moved in a straight line on the two-dimensional image sensor according to the distance of its irradiation point, so that both optical axes Dispersed in two directions in a vertical plane,
The pattern light flux and the optical image on the image sensor can be easily associated with each other, and high-speed acquisition of three-dimensional information can be realized by simple image processing.

[実施例] 以下、図面に示す実施例に基づいて本発明の詳細を説
明する。
[Examples] Hereinafter, details of the present invention will be described based on Examples shown in the drawings.

第1実施例 第1図は本発明の3次元情報処理方式を採用した測定
装置の第1の実施例を示しており、図において符号1,2
は所定の基線距離だけ離して配置されたレンズで、レン
ズ1,2は等しい焦点距離を有し、その光軸が平行になる
ように配置されている。各レンズ1,2の後方にはそれぞ
れマスク板3と2次元の電荷結合素子などからなる画像
センサ4が配置され、これらのマクク板3,画像センサ4
はレンズ1,2の光軸と直交する同一の平面上に配置され
ている。
First Embodiment FIG. 1 shows a first embodiment of a measuring apparatus adopting the three-dimensional information processing system of the present invention, and reference numerals 1 and 2 in the drawing.
Is a lens arranged at a predetermined distance from the base line. The lenses 1 and 2 have the same focal length and are arranged so that their optical axes are parallel to each other. A mask plate 3 and an image sensor 4 including a two-dimensional charge-coupled device are arranged behind each of the lenses 1 and 2, and the mask plate 3 and the image sensor 4 are provided.
Are arranged on the same plane orthogonal to the optical axes of the lenses 1 and 2.

マスク板3の後方には、照明用の光源(例えばハロゲ
ンランプなど)5が配置されており、前記レンズ1はこ
の光源の点灯によりマスク板3のスリットのパターンを
対象物6上に投影する。
A light source (for example, a halogen lamp) 5 for illumination is arranged behind the mask plate 3, and the lens 1 projects the slit pattern of the mask plate 3 onto the object 6 by turning on the light source.

第1図において、6,6′は被写体の異なる位置をそれ
ぞれ示しており、レンズ1,2の非写界深度は、これらの
2つの位置を充分カバーできる深さを有するものとす
る。
In FIG. 1, reference numerals 6 and 6'indicate different positions of the object, and the non-field depths of the lenses 1 and 2 are set to have a depth sufficient to cover these two positions.

即ち、この実施例においては、レンズ1,レンズ2から
成る照射系、受像系の2つの光学系は、焦点距離が等し
い同一の単レンズとして示されている。
That is, in this embodiment, the two optical systems of the irradiation system and the image receiving system, which are composed of the lens 1 and the lens 2, are shown as the same single lens having the same focal length.

しかも、2つの光学系は、所定基線距離隔てて配置さ
れるとともに、単レンズとして図示したように、対象物
側の主平面をほぼ同一の平面に一致させてある。簡単に
いえば、これら2つの光学系の対象距離は等しく設定さ
れている。
Moreover, the two optical systems are arranged with a predetermined baseline distance therebetween, and as shown as a single lens, the main planes on the object side are made to coincide with substantially the same plane. Briefly, the object distances of these two optical systems are set equal.

ここで、第2図はマスク板3の開口パターンの一例を
示す。本実施例において、マスク板3には細い長方形状
のスリット状の窓Wnが複数個配列されている。図におい
て、窓Wnはその横方向の中心を一点鎖線3′で示すよう
に、水平方向に疎、垂直方向に比較的密な配列パターン
となっており、結果として斜め方向に延びるスリット列
を形成している。窓Wnの密度、配列は必要な測定精度、
使用する画像センサの縦横の解像力に応じて定めればよ
いので、上記のような構成に限定されるものではなく、
種々のパターンを使用可能である。マスク板3の窓Wnの
水平方向の密度を第2図のように比較的低くしたのは、
後述のように対象物6の距離により光像の位置が水平方
向に移動するため、検出を行える距離範囲を大きくとる
ためである。
Here, FIG. 2 shows an example of the opening pattern of the mask plate 3. In this embodiment, a plurality of thin rectangular slit-shaped windows Wn are arranged on the mask plate 3. In the figure, the windows Wn have a horizontal sparse array pattern and a vertical relatively relatively dense array pattern, as shown by the alternate long and short dash line 3'in the center of the window Wn. As a result, a slit array extending diagonally is formed. are doing. The density of the windows Wn, the arrangement is the required measurement accuracy,
Since it may be determined according to the vertical and horizontal resolution of the image sensor used, the configuration is not limited to the above.
Various patterns can be used. The horizontal density of the windows Wn of the mask plate 3 is made relatively low as shown in FIG.
This is because the position of the optical image moves in the horizontal direction depending on the distance of the target object 6 as described later, so that the distance range in which detection can be performed is wide.

第1図,第2図の構成において、光源5で照明され、
窓WnのうちW1,W2を通過した光束は、レンズ1を通って
それぞれ対象物6上の符号F1,F2に示す位置に光像を結
ぶ。そして光像F1,F2はそれぞれレンズ2を通って画像
センサ4上の位置D1,D2に光像を結ぶ。
Illuminated by the light source 5 in the configuration of FIG. 1 and FIG.
The light fluxes that have passed through W 1 and W 2 in the window Wn pass through the lens 1 and form an optical image at the positions indicated by the symbols F 1 and F 2 on the object 6. The light images F 1 and F 2 pass through the lens 2 and form light images at positions D 1 and D 2 on the image sensor 4, respectively.

ステレオ法の場合と同様に、光像Dnの位置は反射点の
距離、即ち、対象物6上の光像Fnの距離により、レンジ
1,2の配置方向に平行な直線上(基線方向)を移動する
ことになる。これは前記のように、レンズ1,2の主平面
がほぼ同一平面にあり、それぞれの対物距離が等しくな
るよう設置されているためである。
As in the case of the stereo method, the position of the light image Dn is determined by the distance of the reflection point, that is, the distance of the light image Fn on the object 6,
It will move on a straight line (baseline direction) parallel to the arrangement direction of 1 and 2. This is because, as described above, the main planes of the lenses 1 and 2 are substantially on the same plane, and the objective distances of the lenses are equal to each other.

幾何光学的に見れば、マスク板3〜レンズ1〜対象物
6の幾何学的関係と、画像センサ4〜レンズ2〜対象物
6の幾何学的関係は、本実施例の場合、全く左右対称で
ある。
From a geometrical optics point of view, the geometrical relationship between the mask plate 3 to the lens 1 to the object 6 and the geometrical relationship between the image sensor 4 to the lens 2 to the object 6 are completely symmetrical in the present embodiment. Is.

本実施例のマスク板3を画像センサに置き換えてみる
と、2つの画像センサで受像される対象物の2つの2次
元画像は、像倍率が等しく、かつ2つの画像の形は撮影
位置(レンズ1,2の位置)に応じた差異を持つものとな
る。この2次元画像の形の差異は、レンズ1,2の左右方
向に関しては、対象物の方向とレンズ1,2の光軸とのな
す角度の違いから生じる左右方向の像のずれに関するも
ので、レンズ1,2の上下方向に関しては対象物の方向と
レンズ1,2の光軸とのなす角度が等しくなるため、像の
ずれは生じない。
When the mask plate 3 of this embodiment is replaced with an image sensor, two two-dimensional images of the object received by the two image sensors have the same image magnification, and the two images have a photographing position (lens). It has a difference according to the position (1, 2). This difference in the shape of the two-dimensional image is related to the left-right direction of the lenses 1 and 2 and the image shift in the left-right direction caused by the difference in the angle between the direction of the object and the optical axes of the lenses 1 and 2. With respect to the vertical direction of the lenses 1 and 2, the angles formed by the direction of the object and the optical axes of the lenses 1 and 2 are equal, so that no image shift occurs.

このような関係は、光の進行方向を逆にとっても同様
であるから、前記のように画像センサ4上での光像Dnの
左右位置のみが対象物6上の光像Fnの距離に応じて基線
方向に移動することになる。
Since such a relationship is the same even when the traveling direction of light is reversed, as described above, only the left and right positions of the light image Dn on the image sensor 4 depend on the distance of the light image Fn on the object 6. It will move in the baseline direction.

したがって、マスク板3の一点鎖線(第2図)3′方
向と画像センサ4の走査線方向を一致させておけば、対
象物6表面の測定装置からの距離分布を光像Dnの水平方
向の密度の分布として検出することが可能となる。すな
わち、画像センサ4の出力波形をコンピュータシステム
などを用いた画像処理装置により観測することにより、
対象物6表面の光像Fnの位置(光束投射点)までの距離
を三角測量の原理により容易に求めることができる。こ
の場合、マスク板3上に基線方向に一列に配置された窓
Wnによる、センサ4上に結像される光像Dnは画像センサ
4上の同一の走査線上で検出でき、異なる走査線上に移
動することがないため、処理装置において画像センサ4
から得た光像は左右の順位のみにより容易に識別できる
から、処理は従来のスリット方法などに比して著しく簡
略化され、3次元情報を極めて迅速に取得することが可
能となる。
Therefore, if the direction of the dashed-dotted line 3 '(FIG. 2) 3'of the mask plate 3 and the scanning line direction of the image sensor 4 are made to coincide with each other, the distance distribution of the surface of the object 6 from the measuring device is measured in the horizontal direction of the optical image Dn. It is possible to detect it as a density distribution. That is, by observing the output waveform of the image sensor 4 with an image processing device using a computer system or the like,
The distance to the position of the optical image Fn on the surface of the object 6 (beam projection point) can be easily obtained by the principle of triangulation. In this case, the windows arranged in a line on the mask plate 3 in the baseline direction.
The optical image Dn formed by Wn on the sensor 4 can be detected on the same scanning line on the image sensor 4 and does not move on a different scanning line.
Since the optical image obtained from the above can be easily identified only by the right and left order, the processing is remarkably simplified as compared with the conventional slit method and the three-dimensional information can be acquired extremely quickly.

第3図は画像センサ4としてTVカメラ用の2次元CCD
センサを用いた場合の1本の走査線(第2図のマスク板
3の一点鎖線3′に対応)の出力波形Oを示したもので
ある。ここでは図の左右方向を画像センサ4の水平方向
の距離に対応させてある。上記から明らかなように、こ
の走査線と同一直線上にあるマスク板3上の窓Wnに対応
して出力値が極大値Mを示す。1つの窓Wnに対応して出
現する出力波形の極大値の左右位置は、その位置が限定
されており、他の透孔窓Wnによる極大値出現範囲と分離
されているので、窓Wnとその窓を通過した高速の画像セ
ンサ4への入射位置は容易に対応づけることができる。
Fig. 3 shows a two-dimensional CCD for a TV camera as the image sensor 4.
3 shows an output waveform O of one scanning line (corresponding to the one-dot chain line 3'of the mask plate 3 in FIG. 2) when the sensor is used. Here, the horizontal direction of the figure corresponds to the horizontal distance of the image sensor 4. As is apparent from the above, the output value shows the maximum value M corresponding to the window Wn on the mask plate 3 which is on the same straight line as this scanning line. The left and right positions of the maximum value of the output waveform appearing corresponding to one window Wn are limited in position, and are separated from the maximum value appearance range of the other through-hole windows Wn. The incident position on the high-speed image sensor 4 that has passed through the window can be easily associated.

したがって、従来のステレオ法におけるように近距離
におけるコントラスト低下による測定不能などの不都合
を生じることなく、確実に対象物6の3次元情報を取得
することができる。また、光源を用いて照明を行なうア
クティブ方式は、近距離の対象物の測定では光源の光量
が小さくて済むので実用的である。また、画像センサ出
力の極大値の大きさから、対象物の光像位置の傾斜角な
どを推定することも可能である。
Therefore, unlike the conventional stereo method, the three-dimensional information of the object 6 can be reliably acquired without causing inconvenience such as measurement inability due to contrast reduction at a short distance. In addition, the active method in which illumination is performed using a light source is practical because the light amount of the light source can be small when measuring an object at a short distance. It is also possible to estimate the inclination angle of the optical image position of the object from the maximum value of the image sensor output.

以上のようにして、対象物6表面の測定系からの距離
を2次元の画像センサ4を介して測定することができ
る。以上の構成によれば、光切断法のように機械的な走
査を行なう必要なく、対象物6全面の3次元情報を1回
の画像読み取りで抽出することができる。
As described above, the distance of the surface of the object 6 from the measurement system can be measured via the two-dimensional image sensor 4. According to the above configuration, it is possible to extract the three-dimensional information of the entire surface of the object 6 by one-time image reading without the need for performing mechanical scanning unlike the light cutting method.

また、後の画像処理もセンサ4上における光像の左右
方向の分布のみに関して行えばよいので、簡単かつ高速
な処理が可能である。さらに、本実施例によれば、画像
センサ4上の光像の画像をそのまま2値化するなどして
CRTディスプレイや、ハードコピー装置に出力して視覚
的な3次元表現を行なうことができる。
Further, since the subsequent image processing may be performed only on the distribution of the light image on the sensor 4 in the left-right direction, simple and high-speed processing is possible. Furthermore, according to the present embodiment, the image of the optical image on the image sensor 4 is directly binarized.
It can be output to a CRT display or a hard copy device for visual three-dimensional expression.

本実施例による3次元情報処理方式は、いわば多数の
触針を物体に押し付けて触針の基準面からの突出量の変
化により物体形状を知覚する方法を光学的に非接触で行
なうものであり、高速かつ正確な処理が可能なため、実
時間処理が必要とされるロボットなどの知覚センサとし
て用いることが可能である。特に比較的近距離に配置さ
れた対象物の形状、姿勢などを知覚し、対象物の把握、
回避などの動作を行なわせる場合に有効である。
The three-dimensional information processing method according to the present embodiment is a method in which a large number of stylus are pressed against an object so that the object shape is perceived by a change in the amount of protrusion of the stylus from a reference plane, in an optically non-contact manner. Since high-speed and accurate processing is possible, it can be used as a sensory sensor for a robot or the like that requires real-time processing. In particular, the shape and posture of an object placed at a relatively short distance are perceived to grasp the object,
This is effective when performing actions such as avoidance.

以上では対象物6に対する光束投射パターンを光源お
よびマスク板3により形成したが、マスク板3の平面位
置に発光ダイオードなどの点光源を複数配置することに
よっても同様の効果を得ることが可能である。
Although the light flux projection pattern for the object 6 is formed by the light source and the mask plate 3 in the above, the same effect can be obtained by disposing a plurality of point light sources such as light emitting diodes at the plane position of the mask plate 3. .

また、以上の説明では簡略化のために、装置の主要部
のみを図示し、光源背面の反射鏡、コンデンサレンズな
どの光源光の集光光学系、遮閉のための筺体の図示を省
略したが、これらの部材は必要に応じて当業者において
従来どおり適当なものを設ければよい。また光学系は単
レンズのみを図示したが、複数エレメントから成る光学
系、ミラーなどを含む光学系を用いることもできる。
Further, in the above description, for simplification, only the main part of the device is illustrated, and the illustration of the reflecting mirror on the back surface of the light source, the optical system for condensing the light of the light source such as a condenser lens, and the housing for blocking are omitted. However, those members may be appropriately provided by those skilled in the art as necessary in the conventional manner. Although only a single lens is shown in the optical system, an optical system including a plurality of elements or an optical system including a mirror may be used.

第4図は、第1図,第2図の第1実施例の変形例を示
したものである。上記の構成では、正確な測定のために
対象物がレンズ1,の被写界深度内の測定範囲内に位置し
ている必要があるが、第4図の構成は3次元情報の取得
に先だって、対象物を測定範囲内に位置させる制御をも
可能にするためのものである。
FIG. 4 shows a modification of the first embodiment shown in FIGS. In the above configuration, the object needs to be located within the measurement range within the depth of field of the lens 1 for accurate measurement, but the configuration of FIG. 4 requires prior to the acquisition of three-dimensional information. The purpose is to enable control of positioning the object within the measurement range.

第4図において、符号7は半導体レーザ素子で、第2
の光源としてマスク板3の背面近傍に設けてある。半導
体レーザ素子7のレーザ光はレンズ8によってレンズ1
の焦点面上に結像するように集光され、反射鏡9によっ
て反射され、マスク板3の窓Wnのひとつを透過して対象
物6上に投射される。その他の構成は前記と同じであ
る。
In FIG. 4, reference numeral 7 is a semiconductor laser device,
Is provided in the vicinity of the back surface of the mask plate 3 as a light source of the. The laser light of the semiconductor laser device 7 is passed through the lens 8 to the lens 1
The light is focused so as to form an image on the focal plane of, is reflected by the reflecting mirror 9, passes through one of the windows Wn of the mask plate 3, and is projected onto the object 6. Other configurations are the same as those described above.

対象物6が測定範囲外にある場合には光学系の合焦位
置から外れるため、光源5による投射光束の像のぼけは
大きくなるが、レーザ光束は光学系8とレンズ1によっ
て平行光束として投射されるのでぼけは小さく、投射エ
ネルギー密度が高いので、画像センサ4の出力波形Oは
第5図に示すように対象物6上の物点像に対応した極大
値MLが高くなり、他の光像の出力と識別することが可能
になる。したがって、レーザ光束の照射される物体上の
点までの距離を三角測量の原理より求め、対象物を測定
範囲内に位置づける情報としうる。前記と同様に、対象
物6の距離はレーザ光による画像センサ4上の光像の水
平方向の位置として測定することができ、測定された距
離に応じて測定系、あるいは対象物6を移動することに
より対象物6を測定範囲内に位置づけることが可能とな
る。
When the object 6 is out of the measurement range, it is out of the in-focus position of the optical system, so that the image of the projected light beam from the light source 5 is greatly blurred, but the laser light beam is projected as a parallel light beam by the optical system 8 and the lens 1. Since the blur is small and the projection energy density is high, the output waveform O of the image sensor 4 has a high maximum value M L corresponding to the object point image on the object 6 as shown in FIG. It becomes possible to distinguish from the output of the optical image. Therefore, the distance to the point on the object irradiated with the laser beam can be obtained from the principle of triangulation and used as information for positioning the object within the measurement range. Similarly to the above, the distance of the object 6 can be measured as the horizontal position of the optical image on the image sensor 4 by the laser light, and the measurement system or the object 6 is moved according to the measured distance. This makes it possible to position the object 6 within the measurement range.

第2実施例 上記の第1実施例では、2つの同一焦点距離の光学系
を用いる構成を示したが、必要に応じて異なる焦点距離
の光学系を用いることも考えられる。この場合にも、画
像処理を容易にするため、基線方向以外の光像移動が生
じないよう、照射系、受像系の光学系の対物主平面の位
置をほぼ同一平面内に一致させるものとする。
Second Embodiment In the first embodiment described above, the configuration using two optical systems having the same focal length has been shown, but it is also possible to use optical systems having different focal lengths as needed. Also in this case, in order to facilitate the image processing, the positions of the objective principal planes of the optical systems of the irradiation system and the image receiving system are made to be substantially in the same plane so that the optical image movements other than the base line direction do not occur. .

第6図は、照射系のレンズ7と受像系のレンズ8の焦
点距離を異ならせた場合の実施例を示している。以下の
図面では、前述と同様の部材には同一符号を付してあ
り、これらについての説明は省略する。第6図の場合、
レンズ7の方がレンズ8よりも焦点距離が長い。レンズ
7,8の対象物側の主平面7′,8′はほぼ同一平面上に一
致させてある。反対側の主平面7″,8″には制約はな
く、ここでは主平面7″,8″は一致していない。
FIG. 6 shows an embodiment in which the focal lengths of the irradiation system lens 7 and the image receiving system lens 8 are different. In the following drawings, the same members as those described above are designated by the same reference numerals, and the description thereof will be omitted. In the case of FIG.
The focal length of the lens 7 is longer than that of the lens 8. lens
The main planes 7 ', 8'on the object side of 7, 8 are substantially aligned with each other. There is no restriction on the opposite principal planes 7 ", 8", here the principal planes 7 ", 8" do not coincide.

マスク3,画像センサ4と各レンズ7,8の距離は、もち
ろんマスク3,画像センサ4が焦点面にくるように定めら
れる。この場合には、各レンズからマスク3,画像センサ
4までの距離はもちろん各レンズの焦点距離に対応した
値となる。
The distance between the mask 3 and the image sensor 4 and the lenses 7 and 8 is of course set so that the mask 3 and the image sensor 4 are on the focal plane. In this case, the distance from each lens to the mask 3 and the image sensor 4 is of course a value corresponding to the focal length of each lens.

以上の構成では、レンズ7のマスクパターンの投影倍
率と、レンズ8の撮影倍率が第1図の構成と異なるだけ
で、光束の投射状態、光像の撮影状態は第1図の場合と
同等である。この実施例においても、レンズ7,8の対象
物側の主平面を対物距離が等しくなるよう、同一平面内
に置いているので、マスク板3の窓Wnの画像センサ4上
の光像Dnは、対象物の距離に応じてセンサの左右方向の
走査線上を直線的に変位し、距離によって上下方向に移
動することはない。従って光像Dnの位置は限定されたも
のとなり、前記実施例同様、後の画像処理が容易とな
る。
In the above configuration, the projection magnification of the mask pattern of the lens 7 and the photographing magnification of the lens 8 are different from those in FIG. 1, and the projection state of the light flux and the photographing state of the optical image are the same as those in FIG. is there. Also in this embodiment, since the main planes of the lenses 7 and 8 on the object side are placed on the same plane so that the objective distances are equal, the optical image Dn on the image sensor 4 of the window Wn of the mask plate 3 is The sensor does not move linearly on the scanning line in the left-right direction of the sensor according to the distance to the object, and does not move vertically depending on the distance. Therefore, the position of the optical image Dn is limited, and the subsequent image processing is facilitated as in the above-described embodiment.

第6図の構成は、マスク3を比較的大きく、画像セン
サ4をCCDセンサなどのように比較的小さくする必要が
ある場合に有効である。
The configuration of FIG. 6 is effective when the mask 3 is relatively large and the image sensor 4 needs to be relatively small like a CCD sensor.

マスク3は、第1実施例におけるように等倍のシステ
ムに用いる場合には、センサ4と同一の大きさで、しか
もセンサの解像力に対応した密度で窓を形成する必要が
あるが、このような小さいマスクを形成するのには製造
技術上の問題がある。
When the mask 3 is used in the system of the same size as in the first embodiment, it is necessary to form the window with the same size as the sensor 4 and with the density corresponding to the resolution of the sensor. There is a manufacturing technology problem in forming a very small mask.

また、小さなマスク面積では、対象物に対して充分な
光量を持つパターン光束を投射するのが困難となり、対
象物の距離が制約されたり、不当に大きな光量を持つ光
源が必要となる、といった不都合が生じる。
Also, with a small mask area, it becomes difficult to project a pattern light flux having a sufficient light amount on the object, the distance of the object is restricted, and a light source having an unreasonably large light amount is required. Occurs.

したがって、マスク3は比較的大きくし、画像センサ
4を比較的小さくすることが望ましいが、このような場
合に必要とされる倍率変換は第6図のような構成により
実現できる。
Therefore, it is desirable that the mask 3 be relatively large and the image sensor 4 be relatively small, but the magnification conversion required in such a case can be realized by the configuration shown in FIG.

画像処理は、第6図の場合でも同様に行なえばよい。
画像センサ4で得られる光像は縮小されるが、その上下
方向のパースペクティブは、センサの走査線と異なる方
向にずれることはないので、前述同様容易な3次元情報
の処理が可能である。
The image processing may be similarly performed in the case of FIG.
Although the optical image obtained by the image sensor 4 is reduced, its vertical perspective does not deviate in a direction different from the scanning line of the sensor, so that it is possible to easily process three-dimensional information as described above.

第6図の場合と逆に、第7図のように照射側のレンズ
9の焦点距離を短く、受像側のレンズ8の焦点距離を長
くすることもできる。第7図でも対象物側のレンズの主
平面9′,8′、その他の条件は第6図と同じである。こ
の場合、光源は面発光の半導体レーザアレイ、あるいは
LEDアレイなど点光源を第2図のような配列で配置した
光源アレイ10を用いる。図においてW1,W2は前記と異な
り、窓ではなく光源アレイ10の光源の1つを示す。光源
アレイ10としてのLEDアレイ、あるいは半導体レーザア
レイは基板上に多数形成され、通常は個々に切断して用
いるものをそのままアレイとして用いることができる。
Contrary to the case of FIG. 6, the focal length of the lens 9 on the irradiation side can be made short and the focal length of the lens 8 on the image receiving side can be made long as shown in FIG. Also in FIG. 7, the principal planes 9 ', 8'of the lens on the object side and other conditions are the same as in FIG. In this case, the light source is a surface emitting semiconductor laser array, or
A light source array 10 in which point light sources such as an LED array are arranged in an arrangement as shown in FIG. 2 is used. In the figure, W 1 and W 2 are different from the above and indicate one of the light sources of the light source array 10 instead of the window. A large number of LED arrays or semiconductor laser arrays as the light source array 10 are formed on the substrate, and those that are usually cut into individual pieces can be used as they are as they are.

このような光源アレイからの光は基板から垂直方向の
発光強度が強いので、レンズ9の有効口径などの条件に
応じてコンデンサレンズ11などを光源アレイ10の近傍に
配置して、光源からの光を有効にレンズ9に向けるよう
にするのが望ましい。
Since the light emitted from the light source array has a high intensity of light emitted in the vertical direction from the substrate, the condenser lens 11 or the like is arranged in the vicinity of the light source array 10 in accordance with the conditions such as the effective aperture of the lens 9 and the light from the light source is emitted. Is preferably directed to the lens 9.

以上の構成によっても、第6図の場合と倍率が異なる
だけで、同様の処理により3次元情報の取得が可能であ
る。この場合でも、光源アレイ10、画像センサ4から成
る照射系、受像系のサイズに関する制約を緩和し、より
有効な製造条件によるシステムの設計が可能となる。
Even with the above configuration, the three-dimensional information can be obtained by the same process, only with a different magnification from the case of FIG. Even in this case, restrictions on the size of the light source array 10, the irradiation system including the image sensor 4 and the image receiving system can be relaxed, and the system can be designed under more effective manufacturing conditions.

[効 果] 以上の説明から明らかなように、本発明によれば、光
軸を平行に、且つ所定基線距離隔てて配置されるととも
に、対象物側の主平面をほぼ同一の平面内に整合させた
複数の光学系と、前記の光学系の1つを通して光軸に垂
直な面内で2方向に分散する複数のパターン光束を対象
物に照射する手段と、対象物上の前記パターン光束によ
る像を、前記と異なる光学系を通して受像する二次元画
像センサとを設け、この二次元画像センサにより検出さ
れた前記対象物上のパターン光束による光像の各位置か
ら各光像の距離を測定し、対象物の3次元情報を取得す
る構成を採用したことにより、高速、かつ信頼性の高い
3次元情報の処理が可能になり、自由度の高い優れた3
次元情報処理方式を提供することができる。
[Effect] As is apparent from the above description, according to the present invention, the optical axes are arranged in parallel with each other and separated by a predetermined base line distance, and the main planes on the object side are aligned in substantially the same plane. A plurality of optical systems, a means for irradiating an object with a plurality of pattern light beams dispersed in two directions in a plane perpendicular to the optical axis through one of the optical systems, and the pattern light beam on the object. An image is provided with a two-dimensional image sensor that receives the image through an optical system different from the above, and the distance of each optical image is measured from each position of the optical image by the pattern light flux on the object detected by this two-dimensional image sensor. By adopting the configuration for acquiring the three-dimensional information of the object, it becomes possible to process the three-dimensional information at high speed and with high reliability, and the excellent three-dimensional information can be obtained.
A three-dimensional information processing method can be provided.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の3次元情報処理方式による測定装置の
第1の実施例を示した説明図、第2図は第1図のマスク
板の構成を示した説明図、第3図は第1図の構成におけ
る動作を説明した波形図、第4図は第1図の構成の変形
例を示した説明図、第5図は第4図の構成における動作
を示した波形図、第6図,第7図は本発明の第2の実施
例における測定装置の異なった構成をそれぞれ示した説
明図である。 1,2,8,9……レンズ 3……マスク板、4……画像センサ 5……光源、6……対象物 7……半導体レーザ素子 10……光源アレイ 11……コンデンサレンズ
FIG. 1 is an explanatory view showing a first embodiment of a measuring apparatus according to the three-dimensional information processing system of the present invention, FIG. 2 is an explanatory view showing the structure of the mask plate of FIG. 1, and FIG. FIG. 4 is a waveform diagram illustrating the operation in the configuration of FIG. 1, FIG. 4 is an explanatory diagram illustrating a modified example of the configuration of FIG. 1, FIG. 5 is a waveform diagram illustrating the operation in the configuration of FIG. 4, and FIG. , FIG. 7 is an explanatory diagram showing different configurations of the measuring apparatus according to the second embodiment of the present invention. 1,2,8,9 …… Lens 3 …… Mask plate, 4 …… Image sensor 5 …… Light source, 6 …… Target 7 …… Semiconductor laser element 10 …… Light source array 11 …… Condenser lens

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】光軸を平行に、且つ所定基線距離隔てて配
置されるとともに、対象物側の主平面をほぼ同一の平面
内に整合させた複数の光学系と、 前記の光学系の1つを通して光軸に垂直な面内で一方向
に分散するとともに前記一方向と異る方向にも分散する
複数のパターン光束を対象物に照射する手段と、 対象物上の前記パターン光束による像を、前記と異なる
光学系を通して受像する二次元画像センサとを設け、 この二次元画像センサにより受像された前記対象物上の
パターン光束による光像の各位置を検出し、該検出され
た各位置に基づいて各光像の距離を測定し、対象物の3
次元情報を取得することを特徴とする3次元情報処理方
法。
1. A plurality of optical systems which are arranged with their optical axes parallel to each other and are separated from each other by a predetermined base line distance, and whose main planes on the object side are aligned in substantially the same plane; A means for irradiating an object with a plurality of pattern light fluxes which are dispersed in one direction in a plane perpendicular to the optical axis and also in a direction different from the one direction, and an image formed by the pattern light flux on the object. , A two-dimensional image sensor for receiving an image through an optical system different from the above is provided, each position of the optical image by the pattern light flux on the object received by the two-dimensional image sensor is detected, and each position is detected. Measure the distance of each light image based on 3
A three-dimensional information processing method characterized by acquiring dimension information.
【請求項2】前記複数の光学系の焦点距離が異なってお
り、前記照射手段と前記二次元画像センサと前記光学系
の距離が異なる焦点距離に応じて定められることを特徴
とする特許請求の範囲第1項に記載の3次元情報処理方
法。
2. The focal lengths of the plurality of optical systems are different from each other, and the distances of the irradiation unit, the two-dimensional image sensor and the optical system are determined according to different focal lengths. The three-dimensional information processing method according to claim 1.
【請求項3】前記照射手段が前記光学系の焦点面に配置
された複数の開口部からなるマスクパターンを有するマ
スク板及び、このマスク板後方に配置された光源から構
成されることを特徴とする特許請求の範囲第1項または
第2項に記載の3次元情報処理方法。
3. The irradiating means comprises a mask plate having a mask pattern having a plurality of openings arranged on the focal plane of the optical system, and a light source arranged behind the mask plate. The three-dimensional information processing method according to claim 1 or 2.
【請求項4】前記光学系の光軸が前記マスク板と二次元
画像センサの配置面に直交して配置されることを特徴と
する特許請求の範囲第3項に記載の3次元情報処理方
法。
4. The three-dimensional information processing method according to claim 3, wherein the optical axis of the optical system is arranged orthogonal to the arrangement surface of the mask plate and the two-dimensional image sensor. .
【請求項5】前記照射手段が1つの光学系の焦点面に配
置された複数の点光源から構成されることを特徴とする
特許請求の範囲第1項に記載の3次元情報処理方法。
5. The three-dimensional information processing method according to claim 1, wherein the irradiation means is composed of a plurality of point light sources arranged on the focal plane of one optical system.
【請求項6】前記パターン光束のうち、少なくとも1つ
がレーザ光束であり、このレーザ光束の対象物上の光像
の位置を前記二次元画像センサで検出することにより対
象物の距離を測定し、この測定値に基づき、対象物を測
定範囲内に位置づけることを特徴とする特許請求の範囲
第1項から第5項までのいずれか1項に記載の3次元情
報処理方法。
6. At least one of the pattern light beams is a laser light beam, and the distance of the object is measured by detecting the position of an optical image of the laser light beam on the object by the two-dimensional image sensor, The three-dimensional information processing method according to any one of claims 1 to 5, wherein the object is positioned within the measurement range based on the measured value.
JP61027912A 1985-12-10 1986-02-13 Three-dimensional information processing method Expired - Lifetime JP2504944B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP61027912A JP2504944B2 (en) 1986-02-13 1986-02-13 Three-dimensional information processing method
DE19863642051 DE3642051A1 (en) 1985-12-10 1986-12-09 METHOD FOR THREE-DIMENSIONAL INFORMATION PROCESSING AND DEVICE FOR RECEIVING THREE-DIMENSIONAL INFORMATION ABOUT AN OBJECT
FR868617220A FR2591329B1 (en) 1985-12-10 1986-12-09 APPARATUS AND METHOD FOR PROCESSING THREE-DIMENSIONAL INFORMATION
US07/289,456 US4867570A (en) 1985-12-10 1988-12-22 Three-dimensional information processing method and apparatus for obtaining three-dimensional information of object by projecting a plurality of pattern beams onto object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61027912A JP2504944B2 (en) 1986-02-13 1986-02-13 Three-dimensional information processing method

Publications (2)

Publication Number Publication Date
JPS62186380A JPS62186380A (en) 1987-08-14
JP2504944B2 true JP2504944B2 (en) 1996-06-05

Family

ID=12234094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61027912A Expired - Lifetime JP2504944B2 (en) 1985-12-10 1986-02-13 Three-dimensional information processing method

Country Status (1)

Country Link
JP (1) JP2504944B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015122627A1 (en) * 2015-05-28 2016-12-01 Osram Opto Semiconductors Gmbh Optoelectronic arrangement and depth detection system
EP3551965A4 (en) * 2016-12-07 2020-08-05 Magik Eye Inc. Distance sensor projecting parallel patterns

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59131114A (en) * 1983-01-17 1984-07-27 Nippon Kogaku Kk <Nikon> Active type distance detector

Also Published As

Publication number Publication date
JPS62186380A (en) 1987-08-14

Similar Documents

Publication Publication Date Title
US4867570A (en) Three-dimensional information processing method and apparatus for obtaining three-dimensional information of object by projecting a plurality of pattern beams onto object
US6862097B2 (en) Three-dimensional shape measuring method, and three-dimensional shape measuring apparatus
US20060044546A1 (en) Ranging apparatus
US6683675B2 (en) Distance measuring apparatus and distance measuring method
JP2006514739A (en) Dental laser digitizer system
JP2006514739A5 (en)
JP2008241643A (en) Three-dimensional shape measuring device
JP3428122B2 (en) 3D shape measuring device
JPH045508A (en) Method and device for detecting shape of body
JP2007093412A (en) Three-dimensional shape measuring device
JPS61111402A (en) Position detector
JPH10239036A (en) Three-dimensional measuring optical device
JPH0758172B2 (en) Shape measuring method and apparatus
JP2504944B2 (en) Three-dimensional information processing method
JPH06207812A (en) Measurement point indicator for three-dimensional measurement
EP1202074B1 (en) Distance measuring apparatus and distance measuring method
JPS62291512A (en) Distance measuring apparatus
JPH0833915B2 (en) Three-dimensional information processing method
JP3184641B2 (en) Edge detecting device for tapered hole and its depth measuring device
JPH0789058B2 (en) Distance measuring device
JP3798212B2 (en) 3D shape measuring device
JPH0789057B2 (en) Distance measuring device
JP2003185420A (en) Method and apparatus for measuring three-dimensional shape
JPH02216406A (en) Device and instrument for measuring solid shape
JP2001033236A (en) Stereoscopic image measuring device and stereoscopic image measuring method

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term