JPH0367566B2 - - Google Patents

Info

Publication number
JPH0367566B2
JPH0367566B2 JP60107675A JP10767585A JPH0367566B2 JP H0367566 B2 JPH0367566 B2 JP H0367566B2 JP 60107675 A JP60107675 A JP 60107675A JP 10767585 A JP10767585 A JP 10767585A JP H0367566 B2 JPH0367566 B2 JP H0367566B2
Authority
JP
Japan
Prior art keywords
slit light
image
slit
photographed
photographed image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP60107675A
Other languages
Japanese (ja)
Other versions
JPS61274207A (en
Inventor
Tsugihito Maruyama
Shinji Kanda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP10767585A priority Critical patent/JPS61274207A/en
Priority to US06/864,846 priority patent/US4846576A/en
Priority to DE8686401056T priority patent/DE3683423D1/en
Priority to EP86401056A priority patent/EP0212992B1/en
Priority to EP91100068A priority patent/EP0424359B1/en
Priority to DE3650479T priority patent/DE3650479T2/en
Publication of JPS61274207A publication Critical patent/JPS61274207A/en
Publication of JPH0367566B2 publication Critical patent/JPH0367566B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)

Description

【発明の詳細な説明】 〔目次〕 概要 ……(3) 産業上の利用分野 ……(3) 従来の技術 ……(3) 発明が解決しようとする問題点 ……(4) 問題点を解決するための手段 ……(5) 発明の基本的原理 ……(6) 実施例 (i) 計測装置の構成 ……(13) (ii) 計測処理 ……(15) (iii) 他の実施例 ……(26) 発明の効果 ……(27) 〔概要〕 物体の空間的配置を、いわゆる両眼立体視法で
計測するには、2台のカメラでそれぞれ得た画像
を対応させる複雑な処理を必要とする。本発明
は、そのスリツト光面がマルチスリツト光の作る
複数のスリツト光面のひとつと一致する基準スリ
ツト光を物体に照射して、物体の空間的配置を1
台のカメラで短時間に計測し得る物体の三次元計
測方法を提供する。
[Detailed Description of the Invention] [Table of Contents] Overview...(3) Industrial application fields...(3) Prior art...(3) Problems to be solved by the invention...(4) Problems to be solved Means for solving the problem...(5) Basic principle of the invention...(6) Embodiment (i) Configuration of measuring device...(13) (ii) Measurement processing...(15) (iii) Other implementations Example ……(26) Effect of the invention ……(27) [Summary] In order to measure the spatial arrangement of objects using the so-called binocular stereopsis method, a complex process is required in which the images obtained by two cameras are made to correspond to each other. Requires processing. The present invention irradiates an object with a reference slit light whose slit light surface coincides with one of a plurality of slit light surfaces formed by multi-slit light, thereby adjusting the spatial arrangement of the object.
To provide a three-dimensional measurement method for an object that can be measured in a short time using a camera mounted on a stand.

〔産業上の利用分野〕 本発明は、産業ロボツトの制御等に際して必要
となる物体の空間的配置を計測する方法に係り、
詳しくはマルチスリツト光を物体に照射し、その
画像を得ることによつて物体の空間的配置を計測
する物体の三次元計測方法に関するものである。
[Industrial Application Field] The present invention relates to a method for measuring the spatial arrangement of objects necessary for controlling industrial robots, etc.
More specifically, the present invention relates to a three-dimensional measurement method for an object in which the spatial arrangement of the object is measured by irradiating the object with multi-slit light and obtaining an image of the object.

〔従来の技術〕[Conventional technology]

従来、物体を三次元的に計測する方法として、
いわゆる両眼立体視法があつた。この方法は、第
9図に示すように、対象となる物体4の近くに2
台のカメラ1,2及びマルチスリツト光源5を固
定配置すると共に、マルチスリツト光源5を点灯
してマルチスリツト光3を物体4の表面に照射す
る。次に、上記物体4表面上のマルチスリツト光
3によるスリツト光投影像9を2台のカメラ1,
2で撮影する。2台のカメラ1,2でそれぞれ撮
影したスリツト光投影像9に対応した複数のスリ
ツト光撮影像から対応点(第9図において、カメ
ラ1の画像上の着目点Aに対するカメラ2の画像
上の点B)を求めて三角測量の原理に基づいて物
体を三次元的に計測する方法である。尚、カメラ
1,2の撮影した画像を第10図に示す。
Traditionally, as a method for measuring objects three-dimensionally,
The so-called binocular stereopsis method was introduced. In this method, as shown in FIG. 9, there are two
The cameras 1 and 2 and the multi-slit light source 5 are fixedly arranged, and the multi-slit light source 5 is turned on to irradiate the surface of the object 4 with multi-slit light 3. Next, the slit light projection image 9 by the multi-slit light 3 on the surface of the object 4 is captured by two cameras 1,
Shoot with 2. Corresponding points from a plurality of slit light photographed images corresponding to the slit light projection images 9 taken by the two cameras 1 and 2 (in FIG. This is a method of determining point B) and measuring an object three-dimensionally based on the principle of triangulation. Incidentally, images taken by cameras 1 and 2 are shown in FIG.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

ところで、この従来の方法では、カメラ1で撮
影した複数のスリツト光撮影像とカメラ2で撮影
した複数のスリツト光撮影像との間の対応付け
(対応点Bを見付ける処理)が難しく、その処理
が複数で処理時間がかかるという欠点を有してい
た。
By the way, with this conventional method, it is difficult to make correspondences between the plurality of slit light images taken by camera 1 and the plurality of slit light images taken by camera 2 (the process of finding the corresponding point B). It has the disadvantage that it takes a long time to process because of the plural number of files.

そこで、本発明は、いわゆる両眼立体視法にお
ける2台のカメラで撮影したスリツト光撮影像間
の対応付けという複雑な処理をせずに、物体の三
次元的な計測を行なうことができる方法を提供す
ることを目的としてなされたものである。
Therefore, the present invention provides a method that allows three-dimensional measurement of an object without the complicated process of associating slit light images taken with two cameras in the so-called binocular stereoscopic viewing method. It was made with the purpose of providing.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、所定の座標系において配置が予め設
定された複数のスリツト光面を有するマルチスリ
ツト光を物体表面に照射する一方、上記マルチス
リツト光のひとつのスリツト光面と一致するスリ
ツト光面を有した所定の基準スリツト光を同物体
表面に照射し、上記物体表面上のマルチスリツト
光によるスリツト光投影像に対応した複数のスリ
ツト光撮影像と同物体表面上の基準スリツト光に
よるスリツト光投影像に対応した基準スリツト光
撮影像とを所定画像面上にて得る一方、上記複数
のスリツト光撮影像から基準スリツト光撮影像に
相当するスリツト光撮影像を特定し、この特定さ
れたスリツト光撮影像と他のスリツト光撮影像と
の相対的な位置関係に基づいて各スリツト光撮影
像とマルチスリツト光の各スリツト光面とを対応
付けると共に、当該各スリツト光撮影像の相対的
な位置関係と各スリツト光撮影像に対応付けられ
たスリツト光面とに基づいて当該物体の上記座標
系における空間的配置を計測するようにした物体
の三次元計測方法である。
The present invention irradiates an object surface with multi-slit light having a plurality of slit light surfaces whose arrangement is set in advance in a predetermined coordinate system, and has a slit light surface that coincides with one of the slit light surfaces of the multi-slit light. A predetermined reference slit light is irradiated onto the surface of the same object, and a plurality of slit light photographed images corresponding to the slit light projected image by the multi-slit light on the object surface and a slit light projected image by the reference slit light on the same object surface are obtained. While obtaining a reference slit light photographed image on a predetermined image plane, a slit light photographed image corresponding to the reference slit light photographed image is identified from the plurality of slit light photographed images, and the identified slit light photographed image and Each slit light photographed image is associated with each slit light surface of the multi-slit light based on the relative positional relationship with other slit light photographed images, and the relative positional relationship of each slit light photographed image and each slit light This is a three-dimensional measuring method for an object, in which the spatial arrangement of the object in the coordinate system is measured based on a slit light surface associated with a photographed image.

〔発明の基本原理〕[Basic principle of the invention]

次に本発明の基本原理を第1図と第2図とに基
づいて説明する。所定の座標系としてカメラ1の
焦点を原点とし、カメラ1の光軸方法をz軸とし
たカメラ直交座標系Oc−xcyczcを設定する。さら
に、マルチスリツト光源5を原点としたマルチス
リツト直交座標系OM−xMyMzMを設定し、マルチ
スリツト直交座標系を、yM軸に沿つて平行移動
させ、原点を基準スリツト光源6とした基準スリ
ツト直交座標系Os−xsyszsを設定する。カメラ直
交座標系とマルチスリツト直交座標系との間は、
一般に次の関係式で表わされる。
Next, the basic principle of the present invention will be explained based on FIGS. 1 and 2. A camera orthogonal coordinate system O c -x c y c z c is set as a predetermined coordinate system, with the focal point of the camera 1 as the origin and the optical axis of the camera 1 as the z-axis. Furthermore, a multi-slit orthogonal coordinate system O M −x M y M z M with the multi-slit light source 5 as the origin is set, the multi-slit orthogonal coordinate system is translated in parallel along the y M axis, and the origin is set as the reference slit light source 6. Set the reference slit orthogonal coordinate system O s −x s y s z s . Between the camera orthogonal coordinate system and the multi-slit orthogonal coordinate system,
Generally, it is expressed by the following relational expression.

XM YM ZM 1=h11 h12 h13 h14 h21 h22 h23 h24 h31 h32 h33 h34 h41 h42 h43 h44 xc yc zc 1 …(1) 但し、hij(i,j=1,2,3)は、i,j座
標軸間のなす角度の方向余弦を表わし、hi4(i=
1,2,3)は平行移動距離を表わす。
X M Y M Z M 1=h 11 h 12 h 13 h 14 h 21 h 22 h 23 h 24 h 31 h 32 h 33 h 34 h 41 h 42 h 43 h 44 x c y c z c 1 …(1 ) However, h ij (i, j = 1, 2, 3) represents the direction cosine of the angle between the i and j coordinate axes, and h i4 (i =
1, 2, 3) represent the parallel movement distance.

今、スリツト光3の各スリツト光面Mが、マル
チスリツト直交座標系で表わした平面XM=0を
yM軸を回転軸とした所定角度の回転によつて得
られるものとする。yM軸を回転軸として平面xM
=0をθj,j=1〜mだけ回転したスリツト光面
をMjとすると、Mjは XMcosθj−ZMsinθj=0 …(2) と表わされる。これをカメラ直交座標系で表わせ
ば(1)式を用いて、 Mj:(h11 xc+h12 yc+h13 zc+h14)cosθj−(h31 xc+h32 yc+h33 zc+h34)sinθj=0 (j=1〜m) …(3) となる。
Now, each slit light surface M of the slit light 3 points to the plane X M = 0 expressed in the multi-slit orthogonal coordinate system.
y It shall be obtained by rotation at a predetermined angle with the M axis as the rotation axis. Plane x M with y M axis as rotation axis
=0 is θ j and the slit optical surface rotated by j=1 to m is M j , then M j is expressed as X M cos θ j −Z M sin θ j =0 (2). Expressing this in the camera orthogonal coordinate system, using equation (1), M j : (h 11 x c + h 12 y c + h 13 z c + h 14 ) cosθ j − (h 31 x c + h 32 y c + h 33 z c +h 34 ) sinθ j =0 (j=1 to m)...(3).

一方、基準スリツト光8のスリツト光面Sは、
基準スリツト直交座標系で表わした平面xs=0を
ys軸(yM軸と一致している)を回転軸としてθs
け回転したものとする。このθsをマルチスリツト
光3によるk番目のスリツト光面Mkと一致する
ように、すなわち、 θs=θk …(4) と調整する。このとき、基準スリツト光8による
基準スリツト光面Sは、 Xscosθs−Zssinθs=0 …(5) と表わされる。これをカメラ直交座標系で表わせ
ば、(1)式を用いて S:(h11 xc+h12 yc+h13 zc+h14)cosθs−(h31
xc+h32 yc+h33 zc+h34)sinθs=0 …(6) となる。さて、m本のマルチスリツト光3の照射
によつて、物体4表面上に複数のスリツト光投影
像9ができ、それをカメラ1で撮影することによ
つてカメラ1の撮影素子等の画像面c上にスリツ
ト光投影像9に対応したl個のスリツト光撮影像
が得られたとする。ここで、物体4を説明の便宜
上線状とし、物体4上のスリツト光投影像9の座
標をPi(Xc pi,yc pi,zc pi),(i=1〜l)とし、各
スリツト光投影像9に対応するスリツト光撮影像
の座標をそれぞれIi(Xc Ii,yc Ii,zc Ii),(i=1〜
l)とする。ここで、簡単にするため画像面Cを
xcyc−平面に平行な平面zc=f(一定、焦点距離)
とする。そのとき、視線10を直線Li(=
ci――――――)とすると、Liは Li:xc/xc Ii=yc/yc Ii=zc/f …(7) で表わされる。点状のスリツト光投影像9のひと
つPiの三次元座標は視線10である直線LiとPi
対応するスリツト光面Miとの交点として求まる。
On the other hand, the slit light surface S of the reference slit light 8 is
The plane x s = 0 expressed in the reference slit orthogonal coordinate system is
Assume that it is rotated by θ s using the y s axis (which coincides with the y M axis) as the rotation axis. This θ s is adjusted to match the k-th slit optical surface M k of the multi-slit light 3, that is, θ sk (4). At this time, the reference slit light surface S by the reference slit light 8 is expressed as X s cos θ s −Z s sin θ s =0 (5). Expressing this in the camera orthogonal coordinate system, using equation (1), S: (h 11 x c + h 12 y c + h 13 z c + h 14 ) cosθ s − (h 31
x c + h 32 y c + h 33 z c + h 34 ) sinθ s = 0 (6). Now, by irradiating m multi-slit light beams 3, a plurality of slit light projection images 9 are formed on the surface of the object 4, and by photographing them with the camera 1, the image plane c of the photographing element of the camera 1, etc. Assume that l slit light photographed images corresponding to the slit light projection image 9 are obtained above. Here, for convenience of explanation, the object 4 is assumed to be linear, and the coordinates of the slit light projection image 9 on the object 4 are P i (X c pi , y c pi , z c pi ), (i=1 to l), The coordinates of the slit light photographed image corresponding to each slit light projection image 9 are I i (X c Ii , y c Ii , z c Ii ), (i = 1 ~
l). Here, for simplicity, image plane C is
x c y c - plane parallel to the plane z c = f (constant, focal length)
shall be. At that time, line of sight 10 is straight line L i (=
O c I i --------), L i is expressed as L i :x c /x c Ii =y c /y c Ii =z c /f (7). The three-dimensional coordinates of one P i of the dotted slit light projection images 9 are determined as the intersection of the straight line L i which is the line of sight 10 and the slit light surface M i corresponding to P i .

しかしながら、この時点では、各スリツト光撮
影像Ii(i=1〜l)とマルチスリツト光3によ
るスリツト光面Mjとの対応付け、すなわちI1
Iが物体4表面上に照射されている何番目のスリ
ツト光面M1〜Mに対応付けられるかは不明であ
る。そこで、本発明では、マルチスリツト光3に
よるひとつのスリツト光面Mkと一致するスリツ
ト光面Sをもつ基準スリツト光8をマルチスリツ
ト光3と時分割で照射する。ここで、基準スリツ
ト光8による物体4上のスリツト光投影像9の座
標をPs(xc ps,yc ps,zc ps)とし、そのスリツト光
投影像9に対応する基準スリツト光撮影像の座標
をIs(xc Is,yc Is,zc Is)、zc Is=fとする。そのとき
視線Ls(=OcIs)は Ls:xc/xc Is=yc/yc Is=zc/f …(8) で表わされる。点状のスリツト光投影像9である
Psは、直線LsとPsに対応するスリツト光面Sとの
交点として求まる。すなわち、(8)式から xc=xc Is/fzc,yc=yc Is/fzc …(9) が得られる、これを(6)式へ代入し、zcについてま
とめると、 {(h11xc Is/f+h12yc Is/f+h13)cosθs−(h31xc
Is/f+h32yc Is/f+h33)sinθs}zc=h14cosθs+h
34sinθs…(10) より、 zc=(h14cosθs+h34sinθs)/g …(11a) これを(9)式へ代入して、 xc=(h14cosθs+h34sinθs)xc Is/fg …(11b) yc=(h14cosθs+h34sinθs)yIs c/fg …(11c) が得られる。
However, at this point, the correspondence between each slit light photographed image I i (i=1 to l) and the slit light surface M j by the multi-slit light 3, that is, I 1 to
It is unknown to what number of slit light planes M 1 to M irradiating the surface of the object 4 I corresponds. Therefore, in the present invention, the reference slit light 8 having a slit light surface S that coincides with one slit light surface M k of the multi-slit light 3 is irradiated with the multi-slit light 3 in a time-sharing manner. Here, the coordinates of the slit light projection image 9 on the object 4 by the reference slit light 8 are set as Ps (x c ps , y c ps , z c ps ), and the reference slit light photographing corresponding to the slit light projection image 9 is Let the coordinates of the image be I s (x c Is , y c Is , z c Is ), and z c Is = f. At that time, the line of sight L s (=O c I s ) is expressed as L s :x c /x c Is =y c /y c Is =z c /f (8). This is a point-like slit light projection image 9.
P s is found as the intersection of the straight line L s and the slit optical surface S corresponding to P s . That is, from equation (8), we obtain x c = x c Is / fz c , y c = y c Is / fz c ... (9). Substituting this into equation (6) and summarizing z c , {(h 11 x c Is /f+h 12 y c Is /f+h 13 )cosθ s −(h 31 x c
Is /f+h 32 y c Is /f+h 33 ) sinθ s }z c = h 14 cosθ s +h
34 sinθ s …(10), z c = (h 14 cosθ s + h 34 sinθ s )/g …(11a) Substituting this into equation (9), x c = (h 14 cosθ s + h 34 sinθ s ) x c Is / fg ... (11b) y c = (h 14 cosθ s + h 34 sinθ s ) y Is c / fg ... (11c) is obtained.

ここで、 g=(h11xc Is/f+h12yc Is/f+h13)cosθs− (h31xcIs/f+h32ycIs/f+h33)sinθs …(12) である。(11a)乃至(11c)式(以下、単に(11)式
という)、(12)式がPsをカメラ直交座標系によつて
表わしたものである。ところで、基準スリツト光
8によるスリツト光面Sは、マルチスリツト光3
によるスリツト光面MのひとつMkと一致するの
であるから、マルチスリツト光3によるスリツト
光撮影像Ii(i=1〜l)の中に必ず基準スリツ
ト光撮影像Isに相当するものが見つかるはずであ
る。こうして、Isによつて特定されたスリツト光
撮影像をIrとすると、Irは基準スリツト光8によ
るスリツト光面Sと対応付けられ、従つてマルチ
スリツト光3によるスリツト光面Mkと対応付け
られることになる。後は、マルチスリツト光3の
配置とスリツト光撮影像の配列から、両者間に入
れ換えがないとし、Ir-1がMk-1,Ii-2がMk-2…I1
がMk-r+1と、またIi+rがMk+1,Ir+2がMk+2…Il
Mk+l-rと順次対応付けられる。この対応関係から
(11)(12)式において、(xc Is,yc Is,θs)の代わりに

P1では(xc Is,yc Is,Ok-r+1)を、P2では(xc Is
yc Is,Ok-r-2)を…Plでは(xc Il,yc Il,Ok+l-r)を
代入することによつて物体4のスリツト光投撮像
9のカメラ直交座標系による三次元座標を求める
ことができるので、物体3の三次元計測が可能と
なる。
Here, g=(h 11 x c Is /f+h 12 y c Is /f+h 13 ) cosθ s − (h 31 x c Is/f+h 32 y c Is/f+h 33 ) sin θ s (12). Equations (11a) to (11c) (hereinafter simply referred to as Equation (11)) and Equation (12) express Ps using the camera orthogonal coordinate system. By the way, the slit light surface S formed by the reference slit light 8 is different from that of the multi-slit light 3.
Since it coincides with Mk , one of the slit light planes M according to It should be. In this way, if the slit light photographed image specified by I s is I r , I r corresponds to the slit light surface S formed by the reference slit light 8, and therefore corresponds to the slit light surface M k formed by the multi-slit light 3. It will be attached. After that, from the arrangement of the multi-slit light beam 3 and the arrangement of the slit light photographed images, assuming that there is no interchange between the two, I r-1 is M k-1 and I i-2 is M k-2 ...I 1
is M k-r+1 , I i+r is M k+1 , I r+2 is M k+2 …I l is
It is sequentially associated with M k+lr . From this correspondence
In equations (11) and (12), instead of (x c Is , y c Is , θ s ),
In P 1 , (x c Is , y c Is , O k-r+1 ), in P 2 (x c Is ,
By substituting (x c Il , y c Il , O k+lr ) for (y c Is , O kr-2 )...P l , we can calculate the cubic coordinates of the slit light projected image 9 of the object 4 in the camera orthogonal coordinate system. Since the original coordinates can be determined, three-dimensional measurement of the object 3 becomes possible.

〔実施例〕〔Example〕

以下、本発明の実施例を図面に基づいて説明す
る。
Embodiments of the present invention will be described below based on the drawings.

(i) 計測装置の構成 本発明に係る物体の三次元計測方法を実現する
装置は、例えば第3図に示すように構成される。
同図において、1はカメラであり、本実施例では
テレビカメラを用いる。11はアナログ・デジタ
ル変換器であり、12は物体4表面を照射する通
常照明である。13,14はそれぞれマルチスリ
ツト光源5と基準スリツト光源6とからなる光源
セツトであり、物体4の配置に応じて適宜選択し
て使用する。15は画像プロセツサであり、物体
4の輪郭を抽出するための濃淡画像処理部16
と、線状の物体4の中心線を太さ1画素幅のライ
ンを抽出するための尾根点処理部17と、局所的
ピーク点を抽出するための極点処理部18と、デ
ジタル信号を2値化する2値化処理部19と、画
像間AND演算機能を有する画像間AND演算部2
0とからなる。尚、この画像プロセツサ15は、
特願昭58−091309号に示した装置に極点処理部1
8と画像間AND演算部20と付加したものであ
る。21,22は画像メモリであり、カメラ1の
画像面Cに得られた画像を格納しておく装置であ
る。23は線方向画像計算部であつて、物体4の
配置に基づいて、相異なる向きをもつ2つの光源
セツト13と光源セツト14との選択するための
計算を行なうものである。24は対応付け計算部
であり、マルチスリツト光3によるスリツト光撮
影像の中から基準スリツト光8による基準スリツ
ト光撮影像に相当するスリツト光撮影像を特定
し、スリツト光撮影像とスリツト光面Mとの対応
付けの計算を行うものである。25は距離計算部
であり、(11)(12)式を用いて三次元座標の計算を行う
ものである。26,27はバツフアである。29
はCPUであり、以上の全装置と接続され、全装
置の制御や演算等を行うものである。
(i) Configuration of Measuring Apparatus An apparatus for realizing the three-dimensional measuring method of an object according to the present invention is configured as shown in FIG. 3, for example.
In the figure, 1 is a camera, and in this embodiment, a television camera is used. 11 is an analog-to-digital converter, and 12 is a normal illumination that illuminates the surface of the object 4. Numerals 13 and 14 are light source sets each consisting of a multi-slit light source 5 and a reference slit light source 6, which are appropriately selected and used depending on the arrangement of the object 4. 15 is an image processor, which includes a grayscale image processing unit 16 for extracting the outline of the object 4;
, a ridge point processing unit 17 for extracting a line with a thickness of 1 pixel width from the center line of the linear object 4, and an extremity processing unit 18 for extracting local peak points, and converting the digital signal into a binary signal. a binarization processing unit 19 for converting images, and an inter-image AND operation unit 2 having an inter-image AND operation function.
Consists of 0. Note that this image processor 15 is
The apparatus shown in Japanese Patent Application No. 58-091309 is equipped with a pole processing section 1.
8 and an inter-image AND operation section 20 is added. Reference numerals 21 and 22 denote image memories, which are devices for storing images obtained on the image plane C of the camera 1. Reference numeral 23 denotes a line direction image calculation section which performs calculations for selecting two light source sets 13 and 14 having different directions, based on the arrangement of the object 4. Reference numeral 24 denotes a correspondence calculation unit, which identifies a slit light photographed image corresponding to the standard slit light photographed image by the standard slit light 8 from among the slit light photographed images by the multi-slit light 3, and combines the slit light photographed image with the slit light surface M. This is used to calculate the correspondence between the Reference numeral 25 denotes a distance calculation unit, which calculates three-dimensional coordinates using equations (11) and (12). 26 and 27 are buffers. 29
is the CPU, which is connected to all the devices mentioned above and controls and performs calculations on all the devices.

(ii) 計測処理 計測すべき物体として線状の物体を想定する。
まず、第1図に示すように、対象となる線状の物
体4の近くに、カメラ1、マルチスリツト光源
5、及び基準スリツト光源6を固定配置する。マ
ルチスリツト光源5及び基準スリツト光源6は、
それぞれ発明の基本原理に述べたようなマルチス
リツト光3及び基準スリツト光8を照射し、物体
4の位置に応じて、光源セツト13と光源セツト
14との中から選択されたものである。以下、第
4図の流れ図に従つて説明する。物体4近くに配
置された通常照明12を点灯することにより物体
4を照射する(41)。但し、物体4と背景とを明
確に区別することができる場合には点灯する必要
はない。次に、通常照明12により照射された物
体4をカメラ1としてのテレビカメラで撮影し、
物体4の輪郭を撮影素子等の画像面C上にとらえ
る。その後、撮影された画像をアナログ・デジタ
ル変換器11によつて濃淡レベルを有するデジタ
ル信号に変換し(80)、さらに該信号を画像プロ
セツサへ入力する。画像プロセツサ15へ入力さ
れた信号は、濃淡画像処理部16で、第5図の流
れ図に示すように平滑化処理あるいはラプラシア
ン処理81、又は平滑化処理及びラプラシアン処
理82がなされる。次に、該信号は尾根点処理部
17において尾根点処理83がなされ、さらに、
2値化処理部19によつて2値化処理84がなさ
れる。もし、物体4の中心線にひげ状ノイズが多
く存在するときは、2値化処理84後、雑音除去
処理85を行つてノイズを除く。
(ii) Measurement processing A linear object is assumed as the object to be measured.
First, as shown in FIG. 1, a camera 1, a multi-slit light source 5, and a reference slit light source 6 are fixedly arranged near a linear object 4 of interest. The multi-slit light source 5 and the reference slit light source 6 are
The multi-slit light 3 and the reference slit light 8 as described in the basic principles of the invention are irradiated, and a light source set 13 and a light source set 14 are selected depending on the position of the object 4. The process will be explained below according to the flowchart shown in FIG. The object 4 is illuminated by lighting the normal illumination 12 placed near the object 4 (41). However, if the object 4 and the background can be clearly distinguished, it is not necessary to turn on the light. Next, the object 4 illuminated by the normal illumination 12 is photographed with a television camera as the camera 1,
The outline of the object 4 is captured on an image plane C of a photographing element or the like. Thereafter, the photographed image is converted into a digital signal having gray levels by the analog-to-digital converter 11 (80), and the signal is further input to an image processor. The signal input to the image processor 15 is subjected to a smoothing process or a Laplacian process 81 or a smoothing process and a Laplacian process 82, as shown in the flowchart of FIG. Next, the signal is subjected to ridge point processing 83 in the ridge point processing section 17, and further,
Binarization processing 84 is performed by the binarization processing section 19 . If there is a lot of whisker-like noise on the center line of the object 4, after the binarization process 84, a noise removal process 85 is performed to remove the noise.

以上述べた処理によつて物体4の中心線を太さ
1画素幅のラインとして抽出し、画像30として
画像メモリ21への格納処理86を行う(42)。
次に、得られたデータから線方向計算部23によ
つて線状の物体4の配置方向を計算する。その方
法は、まずカメラ直交座標系によつて、画像面C
上の物体4の始点Ls(xs c,ys c)と終点Le(xe c,ye
)とを求める。ここで扱う物体4はあまり複雑
な形状でない細長い線状部材とすれば、LsとLe
とから物体4の配置方向を示す角度θが決まる。
すなわち方向θは θ=arc tanye c−ys c/xe c−Xs c である。これによつて物体4の配置を示す方向ベ
クトル l→=(cosθ,sinθ) が求まる。次に、この方向ベクトルl→を用いて、
相異なる向きに配置された光源セツトA,Bの選
択を行う。その方法は、光源セツト13と光源セ
ツト14とのスリツト面の法線方向の方向ベクト
ルをそれぞれSA―→,SB―→とするとき、内積l→・
A―→の絶対値と内積l・SB―→との絶対値を計算し

両者の大小を比較して内積の絶対値の小さい方の
光源セツトを選択する(43)。これはマルチスリ
ツト光3に対してより多くのスリツト光投影像9
を得て計測分解能を向上させるためである。但
し、光源セツト13,14のうち必ずしもどちら
か一方のみを選択しなくても、両方の光源セツト
13,14を使つて異なる方向から2回計測して
もよい。
Through the processing described above, the center line of the object 4 is extracted as a line with a thickness of 1 pixel width, and a storage process 86 is performed in the image memory 21 as the image 30 (42).
Next, the linear direction calculation unit 23 calculates the arrangement direction of the linear object 4 from the obtained data. The method is to first calculate the image plane C using the camera orthogonal coordinate system.
The starting point L s (x s c , y s c ) and the ending point L e (x e c , y e
c ). If the object 4 we are dealing with here is a long and thin linear member that does not have a very complicated shape, then L s and L e
An angle θ indicating the direction in which the object 4 is arranged is determined from .
That is, the direction θ is θ=arc tany e c −y s c /x e c −X s c . As a result, the direction vector l→=(cos θ, sin θ) indicating the arrangement of the object 4 is determined. Next, using this direction vector l→,
Light source sets A and B arranged in different directions are selected. The method is as follows: When the direction vectors of the light source set 13 and the light source set 14 in the normal direction to the slit plane are S A -→ and S B -→, respectively, the inner product l→・
Calculate the absolute value of S A -→ and the inner product l・S B -→,
The magnitudes of both are compared and the light source set with the smaller absolute value of the inner product is selected (43). This means that more slit light projection images 9 are generated than multi-slit light 3.
This is to improve measurement resolution by obtaining . However, it is not necessary to select only one of the light source sets 13 and 14, and measurement may be performed twice from different directions using both light source sets 13 and 14.

次に、通常照明12を消し、選択した光源セツ
ト13又は光源セツト14の基準スリツト光源6
を点灯して物体4表面に基準スリツト光8を照射
する(44)。ここで、基準スリツト光8の作るス
リツト光面Sはマルチスリツト光3のひとつのス
リツト光面Mkと予め一致させておく。基準スリ
ツト光8によつて物体4表面を横切るようにして
輝線7が引かれ、物体4表面上にはスリツト光投
影像9ができる。スリツト光投影像9を含む輝線
7をカメラ1で撮影し、カメラ1の撮影素子等の
画像面C上に基準スリツト光8によるスリツト光
投影像9に対応した基準スリツト光撮影像38を
含む線画像37を得る。撮影された線画像37
は、第3図に示したアナログ・デジタル変換器1
1によつて濃淡レベルを有するデジタル信号に変
換され(90)、さらに該信号を画像プロセツサ1
5へ力する。画像プロセツサ15へ入力された信
号は、濃淡画像処理部16で、第6図の流れ図に
示すように、平滑化処理あるいはラプラシアン処
理91又は平滑化処理及びラプラシアン処理92
がなされる。次に、該信号は尾根点処理部17に
おいて尾根点処理93がなされ、さらに2値化処
理部19で2値化処理95がなされ、基準スリツ
ト光8による線画像37の中心線を抽出し、画像
31として画像メモリ22へ格納処理96をする
(45)。このとき、尾根点処理部17による尾根点
処理93の代わりに極点処理部18による極点処
理94を適用してもよい。この場合は、基準スリ
ツト光8による線画像37の中心線というより局
所的ピークをもつ点が抽出されることになる。特
に、基準スリツト光撮影像38が1画素として抽
出される場合には、第8図に示す統合処理が不要
となり能率的である。
Next, the normal illumination 12 is turned off, and the reference slit light source 6 of the selected light source set 13 or light source set 14 is turned off.
is turned on to irradiate the surface of the object 4 with the reference slit light 8 (44). Here, the slit light surface S formed by the reference slit light 8 is made to coincide with one slit light surface M k of the multi-slit light 3 in advance. A bright line 7 is drawn across the surface of the object 4 by the reference slit light 8, and a slit light projection image 9 is formed on the surface of the object 4. The bright line 7 containing the slit light projected image 9 is photographed by the camera 1, and a line containing the reference slit light photographed image 38 corresponding to the slit light projected image 9 by the reference slit light 8 is placed on the image plane C of the photographing element of the camera 1. Image 37 is obtained. Photographed line image 37
is the analog-to-digital converter 1 shown in Figure 3.
1 into a digital signal having gray levels (90), and further sends the signal to an image processor 1.
Power to 5. The signal input to the image processor 15 is subjected to smoothing processing or Laplacian processing 91 or smoothing processing and Laplacian processing 92 in the grayscale image processing section 16, as shown in the flowchart of FIG.
will be done. Next, the signal is subjected to ridge point processing 93 in the ridge point processing section 17, further subjected to binarization processing 95 in the binarization processing section 19, and the center line of the line image 37 by the reference slit light 8 is extracted, A storage process 96 is performed in the image memory 22 as an image 31 (45). At this time, instead of the ridge point processing 93 performed by the ridge point processing section 17, the extreme point processing 94 performed by the extreme point processing section 18 may be applied. In this case, points having local peaks are extracted rather than the center line of the line image 37 formed by the reference slit light 8. Particularly, when the reference slit light photographed image 38 is extracted as one pixel, the integration process shown in FIG. 8 is unnecessary, which is efficient.

続いて、画像メモリ21と画像メモリ22とか
ら同時に画像データを読み出し、画像間AND演
算部20で画像30と画像31とのAND演算を
行つて、基準スリツト光撮影像38を抽出する。
基準スリツト光撮影像38は、物体4が線状であ
つても、一般に複数の点が集まつた場合があり得
る。そこで、それらの座標をカメラ直交座標系で
Bj(xc,yc)j=1〜nと表わしバツフア26に
格納しておく(46)。これらの処理の流れは第7
図の100から102に示されている。
Subsequently, the image data is simultaneously read from the image memory 21 and the image memory 22, and the inter-image AND operation section 20 performs an AND operation on the image 30 and the image 31 to extract a reference slit light photographed image 38.
Even if the object 4 is linear, the reference slit light photographed image 38 may generally be a collection of a plurality of points. Therefore, we can calculate those coordinates in the camera orthogonal coordinate system.
It is expressed as B j (x c , y c )j=1 to n and stored in the buffer 26 (46). The flow of these processes is the seventh
Shown in Figures 100-102.

次に、基準スリツト光源6を消して、マルチス
リツト光源5を点灯する(47)。マルチスリツト
光3によるスリツト光撮影像39の抽出も基準ス
リツト光8による基準スリツト光撮影像38の抽
出と同様な処理をする。その処理の流れは、第4
図47から50までに記述されており、基準スリ
ツト光8の場合の44から47までに対応してい
る。すなわち、マルチスリツト光3によつて物体
4表面を横切るようにして複数の輝線7が引か
れ、物体4表面上には複数のスリツト光撮影像9
ができる。複数のスリツト光投影像9を含む複数
の輝線7をカメラ1で撮影し、カメラ1の撮影素
子等の画像面C上にマルチスリツト光3による複
数のスリツト光投影像9に対応した複数のスリツ
ト光撮影像39を含む複数の線画像37を得る。
撮影された線画像37は、基準スリツト光8の場
合と同様に処理されマルチスリツト光3による線
画像37の中心線を抽出し、画像33として画像
メモリ22へ格納処理96を行う(48)。
Next, the reference slit light source 6 is turned off and the multi-slit light source 5 is turned on (47). The extraction of the slit light image 39 using the multi-slit light 3 is performed in the same manner as the extraction of the reference slit light image 38 using the reference slit light 8. The process flow is as follows:
47 to 50, and correspond to 44 to 47 in the case of the reference slit light 8. That is, a plurality of bright lines 7 are drawn across the surface of the object 4 by the multi-slit light 3, and a plurality of slit light images 9 are formed on the surface of the object 4.
I can do it. A plurality of bright lines 7 including a plurality of slit light projection images 9 are photographed by the camera 1, and a plurality of slit light beams corresponding to the plurality of slit light projection images 9 are displayed by the multi-slit light 3 on the image plane C of the photographing element of the camera 1. A plurality of line images 37 including a photographed image 39 are obtained.
The photographed line image 37 is processed in the same manner as in the case of the reference slit light 8, and the center line of the line image 37 by the multi-slit light 3 is extracted, and storage processing 96 is performed in the image memory 22 as the image 33 (48).

続いて、画像メモリ21と画像メモリ22とか
ら同時に画像データを読み出し、画像間AND演
算部20で画像30と画像33とのAND演算を
行つて、複数のスリツト光撮影像39を抽出す
る。各々のスリツト光撮影像39は、物体4が線
状であつても、一般に複数の点が集まつたもので
あり、得られたスリツト光撮影像39の座標をカ
メラ直交座標系でCk(xc,yc),k=1〜kと表わ
しバツフア27に格納する(49)。尚、基準スリ
ツト光8の場合に行われた他の処理についてはマ
ルチスリツト光3の場合においても同様に対応す
る処理を行なう。その後、マルチスリツト光源5
を消す(50)。
Subsequently, image data is simultaneously read from the image memory 21 and the image memory 22, and an AND operation is performed on the image 30 and the image 33 in the inter-image AND operation section 20 to extract a plurality of slit light photographed images 39. Each slit light photographed image 39 is generally a collection of a plurality of points even if the object 4 is linear, and the coordinates of the obtained slit light photographed image 39 are expressed in the camera orthogonal coordinate system C k ( x c , y c ), k=1 to k and stored in the buffer 27 (49). Note that the other processes performed in the case of the reference slit light 8 are similarly performed in the case of the multi-slit light 3. After that, the multi-slit light source 5
Erase (50).

さらに、スリツト光撮影像39間に入れ換えが
ないと仮定し、マルチスリツト光3による複数の
スリツト光撮影像39の中から基準スリツト光8
の基準スリツト光撮影像38に対応するスリツト
光撮影像39を特定する。そのために、対応付け
計算部24によつて、第8図に示すような対応付
け処理を行う。まず、基準スリツト光撮影像38
の位置座標データBj(xc,yc),j=1〜nの平均
B(x,y)をとつて、基準スリツト光撮影像3
8の座標を代表させる(61)。すなわち、 B(xc,yc)=1/noj=1 Bj(xc,yc) である。
Further, assuming that there is no replacement between the slit light images 39, the reference slit light 8 is selected from among the plurality of slit light images 39 formed by the multi-slit light 3.
A slit light photographed image 39 corresponding to the reference slit light photographed image 38 is specified. To this end, the mapping calculation unit 24 performs mapping processing as shown in FIG. First, the reference slit light photographed image 38
The position coordinate data B j (x c , y c ), the average B (x, y) of j = 1 to n is taken, and the reference slit light photographed image 3 is obtained.
Let the coordinates of 8 be representative (61). That is, B (x c , y c )=1/n oj=1 B j (x c , y c ).

次に、この基準スリツト光撮影像38と、マル
チスリツト光3による各スリツト光撮影像39と
の距離と方向とを求める(62)。すなわち、画像
面C上の距離dkと角度ηkとは、それぞれ dk=|Ck(xc,yc)−B(xc,yc)| ηk=arc tanCk(yc)−B(yc)/Ck(xc)−B(xc) k=1〜k である。続いて、Ck(xc,yc)をdkの小さい方か
ら並べ換え、それをDk(xc,yc)とする(63)。
Dk(xc,yc)において、Dkがある距離rよりも小
さいものをクラスOとする(65)。次にηkの符号
が正のものに対して特願昭58−235898号のクラス
タ方式によつてクラス分けをし、B(xc,yc)に
近いクラスから1,2,3…とする(68)。同様
に、ηkの符号が負のものに対しても同様な処理を
して、B(xc,yc)に近いクラスから−1,−2,
−3…とする。尾根点処理93を行つた場合に
は、スリツト光撮影像39が数画素の大きさで抽
出されることがあるので同一クラス内の平均をと
り代表させる(69)。それらをEp(xc,yc),p=
1〜lとする。
Next, the distance and direction between this reference slit light photographed image 38 and each slit light photographed image 39 by the multi-slit light 3 are determined (62). That is, the distance d k and the angle η k on the image plane C are d k = |C k (x c , y c )−B (x c , y c ) | η k = arc tanC k (y c )−B(y c )/C k (x c )−B(x c ) k=1 to k. Next, rearrange C k (x c , y c ) from the smallest d k and set it as D k (x c , y c ) (63).
In D k (x c , y c ), those whose D k is smaller than a certain distance r are classified as class O (65). Next, those for which the sign of η k is positive are classified into classes according to the cluster method described in Japanese Patent Application No. 58-235898, and the classes closest to B(x c , y c ) are classified into 1, 2, 3, etc. Do (68). Similarly, the same process is applied to the negative sign of η k , and from the class close to B(x c , y c ) -1, -2,
-3... When the ridge point processing 93 is performed, the slit light photographed image 39 may be extracted with a size of several pixels, so the average within the same class is taken to represent it (69). Let them be E p (x c , y c ), p=
1 to 1.

極点処理94を行つて、各スリツト光撮影像3
9が1画素で抽出される場合には平均値を求める
必要はない。Ep(xc,yc)をクラスの小さい方か
ら並べ換える(70)。このとき、p=rがクラス
Oであつたとすると、Er(xc,yc)が基準スリツ
ト光撮影像38に相当することになり、この処理
によつてスリツト光撮影像39の中から基準スリ
ツト光撮影像38に対応するものが特定されたこ
とになる。したがつて、基準スリツト光8による
スリツト光面Sの照射角θsはk番目のマルチスリ
ツト光3によるスリツト光面Mkと一致している
ので、Er(xc,yc)はθkと対応付けられることに
なる。すると、その他のスリツト光撮影像39に
ついても、入れ換えがないとすると、Er+1(xc
yc)がθk+1,Er+2(xc,yc)がθk+2,…El(xc,yc
がθk+l-r、同様にEr-1(xc,yc)がθk-1,Er-2(xc
yc)がθk-2,…E(xc,yc)がθk-r+1にそれぞれ対
応付けられる(71)。尚、以上では簡単のため、
カメラ直交座標系で、画像面C上の座標を表現し
たが、一般には、画像面C上に画像面座標系を設
定し、その座標で表現してもよい。その場合に
は、画像面座標系をカメラ直交座標系に変更する
処理72が必要となる。こうして、特定されたス
リツト光撮影像39と他のスリツト光撮影像39
との相対的な位置関係に基づいて各スリツト光撮
影像39とマルチスリツト光3のスリツト光面
Mjとを対応付けることになる(51)。こうして求
めた各画像面C上のスリツト光撮影像39の座標
と角度とを発明の基本原理に述べた(11)式と(12)式の
(Xc Is,yc Is,θs)に代入すると共に、予めカメラ
座標系とマルチスリツト及び基準スリツト座標系
との関係をキヤリブレーシヨン等で求めた上で
((1)式のhij(i,j=1〜4)を求める)、スリツ
ト光撮影像9の座標と座標間の距離とを求めるこ
とができる(73,75)ので、物体4の三次元計測
がされることになる。
After performing polar point processing 94, each slit light photographed image 3 is
If 9 is extracted by one pixel, there is no need to calculate the average value. Sort E p (x c , y c ) from the smallest class (70). At this time, if p=r is class O, Er(x c , y c ) corresponds to the reference slit light photographed image 38, and by this process, the standard slit light photographed image 39 is selected from the slit light photographed image 39. This means that the image corresponding to the slit light photographed image 38 has been identified. Therefore, since the irradiation angle θ s of the slit light surface S by the reference slit light 8 matches the slit light surface M k by the k-th multi-slit light 3, E r (x c , y c ) is θ k It will be associated with Then, assuming that there is no replacement for the other slit light photographed images 39, E r+1 (x c ,
y c ) is θ k+1 , E r+2 (x c , y c ) is θ k+2 , ... El (x c , y c )
is θ k+lr , and similarly E r-1 (x c , y c ) is θ k-1 , E r-2 (x c ,
y c ) is associated with θ k-2 , and...E(x c , y c ) is associated with θ k-r+1 (71). In addition, for the sake of simplicity,
Although the coordinates on the image plane C are expressed using the camera orthogonal coordinate system, generally, an image plane coordinate system may be set on the image plane C and the coordinates may be expressed using the coordinates. In that case, a process 72 is required to change the image plane coordinate system to the camera orthogonal coordinate system. In this way, the identified slit light photographed image 39 and other slit light photographed images 39
The slit light surface of each slit light photographed image 39 and the multi-slit light 3 is
This results in a correspondence between M j and M j (51). The coordinates and angles of the slit light photographed image 39 on each image plane C obtained in this way are expressed as (X c Is , y c Is , θ s ) in equations (11) and (12) described in the basic principle of the invention. At the same time, the relationship between the camera coordinate system and the multi-slit and reference slit coordinate systems is determined in advance by calibration, etc. (calculating h ij (i, j = 1 to 4) in equation (1)), and the slit Since the coordinates of the optically photographed image 9 and the distance between the coordinates can be determined (73, 75), the object 4 can be measured in three dimensions.

尚、本実施例では、物体4を線状として考えた
が、物体4は線状の場合に限らず、一般の立体の
場合にも適用することができる。この際、物体上
のスリツト光撮影像が線状のものとして処理され
る(実施例では点状のものとして処理された)。
In this embodiment, the object 4 is assumed to be linear, but the object 4 is not limited to a linear object, but can also be applied to a general three-dimensional object. At this time, the slit light photographed image on the object is processed as a linear image (in the embodiment, it was processed as a dot-shaped image).

(iii) 他の実施例 上記実施例ではマルチスリツト光面とそのスリ
ツト光撮影像との対応付けを、マルチスリツト光
源とは別の基準スリツト光源を用いることによつ
て行つたが、マルチスリツト光源の前面にシヤツ
タを設け、シヤツタによつて基準スリツト光のみ
の照射とマルチスリツト光全体の照射とを時分割
的に実現してもよい。また、マルチスリツト光中
で基準スリツト光に対応するものを他の異なる波
長をもつ光としてもよい。例えば、基準スリツト
光に対応するものをブルー、他をレツドとして照
射し、カラーのTVカメラを使つて、まずブルー
のみを処理して基準スリツト光撮影像を抽出し、
次にレツドとブルーを一緒に処理してマルチスリ
ツト光撮影像を抽出してもよい。
(iii) Other embodiments In the above embodiments, the correspondence between the multi-slit light surface and the slit-light photographed image was achieved by using a reference slit light source different from the multi-slit light source. A shutter may be provided, and the shutter may time-divisionally realize the irradiation of only the reference slit light and the irradiation of the entire multi-slit light. Furthermore, the light corresponding to the reference slit light among the multi-slit lights may be light having another different wavelength. For example, irradiate the light corresponding to the reference slit light as blue and the other light as red, and use a color TV camera to process only the blue light to extract the reference slit light image.
Next, a multi-slit light photographed image may be extracted by processing red and blue together.

〔発明の効果〕〔Effect of the invention〕

以上説明してきたように、本発明によれば、マ
ルチスリツト光と基準スリツト光とを物体に照射
し、その際、得られる画像及び各スリツト光間の
関係に基づいて当該物体の三次元計測を行うこと
ができる。従つて、本発明に係る方法を実施する
装置ではカメラ1台で物体の計測が可能となり、
その処理も簡単なものとなる。また、本発明で
は、物体上の投影像のみに着目しているため、背
景とのコントラスト、背景の凹凸等に全く依存せ
ずに計測することができるため、配線の自動化等
に広く適用することができるものである。
As explained above, according to the present invention, an object is irradiated with multi-slit light and reference slit light, and three-dimensional measurement of the object is performed based on the obtained image and the relationship between each slit light. be able to. Therefore, with a device that implements the method according to the present invention, it is possible to measure an object with a single camera,
The processing is also simple. In addition, since the present invention focuses only on the projected image on the object, it can be measured without depending on the contrast with the background, the unevenness of the background, etc., so it can be widely applied to wiring automation etc. It is something that can be done.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理説明図、第2図は本発明
の基本原理図、第3図は本発明に係る実施例の全
体構成図、第4図は本発明に係る実施例の処理の
流れ図、第5図は物体輪郭抽出処理の流れ図、第
6図は基準スリツト光またはマルチスリツト光に
よる線画像抽出処理の流れ図、第7図は基準スリ
ツト画像またはスリツト光撮影像抽出処理の流れ
図、第8図は対応付け計算処理の流れ図、第9図
は従来の物体の三次元計測方法に係る空間配置
図、第10図はカメラ1,2の撮影した画像を示
す図である。 1,2…カメラ、3…マルチスリツト光、4…
物体、5…マルチスリツト光源、6…基準スリツ
ト光源、8…基準スリツト光、9…スリツト光投
影像、38…基準スリツト光撮影画、39…スリ
ツト光撮影像。
Fig. 1 is an explanatory diagram of the principle of the present invention, Fig. 2 is a diagram of the basic principle of the present invention, Fig. 3 is an overall configuration diagram of an embodiment of the present invention, and Fig. 4 is a diagram of the processing of the embodiment of the present invention. Flow chart, FIG. 5 is a flow chart of object contour extraction processing, FIG. 6 is a flow chart of line image extraction processing using reference slit light or multi-slit light, FIG. 7 is a flow chart of reference slit image or slit light photographed image extraction processing, and FIG. 9 is a flowchart of the correspondence calculation process, FIG. 9 is a spatial layout diagram related to a conventional three-dimensional measurement method of an object, and FIG. 10 is a diagram showing images taken by cameras 1 and 2. 1, 2...Camera, 3...Multi-slit light, 4...
Object, 5...Multi-slit light source, 6...Reference slit light source, 8...Reference slit light, 9...Slit light projected image, 38...Reference slit light photographed image, 39...Slit light photographed image.

Claims (1)

【特許請求の範囲】 1 所定の座標系において配置が予め設定された
複数のスリツト光面を有するマルチスリツト光を
物体表面に照射する一方、 上記マルチスリツト光のひとつのスリツト光面
と一致するスリツト光面を有した所定の基準スリ
ツト光を前記マルチスリツト光の光源とは別個に
設けられた光源から同物体表面に照射し、 上記物体表面上のマルチスリツト光によるスリ
ツト光投影像に対応した複数のスリツト光撮影像
と同物体表面上の基準スリツト光によるスリツト
光投影像に対応した基準スリツト光撮影像とを所
定画像面上にて得る一方、 上記複数のスリツト光撮影像から基準スリツト
光撮影像に対応するスリツト光撮影像を特定し、 その複数のスリツト光撮影像間に入れ換えがな
いとして、この特定されたスリツト光撮影像と他
のスリツト光撮影像との相対的な位置関係に基づ
いて各スリツト光撮影像とマルチスリツト光の各
スリツト光面とを対応付けると共に、 当該各スリツト光撮影像の相対的な位置関係と
各スリツト光撮影像に対応付けられたスリツト光
面とに基づいて当該物体の上記座標系における空
間的配置を計測するようにした物体の三次元計測
方法。
[Scope of Claims] 1. While irradiating an object surface with multi-slit light having a plurality of slit light surfaces whose arrangement is set in advance in a predetermined coordinate system, a slit light surface that coincides with one slit light surface of the multi-slit light is irradiated onto an object surface. A predetermined reference slit light beam having a predetermined standard slit light beam is irradiated onto the surface of the object from a light source provided separately from the light source of the multi-slit light beam, and a plurality of slit light beams corresponding to a slit light projection image of the multi-slit light beams on the object surface are photographed. While obtaining on a predetermined image plane a reference slit light photographed image corresponding to the slit light projected image by the reference slit light on the surface of the same object, a reference slit light photographed image corresponding to the reference slit light photographed image from the plurality of slit light photographed images is obtained on a predetermined image plane. A slit light photographed image is identified, and each slit light photographed image is determined based on the relative positional relationship between this specified slit light photographed image and other slit light photographed images, assuming that there is no interchange between the plurality of slit light photographed images. In addition to associating the captured image with each slit light surface of the multi-slit light, the coordinates of the object are determined based on the relative positional relationship of each of the slit light captured images and the slit light surface associated with each slit light captured image. A three-dimensional measurement method for objects that measures the spatial arrangement in a system.
JP10767585A 1985-05-20 1985-05-20 Method for three-dimensional measurement of matter Granted JPS61274207A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP10767585A JPS61274207A (en) 1985-05-20 1985-05-20 Method for three-dimensional measurement of matter
US06/864,846 US4846576A (en) 1985-05-20 1986-05-20 Method for measuring a three-dimensional position of an object
DE8686401056T DE3683423D1 (en) 1985-05-20 1986-05-20 METHOD FOR MEASURING A THREE-DIMENSIONAL LOCATION OF AN OBJECT.
EP86401056A EP0212992B1 (en) 1985-05-20 1986-05-20 Method for measuring a three-dimensional position of an object
EP91100068A EP0424359B1 (en) 1985-05-20 1986-05-20 Device for emitting multislit lights
DE3650479T DE3650479T2 (en) 1985-05-20 1986-05-20 Device for emitting light surfaces

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10767585A JPS61274207A (en) 1985-05-20 1985-05-20 Method for three-dimensional measurement of matter

Publications (2)

Publication Number Publication Date
JPS61274207A JPS61274207A (en) 1986-12-04
JPH0367566B2 true JPH0367566B2 (en) 1991-10-23

Family

ID=14465136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10767585A Granted JPS61274207A (en) 1985-05-20 1985-05-20 Method for three-dimensional measurement of matter

Country Status (1)

Country Link
JP (1) JPS61274207A (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH076776B2 (en) * 1990-09-20 1995-01-30 工業技術院長 Hot coil winding shape detector
JP2582215B2 (en) * 1993-03-26 1997-02-19 鹿島建設株式会社 3D position and orientation measurement method
JPH08136217A (en) * 1994-11-04 1996-05-31 Daihatsu Motor Co Ltd Position detector
JP5431078B2 (en) * 2009-09-03 2014-03-05 株式会社東芝 Laminated paper sheet state determination apparatus and paper sheet processing apparatus
WO2012005226A1 (en) * 2010-07-05 2012-01-12 株式会社メガトレード Thickness detection device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5256556A (en) * 1975-11-04 1977-05-10 Nippon Telegr & Teleph Corp <Ntt> Object measuring system by coded grid projection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5256556A (en) * 1975-11-04 1977-05-10 Nippon Telegr & Teleph Corp <Ntt> Object measuring system by coded grid projection

Also Published As

Publication number Publication date
JPS61274207A (en) 1986-12-04

Similar Documents

Publication Publication Date Title
JP2874710B2 (en) 3D position measuring device
Wahl A coded light approach for depth map acquisition
US20090268214A1 (en) Photogrammetric system and techniques for 3d acquisition
JP2003130621A (en) Method and system for measuring three-dimensional shape
CA2253085A1 (en) Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement
Okarma et al. The 3D scanning system for the machine vision based positioning of workpieces on the CNC machine tools
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
Al-Temeemy et al. Laser-based structured light technique for 3D reconstruction using extreme laser stripes extraction method with global information extraction
CN111833392A (en) Multi-angle scanning method, system and device for mark points
JPH0367566B2 (en)
JPH071164B2 (en) 3D shape recognition device
US20230070281A1 (en) Methods and systems of generating camera models for camera calibration
JP2970835B2 (en) 3D coordinate measuring device
JP2697917B2 (en) 3D coordinate measuring device
JPH045926B2 (en)
JP2809348B2 (en) 3D position measuring device
TW201508413A (en) Three-dimensional scanner
JPH0432567Y2 (en)
Lu et al. Calibration of a 3D vision system using pattern projection
JPH076769B2 (en) Object measuring device
JPS63217214A (en) Three-dimensional position measuring instrument
JPH0886616A (en) Method and apparatus for measuring three-dimensional image
JP2005292027A (en) Processor and method for measuring/restoring three-dimensional shape
JPH06323820A (en) Three-dimensional profile measuring method
EP4372310A1 (en) 3d calibration method and apparatus for multi-view phase shift profilometry