JPH024030B2 - - Google Patents

Info

Publication number
JPH024030B2
JPH024030B2 JP58235350A JP23535083A JPH024030B2 JP H024030 B2 JPH024030 B2 JP H024030B2 JP 58235350 A JP58235350 A JP 58235350A JP 23535083 A JP23535083 A JP 23535083A JP H024030 B2 JPH024030 B2 JP H024030B2
Authority
JP
Japan
Prior art keywords
point
image
grid
camera
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP58235350A
Other languages
Japanese (ja)
Other versions
JPS60126775A (en
Inventor
Norio Aoki
Saburo Tsuji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP58235350A priority Critical patent/JPS60126775A/en
Publication of JPS60126775A publication Critical patent/JPS60126775A/en
Publication of JPH024030B2 publication Critical patent/JPH024030B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、組立て、溶接ロボツトなどの3次元
物体を扱う産業機器において、対象物体の位置、
形状等を認識する物体検出方法に関するものであ
る。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention is applicable to industrial equipment that handles three-dimensional objects, such as assembly and welding robots.
This invention relates to an object detection method that recognizes shapes and the like.

従来例の構成とその問題点 近年、産業用ロボツトの普及はめざましく、よ
り高度な機能が要求されるようになつている。工
業用TVカメラなどを用いた視覚機能も、その1
つであり、視覚フイード・バツクによるロボツト
の知能化が期待されている。
Conventional configurations and their problems In recent years, industrial robots have become widespread, and more advanced functions are required. Visual functions using industrial TV cameras are also one of them.
It is expected that robots will become more intelligent through visual feedback.

しかし、現在までのところ、実用化レベルに至
つているのは、主に2次元情報を利用したものが
ほとんどで、産業応用の対象として最も重要な3
次元物体の認識は盛んに研究されているが実用例
は少ない。
However, to date, most of the methods that have reached the practical level mainly utilize two-dimensional information, and three-dimensional information is the most important for industrial applications.
Recognition of dimensional objects has been actively researched, but there are few practical examples.

3次元物体の位置、形状等を認識するための一
般的な従来の方法は、2台のTVカメラによつて
対象物を異なる角度から撮像し、両眼立体視する
ことにより、3次元的な位置、形状を求めるもの
であるが、次のような問題点がある。
The general conventional method for recognizing the position, shape, etc. of a three-dimensional object is to image the object from different angles using two TV cameras and view it stereoscopically with both eyes. Although this method determines the position and shape, it has the following problems.

(1) 階調を有する入力画像の中から、エツジ、コ
ーナ点などの特徴を抽出するのに膨大な計算量
が必要である。
(1) Extracting features such as edges and corner points from an input image with gradation requires a huge amount of calculation.

(2) 左、右両画面間で特徴となる線、点間の対応
関係を求める必要があり、これが困難である。
(2) It is necessary to find correspondence between characteristic lines and points between both the left and right screens, which is difficult.

問題(2)は、両眼立体視する場合に特有の問題点
であり、あらかじめ対象となる物体の形状情報な
どがなければ一意的には求められない。
Problem (2) is a problem specific to binocular stereoscopic viewing, and cannot be uniquely determined without prior information on the shape of the target object.

そこで従来は上記(1)、(2)の問題点に対する解決
策として、スリツト光を利用する方法が研究され
てきた。
Therefore, as a solution to the problems (1) and (2) above, methods using slit light have been studied.

第1図には、従来のスリツト光を用いた距離測
定法の原理図を示す。同図の例では、スリツト光
源1から照射されるスリツト光束2を回転ミラー
4によつて偏向させ、対象となる3次元物体3に
照射し、その反射光をTVカメラ5で撮像する。
スリツト光束面の角度情報と、カメラの位置情報
(角度、距離等)から、物体上のスリツト光の3
次元位置を求めることができる。3次元物体3の
全体の距離情報を得るためには、回転ミラー4に
よつてスリツト光を順次走査してゆき、その都
度、距離を測定する。
FIG. 1 shows the principle of a conventional distance measuring method using slit light. In the example shown in the figure, a slit light beam 2 emitted from a slit light source 1 is deflected by a rotating mirror 4 and irradiated onto a three-dimensional object 3, and the reflected light is imaged by a TV camera 5.
From the angle information of the slit beam surface and the camera position information (angle, distance, etc.), the slit beam on the object is
Dimensional position can be found. In order to obtain distance information about the entire three-dimensional object 3, the rotating mirror 4 scans the slit light sequentially and measures the distance each time.

同図に示す方法では、入力画像がスリツト・パ
ターンであるため、容易に2値化画像を得ること
ができ、スリツト・パターンの屈折点などの特徴
点の抽出も容易である。また、ミラーの回転角度
と、カメラの設定角度から一意的に3次元の距離
情報を求めることができ、前述の問題点(1)、(2)と
も解決できる方法である。
In the method shown in the figure, since the input image is a slit pattern, a binarized image can be easily obtained, and feature points such as refraction points of the slit pattern can be easily extracted. Furthermore, three-dimensional distance information can be uniquely obtained from the rotation angle of the mirror and the setting angle of the camera, and this method can solve both of the problems (1) and (2) mentioned above.

しかし、この従来方法では、画像入力に時間が
かかるという問題点が残つている。すなわち、1
回の画像入力によつて得られるのは1本のスリツ
ト・パターンだけであるため、3次元物体の全体
にわたつて距離情報を得るためには、ミラー4を
回転させてスリツト・パターンを順次走査しなが
ら走査の各ステツプごとに画像入力を行なわねば
ならず、実用的な見地からは、その入力時間が大
きな問題となつている。一方複数本のスリツト・
パターンを3次元物体の全体に照射するようにす
れば、画像入力の回数は1回だけでよくなるが、
対応づけの問題が複雑になる。現在公知の方法で
はないが、本出願人は、複数本のスリツト・パタ
ーンを照射した物体を、2台のカメラによつて撮
像し、スリツト光束面の距離・角度情報から立体
両眼視した2つの入力画像間で特徴点の対応関係
を求め、物体の3次元位置を求める方法を提案し
ている。(特願昭58−158358号明細書及び特願昭
58−158359号明細書) 第2図は、特願昭58−158359号明細書に記載さ
れた対応づけの原理を説明する図である。同図の
例では、第1のカメラの撮像面6上の撮像パター
ン中の任意の特徴点Piと、カメラの焦点F1とを結
ぶ仮想的直線8と、あらかじめ空間的位置を求め
てある3枚のスリツト光束面2−1〜2−3との
交点Pi1〜Pi3を求める。次に、Pi1〜Pi3の第2のカ
メラの撮像面7上への投影点Pi1′〜Pi3′を求め、
撮像面7上において、投影点Pi1′〜Pi3′の各位置
における入力画像パターンを調べることによつ
て、第1のカメラの撮像パターン中の特徴点Pi
対応する第2のカメラの撮像パターン中の特徴点
Pi2′を求める。順次、同様にして両画面中の対応
点のペアを求めることによつて、対象である3次
元物体の位置、形状等を検出するものである。こ
のように、この方法では、スリツト光束面の情報
を有効に利用して対応点の候補を限定してゆくこ
とによつて対応づけの問題を解決しようとしてい
る。しかし、このような方法にも、偽の対応点が
現われるという問題と、それに対する解決策に問
題があつた。すなわち対象物体の形状、スリツト
光源および2台のカメラの設定角度などによつて
は、第2のカメラの撮像面上への投影点群Pi1′〜
Pio′の中に2つ以上の候補点が現われ、対応関係
が一意的に決定できない場合が生ずる。照射する
スリツト・パターンの数が多くなるほど、当然偽
の対応点が出現する可能性が大きくなり、大きな
問題となる。たとえば、入力画像中の同一直線上
の点列など、いくつかの特徴点を組合せて検証す
ることにより偽の対応点の一部はリジエクトでき
るが、そのためには入力画像の解析を行なわねば
ならず、計算量が著しく増加してしまう。
However, this conventional method still has the problem that image input takes time. That is, 1
Since only one slit pattern can be obtained by inputting images twice, in order to obtain distance information over the entire three-dimensional object, the mirror 4 must be rotated to sequentially scan the slit pattern. However, image input must be performed for each step of scanning, and from a practical standpoint, the input time is a major problem. On the other hand, multiple slits
If you irradiate the entire 3D object with the pattern, you only need to input the image once, but
The problem of mapping becomes complicated. Although this is not a currently known method, the applicant images an object irradiated with multiple slit patterns using two cameras, and performs stereoscopic binocular viewing from distance and angle information of the slit light beam plane. We propose a method to determine the three-dimensional position of an object by determining the correspondence of feature points between two input images. (Specification of Japanese Patent Application No. 158358 and Patent Application No. 1983)
(Specification No. 58-158359) FIG. 2 is a diagram illustrating the principle of association described in the specification of Japanese Patent Application No. 158359/1982. In the example shown in the figure, a virtual straight line 8 connecting an arbitrary feature point P i in the imaging pattern on the imaging surface 6 of the first camera and the focal point F 1 of the camera and its spatial position have been determined in advance. The intersection points P i1 to P i3 with the three slit light flux surfaces 2-1 to 2-3 are determined. Next, find the projection points P i1 ′ to P i3 ′ of P i1 to P i3 onto the imaging surface 7 of the second camera, and
By examining the input image pattern at each position of the projection points P i1 ' to P i3 ' on the imaging surface 7, the second camera's corresponding feature point P i in the imaging pattern of the first camera is determined. Feature points in the imaging pattern
Find P i2 ′. By sequentially finding pairs of corresponding points in both screens in the same manner, the position, shape, etc. of the three-dimensional object is detected. In this way, this method attempts to solve the problem of correspondence by effectively utilizing the information on the slit beam plane to limit the candidates for corresponding points. However, even with this method, there is a problem in that false corresponding points appear, and there is a problem in the solution to this problem. That is, depending on the shape of the target object, the slit light source, the setting angles of the two cameras, etc., the projected point group P i1 '~ on the imaging plane of the second camera
There may be cases where two or more candidate points appear in P io ' and the correspondence relationship cannot be uniquely determined. Naturally, the greater the number of slit patterns to be irradiated, the greater the possibility that false corresponding points will appear, which becomes a major problem. For example, some false corresponding points can be rejected by combining and verifying several feature points, such as a sequence of points on the same straight line in the input image, but in order to do this, the input image must be analyzed. , the amount of calculation increases significantly.

発明の目的 本発明は、以上に述べたような3次元物体の位
置、形状を求めるための方法において問題であつ
た、画像入力時間の問題と、両眼立体視した場合
の対応づけの問題を解決し、より実用的な3次元
物体の検出方法を提供することを目的とする。
Purpose of the Invention The present invention solves the problem of image input time and the problem of correspondence when viewing stereoscopically with binoculars, which are problems in the method for determining the position and shape of a three-dimensional object as described above. The purpose is to solve this problem and provide a more practical method for detecting three-dimensional objects.

発明の構成 本発明では、正方格子状のグリツド・パターン
像を生成するグリツド光源から、被検出物体にグ
リツド・パターンを照射し、物体表面上および床
面上などにできたグリツド・パターン像を、互い
に異なる2つの方向から、第1および第2のカメ
ラによつて撮像する。次に、グリツド光源の光源
点Sと、照射されるグリツド・パターン中の任意
の格子点Gと、第1のカメラのレンズ系の焦点
F1の3点によつて決定される平面と、第1のカ
メラの撮像面との交線である第1の投影線L1
求める。同様に、光源点Sと、格子点Gと、第2
のカメラのレンズ系の焦点F2の3点によつて決
定される平面と、第2のカメラの撮像面との交線
である第2の投影線L2を求める。次に、第1の
カメラの撮像面上において、第1の投影線L1
の入力画像パターンを調べ、グリツド・パターン
の格子点像Pを検出する。次に、検出された第1
のカメラの撮像面上の点Pと、第1および第2の
カメラのレンズ系の焦点F1,F2の3点によつて
決定される平面と、第2のカメラの撮像面との交
線である第3の投影線L3を求める。次に、第2
のカメラの撮像面上において、2つの投影線L2
L3の交点近傍の入力画像パターンを調べ、そこ
にグリツド・パターンの格子点像P′が存在すれ
ば、2つの点PとP′を、第1および第2のカメラ
の撮像パターン上の対応点として登録する。第1
の投影線上に、2つ以上の格子点像が存在する場
合には、その各々について、第3の投影線を求め
第2のカメラの撮像面上で、対応候補点の有無を
調べ、対応点があれば結果を登録する。
Structure of the Invention In the present invention, a grid light source that generates a grid pattern image in the form of a square lattice irradiates a grid pattern onto an object to be detected, and the grid pattern image formed on the object surface, floor surface, etc. Images are captured by first and second cameras from two different directions. Next, the light source point S of the grid light source, an arbitrary grid point G in the grid pattern to be irradiated, and the focal point of the lens system of the first camera.
A first projection line L 1 is obtained, which is an intersection line between the plane determined by the three points F 1 and the imaging plane of the first camera. Similarly, the light source point S, the lattice point G, and the second
A second projection line L 2 is obtained, which is the intersection line between the plane determined by the three focal points F 2 of the lens system of the camera and the imaging plane of the second camera. Next, on the imaging surface of the first camera, the input image pattern on the first projection line L1 is examined to detect the grid point image P of the grid pattern. Next, the first detected
The intersection of the plane determined by the point P on the imaging plane of the camera, the focal points F 1 and F 2 of the lens systems of the first and second cameras, and the imaging plane of the second camera. A third projection line L3 , which is a line, is determined. Next, the second
On the imaging plane of the camera, two projection lines L 2 ,
The input image pattern near the intersection of L 3 is examined, and if the grid point image P' of the grid pattern exists there, the two points P and P' are mapped to the correspondence on the imaging patterns of the first and second cameras. Register as a point. 1st
If two or more lattice point images exist on the projection line of If so, register the results.

照射されるグリツド・パターン中のすべての格
子点Gについて、順次上記の操作を行ない、各格
子点に相当する、撮像面上の格子点像の対応点の
組合せを求める。
The above operation is sequentially performed for all the grid points G in the grid pattern to be irradiated, and a combination of corresponding points of grid point images on the imaging plane corresponding to each grid point is obtained.

次に、実施例の説明で述べるような方法によつ
て格子点像の対応点ペアの検証を行ない、偽の対
応関係となる組合せを排除する。
Next, the corresponding point pairs of the lattice point images are verified by the method described in the description of the embodiment, and combinations that result in false correspondences are eliminated.

上記の操作で求めた、すべての対応点の組合せ
について、グリツド光源および2台のカメラの距
離、角度情報から、3次元物体の表面上にできた
グリツド・パターン像上の各点の3次元的な位置
(座標)を検出する。
For all the combinations of corresponding points obtained in the above operation, from the distance and angle information of the grid light source and two cameras, the 3D image of each point on the grid pattern image created on the surface of the 3D object is calculated. Detect the position (coordinates).

本発明は、以上に述べたような方法によつて3
次元物体の表面上の点の3次元的位置を検出する
物体検出方法である。
The present invention provides three methods using the method described above.
This is an object detection method that detects the three-dimensional position of a point on the surface of a dimensional object.

実施例の説明 まず本発明の原理について、図面を用いながら
詳細に説明する。
DESCRIPTION OF EMBODIMENTS First, the principle of the present invention will be explained in detail with reference to the drawings.

第3図は、カメラ光学系と、撮像面、入力画像
の関係を示す図である。11は、カメラのレンズ
系を表わしており、点F12は、カメラ・レンズ
系の光学的中心(以下、焦点と呼ぶ)である。3
次元空間中に置かれた3次元物体3をカメラで撮
像すると、カメラの撮像面13上には、同図に示
すような結像が得られる。1は、焦点F12と、
撮像面13との距離である。通常撮像面13は、
レンズ系の焦点面近傍に位置する。撮像面上の結
像を観測するためには、結像パターンを別のイメ
ージ面14に出力する必要がある。イメージ面1
4としては、CRT画面、写真など任意のものが
考えられるが、通常計算機を用いて画像データを
処理するためには、入力画像を、画像メモリに記
録格納することが一般的であるので、ここではイ
メージ面14として画像メモリを考える。撮像面
13上の結像パターンと、画像メモリ14上の入
力画像とは、撮像面上のX−Y平面と、イメージ
面上のX′−Y′平面との平行移動量および拡大比
率の関係から、変換マトリクスT0(T0は3×3の
マトリクス)によつて、次のような線型座標変換
が可能である。
FIG. 3 is a diagram showing the relationship between the camera optical system, the imaging plane, and the input image. 11 represents the lens system of the camera, and point F12 is the optical center (hereinafter referred to as the focal point) of the camera lens system. 3
When a three-dimensional object 3 placed in a dimensional space is imaged by a camera, an image as shown in the figure is obtained on the imaging surface 13 of the camera. 1 is the focal point F12,
This is the distance from the imaging surface 13. The normal imaging surface 13 is
Located near the focal plane of the lens system. In order to observe the image formed on the image plane, it is necessary to output the image pattern to another image plane 14. Image side 1
4 can be anything such as a CRT screen or a photograph, but in order to process image data using a computer, it is common to record and store the input image in an image memory, so we will not use it here. Now, consider an image memory as the image plane 14. The imaging pattern on the imaging surface 13 and the input image on the image memory 14 are based on the relationship between the amount of parallel movement and the enlargement ratio between the X-Y plane on the imaging surface and the X'-Y' plane on the image surface. Therefore, the following linear coordinate transformation is possible using the transformation matrix T 0 (T 0 is a 3×3 matrix).

(X,Y,1)=(X′,Y′,1)・T0 T0は、カメラおよび、画像メモリの設計仕様、
あるいは入力画像データの解析などによつて、あ
らかじめ求めておくことができる。
(X, Y, 1) = (X', Y', 1)・T 0 T 0 is the design specification of the camera and image memory,
Alternatively, it can be obtained in advance by analyzing input image data.

15は、撮像面13を焦点F12を対称点とし
て点対称な位置に移した仮想的な撮像面である。
一方16は、撮像面13上のX−Y平面の原点
と、イメージ面上の対応する点(平行移動がなけ
れば原点)とが、ともにカメラの光軸上にあると
考えた時に、平行移動量および拡大比率の関係か
ら3次元空間中に求められるイメージ面14を、
同様に焦点F12を対称点として点対称な位置に
移した仮想的なイメージ面である。f2は、この仮
想的なイメージ面と焦点F12との距離である。
f2はイメージ面と、撮像面との拡大比率Pから、
f2=f1×Pとして求められる。撮像面13と1
5、イメージ面14と16とは、焦点F12を対
称点としてそれぞれ点対称な位置にあるため、3
次元物体3上の点と、焦点F12とを結ぶ視線
と、撮像面あるいは、イメージ面との交点の座標
を考える上では等価である。ただし、Z軸方向の
座標および扱いは異なる。従つて、説明の簡単化
のため以下の説明では、撮像面あるいはイメージ
面として15あるいは16を想定して説明する。
Reference numeral 15 denotes a virtual imaging surface obtained by moving the imaging surface 13 to a point-symmetrical position with respect to the focal point F12.
On the other hand, when considering that the origin of the X-Y plane on the imaging surface 13 and the corresponding point on the image plane (the origin if there is no parallel movement) are both on the optical axis of the camera, The image plane 14 found in the three-dimensional space from the relationship between the amount and the enlargement ratio is
Similarly, it is a virtual image plane moved to a point-symmetrical position with the focal point F12 as a symmetrical point. f 2 is the distance between this virtual image plane and the focal point F12.
f 2 is from the enlargement ratio P between the image plane and the imaging plane,
It is obtained as f 2 =f 1 ×P. Imaging planes 13 and 1
5. Since the image planes 14 and 16 are at symmetrical positions with respect to the focal point F12, 3.
This is equivalent when considering the coordinates of the intersection between the line of sight connecting a point on the dimensional object 3 and the focal point F12 and the imaging plane or image plane. However, the coordinates and handling in the Z-axis direction are different. Therefore, in order to simplify the explanation, the following explanation will be made assuming 15 or 16 as the imaging plane or image plane.

第4図は、本発明の画像入力部の構成を示す概
略図である。グリツド光源21からグリツド・パ
ターンを3次元物体3に照射する。これによつて
3次元物体3の表面上、および床面上には、グリ
ツド・パターン像22が形成される。これを、第
1のTVカメラ23および、第2のTVカメラ2
4によつて撮像する。
FIG. 4 is a schematic diagram showing the configuration of the image input section of the present invention. A grid pattern is irradiated onto the three-dimensional object 3 from a grid light source 21. As a result, a grid pattern image 22 is formed on the surface of the three-dimensional object 3 and on the floor. This is applied to the first TV camera 23 and the second TV camera 2.
4.

第5図は、本発明の構成と原理を説明するため
の模式図である。同図において、Oは絶対空間中
の座標原点であり、3次元物体3の置かれる床面
上などに設定する。F1,F2は、それぞれ第1、
第2のTVカメラ23,24のレンズ系の光学的
中心(焦点)である。25,26は、それぞれ第
1、第2のTVカメラの撮像面である。ただし、
ここで考える撮像面は第3図において説明したよ
うに、実際の撮像面を、焦点を対称点として点対
称な位置に移動した平面である。l1,l2は、それ
ぞれ第1および第2のTVカメラの焦点と撮像面
25,26との距離である。撮像面25,26の
かわりに、第3図のイメージ面16に相当するも
のを考えても等価である。ただし、その場合には
l1,l2としては、各イメージ面と焦点との距離を
考えなくてはならない。
FIG. 5 is a schematic diagram for explaining the configuration and principle of the present invention. In the figure, O is a coordinate origin in absolute space, which is set on the floor surface on which the three-dimensional object 3 is placed. F 1 and F 2 are the first and
This is the optical center (focal point) of the lens system of the second TV cameras 23 and 24. 25 and 26 are imaging surfaces of the first and second TV cameras, respectively. however,
As explained in FIG. 3, the imaging plane considered here is a plane obtained by moving the actual imaging plane to a point-symmetrical position with the focal point as the point of symmetry. l 1 and l 2 are the distances between the focal points of the first and second TV cameras and the imaging planes 25 and 26, respectively. It is equivalent to consider a plane corresponding to the image plane 16 in FIG. 3 instead of the imaging planes 25 and 26. However, in that case
For l 1 and l 2 , the distance between each image plane and the focal point must be considered.

O1は、撮像面25上に想定するX1−Y1−Z1
標系(Z1軸方向は、O1→F1の方向とする)の原
点である。O1は、撮像面26上に想定するX2
Y2−Z2座標系(Z2軸方向はO2→F2の方向とする)
の原点である。同図の例では、第1のTVカメラ
23は、光軸が原点Oを通り、絶対座標系のx−
Z平面に対してα1、y−Z平面に対してθ1の角度
をもつて設置されており、第2のカメラ24は、
光軸が原点Oを通り、絶対座標系のx−Z平面に
対してα2、y−Z平面に対してθ2の角度をもつて
設置されているものとしている。
O 1 is the origin of the X 1 -Y 1 -Z 1 coordinate system assumed on the imaging plane 25 (the Z 1 axis direction is the direction of O 1 →F 1 ). O 1 is X 2 − assumed on the imaging plane 26
Y 2 −Z 2 coordinate system (Z 2 axis direction is O 2 → F 2 direction)
It is the origin of In the example shown in the figure, the optical axis of the first TV camera 23 passes through the origin O, and the x-
It is installed at an angle of α 1 with respect to the Z plane and θ 1 with respect to the Y-Z plane, and the second camera 24 is
It is assumed that the optical axis passes through the origin O and is set at an angle of α 2 with respect to the x-Z plane of the absolute coordinate system and θ 2 with respect to the y-Z plane.

絶対座標系の原点Oと、各焦点F1,F2との距
離をそれぞれd1,d2とすると、上記のようなカメ
ラ系の設定条件(α1,α2,θ1,θ2,l1,l2,d1
d2……以後カメラパラメータと呼ぶ)は、2台の
カメラ23,24を、絶対空間中に設置するとき
に、実測したり、基準入力画像を解析することに
よつて、あらかじめ求めておくことができる。従
つて以後は、既知のデータとして扱う。
If the distances between the origin O of the absolute coordinate system and the focal points F 1 and F 2 are d 1 and d 2 , respectively, then the camera system setting conditions (α 1 , α 2 , θ 1 , θ 2 , l 1 , l 2 , d 1 ,
d 2 (hereinafter referred to as camera parameters) must be obtained in advance by actual measurement or by analyzing the reference input image when the two cameras 23 and 24 are installed in absolute space. Can be done. Therefore, from now on, it will be treated as known data.

上記カメラ・パラメータがわかれば、撮像面2
5上のX1−Y1−Z1座標系から絶対座標系への変
換マトリクスT1、および撮像面26上のX2−Y2
−Z2座標系から絶対座標系への変換マトリクス
T2も一意的に決定できる。一般にT1,T2は4×
4のマトリクスとして表現できる。第5図は構成
例における、T1以下に例示する。
If the above camera parameters are known, the imaging surface 2
5, the transformation matrix T 1 from the X 1 −Y 1 −Z 1 coordinate system to the absolute coordinate system, and the X 2 −Y 2 on the imaging plane 26
−Z transformation matrix from 2- coordinate system to absolute coordinate system
T 2 can also be determined uniquely. Generally T 1 and T 2 are 4×
It can be expressed as a matrix of 4. FIG. 5 illustrates an example configuration below T1 .

T1,T2についてもあらかじめ求めておくもの
とする。
T 1 and T 2 shall also be determined in advance.

また、第5図には、グリツド光源S21から照
射されたグリツド・パターン像22についても示
している。光源21から照射されるグリツド・パ
ターン光の光路は、グリツド光源21の設計仕様
および、グリツド光源21の3次元空間における
設定位置および照射角度(以後光源パラメータと
称する)から一意的に決定できる。たとえば、グ
リツド光源として最も簡便なスライド・プロジエ
クターを用いる場合には、グリツド・パターンを
刻んだスライドのパターン(原パターン)のマウ
ント位置と、スライド光源の位置関係およびレン
ズ系の特性などから求めることができる。また、
物体3を除いた床面上あるいは、任意の位置に置
いたスクリーン上に形成されるグリツド・パター
ン像をあらかじめ計測しておくことによつても求
めることが可能である。第5図には、グリツド・
パターンの光路の途中においた仮想的スクリーン
27を説明のため併せて表示している。ここで、
光源点Sを焦点、仮想的スクリーン27を撮像面
と考えれば、パターン光源もカメラと同様の扱い
をすることができる。
FIG. 5 also shows a grid pattern image 22 emitted from the grid light source S21. The optical path of the grid pattern light emitted from the light source 21 can be uniquely determined from the design specifications of the grid light source 21, the set position and irradiation angle of the grid light source 21 in three-dimensional space (hereinafter referred to as light source parameters). For example, when using a slide projector, which is the simplest grid light source, it can be determined from the mounting position of the slide pattern (original pattern) in which the grid pattern is carved, the positional relationship of the slide light source, and the characteristics of the lens system. Can be done. Also,
It can also be determined by measuring in advance a grid pattern image formed on the floor surface excluding the object 3 or on a screen placed at an arbitrary position. Figure 5 shows the grid
A virtual screen 27 placed in the middle of the optical path of the pattern is also displayed for explanation. here,
If the light source point S is considered as a focal point and the virtual screen 27 is considered as an imaging surface, a pattern light source can be treated in the same way as a camera.

さて、上記の準備をした上で、第1、第2の
TVカメラ23,24によつて、3次元物体3の
表面上に形成されるグリツド・パターン像を撮像
すると、撮像面25,26上には、第5図に示す
ような入力画像が得られる。
Now, after making the above preparations, the first and second
When a grid pattern image formed on the surface of the three-dimensional object 3 is captured by the TV cameras 23 and 24, input images as shown in FIG. 5 are obtained on the imaging surfaces 25 and 26.

投射されるグリツド・パターンには、仮想的ス
クリーン27に示すように、G1〜G4の4つの格
子点があり、物体3の表面上では、それぞれg1
g4の格子点像を形成する。g1〜g4の格子点像は、
第1のカメラの入力画像中では格子点像Q1〜Q4
一方第2のカメラの入力画像中では格子点像R1
〜R4にそれぞれ対応している。
The projected grid pattern has four grid points G 1 to G 4 as shown on the virtual screen 27, and on the surface of the object 3, there are four grid points G 1 to G 4, respectively.
Form a grid point image of g 4 . The lattice point image of g 1 to g 4 is
In the input image of the first camera, lattice point images Q 1 to Q 4 ,
On the other hand, in the input image of the second camera, the grid point image R 1
~R 4 respectively.

本発明では、以下に示すように原理によつて、
格子点G1〜G4と、入力画像中の格子点像Q1
Q4、R1〜R4の対応関係を求めるものであり、Q1
〜Q4とR1〜R4の間の対応関係がわかれば、カメ
ラ・パラメータ等から物体3の表面上の格子点像
g1〜g4の3次元的位置を求める事ができる。
In the present invention, according to the principle as shown below,
Grid points G 1 to G 4 and lattice point images Q 1 to G 4 in the input image
The purpose is to find the correspondence between Q 4 , R 1 and R 4 , and Q 1
If we know the correspondence between ~Q 4 and R 1 ~ R 4 , we can obtain the lattice point image on the surface of object 3 from the camera parameters, etc.
The three-dimensional positions of g 1 to g 4 can be determined.

以下に、グリツド・パターン中から任意に1つ
の格子点を選びこれについて入力画像中の対応点
を求める操作を説明する。あらかじめ、グリツ
ド・パターン像を計測してある仮想的スクリーン
27上において、1つの格子点G1を選択する。
光源点S21から照射され格子点G1を通る光線
28は一意的に決定され、しかもSとG1の位置
が共に既知であるため、計算によつて求めること
ができる。一方光線28の照射によつて物体3の
表面上にできる格子点像g1の位置は、物体3の位
置・形状に応じて変化する。
The following describes the operation of selecting one grid point from the grid pattern and finding the corresponding point in the input image. One grid point G1 is selected on the virtual screen 27 on which a grid pattern image has been measured in advance.
The light ray 28 emitted from the light source point S21 and passing through the grid point G1 is uniquely determined, and since both the positions of S and G1 are known, they can be determined by calculation. On the other hand, the position of the lattice point image g1 formed on the surface of the object 3 by the irradiation of the light beam 28 changes depending on the position and shape of the object 3.

まず、光線28の光路を、第1のカメラの撮像
面25に投影した第1の投影線L1を求める。L1
は、光源点Sと、格子点G1および、第1のカメ
ラの焦点F1の3点を含む平面P1と、第1のカメ
ラの撮像面25とが交わつてできる直線に赤当
し、S,G1,F1および撮像面25の位置が、カ
メラ・パラメータ、光源パラメータなどによつて
既知であるため、計算によつて求めることができ
る。
First, a first projection line L1 is obtained by projecting the optical path of the light beam 28 onto the imaging surface 25 of the first camera. L 1
is a red line formed by the intersection of the light source point S, the grid point G1 , and the plane P1 that includes the focal point F1 of the first camera, and the imaging plane 25 of the first camera, Since the positions of S, G 1 , F 1 and the imaging plane 25 are known from camera parameters, light source parameters, etc., they can be determined by calculation.

同様にして、光線28の光路を第2のカメラの
撮像面26に投影した第2の投影線L2も求める。
Similarly, a second projection line L 2 is also obtained by projecting the optical path of the light ray 28 onto the imaging surface 26 of the second camera.

物体3の表面上にできる格子点像g1は、光線2
8の光路上にあるため、当然、第1のカメラの撮
像面25上の入力画像中では、先に求めた第1の
投影線L1上に存在するはずである。そこで、撮
像面25の入力画像パターンを、第1の投影線
L1に沿つて調べてゆき、格子点像があれば、そ
れをG1に対応する入力画像中の格子点像の候補
とする。通常は、投影線L1上に1つの格子点像
Q1が検出される。g1が、第1のカメラからは見
えない位置(死角など)に存在する場合には投影
線L1上には、格子点像が1つも存在しないこと
になり、第1のカメラによる入力画像中には、格
子点G1から照射される光線28によつてできる
格子点の画像は存在しないと判断する。逆に、投
影線L1上に2つ以上の格子点像が検出される場
合もある。これは、光源点Sと格子点G1および
第1のカメラの焦点F1を含む平面P1上に、2つ
以上の格子点像が偶然存在する場合である。第5
図には、このような場合の入力画像の例を示して
いる。物体3の表面上に形成される格子点像のう
ちg1とg4が共に先の平面P1上に存在するため、第
1のカメラ23の入力画像中では、投影線L1
に2つの格子点画像Q1,Q4が検出され、候補が
2つになる。
The lattice point image g 1 formed on the surface of the object 3 is the ray 2
Since it is on the optical path of 8, it should naturally exist on the previously determined first projection line L1 in the input image on the imaging surface 25 of the first camera. Therefore, the input image pattern on the imaging surface 25 is
The search is performed along L1 , and if there is a lattice point image, it is selected as a candidate for the lattice point image in the input image corresponding to G1 . Usually one grid point image on projection line L 1
Q 1 is detected. If g 1 exists in a position that cannot be seen from the first camera (such as a blind spot), there will be no lattice point image on the projection line L 1 , and the input image by the first camera will be It is determined that there is no image of the lattice point formed by the light beam 28 emitted from the lattice point G1 . Conversely, two or more lattice point images may be detected on the projection line L1 . This is the case when two or more grid point images happen to exist on the plane P 1 including the light source point S, the grid point G 1 and the focus F 1 of the first camera. Fifth
The figure shows an example of an input image in such a case. Since g 1 and g 4 of the lattice point images formed on the surface of the object 3 both exist on the previous plane P 1 , in the input image of the first camera 23 , there are 2 points on the projection line L 1 . Two grid point images Q 1 and Q 4 are detected, resulting in two candidates.

2つの候補のうち、正しい候補点を検出するた
め撮像面26上の入力画像によつて検証を行な
う。
In order to detect the correct candidate point among the two candidates, verification is performed using the input image on the imaging surface 26.

第1のカメラの撮像面25上で検出された候補
点Q1と、第1のカメラの焦点F1、および第2の
カメラの焦点F2を含む平面P3を求め、平面P3
第2のカメラの撮像面26の交線である第3の投
影線L3−1を求める。第3の投影線L3−1は、
第1のカメラの焦点F1から候倣点Q1を通り、物
体3の表面上に形成された格子点像に至る視線2
9を第2の格子点の撮像面26上に投影したもの
である。従つて、その視線上にあつて、格子点像
Q1に対応する点g1は、第2ののカメラの入力画
像中にあつては、第3の投影線L3−1の上に線
を結んでいるはずである。別の候補点Q4につい
ても同じようにして第3の投影線L3−2を求め
る。当然格子点像Q4に対応する物体3の表面上
の格子点像g4は、第2のカメラの入力画像中にあ
つては、賃3の投影線L3−2の上に像を結んで
いるはずである。
A plane P 3 including the candidate point Q 1 detected on the imaging surface 25 of the first camera, the focus F 1 of the first camera, and the focus F 2 of the second camera is obtained, and the plane P 3 and the A third projection line L 3 -1, which is the intersection of the imaging planes 26 of the two cameras, is determined. The third projection line L 3 -1 is
Line of sight 2 from the focus F 1 of the first camera to the lattice point image formed on the surface of the object 3 through the candidate point Q 1
9 projected onto the imaging plane 26 of the second lattice point. Therefore, on the line of sight, the lattice point image
The point g 1 corresponding to Q 1 should connect a line above the third projection line L 3 -1 in the input image of the second camera. A third projection line L 3 -2 is obtained in the same manner for another candidate point Q 4 . Naturally, the lattice point image g 4 on the surface of the object 3 corresponding to the lattice point image Q 4 forms an image on the projection line L 3 -2 of the second camera in the input image of the second camera. It should be there.

以上のようにして、撮像面26上には、3本の
投影線L2,L3−1,L3−2が求められるわけで
ある。いま、第1のカメラの入力画像中から抽出
された候補点Q1が、格子点G1に対応する正しい
候補点であるならば、第2のカメラの入力画像中
において、Q1に対応する格子点像が存在し、そ
れは、第2の投影線の上にあつて、かつQ1から
求めた第3の投影線L3−1の上にもあるはずで
ある。すなわち、Q1に対応する格子点像は、2
つの投影線L2とL3−1の交点上になくてはなら
ない。第2のカメラの入力画像中においては、
L2と、L3−1の交点付近に格子点像の候補点R1
が存在するのでQ1とR1が、G1に相当する対応点
のペアであるとみなすことができる。
As described above, three projection lines L 2 , L 3 -1, and L 3 -2 are obtained on the imaging plane 26. Now, if candidate point Q 1 extracted from the input image of the first camera is the correct candidate point corresponding to grid point G 1 , then the candidate point Q 1 extracted from the input image of the second camera is the correct candidate point corresponding to Q 1 in the input image of the second camera. There is a lattice point image, which should lie on the second projection line and also on the third projection line L 3 -1 determined from Q 1 . In other words, the lattice point image corresponding to Q 1 is 2
It must be on the intersection of the two projection lines L 2 and L 3 -1. In the input image of the second camera,
Candidate point R 1 of the lattice point image is located near the intersection of L 2 and L 3 -1.
exists, so Q 1 and R 1 can be regarded as a pair of corresponding points corresponding to G 1 .

一方、Q4については、2つの投影線L2とL3
2の交点付近に格子点像が存在しないため、偽の
対応点候補として却下することができる。これ
は、Q4に対応する格子点像g4が、光源点Sと格
子点G1および第2の格子点の焦点F2を含む平面
P2の上には存在しないためである。また、逆に
平面P2上に別の格子点像、たとえばg3が存在する
場合もあり得る。この時には第2の投影線L2
に、g3に対応する格子点像R3が存在することに
なるが、R3はQ1,Q4から求めた第3の投影線L3
−1,L3−2のいずれの上にものつていないた
め、やはり偽の対応点候補として却下することが
できる。当然、格子点G1に相当する格子点像g1
が第2のカメラから見えない位置にあれば、正し
い対応点候補R1は検出できず、第2のカメラに
よる入力画像中には、格子点G1から照射された
光線28によつてできる格子点像g1の対応点画像
は存在しないものと判断する。
On the other hand, for Q 4 , there are two projection lines L 2 and L 3
Since there is no lattice point image near the intersection of 2, it can be rejected as a false corresponding point candidate. This means that the lattice point image g 4 corresponding to Q 4 is a plane containing the light source point S, the lattice point G 1 and the focal point F 2 of the second lattice point.
This is because it does not exist above P2 . Conversely, another lattice point image, for example g 3 , may exist on the plane P 2 . At this time, a lattice point image R 3 corresponding to g 3 exists on the second projection line L 2 , but R 3 is the third projection line L 3 obtained from Q 1 and Q 4 .
Since it does not lie above either -1 or L 3 -2, it can be rejected as a false corresponding point candidate. Naturally, the lattice point image g 1 corresponding to the lattice point G 1
is in a position that cannot be seen from the second camera, the correct corresponding point candidate R1 cannot be detected, and the input image by the second camera contains a grid formed by the light rays 28 emitted from the grid point G1 . It is determined that a point image corresponding to point image g1 does not exist.

上記の検証方法により、偽の対応点候補があつ
た場合にも、これを却下でき、格子点G1に相当
する入力画像中の対応点のペアQ1とR1を正しく
検出することができる。
By the above verification method, even if there is a false corresponding point candidate, it can be rejected and the pair of corresponding points Q 1 and R 1 in the input image corresponding to the grid point G 1 can be correctly detected. .

以上に説明してきたような操作を、仮想的スク
リーン27上の別の格子点G2〜G4についても順
次くり返すことによつて、全グリツド・パターン
中のすべての格子点について、入力画像中の対応
点のペアを求めることができる。
By sequentially repeating the operations described above for other grid points G2 to G4 on the virtual screen 27, all the grid points in the entire grid pattern are We can find pairs of corresponding points.

まれには、1つの格子点Giに相当する入力画像
中の対応点のペアが2組以上検出される可能性も
ある。これは、物体3の表面上に生成されたグリ
ツド・パターン像と、カメラの撮像角度による偶
然の一致、あるいはカメラ・パラメータ、光源パ
ラメータの測定誤差や、入力画像中の候補点抽出
時の位置検出誤差が原因である。ほとんどの場合
は、1組が正しい対応点ペアであり、他は却下で
きなかつた偽の対応点ペアである。この場合に
は、すべての検出された対応点ペアのデータをな
がめてみることによつて、大部分が解決できる。
In rare cases, two or more pairs of corresponding points in the input image corresponding to one grid point G i may be detected. This may be due to a coincidence between the grid pattern image generated on the surface of the object 3 and the imaging angle of the camera, measurement errors in camera parameters and light source parameters, or position detection when extracting candidate points in the input image. This is caused by an error. In most cases, one set is a correct matched point pair, and the others are false matched point pairs that cannot be rejected. In this case, most of the problems can be solved by looking at the data of all detected corresponding point pairs.

すなわち、入力画像中の格子点像Q1〜Q4,R1
〜R4はそれぞれ最大1回、対応点ペアの一方と
して検出されるのが正しく、同じ点が2度以上対
応点として現われることはない。いま第1のカメ
ラによる入力画像中の格子点像Qiが二度対応点と
して現われるていれば、そのうちの少なくとも一
方は必ず誤りである。Qiを対応点とする格子点の
データを調べ、もしある格子点Gj(j≠i)に相
当する対応点のペアが2組以上検出されていて、
その中に対応点としてQiが含まれていれば、その
ペアか偽の対応点ペアである確率が非常に高くな
る。その対応点Qiとペアを成す格子点像Rkが、
第2のカメラによる入力画像中でやはり2度以上
対応点として検出されていれば、QiとRkの対応
点ペアは、格子点Gjに相当する偽の対応点ペア
であるとして却下することができ、格子点Gj
ついても1組の対応点ペアが確定する。
That is, the lattice point images Q 1 to Q 4 , R 1 in the input image
It is correct that each of ~R 4 is detected at most once as one of a pair of corresponding points, and the same point does not appear as a corresponding point more than once. If the lattice point image Q i in the input image from the first camera now appears twice as a corresponding point, at least one of them is definitely an error. Examine the data of the grid points with Q i as the corresponding point, and if two or more pairs of corresponding points corresponding to a certain grid point G j (j≠i) are detected,
If Q i is included as a corresponding point, there is a very high probability that this pair is a false corresponding point pair. The lattice point image R k that forms a pair with the corresponding point Q i is
If the corresponding points are detected twice or more in the input image by the second camera, the corresponding point pair Q i and R k is rejected as a false corresponding point pair corresponding to the grid point G j , and one set of corresponding point pairs is determined for grid point G j as well.

以上に説明したような構成と原理によつて本発
明では、照射するグリツド・パターン中の格子点
Giに相当する入力画像中の格子点像の対応点ペア
Qi,Riを検出する。QiとRiの対応関係が求められ
れば、2台のカメラの設定条件(カメラ・パター
ン)等から、格子点Giの物体3表面上への投影点
であるgiの3次元的位置(絶対座標)を算出する
ことができる。実施例では、上記のようにして検
出されたグリツド・パターン中の各格子点に相当
する対応点ペアの情報を利用して、格子点以外の
グリツド・パターン全体についても入力画像中の
対応点ペアを検出してゆく。この操作は、本出願
人が概に提案している特願昭58−158358号明細書
および特願昭58−158359号明細書に記載した方法
等を適用することによつても実現することが可能
であるが、ここでは、本発明の方法を格子点以外
の部分についても適用してグリツド・パターン全
体について、物体表面上の投影位置を求めてゆ
く。
With the configuration and principle explained above, the present invention enables the grid points in the grid pattern to be irradiated to be
Corresponding point pairs of grid point images in the input image corresponding to G i
Detect Q i and R i . Once the correspondence between Q i and R i is determined, the three-dimensional position of g i , which is the projection point of grid point G i onto the surface of object 3, can be determined from the setting conditions (camera patterns) of the two cameras, etc. (absolute coordinates) can be calculated. In the example, by using the information of the corresponding point pairs corresponding to each grid point in the grid pattern detected as described above, the corresponding point pairs in the input image are also detected for the entire grid pattern other than the grid points. will be detected. This operation can also be realized by applying the method etc. described in Japanese Patent Application No. 158358/1982 and Japanese Patent Application No. 158359/1983, which are generally proposed by the applicant. Although it is possible, here, the method of the present invention is applied to portions other than the grid points to determine the projected position on the object surface for the entire grid pattern.

グリツド・パターン中の隣接する格子点、たと
えばG1とG2を結ぶ線分(格子線と称する)上の
任意の点(第5図中の点A)について入力画像中
の対応点ペアを求める。手順は、格子点G1の時
と同様であるが、この場合は格子点像ではなく投
影線上の格子線のパターンを検出していく。ただ
し、A点が、格子点G1とG2を結ぶ格子線上の点
であることがあらかじめわかつているので、入力
画像中での探索範囲は、最初からG1,G2に相当
する対応点Q1とQ2、R1とR2を結ぶ格子線像の
上、あるいはQ1とQ2、R1とR2をそれぞれ対角線
の端点とする長方形の領域付近に限定することが
でき、処理時間も短縮され、また偽の対応点ペア
もほとんど発生しない。
Find a corresponding point pair in the input image for an arbitrary point (point A in Figure 5) on a line segment (referred to as a grid line) connecting G1 and G2 , such as adjacent grid points in the grid pattern. . The procedure is the same as that for grid point G1 , but in this case, the pattern of grid lines on the projection line is detected instead of the grid point image. However, since it is known in advance that point A is a point on the grid line connecting grid points G1 and G2 , the search range in the input image is from the beginning the corresponding points corresponding to G1 and G2 . The processing can be limited to the grid line image connecting Q 1 and Q 2 , R 1 and R 2 , or around a rectangular area with Q 1 and Q 2 , R 1 and R 2 as the end points of the diagonals, respectively. The time is shortened, and false corresponding point pairs are almost never generated.

次に、第6図を用いて、本実施例をフロー・チ
ヤートの形で説明する。
Next, this embodiment will be explained in the form of a flow chart using FIG.

本実施例では、2つのカメラによる入力画像は
それぞれ画像メモリに格納され、画像メモリ内の
データをCPUがアクセスすることによつて計算
処理を行なう。
In this embodiment, input images from two cameras are stored in image memories, respectively, and the CPU performs calculation processing by accessing data in the image memories.

ここでは、カメラ・パラメータ、光源パラメー
タ、および第5図の仮想的スクリーン27上にお
いて計測したグリツド・パターン上の各点の位置
(座標)および、カメラ座標系から絶対座標系へ
の変換マトリクスT1,T2などのデータは、既に
求めてあるものとして説明する。
Here, camera parameters, light source parameters, the position (coordinates) of each point on the grid pattern measured on the virtual screen 27 in FIG. 5, and the transformation matrix T 1 from the camera coordinate system to the absolute coordinate system. , T 2 , etc. will be explained assuming that they have already been obtained.

また、以下の説明では、絶対座標系での座標を
(x,y,Z)、第1、第2のカメラの撮像面上に
とつたカメラ座標系(X1−Y1−Z1座標系、X2
Y2−Z2座標系)での座標をそれぞれ(X,Y,
Z)1、(X,Y,Z)2と表記する。
In addition, in the following explanation, the camera coordinate system (X 1 - Y 1 - Z 1 coordinate system) in which the coordinates in the absolute coordinate system (x, y, Z) are taken on the imaging plane of the first and second cameras ,X 2
Y 2 −Z 2 coordinate system) coordinates (X, Y,
It is written as Z) 1 and (X, Y, Z) 2 .

(1) グリツド・パターンの中から1つの格子点Gi
(xGi,yGi,ZGi)を選択する。
(1) One grid point G i from the grid pattern
Select (x Gi , y Gi , Z Gi ).

(2) 第1の投影線L1のX1−Y1−Z1座標系での式
を求める。
(2) Find the expression of the first projection line L 1 in the X 1 −Y 1 −Z 1 coordinate system.

光源点S(xs,ys,Zs)と格子点Giを、変換
マトリクスT1の逆行列T-1 1によつてX1−Y1
Z1座標系S(Xs,Ys,Zs1、Gi(XGi,YGi,ZGi1
に変換する。第1のカメラの焦点F1(O,O,
l11と、S、Giの3点の座標データから、この
3点を含む平面P1の式(カメラ座標系)を求
める。第1のカメラの撮像面の式Z=0(カメ
ラ座標系)と、P1の式を連立させれば、交線
L1のカメラ座標系での式が得られる。
The light source point S (x s , y s , Z s ) and the grid point G i are transformed into X 1 −Y 1 − by the inverse matrix T −1 1 of the transformation matrix T 1
Z 1 coordinate system S (X s , Y s , Z s ) 1 , G i (X Gi , Y Gi , Z Gi ) 1
Convert to The focus of the first camera F 1 (O, O,
l 1 ) From the coordinate data of the three points S and G i , find the equation (camera coordinate system) of the plane P 1 that includes these three points. If the equation Z = 0 (camera coordinate system) of the imaging plane of the first camera and the equation P 1 are combined, the intersection line
The formula for L 1 in the camera coordinate system is obtained.

(3) 第2の投影線L2のX2−Y2−Z2座標系での式
を求める。
(3) Find the expression of the second projection line L 2 in the X 2 −Y 2 −Z 2 coordinate system.

手順は、L1の時と同様である。 The procedure is the same as for L1 .

(4) 第1の投影線L1上の格子点像Qj(j=1,2
……)を抽出する。
(4) Lattice point image Q j (j=1,2
...) is extracted.

第1のカメラによる入力画像のデータを、投
影線L1に沿つて、近傍の入力画像パターンを
調べてゆく。格子点像として特徴的な交点パタ
ーンが検出されれば、その交点パターンの座標
Qj(XQj,YQj,O)1(j=1,2,……)を候補
点として抽出する。
The input image data from the first camera is examined along the projection line L1 for nearby input image patterns. If a characteristic intersection pattern is detected as a grid point image, the coordinates of that intersection pattern are
Q j (X Qj , Y Qj , O) 1 (j=1, 2, . . . ) are extracted as candidate points.

(5) Qjから第2のカメラへの投影線L3j(j=
1,2,……)のX2−Y2−Z2座標系での式を
求める。
(5) Projection line L 3j from Q j to the second camera (j=
1, 2, ...) in the X 2 - Y 2 - Z 2 coordinate system.

QjとF1の座標値を、T1によつて絶対座標系
に変換し、さらにT2の逆行列T-1 2によつてX2
−Y2−Z2座標系Qj(XQj,YQj,ZQj2、F1(ZF1
ZF1,ZF12に変換する。第2のカメラの焦点F2
(O,O,l22と、Qj,F1の3点の座標データ
から、この3点を含む平面P3の式(X2−Y2
Z2座標系)を求める。第2のカメラの撮像面の
式Z=0(X2−Y2−Z2座標系)と、平面P3の式
を連立させれば、交線L3-jのカメラ座標系での
式が得られる。
The coordinate values of Q j and F 1 are converted to the absolute coordinate system by T 1 , and then converted to X 2 by the inverse matrix T -1 2 of T 2 .
−Y 2 −Z 2 Coordinate system Q j (X Qj , Y Qj , Z Qj ) 2 , F 1 (Z F1 ,
Z F1 , Z F1 ) Convert to 2 . Second camera focus F 2
From the coordinate data of the three points (O, O, l 2 ) 2 and Q j , F 1 , the equation of the plane P 3 containing these three points (X 2 − Y 2
Z2 coordinate system). If the equation of the imaging plane of the second camera Z = 0 (X 2 - Y 2 - Z 2 coordinate system) and the equation of the plane P 3 are combined, the equation of the intersection line L 3-j in the camera coordinate system can be obtained. is obtained.

(6) 第2の投影線L2と第3の投影線L3-j(j=1,
2,……)の交点上の格子点像Rk(k=1,2
……)を抽出する。
(6) Second projection line L 2 and third projection line L 3-j (j=1,
2,...) on the intersection point R k (k=1,2
...) is extracted.

ステツプ(3)、(5)で求めた投影線L2とL3-jの式
を連立させて交点の座標を求め、交点近傍の入
力画像パターンに、格子点像として特徴的な交
点パターンが検出されれば、その交点パターン
の座標Rk(XRk,YRk,O)2(k=1,2,……)
を、Qjに対する対応点として抽出し、QjとRk
を、格子点Giに相当する対応点ペアとして登録
する。2組以上の対応点ペア(k≧2)が検出
された場合にも、それらのすべてを登録する。
The coordinates of the intersection are determined by simultaneously calculating the equations for the projection lines L 2 and L 3-j obtained in steps (3) and (5), and the input image pattern near the intersection has a characteristic intersection pattern as a lattice point image. If detected, the coordinates of the intersection pattern R k (X Rk , Y Rk , O) 2 (k=1, 2,...)
is extracted as a corresponding point to Q j , and Q j and R k
is registered as a corresponding point pair corresponding to grid point G i . Even if two or more pairs of corresponding points (k≧2) are detected, all of them are registered.

(7) グリツド・パターン中から次の格子点Gi+1
選択し、すべての格子点についてステツプ(2)〜
(6)をくり返す。
(7) Select the next grid point G i+1 from the grid pattern and perform steps (2) ~
Repeat (6).

(8) すべての対応点ペアのデータを分析し、偽の
対応点ペアがあれば却下する。
(8) Analyze the data of all matched point pairs and reject any false matched point pairs.

対応点ペアとして登録された格子点像Qj
るいはRkのデータ集合の中で、同じ格子点像
が2度以上登録されていれば、その格子点像に
該当する格子点G1,Gn,……のすべての対応
点ペアを分析し、偽の対応点ペアと判断できる
ものを却下する。
If the same lattice point image is registered twice or more in the data set of lattice point images Q j or R k registered as a pair of corresponding points, the lattice points G 1 , G n corresponding to that lattice point image , ... are analyzed, and those that can be determined to be false corresponding point pairs are rejected.

(9) 隣接する2つの格子点Gi,Gi+1を結ぶ格子線
上から任意の1点Aを選択する。
(9) Select any point A from the grid line connecting two adjacent grid points G i and G i+1 .

(10) 点Aに相当する入力画像中の対応点ペアB,
Cを求める。
(10) Corresponding point pair B in the input image corresponding to point A,
Find C.

(11) 次の任意のA点についてステツプ(9)〜(10)をく
り返す。
(11) Repeat steps (9) to (10) for the next arbitrary point A.

(12) 他のすべての、格子線上の各点についてもス
テップ(9)〜(11)の操作をくり返して入力画像中の
対応点ペアを求める。
(12) Repeat steps (9) to (11) for all other points on the grid lines to find pairs of corresponding points in the input image.

(13) 上記の操作で求めた対応点ペアに該当する
物体3の表面上の各点の位置(絶対座標)を求
める。
(13) Find the position (absolute coordinates) of each point on the surface of the object 3 that corresponds to the corresponding point pair found in the above operation.

第1、第2のカメラによる入力画像中の点Qj
とRkが対応点ペアであるとすれば、点Qjと第1
のカメラの焦点F1を結ぶ直線と、点Rkと第2の
カメラの焦点F2を結ぶ直線の交点を絶対座標で
求めることにより、物体3の表面上の投影点の位
置を知ることができる。
Point Q j in the input image from the first and second cameras
If and R k are a pair of corresponding points, then point Q j and the first
By finding the intersection point of the straight line connecting the focal point F 1 of the second camera and the straight line connecting the point R k and the focal point F 2 of the second camera in absolute coordinates, we can find the position of the projection point on the surface of the object 3. can.

なお、パターン光源も等価的にカメラと同様の
扱いができるので、第1のカメラの入力画像中の
格子点像Gjとし、第2のカメラの撮像面上でQi
を、仮想的スクリーン27上でRjを検出すると
いう構成方法をとることも可能である。
Note that a pattern light source can be treated equivalently in the same way as a camera, so let it be a lattice point image G j in the input image of the first camera, and Q i on the imaging plane of the second camera.
It is also possible to adopt a configuration method in which R j is detected on the virtual screen 27.

発明の効果 以上の説明で述べてきたように、本発明の物体
検出方法によれば、簡単な構成で従来の手法のみ
では困難であつた両眼立体視をした時の左右両画
面間の対応づけの問題を解決できると共に、3次
元物体表面上のグリツド・パターン像各点の3次
元的位置を直接求めることができる。対応づけの
問題が解決されたことにより、画像入力は1回で
すむようになり、大幅な画像入力、前処理時間の
短縮が実現できる。実際のデータ処理も簡単な計
算ですむため、本発明は実用的な3次元物体の検
出装置を提供するという意味で、産業的に非常に
大きな効果が期待できるものである。
Effects of the Invention As described above, according to the object detection method of the present invention, the object detection method of the present invention has a simple configuration, and the correspondence between the left and right screens when performing binocular stereoscopic viewing, which was difficult with conventional methods alone. In addition to solving the problem of placement, it is also possible to directly determine the three-dimensional position of each point in the grid pattern image on the surface of a three-dimensional object. By solving the problem of correspondence, it is now possible to input the image only once, and it is possible to achieve a significant reduction in image input and preprocessing time. Since actual data processing requires only simple calculations, the present invention can be expected to have great industrial effects in the sense that it provides a practical three-dimensional object detection device.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来の1本のスリツト光を用いた距離
測定方法を示す原理図、第2図は従来の複数本の
スリツト光を用いた物体検出方法を説明する原理
図、第3図はカメラ光学系と撮像面、入力画像の
関係を説明するための配置図、第4図は本発明の
一実施例における物体検出装置の画像入力部を示
す概念図、第5図は同実施例の構成と原理を説明
するための概念図、第6図A,Bは同実施例の動
作を説明するフロー・チヤートである。 21……グリツド光源、23,24……第1、
第2の画像入力装置、25,26……第1、第2
の画像入力装置の撮像面、F1,F2……第1、第
2の画像入力装置の焦点、G1〜G4……グリツ
ド・パターン中の格子点、Q1〜Q4……第1の画
像入力装置の撮像面上の格子点像、R1〜R4……
第2の画像入力装置の撮像面上の格子点像、L1
……第1の投影線、L2……第2の投影線、L3
…第3の投影線。
Figure 1 is a principle diagram showing the conventional distance measurement method using a single slit beam, Figure 2 is a principle diagram explaining the conventional object detection method using multiple slit beams, and Figure 3 is a camera diagram. A layout diagram for explaining the relationship between an optical system, an imaging surface, and an input image. FIG. 4 is a conceptual diagram showing an image input section of an object detection device in an embodiment of the present invention. FIG. 5 is a configuration of the same embodiment. FIGS. 6A and 6B are flow charts for explaining the operation of the same embodiment. 21...grid light source, 23, 24...first,
Second image input device, 25, 26...first, second
F 1 , F 2 ... focal points of the first and second image input devices, G 1 to G 4 ... lattice points in the grid pattern, Q 1 to Q 4 ... Lattice point images on the imaging surface of the image input device No. 1, R 1 to R 4 ...
Lattice point image on the imaging surface of the second image input device, L 1
...First projection line, L 2 ...Second projection line, L 3 ...
...Third projection line.

Claims (1)

【特許請求の範囲】[Claims] 1 正方格子状のグリツド・パターンを生成する
グリツド光源から、被検出物体に前記グリツド・
パターンを照射し、前記被検出物体を互いに異な
る2つの方向から第1および第2の画像入力装置
によつて撮像し、前記第1の画像入力装置の撮像
面上においては、前記グリツド光源の光源点S
と、照射される前記グリツド・パターン中の任意
の格子点Gと、前記第1の画像入力装置のレンズ
系の焦点F1の3点を含んで成る平面と、前記第
1の画像入力装置の撮像面との交線である第1の
投影線を求め、前記第2の画像入力装置の撮像面
上においては、前記光源点Sと、前記格子点G
と、前記第2の画像入力装置のレンズ系の焦点
F2の3点を含んでなる平面と、前記第2の画像
入力装置の撮像面との交線である第2の投影線を
求め、前記第1の画像入力装置の撮像面上におい
て、入力画像中の格子点像のうち、前記第1の投
影線の上に存在する格子点像Pを検出し、撮像面
上における前記格子点像Pと、前記第1の画像入
力装置のレンズ系の焦点F1と、前記第2の画像
入力装置のレンズ系の焦点F2の3点を含んで成
る平面と、前記第2の画像入力装置の撮像面との
交線である第3の投影線を求め、前記第2の画像
入力装置の撮像面上において、前記第2および第
3の投影線の交点近傍の入力画像パターンに格子
点像P′が存在すれば、前記格子点像P′と、前記第
1の画像入力装置の撮像面上の格子点像Pとを対
応点候補とし、順次同様の操作によつて前記第1
および第2の画像入力装置の入力画像パターン中
の格子点像の対応関係を求めることによつて、前
記被検出物体表面上の点の3次元的位置を検出す
ることを特徴とする物体検出方法。
1 A grid light source that generates a grid pattern in the form of a square lattice emits the grid pattern onto an object to be detected.
a pattern is irradiated, the object to be detected is imaged from two different directions by first and second image input devices, and a light source of the grid light source is displayed on the imaging surface of the first image input device. point S
, an arbitrary grid point G in the grid pattern to be irradiated, and a plane comprising three points: a focal point F 1 of the lens system of the first image input device; A first projection line that intersects with the imaging plane is obtained, and on the imaging plane of the second image input device, the light source point S and the grid point G are
and a focal point of the lens system of the second image input device.
A second projection line, which is an intersection line between the plane including the three points F 2 and the imaging surface of the second image input device, is obtained, and the input Among the lattice point images in the image, the lattice point image P existing on the first projection line is detected, and the lattice point image P on the imaging plane and the lens system of the first image input device are detected. a third projection line that is an intersection line between a plane including three points, a focal point F 1 and a focal point F 2 of a lens system of the second image input device, and the imaging plane of the second image input device; If a lattice point image P' exists in the input image pattern near the intersection of the second and third projection lines on the imaging plane of the second image input device, then the lattice point image P' and , and the lattice point image P on the imaging surface of the first image input device as corresponding point candidates, and sequentially perform similar operations to
and an object detection method, characterized in that the three-dimensional position of the point on the surface of the object to be detected is detected by determining the correspondence of lattice point images in the input image pattern of the second image input device. .
JP58235350A 1983-12-13 1983-12-13 Object detecting method Granted JPS60126775A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58235350A JPS60126775A (en) 1983-12-13 1983-12-13 Object detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58235350A JPS60126775A (en) 1983-12-13 1983-12-13 Object detecting method

Publications (2)

Publication Number Publication Date
JPS60126775A JPS60126775A (en) 1985-07-06
JPH024030B2 true JPH024030B2 (en) 1990-01-25

Family

ID=16984782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58235350A Granted JPS60126775A (en) 1983-12-13 1983-12-13 Object detecting method

Country Status (1)

Country Link
JP (1) JPS60126775A (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4846576A (en) * 1985-05-20 1989-07-11 Fujitsu Limited Method for measuring a three-dimensional position of an object
US4649519A (en) * 1985-09-30 1987-03-10 International Business Machines Corporation Self biasing thermal magneto-optic medium
JPH0762869B2 (en) * 1986-03-07 1995-07-05 日本電信電話株式会社 Position and shape measurement method by pattern projection
JPS63138384A (en) * 1986-11-29 1988-06-10 Toppan Printing Co Ltd Manufacture of original picture of plane type holographic stereogram
DE19932590A1 (en) * 1999-07-13 2001-01-18 Lissotschenko Vitalij Device for generating lines or line groups of electromagnetic radiation in the optical spectral range

Also Published As

Publication number Publication date
JPS60126775A (en) 1985-07-06

Similar Documents

Publication Publication Date Title
JP5317169B2 (en) Image processing apparatus, image processing method, and program
Rothwell et al. Extracting projective structure from single perspective views of 3D point sets
US4802759A (en) Three-dimensional shape measuring apparatus
US8432435B2 (en) Ray image modeling for fast catadioptric light field rendering
US9972120B2 (en) Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
US7456842B2 (en) Color edge based system and method for determination of 3D surface topology
JP2874710B2 (en) 3D position measuring device
US7804586B2 (en) Method and system for image processing for profiling with uncoded structured light
EP0526938A2 (en) Method and apparatus for determining the distance between an image and an object
EP2568253B1 (en) Structured-light measuring method and system
JP5051493B2 (en) 3D measurement marker and 3D measurement method using the same
US20090059241A1 (en) System and Method for Three-Dimensional Measurement of The Shape of Material Objects
EP0176339A2 (en) Optical three-dimensional digital data acquisition system
JPH06129851A (en) Calibration method for stereoscopic camera
US20080319704A1 (en) Device and Method for Determining Spatial Co-Ordinates of an Object
JPH07509782A (en) Validation method for optical distance measurement of target surfaces in turbulent environments
WO2020136523A1 (en) System and method for the recognition of geometric shapes
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
JPH024030B2 (en)
JPH024028B2 (en)
Pachidis et al. Pseudo-stereo vision system: a detailed study
Maimone et al. A taxonomy for stereo computer vision experiments
JP3253328B2 (en) Distance video input processing method
JPH024029B2 (en)
Mery Exploiting multiple view geometry in X-ray testing: Part I, theory