JPS6383604A - Three-dimensional coordinate measuring instrument - Google Patents

Three-dimensional coordinate measuring instrument

Info

Publication number
JPS6383604A
JPS6383604A JP22833386A JP22833386A JPS6383604A JP S6383604 A JPS6383604 A JP S6383604A JP 22833386 A JP22833386 A JP 22833386A JP 22833386 A JP22833386 A JP 22833386A JP S6383604 A JPS6383604 A JP S6383604A
Authority
JP
Japan
Prior art keywords
dimensional coordinate
distance
image
dimensional coordinates
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22833386A
Other languages
Japanese (ja)
Other versions
JP2566395B2 (en
Inventor
Fumio Ito
文夫 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Priority to JP61228333A priority Critical patent/JP2566395B2/en
Publication of JPS6383604A publication Critical patent/JPS6383604A/en
Application granted granted Critical
Publication of JP2566395B2 publication Critical patent/JP2566395B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To calculate three-dimensional coordinates in a short time with high accuracy by detecting the presence of a body to be measured by using a camera and detecting the two-dimensional coordinates of actual size on an image pickup surface, and then measuring the distance to the body by using a distance measuring means. CONSTITUTION:The camera 1 scans optically an image of a specific visual range projected on the image pickup surface of an image pickup means through a lens and outputs an image signal, and an image processing means 2 extracts a feature area from an image plane according to the image signal. Then a body recognizing means 3 decides whether or not the area extracted by the means 2 is a predetermined body and a two-dimensional coordinate calculating means 4 calculates the two-dimensional coordinates of a proper point in the decided image area indicating the specific body on the image pickup surface. Then a distance sensor 7 measures the distance to the body present in a direction determined according to the two-dimensional coordinates and a three- dimensional coordinate calculating means 5 calculates three-dimensional coordinates according to the distance data measured by the sensor 7 and two-dimensional coordinate data calculated by the means 4.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は対象物の三次元座標を自動的に計測する装置に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an apparatus for automatically measuring three-dimensional coordinates of an object.

〔従来の技術〕[Conventional technology]

三次元座標を計測する方法として、2つ以上のカメラを
用いて立体視し、視差に基づいて物体までの距離を計算
する方法や、レーダーを用いる方法が既に考えられてい
る。
As methods for measuring three-dimensional coordinates, methods have already been considered that use two or more cameras for stereoscopic viewing and calculate the distance to an object based on parallax, and methods that use radar.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかし、前者の方法では各カメラの捕らえた画像中の同
一物を認識するための計算が困難であり長時間を要する
。したがって、時々刻々と変化する対象物の三次元座標
を瞬時に認識して対象物の運動方向や速度を求めるには
この方法は不適当である。また、この方法では対象物が
遠方になるにしたがって視差が非常に小さくなるため、
十数m以上遠方にある対象物に対しては距離測定精度が
悪い。したがって、このような対象物の三次元座標の計
測にも不適当である。
However, in the former method, calculations for recognizing the same object in images captured by each camera are difficult and take a long time. Therefore, this method is inappropriate for instantly recognizing the three-dimensional coordinates of an object, which change from moment to moment, and determining the moving direction and speed of the object. In addition, with this method, the parallax becomes very small as the object becomes farther away, so
Distance measurement accuracy is poor for objects that are more than ten meters away. Therefore, it is also inappropriate for measuring the three-dimensional coordinates of such an object.

一方、後者の方法による場合も、1つの立体画面を得る
のに時間がかかり、運動中の物体に対応するのに限界が
ある。
On the other hand, even when using the latter method, it takes time to obtain one stereoscopic screen, and there is a limit to the ability to deal with moving objects.

〔問題点を解決するための手段〕[Means for solving problems]

本発明の三次元座標計測装置は上記問題点に鑑みてなさ
れたものであり、レンズを介して撮像手段の撮像面上に
写し出された所定の視野範囲の画像を光学的に走査して
画像信号を出力するカメラと、前記画像信号に基づいて
画面から特徴的な令頁域を抽出する画像処理手段と、画
像処理手段で抽出された領域が予め定めた物体であるか
否かを判定する物体認識手段と、物体認識手段により所
定物体を示すものと判定された画像領域の内部にある適
当な点の前記撮像面上の二次元座標を算出する二次元座
標算出手段と、前記二次元座標に基づいて決定される方
向に存在する物体までの距離を測定する距離測定手段と
、距離測定手段の測定した距離データと二次元座標算出
手段の算出した二次元座標データとに基づいて三次元座
標を算出する三次元座標算出手段とを備えたものである
The three-dimensional coordinate measuring device of the present invention has been developed in view of the above-mentioned problems, and generates an image signal by optically scanning an image in a predetermined field of view projected on the imaging surface of an imaging means through a lens. an image processing means for extracting a characteristic small page area from the screen based on the image signal; and an object for determining whether the area extracted by the image processing means is a predetermined object. a recognition means; a two-dimensional coordinate calculation means for calculating two-dimensional coordinates on the imaging surface of an appropriate point within an image area determined by the object recognition means to indicate a predetermined object; a distance measuring means for measuring the distance to an object existing in a direction determined based on the distance measuring means, and three-dimensional coordinates are calculated based on the distance data measured by the distance measuring means and two-dimensional coordinate data calculated by the two-dimensional coordinate calculating means. and three-dimensional coordinate calculation means.

〔作用〕[Effect]

カメラのとらえた画像から種々の物体に対応する画像領
域が抽出され、抽出された画像領域が特定の対象物であ
ると認定されると、当該領域内の適当な点の二次元座標
が求められ、その二次元座標点に対応する実際の点まで
の距離が測定され、その結果から対象物の三次元座標が
算出される。
Image regions corresponding to various objects are extracted from images captured by the camera, and when the extracted image regions are recognized as specific objects, the two-dimensional coordinates of appropriate points within the regions are determined. , the distance to the actual point corresponding to the two-dimensional coordinate point is measured, and the three-dimensional coordinate of the object is calculated from the result.

〔実施例〕〔Example〕

以下、実施例と共に本発明の詳細な説明する。 Hereinafter, the present invention will be described in detail along with examples.

第1図は本発明の一実施例を示すブロック図である。カ
メラ1は、描像管あるいはCCD等の撮像手段を備えた
公知のTVカメラであり、↑最像手段の撮像面上に写し
出された所定の視野範囲の画像を光学的に走査してアナ
ログの画像信号を出力し、画像処理手段2に供給するも
のである。
FIG. 1 is a block diagram showing one embodiment of the present invention. The camera 1 is a well-known TV camera equipped with imaging means such as a picture tube or a CCD, and optically scans an image in a predetermined field of view projected on the imaging surface of the imaging means to create an analog image. It outputs a signal and supplies it to the image processing means 2.

画像処理手段2は、カメラ1の撮像面上に写しだされた
1画面を480X512画素の集合として把握するもの
であり、画素毎にカメラ1の撮像手段から出力されるア
ナログ画像信号を8ビツト(256レベル)のディジタ
ル画像信号に変換し、1画面分をフレームメモリに記憶
する。さらに、画像処理手段2は輝度レベルの共通部分
を拾ったり、輝度レベルの変化点の軌跡を追ったりして
、画面上に現れているいくつかの閉じた領域を抜き出す
。このようにして抜き出された閉じた領域に関するデー
タは、物体認識手段3に供給される。
The image processing means 2 grasps one screen projected on the imaging surface of the camera 1 as a set of 480 x 512 pixels, and converts the analog image signal output from the imaging means of the camera 1 for each pixel into 8-bit ( 256 levels) into a digital image signal, and one screen worth of data is stored in a frame memory. Furthermore, the image processing means 2 extracts some closed areas appearing on the screen by picking up common areas of brightness levels or tracing the locus of changing points of brightness levels. The data regarding the closed area extracted in this way is supplied to the object recognition means 3.

物体認識手段3では、画像処理手段2からのいくつかの
閉じた領域に関するデータと予め記憶されている各種の
物体に関するデータとを比較し、閉じた領域が三次元座
標を測定すべき物体を表す画像であるか否かを判定する
。なお、いかなる物体を三次元座標を測定すべき物体と
するかについては予め定められている。三次元座標を測
定すべき物体すなわち対象物の画像であると判定された
閉じた領域に関するデータは二次元座標算出手段4に供
給される。
The object recognition means 3 compares the data regarding some closed areas from the image processing means 2 with the data regarding various objects stored in advance, and determines that the closed area represents the object whose three-dimensional coordinates are to be measured. Determine whether it is an image. Note that it is determined in advance what kind of object is to be the object whose three-dimensional coordinates are to be measured. Data regarding a closed area determined to be an image of an object, that is, an object whose three-dimensional coordinates are to be measured, is supplied to the two-dimensional coordinate calculation means 4.

二次元座標算出手段4では、入力データに基づいて画像
面上の対象物に関する閉じた領域の幾何学上の重心点に
対応する画素のアドレス算出し、さらにその画素アドレ
スを撮像面上の実寸座標に変換する。そして、その算出
結果を三次元座標算出手段5および距離センサ制御手段
6に対して出力する。
The two-dimensional coordinate calculation means 4 calculates the address of a pixel corresponding to the geometric center of gravity of a closed area regarding the object on the image plane based on the input data, and further converts the pixel address into the actual size coordinates on the imaging plane. Convert to Then, the calculation result is outputted to the three-dimensional coordinate calculation means 5 and the distance sensor control means 6.

ここで、上記重心点の撮像面上の実寸座標の算出手順を
具体的に説明する。第2図は、画素表示されている画面
20を示す図であり、横にNx画素(本実施例では51
2画素)、縦にN1画素(本実施例では480画素)配
列されている。そして、座標表示しようとする重心点を
点Pdで示している。いま、画面20の中心Oを原点と
すると、重心点Pdの画素のアドレスは(XD、YD)
となる。ここに、X、およびY、は、それぞれ原点から
重心点Pdまでの水平方向および垂直方向の画素数で示
される値である。つぎに、この画素アドレスを、TVカ
メラ1に内蔵された撮像手段の撮像面における実寸座標
に変換する。撮像面の実際の幅および高さの寸法をそれ
ぞれWおよびHとすると、撮像面の中心を原点とする重
心点Pdの実寸座標P’  (X’、Y’)は、x’=
□・XIl        ・・・(1)N。
Here, the procedure for calculating the actual size coordinates of the center of gravity on the imaging plane will be specifically explained. FIG. 2 is a diagram showing the screen 20 on which pixels are displayed, with Nx pixels (in this example, 51
2 pixels), and N1 pixels (480 pixels in this embodiment) are arranged vertically. The center of gravity whose coordinates are to be displayed is indicated by a point Pd. Now, assuming that the center O of the screen 20 is the origin, the address of the pixel at the center of gravity Pd is (XD, YD)
becomes. Here, X and Y are values indicated by the number of pixels in the horizontal direction and the vertical direction from the origin to the center of gravity Pd, respectively. Next, this pixel address is converted into actual size coordinates on the imaging plane of the imaging means built into the TV camera 1. If the actual width and height dimensions of the imaging plane are W and H, respectively, the actual size coordinates P'(X',Y') of the center of gravity Pd with the center of the imaging plane as the origin are x'=
□・XIl...(1)N.

Y’=□・YD             ・・・(2
)NY で表すことができる。二次元座標算出手段4は、このよ
うにして得られた重心点Pdの実寸座標の値を三次元座
標算出手段5および距離センサ制御手段6に対して出力
する。
Y'=□・YD...(2
)NY. The two-dimensional coordinate calculation means 4 outputs the value of the actual size coordinates of the center of gravity Pd obtained in this way to the three-dimensional coordinate calculation means 5 and the distance sensor control means 6.

距離センサ制御手段6は距離センサ7の測定方向および
測定タイミングを制御するものであり、距離センサ制御
手段6および距離センサ7とで距離測定手段10が構成
されている。距離センサ7はレーザ光射出部7a、レー
ザ光受光部7bおよび可動反射器であるビームスキャナ
部7Cから構成されている。距離センサ制御手段6の指
示に基づいてレーザ光射出部7aから射出されたレーザ
光はビームスキャナ部7Cの反射鏡で反射される。
The distance sensor control means 6 controls the measurement direction and measurement timing of the distance sensor 7, and the distance sensor control means 6 and the distance sensor 7 constitute a distance measurement means 10. The distance sensor 7 includes a laser beam emitting section 7a, a laser beam receiving section 7b, and a beam scanner section 7C which is a movable reflector. The laser beam emitted from the laser beam emitting section 7a based on the instruction from the distance sensor control means 6 is reflected by the reflecting mirror of the beam scanner section 7C.

ことときの反射鏡の角度は距離センサ制御手段6によっ
てレーザ光が対象物に向かうように調整されている。対
象物で反射されたレーザ光の一部は入射光と同じ光路を
逆に進み、ビームスキャナ部7cの反射鏡で反射されて
レーザ光受光部7bに入射する。距離センサ7はレーザ
光射出部7aから射出されたレーザ光がレーザ光受光部
7bに戻ってくるまでの時間を計測し、光速との関係か
ら対象物までの距離を算出する。対象物までの距離デー
タは三次元座標算出手段5に供給される。
In this case, the angle of the reflecting mirror is adjusted by the distance sensor control means 6 so that the laser beam is directed toward the object. A portion of the laser light reflected by the object travels in the opposite direction along the same optical path as the incident light, is reflected by the reflecting mirror of the beam scanner section 7c, and enters the laser light receiving section 7b. The distance sensor 7 measures the time it takes for the laser beam emitted from the laser beam emitting section 7a to return to the laser beam receiving section 7b, and calculates the distance to the object from the relationship with the speed of light. The distance data to the object is supplied to the three-dimensional coordinate calculation means 5.

ここで、対象物に向かって射出されるレーザ光の方向の
算出方法を説明する。第3図は、対象物を含む実際の平
面31と、TVカメラ1のレンズ32と、′「■カメラ
1に内蔵された撮像手段の撮像面33との位置関係を示
す図であり、撮像面33の中心Oとレンズ32の中心O
と対象物を含む実際の平面31の中心Oの3点が同一直
線上にある。そして、二次元座標算出手段4で算出した
対象物の重心点の実寸座標P’  (X’、Y’)に対
応する実平面31上の点Pの実空間座標を(X。
Here, a method for calculating the direction of the laser beam emitted toward the object will be explained. FIG. 3 is a diagram showing the positional relationship between the actual plane 31 containing the object, the lens 32 of the TV camera 1, and the imaging surface 33 of the imaging means built into the camera 1. 33 center O and the center O of lens 32
and the center O of the actual plane 31 containing the object are on the same straight line. Then, the real space coordinates of the point P on the real plane 31 corresponding to the actual size coordinates P'(X',Y') of the center of gravity of the object calculated by the two-dimensional coordinate calculating means 4 are (X).

Y、Z)とし、レンズ32の中心から撮像面33までの
距離すなわちレンズ32の焦点距離をFとし、距離測定
手段10によりこれから求めようとする距離すなわちレ
ンズ32の中心から実平面31上の点Pまでの距離をD
とする。
Y, Z), and the distance from the center of the lens 32 to the imaging surface 33, that is, the focal length of the lens 32, is F, and the distance to be determined by the distance measuring means 10, that is, the point on the real plane 31 from the center of the lens 32. The distance to P is D
shall be.

実平面31とレンズ32と撮像面33がこのような位置
関係にあるときには、レンズ32の中心を原点としたと
きの実平面上の点Pの水平方向の角度θイおよび垂直方
向の角度θ、すなわち、第4図に図示した角度θ8およ
びθ、は、それぞれレンズ32を原点としたときの撮像
面33上の点P“の水平方向の角度θ8°および垂直方
向の角度θ7“と等しい。そこで、θ8およびθ、は次
式 %式% により求めることができる。
When the real plane 31, the lens 32, and the imaging surface 33 are in such a positional relationship, the horizontal angle θi and the vertical angle θ of the point P on the real plane when the center of the lens 32 is the origin, That is, the angles θ8 and θ shown in FIG. 4 are respectively equal to the horizontal angle θ8° and the vertical angle θ7'' of the point P'' on the imaging surface 33 when the lens 32 is the origin. Therefore, θ8 and θ can be determined by the following formula %.

そして、このようにして求めた角度θ8およびθ7によ
って特定された方向にレーザ光が射出されるように、ビ
ームスキャナ部7Cの反射鏡の角度を調節する。
Then, the angle of the reflecting mirror of the beam scanner section 7C is adjusted so that the laser beam is emitted in the direction specified by the angles θ8 and θ7 thus obtained.

三次元座標算出手段5では、二次元座標算出手段4から
の二次元座標データおよび距離センサ7からの距離デー
タに基づいてP点の三次元座標P(X、Y、Z)を算出
する。実空間上の三次元座標(X、Y、Z)は、第3図
の関係から、となり、容易にその座標を求めることがで
きる。
The three-dimensional coordinate calculation means 5 calculates the three-dimensional coordinate P (X, Y, Z) of the point P based on the two-dimensional coordinate data from the two-dimensional coordinate calculation means 4 and the distance data from the distance sensor 7. The three-dimensional coordinates (X, Y, Z) in real space are given by the relationship shown in FIG. 3, and can be easily determined.

以上のように、本実施例の三次元座標計測装置8はカメ
ラ1、画像処理手段2、物体認識手段3、二次元座標算
出手段4、三次元座標算出手段5、距離測定手段10か
ら構成されている。
As described above, the three-dimensional coordinate measuring device 8 of this embodiment includes the camera 1, the image processing means 2, the object recognition means 3, the two-dimensional coordinate calculating means 4, the three-dimensional coordinate calculating means 5, and the distance measuring means 10. ing.

三次元座標算出手段5で算出された三次元座標データは
、たとえば物体移動認識手段9に供給される。物体移動
認識手段9では一時点前あるいはそれ以前の同一対象物
に関する三次元座標と比較して、当該対象物の移動速度
や移動方向を算出する。そして、さらに、算出された移
動速度や移動方向に基づいて対象物の将来の運動を予測
することもできる。
The three-dimensional coordinate data calculated by the three-dimensional coordinate calculating means 5 is supplied to the object movement recognition means 9, for example. The object movement recognition means 9 calculates the moving speed and direction of the object by comparing it with the three-dimensional coordinates of the same object at or before a point in time. Furthermore, it is also possible to predict the future movement of the object based on the calculated moving speed and moving direction.

つぎに、このような三次元座標計測装置8を車輌に搭載
した場合の動作について説明する。
Next, the operation when such three-dimensional coordinate measuring device 8 is mounted on a vehicle will be explained.

カメラ1は前方に広がる所定の視野範囲を走査し、画像
信号を出力する。この画像信号は画像処理手段2におい
て画素毎にディジタル化され、1画面分がフレームメモ
リに記憶される。画像処理手段2ではさらにフレームメ
モリ内のデータに基づき、画面上から閉じた領域を捜し
出す。いま、例えば前方に本車輌と同一方向に移動する
車輌がいたとすると、その車輌の背面形状が閉じた領域
の一つとして抽出される。もちろん、視野範囲内のその
他の様々な物体の形状も閉じた領域として同時に抽出さ
れる。このようにして抽出された複数の閉じた領域に関
するデータは物体認識手段3に供給される。本例の物体
認識手段3は抽出された閉じた領域が車輌か否かを判断
するように予め設定されており、形状や明るさ等から車
輌と判定した閉じた領域についてのデータを二次元座標
算出手段4に供給する。二次元座標算出手段4ではその
領域の重心点を算出し、その重心点の撮像面上における
実寸の二次元座標を距離センサ制?111手段6に供給
する。距離センサ7は距離センサ制御手段6により、前
記重心点を狙ってレーザ光を射出する。物体認識手段3
での判定に誤りがなければ、このレーザ光は前方を走る
車輌のある部分に入射し、その反射光の一部がレーザ光
受光部7bに戻る。これによって、前方を走る車輌まで
の距離が測定され、その距離データが三次元座標算出手
段5に供給される。三次元座標算出手段5では二次元座
標算出手段4からの二次元座標データとこの距離データ
とから実空間における三次元座標を算出する。カメラ1
の視野範囲内に複数台の車輌が存在する場合は、画像処
理手段2において各車輌に対応する閉じた領域が抽出さ
れるとと共に、物体認識手段3においてそれぞれの領域
が車輌であると判別されることから、距離センサ7によ
って各車輌に対してそれぞれ1回ずつ距離測定を行うこ
とになる。1画面中にて抽出された車輌と思われる領域
の三次元座標の算出は、およそ0.5秒程度で行われる
ことが望ましく、本装置によれば容易に達成することが
可能である。0.5秒毎に前方を走る車輌の三次元座標
を測定すれば、その三次元座標の変化から当該車輌の運
動方向や相対速度を容易に導くことができる。
The camera 1 scans a predetermined field of view extending forward and outputs an image signal. This image signal is digitized pixel by pixel in the image processing means 2, and one screen's worth is stored in a frame memory. The image processing means 2 further searches for a closed area on the screen based on the data in the frame memory. For example, if there is a vehicle moving in the same direction as the current vehicle in front of the vehicle, the shape of the back of the vehicle is extracted as one of the closed regions. Of course, the shapes of various other objects within the field of view are also simultaneously extracted as closed regions. The data regarding the plurality of closed regions extracted in this way is supplied to the object recognition means 3. The object recognition means 3 of this example is set in advance to determine whether the extracted closed area is a vehicle or not, and the data regarding the closed area determined to be a vehicle based on the shape, brightness, etc. is stored in two-dimensional coordinates. It is supplied to calculation means 4. The two-dimensional coordinate calculation means 4 calculates the center of gravity of the area, and calculates the two-dimensional coordinates of the actual size of the center of gravity on the imaging plane using a distance sensor. 111 means 6. The distance sensor 7 uses the distance sensor control means 6 to emit a laser beam aiming at the center of gravity. Object recognition means 3
If there is no error in the judgment, this laser light enters a certain part of the vehicle running ahead, and a part of the reflected light returns to the laser light receiving section 7b. As a result, the distance to the vehicle running ahead is measured, and the distance data is supplied to the three-dimensional coordinate calculation means 5. The three-dimensional coordinate calculation means 5 calculates three-dimensional coordinates in real space from the two-dimensional coordinate data from the two-dimensional coordinate calculation means 4 and this distance data. camera 1
If there are multiple vehicles within the field of view, the image processing means 2 extracts closed regions corresponding to each vehicle, and the object recognition means 3 determines that each region is a vehicle. Therefore, the distance sensor 7 measures the distance for each vehicle once. It is desirable to calculate the three-dimensional coordinates of a region that is thought to be a vehicle extracted in one screen in about 0.5 seconds, and this can be easily accomplished with the present device. By measuring the three-dimensional coordinates of a vehicle running ahead every 0.5 seconds, the direction of movement and relative speed of the vehicle can be easily derived from changes in the three-dimensional coordinates.

なお、カメラ1としてカラーTVカメラを用いれば、画
像処理手段2における領域の抽出や物体認識手段3にお
ける対象物の認定において、色彩の違いを利用すること
ができる。
Note that if a color TV camera is used as the camera 1, the difference in color can be utilized in extracting an area by the image processing means 2 and recognizing an object by the object recognition means 3.

また、二次元座標算出手段4では、演算の容易性から、
選択された領域の重心点の二次元座標を算出しているが
、重心点でなくともよい。
In addition, in the two-dimensional coordinate calculation means 4, for ease of calculation,
Although the two-dimensional coordinates of the center of gravity of the selected area are calculated, it does not have to be the center of gravity.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明の三次元座標計測装置によれ
ば、カメラを用いて測定すべき物体の存在およびその撮
像面上の実寸の二次元座標を検出した後、距離測定手段
を用いて当該物体までの距離を測定することにより三次
元座標を算出するものであるので、短時間に精度良く三
次元座標を知ることができる。
As explained above, according to the three-dimensional coordinate measuring device of the present invention, after detecting the presence of an object to be measured using a camera and the two-dimensional coordinates of its actual size on the imaging plane, Since the three-dimensional coordinates are calculated by measuring the distance to the object, the three-dimensional coordinates can be determined quickly and accurately.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示すブロック図、第2図は
処理すべき画像面を示す図、第3図は実平面31とTV
カメラ1のレンズ32と撮像面33との位置関係を示す
図、第4図は実平面31上の点Pの方向を説明するため
の図である。 1・・・カメラ、2・・・画像処理手段、3・・・物体
認識手段、4・・・二次元座標算出手段、5・・・三次
元座標算出手段、6・・・距離センサ制御手段、7・・
・距離センサ、8・・・三次元座標計測装置、10・・
・距離測定手段。 特許出願人 ヤマハ発動機株式会社 代 理 人 山川 数構(ばか2名) 第2図 第4図 第3図
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2 is a diagram showing an image plane to be processed, and FIG. 3 is a diagram showing a real plane 31 and a TV.
FIG. 4 is a diagram showing the positional relationship between the lens 32 and the imaging surface 33 of the camera 1, and is a diagram for explaining the direction of the point P on the real plane 31. DESCRIPTION OF SYMBOLS 1... Camera, 2... Image processing means, 3... Object recognition means, 4... Two-dimensional coordinate calculation means, 5... Three-dimensional coordinate calculation means, 6... Distance sensor control means ,7...
・Distance sensor, 8...Three-dimensional coordinate measuring device, 10...
- Distance measurement means. Patent Applicant: Yamaha Motor Co., Ltd. Representative: Kazuko Yamakawa (2 idiots) Figure 2 Figure 4 Figure 3

Claims (1)

【特許請求の範囲】[Claims] レンズを介して撮像手段の撮像面上に写し出された所定
の視野範囲の画像を光学的に走査して画像信号を出力す
るカメラと、前記画像信号に基づいて画面から特徴的な
領域を抽出する画像処理手段と、画像処理手段で抽出さ
れた領域が予め定めた物体であるか否かを判定する物体
認識手段と、物体認識手段により所定物体を示すものと
判定された画像領域の内部にある適当な点の前記撮像面
上の二次元座標を算出する二次元座標算出手段と、前記
二次元座標に基づいて決定される方向に存在する物体ま
での距離を測定する距離測定手段と、距離測定手段の測
定した距離データと二次元座標算出手段の算出した二次
元座標データとに基づいて三次元座標を算出する三次元
座標算出手段とを備えた三次元座標計測装置。
A camera that optically scans an image of a predetermined field of view projected onto an imaging surface of an imaging means through a lens and outputs an image signal, and extracts a characteristic area from the screen based on the image signal. an image processing means; an object recognition means for determining whether the area extracted by the image processing means is a predetermined object; two-dimensional coordinate calculating means for calculating two-dimensional coordinates of an appropriate point on the imaging surface; distance measuring means for measuring a distance to an object existing in a direction determined based on the two-dimensional coordinates; and distance measuring means. A three-dimensional coordinate measuring device comprising three-dimensional coordinate calculating means for calculating three-dimensional coordinates based on distance data measured by the means and two-dimensional coordinate data calculated by the two-dimensional coordinate calculating means.
JP61228333A 1986-09-29 1986-09-29 Three-dimensional coordinate measuring device Expired - Fee Related JP2566395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61228333A JP2566395B2 (en) 1986-09-29 1986-09-29 Three-dimensional coordinate measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61228333A JP2566395B2 (en) 1986-09-29 1986-09-29 Three-dimensional coordinate measuring device

Publications (2)

Publication Number Publication Date
JPS6383604A true JPS6383604A (en) 1988-04-14
JP2566395B2 JP2566395B2 (en) 1996-12-25

Family

ID=16874812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61228333A Expired - Fee Related JP2566395B2 (en) 1986-09-29 1986-09-29 Three-dimensional coordinate measuring device

Country Status (1)

Country Link
JP (1) JP2566395B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0250606U (en) * 1988-10-03 1990-04-09
JPH02154148A (en) * 1988-12-06 1990-06-13 Mitsubishi Heavy Ind Ltd Inspecting device for structure
JPH0518720A (en) * 1991-07-12 1993-01-26 Fujita Corp Three-dimensional shape and distance recognizing method
US7301617B2 (en) 2004-06-09 2007-11-27 Kabushiki Kaisha Topcon Surveying apparatus
CN115790360A (en) * 2023-02-03 2023-03-14 中大智能科技股份有限公司 Three-dimensional deformation measurement method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274204A (en) * 1986-05-23 1987-11-28 Hamamatsu Photonics Kk Microscope system for obtaining three-dimensional data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274204A (en) * 1986-05-23 1987-11-28 Hamamatsu Photonics Kk Microscope system for obtaining three-dimensional data

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0250606U (en) * 1988-10-03 1990-04-09
JPH02154148A (en) * 1988-12-06 1990-06-13 Mitsubishi Heavy Ind Ltd Inspecting device for structure
JPH0518720A (en) * 1991-07-12 1993-01-26 Fujita Corp Three-dimensional shape and distance recognizing method
US7301617B2 (en) 2004-06-09 2007-11-27 Kabushiki Kaisha Topcon Surveying apparatus
CN115790360A (en) * 2023-02-03 2023-03-14 中大智能科技股份有限公司 Three-dimensional deformation measurement method

Also Published As

Publication number Publication date
JP2566395B2 (en) 1996-12-25

Similar Documents

Publication Publication Date Title
US6031606A (en) Process and device for rapid detection of the position of a target marking
JP2004530144A (en) How to provide image information
EP1580523A1 (en) Three-dimensional shape measuring method and its device
JP2000002518A (en) Three dimensional input device
JP2002139304A (en) Distance measuring device and distance measuring method
US4760269A (en) Method and apparatus for measuring distance to an object
JP3562250B2 (en) Leading vehicle detection device
JP3991501B2 (en) 3D input device
US6421114B1 (en) Three-dimensional information measuring apparatus
JPS6383604A (en) Three-dimensional coordinate measuring instrument
JPS62231190A (en) Collision warning device
JPS62194413A (en) Three-dimensional coordinate measuring instrument
JP2006031101A (en) Image generation method and device therefor
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JP3501841B2 (en) Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method
TW202204930A (en) Vision first light detection and ranging system
JPH1141521A (en) Image pickup device, instrument and method for measuring distance between vehicles
JP4158300B2 (en) 3D input method and 3D input device
JP3122777B2 (en) Distance measuring device for unmanned vehicles
JP3360505B2 (en) Three-dimensional measuring method and device
JP2003099784A (en) Recognition method for moving object
JP2809348B2 (en) 3D position measuring device
JPH0949706A (en) Method for measuring moving amount of object to be measured in front/rear direction with using laser light
JP3525712B2 (en) Three-dimensional image capturing method and three-dimensional image capturing device
JP4032556B2 (en) 3D input device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees