WO2004044522A1 - 3次元形状計測方法およびその装置 - Google Patents

3次元形状計測方法およびその装置 Download PDF

Info

Publication number
WO2004044522A1
WO2004044522A1 PCT/JP2003/014469 JP0314469W WO2004044522A1 WO 2004044522 A1 WO2004044522 A1 WO 2004044522A1 JP 0314469 W JP0314469 W JP 0314469W WO 2004044522 A1 WO2004044522 A1 WO 2004044522A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional shape
marker
dimensional
line laser
laser beam
Prior art date
Application number
PCT/JP2003/014469
Other languages
English (en)
French (fr)
Inventor
Hiroshi Kawasaki
Ryo Furukawa
Original Assignee
Technodream21, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technodream21, Inc. filed Critical Technodream21, Inc.
Priority to EP03772747A priority Critical patent/EP1580523A4/en
Priority to US10/534,393 priority patent/US7342669B2/en
Priority to AU2003280776A priority patent/AU2003280776A1/en
Publication of WO2004044522A1 publication Critical patent/WO2004044522A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Definitions

  • the present invention relates to a three-dimensional shape measuring apparatus that acquires distance information to a elephant object using laser light by the principle of triangulation, and in particular, to acquire distance information with high accuracy using a single imaging device.
  • the present invention relates to a three-dimensional shape measuring device capable of performing the measurement.
  • An active method pattern projection, spot projection
  • triangulation is known as one of the methods for measuring the three-dimensional shape of a target object. They consist of light sources such as laser light and halogen lamps, and imaging devices such as cameras and CCDs. The acquisition of three-dimensional shapes is performed based on triangulation. Therefore, the positional relationship between the light source and the camera had to be precisely known in advance, and the equipment tended to be large and complicated.
  • the 3D shape acquisition device can be simplified. Therefore, a method for easily acquiring the positional relationship between the camera and the light source by attaching a marker to the light source and simultaneously shooting the marker with the camera is described in Reference 1 (Masahiro Takatsuka, Geoff A.W.West,
  • the present invention provides a method for simplifying the apparatus by attaching a marker to a light source and simultaneously photographing the marker with a camera, among the active three-dimensional shape measurement methods based on triangulation. It aims to shorten and improve accuracy. Disclosure of the invention
  • the present invention realizes simultaneous acquisition of many three-dimensional points from one image by using line laser light as a light source. This makes it possible to acquire a three-dimensional shape efficiently in a short time. In addition, by arranging the markers in a three-dimensional manner, it is possible to accurately acquire the position of the light source, thereby improving the accuracy of the acquired three-dimensional shape.
  • FIG. 1 is a diagram showing a configuration of an image data measuring device as a first embodiment according to the present invention
  • FIG. 2 is a configuration of an image data measuring device as a second embodiment according to the present invention
  • FIG. 3 is a diagram showing an example of a marker arranging method using a light emitting diode according to the present invention.
  • FIG. 4 is a diagram showing a marker coordinate system with a line laser light source and a camera coordinate system.
  • FIG. 5 is a diagram showing a system relationship
  • FIG. 5 is a diagram showing a method of estimating rotation of marker coordinates
  • FIG. 6 is a diagram showing a method of estimating a three-dimensional point according to the present invention
  • FIG. 7 is a diagram showing a method for estimating a deviation between the marker plane and the laser plane.
  • the imaging device (1-2) is set so that the device (1-1) and the target object (114) are simultaneously within the angle of view.
  • the aperture and shutter speed of the imaging device are also set at the same time so that the laser beam and the light emitting diode can be easily and accurately detected by image processing.
  • the positional relationship between the device (111) and the light beam plane generated by the line laser beam is measured in advance.
  • Examples of the imaging device include a video camera CCD.
  • the user holds the device (1-1) in his hand and irradiates the target freely with line laser light.
  • the positional relationship between the device (1-1) and the camera can be obtained by detecting the position of the light emitting diode on the captured image. At that time, improve the accuracy by nonlinear solution method Aim.
  • the irradiation line laser detected by using the obtained positional relationship between the device (1-1) and the camera The great separation of the light (115) from the camera can be calculated by the principle of triangulation.
  • a series of processing is displayed in real time on a display monitor (2-5), as shown in Fig. 2, the user can check the part of the laser that has not yet been measured on the spot. Therefore, the 3D shape of the target object can be obtained efficiently.
  • Fig. 3 shows an example of the shape of a marker using a light emitting diode.
  • the marker can be of any shape as long as it has four or more points, but it can be arranged in a square (3-1), arranged in a three-dimensional X-yz axis (3-2), or arranged in a cube ( In the case of 3-3), there are advantages such as easy manufacturing and simple calculation for obtaining the positional relationship between the device (1-1) and the camera.
  • the system consists of a video camera and a line laser light source. See FIG.
  • the line laser light source is manually operated, and the user irradiates the object with the line laser and scans the object.
  • the shape of the surface of the target object is obtained by taking an image of the stripe irradiated by the laser beam with a camera and analyzing it.
  • a light emitting diode marker is attached to the line laser light source to identify the position and direction of the line laser light source.
  • the markers are placed on the laser plane so as to form square vertices.
  • Marker position and direction Define the local coordinate system of the car (4-1). This is called the marker coordinate system.
  • the origin of the marker coordinate system, placed in the center of gravity of the marker, base click Honoré ei, the unit in the direction of each coordinate axis, e 2,, e 3, represented by. ei 'and e 2 ' are taken in the direction parallel to the square side of the marker.
  • e 3 (Ei 'is the direction of a side line laser light source for projecting laser light, e 2' is the corresponding to a direction of the side perpendicular therewith)
  • e 3 ' take the form a square perpendicular direction of the marker.
  • the camera coordinate system is a lens centered at the origin, to, ei, represented by e 2, e 3, ei, e 2 is the horizontal axis of the image plane, parallel to the longitudinal axis, e 3 is a vertical image plane Take from the origin in the opposite direction to the subject
  • a plane laser beam is projected light and laser plane.
  • the transformation between the marker coordinate system and the camera coordinate system is represented by a rotation matrix R and a translation vector t. This transformation is a representation of the position of the marker relative to the camera. See FIG.
  • the laser light emitted by these markers is captured with a video force camera.
  • the positions of the four light emitting diodes are extracted. Specifically, the position can be calculated by taking the center of gravity of the connected region after simple threshold processing. From the extracted positions of the light emitting diodes, calculate the straight line passing through them and calculate the intersection. These intersections are called Focus Of Expansion (FOE) (5-2a) (5_2b). If the lines are parallel, FOE is the point at infinity in the direction of the line.
  • FOE Focus Of Expansion
  • is the 3D position of the ⁇ th marker in the marker coordinate system
  • proj Represents the projection transformation to the image plane.
  • a simplex descent method or the like is used as a method of nonlinear optimization.
  • the estimated value of the laser plane is obtained from the estimated value of the marker coordinate system.
  • the measurement of the relational expression between the marker coordinate system and the laser plane will be described later.
  • pixels illuminated by a laser beam are extracted from an image (6-5) (6-1). This is also possible after simple thresholding, but in practice, the extraction accuracy is then increased using thinning and morphological filters.
  • the three-dimensional position of the surface to be measured and the straight line (6-4) passing through the lens center corresponding to those pixels can be obtained from the camera's internal parameters. As the intersection of this straight line and the laser plane (6-2), the three-dimensional position (6-13) of the surface to be measured corresponding to the pixel is determined. See FIG.
  • This relationship is expressed as a parameter of the laser beam surface expressed in the marker's local coordinate system.
  • the following measurements are made in preparation for estimating the relational expression between the marker coordinates and the laser plane.
  • a rectangular parallelepiped (7-5) of known size is photographed, and the external parameters of the camera are estimated using a normal camera calibration. Based on the estimated external parameters and the known size, the equation of the surface constituting the rectangular parallelepiped is estimated.
  • the laser beam is projected on the rectangular parallelepiped, and the position and direction of the marker coordinate system are estimated from the position of the light emitting diode by the method described above. Then, from the current estimated value of (a, b, c, d), an estimated value of the laser plane represented by the camera coordinates is obtained. Further, From the estimated value of the laser plane, the estimated value of the line of intersection between the laser plane and the rectangular parallelepiped is calculated, and the projection position (7-2) on the image plane is calculated.
  • an evaluation function is defined by adding the sum of the squares of the error between the known distance at those points and the estimated distance by the above method to the error evaluation value (6), and minimizing this. , Correct the estimation of the marker coordinate system based on the known 3D points.
  • the present invention when acquiring a three-dimensional shape by an active method based on triangulation, there is no need for any complicated device that has been required in the past, and a highly accurate device can be obtained in a short time.
  • a dimensional shape can be obtained.
  • the user by displaying the measured 3D shape data on the display monitor in real time, the user can check the spot where the measurement has not yet been completed on the spot, and efficiently perform the 3D measurement of the target object. The shape can be obtained.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

簡易なシステム構成にて3次元形状を計測することを図る。本発明は、ラインレーザ光源(1−1a)に発光ダイオード(1−1b)をマーカーとして取り付けた装置(1−1)と、撮像装置(1−2)、および計算用コンピュータ(1−3)からなる3次元形状計測装置であり、計測の際には装置(1−1)を用いて計測対象物体(1−4)にラインレーザ光をあて、その照射ラインレーザ光(1−5)と発光ダイオードを同時に撮像装置(1−2)で撮影し、得られた画像データを用いて、三角測量の原理で計算用コンピュータ(1−3)にて3次元の形状を取得するものである。

Description

3次元形状計測方法およびその装置 明
技術分野
本発明は、 レーザ光を用いて対田象物体までの距離情報を三角測量の原 理で取得する 3次元形状計測装置に関し、 特に、 単一の撮像装置で精度良 く距離情報を取得することが可能な 3次元形状計測装置に関する。
背景技術
対象物体の 3次元形状を測定する手法の一つとして、三角測量に基づ くアクティブ手法 (パターン投影、 スポット投影) が知られている。 これ らは、 レーザ光やハロゲンランプなどの光源と、カメラや CCDなどの撮像 装置からなり、 3次元形状の取得は三角測量に基づき行われる。そのため、 光源、とカメラの位置関係があらかじめ精密に分かつている必要があり、 装 置は大掛かりで複雑になる傾向があつた。
この光源とカメラの位置関係を簡単に得ることが出来れば、 3次元形 状取得装置を簡略化することが可能となる。 そこで、 光源にマーカーをつ け、 カメラでマーカーも同時に撮影することでカメラと光源の位置関係を 容易に取得する手法が文献 1 (Masahiro Takatsuka, Geoff A.W. West,
Svetha Venkatesh,and Terry M. Caelli. "Low-cost interactive active monocular range finder". In Proceeding of Computer Vision and Pattern Recognition, 20 volume 1, ages 444-449, 1999.) として提案されている。 し力 し、 文献 1の手法は光源としてボイントレーザ光を用いた手法で あり、 1枚の画像からは原則として 1点しか 3次元形状が得られないため、 広い面積の形状計測には非常に時間がかかるという問題がある。 また、 光 源につけたマーカーも直線状に配置されているため、 得られる 3次元形状 の精度が低いという問題がある。
そこで、 本発明は、 三角測量に基づいたアクティブ方式の 3次元形状 計測手法のうち、 光源にマーカーを取り付けこれをカメラで同時に撮影す ることで,装置の簡略化を図る手法に関して、 計測時間を短縮し、 精度を向 上させることを目的とする。 発明の開示
本発明は光源としてラインレーザ光を用いることで、 1枚の画像から 多くの 3次元点を同時に取得することを実現する。 これにより短時間 で効率的に 3次元形状を取得することが可能となる。 また、 マーカー を 3次元状に配置することで、 光源の位置を精度良く取得することが 実現出来、 これにより、 取得する 3次元形状の精度を高めることが可能と なる。
また、 1枚の画像から多くの 3次元点を同時に取得出来るため、 それ ら点群のうち既に 3次元情報が取得された点が存在すれば、 それら過去に 計測された 3次元点の情報を利用することで光源の位置 ·姿勢を修正する ことが可能となり、 これにより 3次元形状の計測精度を高めることが出来 る。 図面の簡単な説明 第 1図は、 本発明による第 1実施例としての画像データ計測装置の構 成を示した図であり、 第 2図は、 本発明による第 2実施例としての画像デ ータ計測装置の構成を示した図であり、 第 3図は、 本発明に係る発光ダイ オードによるマーカーの配置方法の例を示した図であり、 第 4図は、 ライ ンレーザ光源 付いているマーカー座標系とカメラ座標系の関係を示した 図であり、 第 5図は、 マーカー座標の回転の推定方法を示した図であり、 第 6図は、本発明による 3次元点の推定方法を示した図であり、第 7図は、 マーカー平面とレーザ平面とのずれの推定方法を示した図である。
発明を実施するための最良の形態
以下、図面を参照して本発明の実施の形態を説明する。以下ではまず、 第 1図を用いて、 3次元形 を取得する手順の実施形態について開示する。
まず、 撮像装置 (1— 2 ) を装置 (1— 1 ) および対象物体 (1一 4 ) が同時に画角内に収まるように設置する。 また、 レーザ光と発光ダイォー ドが画像処理により簡易に高精度で検出できるよう、 撮像装置の絞りと シャッタースピードの設定も同時に行う。
また、 装置 (1一 1 ) とラインレーザ光の作る光線面との位置関係は あらかじめ計測しておく。
撮像装置としては、 ビデオ力メラゃ CCDなどが挙げられる。
続いて、.装置 (1— 1 ) を手にもち、 ラインレーザ光で対象を自由に 照射する。
発光ダイォードの 3次元の形状は既知であるため、 撮影した画像上の 発光ダイオードの位置を検出することで、 装置 (1— 1 ) とカメラとの位 置関係を取得することが出来る。 その際、 非線形解法により精度の向上を 図る。
装置 ( 1一 1 ) とラインレーザ光の作る光線面との位置関係が既知で あるため、得られた装置(1— 1 ) と.カメラとの位置関係を用いることで、 検出した照射ラインレーザ光 (1一 5 ) のカメラからの足巨離を三角測量の 原理で計算することが出来る。
これを繰り返し行うことで対象物体の 3次元形状を取得する。
一連の処理を、 第 2図のように、 計測した 3次元形状をディスプレイ モニタ (2— 5 ) にリアルタイムで表示すれば、 ユーザは、 未だ計測の終 わっていなレヽ部分をその場で確認できるため、 効率的に対象物体の 3次元 形状を取得することが出来る。
また、 発光ダイオードによるマーカーの形状について第 3図に例を示 す。 マーカーの形状は 4点以上であれば任意であるが、 正方形に配置した もの (3— 1 ) や、 3次元 X y z軸状に配置したもの (3— 2 )、 立方体状 に配置したもの (3— 3 ) だと、 製作が容易であること、 装置 (1— 1 ) とカメラとの位置関係を得るための計算が簡単になること、 などの利点が ある。
続いて、 具体的な 3次元計測装置と測定方法を開示する。
システムはビデオカメラとラインレーザ光源から成る。 第 1図参照。 ラインレーザ光源は手動で、 ユーザはラインレーザを対象物体に照射 し、 スキャンするようにする。 レーザ光が照射したストライプをカメラで 撮影し、 解析することで対象物体の表面の形状を得る。
ラインレーザ光源の位置と方向の識別のために発光ダイォードのマー カーがラインレーザ光源に付いている。 マーカーはレーザ平面の上に、 正 方形の頂点をなすように配置されている。 マーカーの位置と方向は、 マー カーのローカル座標系を定義する (4— 1 )。 これをマーカー座標系と呼ぶ ことにする。 マーカー座標系の原点を、 マーカーの重心に置き、 各座標軸 の方向を単位べク トノレ ei, ,e2, ,e3, で表す。 ei' , e2' は、それぞれ、 マーカーのなす正方形の辺と平行な方向に取る。 (ei' はラインレーザ光源 がレーザ光を投光する方向の辺と、 e2'はそれと直交する方向の辺に対応す る) e3' ,はマーカーのなす正方形と垂直な方向に取る。 また、 カメラ座標 系は、 レンズ中心を原点,に、 ei,e2 ,e3 で表現し、 ei ,e2は画像面の横軸、 縦 軸と平行に、 e3 は画像面と垂直に、 原点から撮影対象と逆方向に取る
( 4 _ 2 )。 第 4図参照。
ei' , e2, で張られる平面をマーカー平面 (5— 4 )、 レーザ光が投光 される平面をレーザ平面と呼ぶ。 マーカー座標系とカメラ座標系の変換は、 回転行列 R と平行移動べク トル tで表される。 この変換は、 カメラに対す るマーカ一位置の表現である。 第 5図参照。
計測する際には、 これらマーカー投光されたレーザ光をビデオ力メラ でキヤプチヤする。 キヤプチヤしたフレーム画像から、 4 個の発光ダイォ 一ドの位置を抽出する。 具体的には単純な閾値処理後連結領域の重心を取 ることで位置の算出が出来る。 抽出した発光ダイオードの位置から、 それ らを通る直線を算出し、 その交点を計算する。 これらの交点は Focus Of Expansion (以後 FOE)と呼ばれる (5— 2 a) ( 5 _ 2 b)。 直線が平行であ る場合、 FOE は直線の方向の無限遠点となる。
FOEの 2次元座標を、 それぞれ、 (g。, = 0,1)とすると、 これ らの FOEの 3次元方向べク トル (ri and r2)は、 となる。 ここで はピクセルを単位として表した焦点距離、 。'は転地を表 す。 ;^/ ( = 1,2).と定義する。 ;は e;の推定値である。 推定値 は . e = e[ x e2' .で表す。第 5図は FOEと推定値 :, ( = 1,2)である。回転行列 Rの 推定値^は
= (2) とする。 2個のマーカーの 2次元座標を (^い ¾), 72l5jp22)とすると、 それ らのカメラでの 3次元座標は、
ml = \pnu, puu,- u) , m2 = ρν, p22v,-jv) (3) ただし、 νは未知数である。 2個のマーカーの実際の距離を Dmとすると、
|K-^2|| = „ (4) マーカーの平面をカメラ座標で表すと Ο + ί = 0, となる。 ただし、 は マーカー平面状の点である。 ?^,"ί2は、 マーカー平面上にあるので
e ,. +J = 0(z = l,2) (5) 式 (3), (4), (5)より、 を解いて、 tの推定値 fをマーカーの 3次元座標 の重心として得る。 推定結果の精度を改善するために、 得られすこ座標変換 パラメータにたいして非線形最適化を行う。 最適化の評価関数は、 ロー力 ル座標系で表した LEDの位置 (一定となる) を^, f として推定されたカメ ラ座標とマーカー座標の変換で画像上に projectionした座標値と、 実際の 画像上での座標値との距離の自乗和
Figure imgf000008_0001
とする。 ここで ,.は ζ·番目のマーカーの画像上での位置、 ^は ζ·番目のマー カーのマーカー座標系での 3次元位置、 proj( · )はカメラ座標での 3次元か ら、 画像平面への投影変換を表す。
非線形最適化の方法としては、 シンプレックス降下法などを利用する。 続いて、 マーカー座標系の推定値から、 レーザ平面の推定値を得る。 マーカー座標系とレーザ平面の関係式の測定については後述する。 まず、 画像 (6— 5 ) からレーザ光により照らされたピクセルを抽出する (6— 1 )。 これも単純な閾値処理後で可能であるが、 実際にはその後、 細線化、 モーフォロジカルフィルタを用いて抽出精度を上げる。 それらのピクセル に対応する計測対象表面の 3次元位置とレンズ中心を通る直線 ( 6 - 4 ) は、カメラの内部パラメータから求められる。 この直線と、 レーザ平面 (6 - 2 ) の交点として、 ピクセルに対応する計測対象表面の 3次元位置 (6 一 3 ) が求まる。 第 6図参照。
ここで、 マーカー座標とレーザ平面の関係を正確に知るための方法を 示す。 この関係は、 マーカーのローカル座標系で表したレーザ光面のパラ メータとして表現する。 このパラメータは、 3次元平面を表す 4 個の数字 の組 (a,b,c,d)になる。 レーザ光面がマーカーのなす面と一致する場合、 レー ザ光面の式は z=0 となる。
マーカー座標とレーザ平面の関係式を推定するための準備として、 以 下の測定を行う。 サイズ既知の直方体 (7— 5 ) を撮影し、 通常のカメラ キヤリブレーシヨンによってカメラの外部パラメータを推定する。 推定さ れた外部パラメータと既知のサイズを元に、 直方体を構成する面の方程式 を推定する。
レーザ光を直方体に対して投光し、 既に述べた方法で発光ダイォードの位 置からマーカー座標系の位置と方向を推定する。 そして、 現在の (a,b,c,d) の推定値から、カメラ座標で表したレーザ平面の推定値を求める。 さらに、 レーザ平面の推定値から、 レーザ平面と直方体との交線の推定値を求め、 その画像平面への投影位置 (7— 2 ) を算出する。 上記の方法で算出され たレーザ平面と直方体との交線の像の推定値 (7 _ 2 ) と、 画像上で計測 されたレ ザ光の投光されたピクセノレ位置 (7— 1 ) の距離の自乗を、 全 ての抽出されたレーザ反射位置について足し合わせ、 これをレーザ平面と マーカー座標系の関係 (a,b,c,d)の評価関数とする。 これを非線形最適化によ り最小化し、(a,b,c,d)の推定を行う。最適化の初期値としては、例えば、 z=0 、 つまり、 (a,b,c,d)=(0,0,l,0)を使う。 第 7図参照。
最後に既知の 3 次元点によるマーカー座標系の推定の補正方法につ いて述べる。
対象物体表面に既知の点があり、 さらにレーザ光の一部が既知の点で反射 されてレヽる場合、 これらの点における距離の推定値は理想的には常に一致 する。 よって、 それらの点における既知の距離と、 前述した方法による距 離の推定値との誤差の自乗和を誤差の評価値 (6)に加えた評価関数を定義し、 これを最小化することで、既知の 3 次元点によるマーカー座標系の推定を 補正する。
既知の 3次元点としては、 あらかじめ別の計測方法で高精度に計測し . た点を利用できる他、 本発明による手法で同じ点が何度も推定され、 かつ その分散が小さいものを利用しても良い。 産業上の利用可能性
以上説明したように、 この発明によれば、 三角測量に基づくァクティ ブ方式による 3次元形状を取得する際、 従来必要であった複雑な装置が一 切必要なく、 また短時間で精度の良い 3次元形状を取得することが出来る。 また、 計測している 3次元形状データをディスプレイモニタにリアル タイムで表示しながら計測することで、 ユーザは、 未だ計測の終わってい ない部分をその場で確認でき、 効率的に対象物体の 3次元形状を取得する ことが出来る。

Claims

請 求 の 範 囲
1. ラインレーザ光源 (1一 la) に発光ダイオード (1一 lb) をマーカー として取り付けた装置 (1— 1) と、 撮像装置 (1— 2)、 および計算用コ ンピュータ (1一 3) からなる 3次元形状計測装置。
2. 請求の範囲第 1項記載にディスプレイモニタ (2— 4) を加えた 3次元計 測装置。
3. 前記装置 (1一 1) を用いて計測対象物体にラインレーザ光をあて、 その 照射ラインレーザ光 (1_5) と発光ダイオードを同時に撮像装置 (1—
' 2) で撮影し、 その撮影画像データから三角測量の原理で計算用コンビュ ータ (1一 3) により' 3次元形状を取得することを特徴とする 3次元計測 方法。
4. 請求の範囲第 3項記載の方法を連続的にリアルタイ'ムで処理し、 取得した 3次元形状データをディスプレイモニタ (2-5) に表示することを特徴 とする 3次元情報表示方法およぴ装置。
5. 請求の範囲第 3項記載の方法により得られた 3次元形状のうち、 精度の良 い点を選定し、 その選定された点を用いた補正をかけることで、 三角測量 の精度を向上させる計測方法。
PCT/JP2003/014469 2002-11-14 2003-11-13 3次元形状計測方法およびその装置 WO2004044522A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP03772747A EP1580523A4 (en) 2002-11-14 2003-11-13 METHOD FOR THREE-DIMENSIONAL FORM MEASUREMENT AND EQUIPMENT FOR
US10/534,393 US7342669B2 (en) 2002-11-14 2003-11-13 Three-dimensional shape measuring method and its device
AU2003280776A AU2003280776A1 (en) 2002-11-14 2003-11-13 Three-dimensional shape measuring method and its device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-330582 2002-11-14
JP2002330582A JP3624353B2 (ja) 2002-11-14 2002-11-14 3次元形状計測方法およびその装置

Publications (1)

Publication Number Publication Date
WO2004044522A1 true WO2004044522A1 (ja) 2004-05-27

Family

ID=19197701

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/014469 WO2004044522A1 (ja) 2002-11-14 2003-11-13 3次元形状計測方法およびその装置

Country Status (5)

Country Link
US (1) US7342669B2 (ja)
EP (1) EP1580523A4 (ja)
JP (1) JP3624353B2 (ja)
AU (1) AU2003280776A1 (ja)
WO (1) WO2004044522A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005100910A1 (ja) * 2004-04-09 2005-10-27 Techno Dream 21 Co., Ltd. 3次元形状計測方法及びその装置
EP1777485A4 (en) * 2004-08-03 2012-09-19 Techno Dream 21 Co Ltd METHOD AND DEVICE FOR MEASURING THREE-DIMENSIONAL FORMS
CN101282687B (zh) * 2005-10-14 2011-11-16 应用研究联盟新西兰有限公司 监测表面特征的方法和装置
JP4918830B2 (ja) * 2006-08-31 2012-04-18 富士ゼロックス株式会社 位置計測システム
EP1913907A1 (en) * 2006-10-20 2008-04-23 Academisch Ziekenhuis Maastricht A method and arrangement for shaping a skin contact orthesis, such as facial orthesis
WO2008056427A1 (fr) * 2006-11-08 2008-05-15 Techno Dream 21 Co., Ltd. Procédé de mesure de forme tridimensionnelle et dispositif correspondant
KR100866491B1 (ko) * 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
JP4530011B2 (ja) 2007-09-12 2010-08-25 富士ゼロックス株式会社 位置計測システム
US7705291B2 (en) * 2007-11-02 2010-04-27 Woundmatrix, Inc. Apparatus and method for wound diagnosis
KR100934614B1 (ko) * 2008-01-30 2009-12-31 서경대학교 산학협력단 혼합현실 기반 기계적 훈련 제어 시스템
AU2010352828B2 (en) * 2010-05-07 2013-07-11 Shenzhen Taishan Online Technology Co., Ltd. Structured-light based measuring method and system.
TW201221900A (en) * 2010-11-17 2012-06-01 Inst Information Industry Three-dimensional size measuring system and method for measuring three-dimensional size of object
CN103443802B (zh) 2011-01-24 2016-12-14 数据逻辑Adc公司 用于读取光学代码的***和方法
DE102011000304B4 (de) * 2011-01-25 2016-08-04 Data M Sheet Metal Solutions Gmbh Kalibrierung von Laser-Lichtschnittsensoren bei gleichzeitiger Messung
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
US20130188017A1 (en) * 2012-01-24 2013-07-25 Chris Chen-Hsing Ma Instant Calibration of Multi-Sensor 3D Motion Capture System
JP5984409B2 (ja) * 2012-02-03 2016-09-06 キヤノン株式会社 三次元計測システム及び方法
KR20140115062A (ko) * 2013-03-20 2014-09-30 한국전자통신연구원 수중물체 형상측정 장치 및 방법
EP2801841B1 (de) * 2013-05-10 2018-07-04 Leica Geosystems AG Lasertracker mit einer Zielerfassungseinheit für eine Zielverfolgung und eine Orientierungserkennung
DE102013211492B4 (de) * 2013-06-19 2020-10-15 Trimble Jena Gmbh Bestimmung eines Messfehlers
CN104424630A (zh) * 2013-08-20 2015-03-18 华为技术有限公司 三维重建方法及装置、移动终端
JP6476059B2 (ja) * 2015-04-30 2019-02-27 東京計器株式会社 摩耗量算出システム、スリット光照射装置、摩耗量算出プログラム
JP6656611B2 (ja) * 2015-07-24 2020-03-04 公立大学法人広島市立大学 3次元形状計測装置、診断システム及び3次元形状計測方法
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
US11116407B2 (en) 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
US10657665B2 (en) 2016-12-07 2020-05-19 Electronics And Telecommunications Research Institute Apparatus and method for generating three-dimensional information
EP3606410B1 (en) 2017-04-04 2022-11-02 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
KR102017949B1 (ko) * 2017-11-07 2019-09-03 서울여자대학교 산학협력단 발광 다이오드가 설치된 직육면체를 이용한 카메라의 캘리브레이션 장치 및 방법
AU2019209755B2 (en) * 2018-01-22 2024-04-18 Fnv Ip B.V. Surveying instrument for and surveying method of surveying reference points
NL2020304B1 (en) * 2018-01-22 2019-07-29 Fugro N V Method of and apparatus for monitoring positions on an object
CN108253960B (zh) * 2018-03-08 2021-08-24 东莞市光劲光电有限公司 一种解决环境光源和摄像头干扰投影的方法
KR20200032442A (ko) 2018-09-18 2020-03-26 한국전자통신연구원 자기보정이 가능한 3차원 정보 생성 장치 및 방법
US10937183B2 (en) 2019-01-28 2021-03-02 Cognex Corporation Object dimensioning system and method
JP7399686B2 (ja) * 2019-11-08 2023-12-18 株式会社キーエンス 光学式変位計
CN112525101B (zh) * 2020-12-04 2022-07-12 长江大学 一种基于光斑识别的激光三角法3d成像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
WO1997014015A1 (en) * 1995-10-12 1997-04-17 Metronor A/S A system for point-by-point measuring of spatial coordinates
JPH1078304A (ja) * 1995-10-13 1998-03-24 Nippon Telegr & Teleph Corp <Ntt> 撮像方法および装置
JP2000039310A (ja) 1998-07-22 2000-02-08 Sanyo Electric Co Ltd 形状測定方法および形状測定装置
JP2000337834A (ja) * 1999-05-26 2000-12-08 Sanyo Electric Co Ltd 形状測定装置
EP1197729A1 (en) 1999-05-26 2002-04-17 Sanyo Electric Co., Ltd. Shape measuring device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195455B1 (en) * 1998-07-01 2001-02-27 Intel Corporation Imaging device orientation information through analysis of test images
DE10025922A1 (de) * 2000-05-27 2001-12-13 Robert Massen Automatische photogrammetrische Digitalisierung von Körpern und Objekten

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
WO1997014015A1 (en) * 1995-10-12 1997-04-17 Metronor A/S A system for point-by-point measuring of spatial coordinates
JPH1078304A (ja) * 1995-10-13 1998-03-24 Nippon Telegr & Teleph Corp <Ntt> 撮像方法および装置
JP2000039310A (ja) 1998-07-22 2000-02-08 Sanyo Electric Co Ltd 形状測定方法および形状測定装置
JP2000337834A (ja) * 1999-05-26 2000-12-08 Sanyo Electric Co Ltd 形状測定装置
EP1197729A1 (en) 1999-05-26 2002-04-17 Sanyo Electric Co., Ltd. Shape measuring device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MASAHIRO TAKATSUKA, GEOFFA.W. WEST, SVETHA VENKATESH, TERRY M. CAELLI: "Low-cost interactive active monocular range finder", PROCEEDING OF COMPUTER VISION AND PATTERN RECOGNITION, vol. 1, no. 20, 1999, pages 444 - 449, XP010347711
See also references of EP1580523A4 *

Also Published As

Publication number Publication date
US7342669B2 (en) 2008-03-11
AU2003280776A1 (en) 2004-06-03
JP3624353B2 (ja) 2005-03-02
EP1580523A1 (en) 2005-09-28
EP1580523A4 (en) 2006-01-18
US20060055943A1 (en) 2006-03-16
JP2003130621A (ja) 2003-05-08

Similar Documents

Publication Publication Date Title
WO2004044522A1 (ja) 3次元形状計測方法およびその装置
US11629955B2 (en) Dual-resolution 3D scanner and method of using
CN106643699B (zh) 一种虚拟现实***中的空间定位装置和定位方法
CN103649674B (zh) 测量设备以及信息处理设备
JP6429772B2 (ja) 3d走査および位置決めシステム
JP5467404B2 (ja) 3d撮像システム
KR101639227B1 (ko) 3차원 형상 측정장치
EP3069100B1 (en) 3d mapping device
JP5070435B1 (ja) 3次元相対座標計測装置およびその方法
KR20120058828A (ko) 3차원 좌표 추출 시스템 및 그 방법
CN109186491A (zh) 基于单应性矩阵的平行多线激光测量***及测量方法
JP2003130621A5 (ja)
KR101371376B1 (ko) 3차원 형상 측정장치
JP2007171092A (ja) 三次元計測用マーカとこれを用いた三次元計測方法
CN112254670B (zh) 一种基于光扫描和智能视觉融合的3d信息采集设备
JP2008275366A (ja) ステレオ3次元計測システム
CN112253913B (zh) 一种与旋转中心偏离的智能视觉3d信息采集设备
JP2005292027A (ja) 三次元形状計測・復元処理装置および方法
JP2013037012A (ja) 計測装置、情報処理装置、計測方法、情報処理方法、および、プログラム
CN118105060A (zh) 根据阴影提供形状的测量***
Ariff et al. Measurement of the human face using close-range digital photogrammetry technique
Fujiwara et al. An automatic alignment technique for multiple rangefinders

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006055943

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10534393

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003772747

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003772747

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10534393

Country of ref document: US