JPH08293042A - Method and device for integrating three-dimensional shape data - Google Patents

Method and device for integrating three-dimensional shape data

Info

Publication number
JPH08293042A
JPH08293042A JP7094914A JP9491495A JPH08293042A JP H08293042 A JPH08293042 A JP H08293042A JP 7094914 A JP7094914 A JP 7094914A JP 9491495 A JP9491495 A JP 9491495A JP H08293042 A JPH08293042 A JP H08293042A
Authority
JP
Japan
Prior art keywords
shape data
data
dimensional shape
dimensional
cut surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7094914A
Other languages
Japanese (ja)
Other versions
JP3658038B2 (en
Inventor
Hiroyuki Yamamoto
裕之 山本
Shinji Uchiyama
晋二 内山
Masakazu Fujiki
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP09491495A priority Critical patent/JP3658038B2/en
Priority to US08/616,628 priority patent/US5969725A/en
Priority to DE69622900T priority patent/DE69622900T2/en
Priority to EP96301800A priority patent/EP0732672B1/en
Publication of JPH08293042A publication Critical patent/JPH08293042A/en
Application granted granted Critical
Publication of JP3658038B2 publication Critical patent/JP3658038B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE: To integrate plural three-dimensional shape data into one piece by expressing the data on the area enclosing the cutting plane of the partial shape data in a two-dimensional coordinate system for each of cutting planes set at the points near the boundaries among those three-dimensional shape data and then generating the triangular patch data in the area by using a Delaunay network. CONSTITUTION: A shape data file is read out of a storage 202, and an image is displayed on the screen of a display part 204 based on the shape data. An operator operates a keyboard 206 and a valuator 205 to ensure the matching of positions of all shape data, so that these shape data are expressed in a single world coordinate system. Then a cutting plane is set a part where two shape data are overlapping with each other, and every shape data is divided into two parts through the cutting plane. The shape data is selected for the part that remains as the integrated shape data, and two partial data are integrated together via a Delaunay network after the triangular patch data are generated in the corresponding area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の三角形パッチを
使用した形状データを1つの3次元形状データに統合す
るための3次元形状データの統合方法及びその装置に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape data integration method and apparatus for integrating shape data using a plurality of triangular patches into one three-dimensional shape data.

【0002】[0002]

【従来の技術】従来より距離画像を入力できる画像入力
装置などを使用して、対象物体の3次元形状データを入
力する技術が開発されている。このような距離画像の入
力技術としては、 (1) 光の飛行時間を時間計測や位相計測の手法を用い
て計測し、光が物体に当たって帰ってくるまでの時間か
ら物体までの距離を測定する光波距離計測を用いる。
2. Description of the Related Art Conventionally, there has been developed a technique for inputting three-dimensional shape data of a target object using an image input device capable of inputting a range image. The input technology of such a range image is as follows: (1) The flight time of light is measured using a time measurement method or a phase measurement method, and the distance from the time when the light hits the object and returns to the object is measured. Lightwave distance measurement is used.

【0003】(2) 複数台のカメラを用いて同じ情景を
異なる角度から撮影し、各カメラにより撮影された画像
中の対応点を求めて三角測量の原理で距離を計測する。
(2) The same scene is photographed from different angles using a plurality of cameras, the corresponding points in the images photographed by the cameras are obtained, and the distance is measured by the principle of triangulation.

【0004】(3) カメラと光のパターンなどを投影す
る投影器を用いて、三角測量の原理で計測するなどの方
法がある[参考文献:オプトエレクトロニクス(1985),N
o.12,pp.59-,井口征士ほか]。そして、距離画像データ
より複数の解像度の法線ベクトルを作成し、この距離画
像データと法線ベクトルより複数のエッジマップデータ
を作成して複数の大きさを持つポリゴンデータを生成
し、そのポリゴンデータを三角形に分割することにより
三角形パッチを生成して、対象物体の形状データを生成
していた。
(3) There is a method such as measurement using the principle of triangulation using a camera and a projector for projecting a light pattern etc. [Reference: Optoelectronics (1985), N
o.12, pp.59-, Seiji Iguchi and others]. Then, normal vectors with multiple resolutions are created from the range image data, and multiple edge map data are created from the range image data and the normal vectors to create polygon data having multiple sizes. A triangular patch is generated by dividing the triangle into triangles, and the shape data of the target object is generated.

【0005】[0005]

【発明が解決しようとする課題】しかしながら上記従来
例によれば、鏡の回転を利用して光を2次元的に対象物
体上を走査させたり、固定したカメラを用いて対象物体
を撮像するので、表面に現れない対象物体の裏や上面、
底面を測定することができない。このため、対象物体を
全方位から見た3次元の形状データを生成できないとい
う問題点があった。
However, according to the above-described conventional example, the rotation of the mirror is used to two-dimensionally scan the light on the target object, or the fixed camera is used to image the target object. , The back or top of the target object that does not appear on the surface,
The bottom surface cannot be measured. Therefore, there is a problem that three-dimensional shape data of the target object viewed from all directions cannot be generated.

【0006】本発明は上記従来例に鑑みてなされたもの
で、複数方向から入力した距離画像データを基に独立に
生成した複数の3次元形状データを1つに統合し、対象
物体の完全な幾何形状データを作成することができる3
次元形状データ統合方法及びその装置を提供することを
目的とする。
The present invention has been made in view of the above-mentioned conventional example, and integrates a plurality of three-dimensional shape data independently generated based on range image data input from a plurality of directions into a single object, and completes the target object. Geometric data can be created 3
An object of the present invention is to provide a dimensional shape data integration method and apparatus.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に本発明の3次元形状データ統合装置は以下のような構
成を備える。即ち、対象物を表わす複数の3次元形状デ
ータを格納する格納手段と、前記複数の3次元形状デー
タ同士の位置合わせを行なう位置合せ手段と、前記位置
合せ手段により位置合わせを行なった複数の3次元形状
データに対して、前記複数の3次元形状データの境界近
傍に切断面を設定する切断面設定手段と、前記切断面に
より分離された部分形状データを求める形状分割手段
と、前記切断面毎に、前記部分形状データの切断面を挟
む領域のデータを2次元座標系で表現し、ドロネー網を
用いて該領域に三角形パッチデータを生成して前記複数
の3次元形状データを統合する統合手段とを有する。
In order to achieve the above object, the three-dimensional shape data integration device of the present invention has the following configuration. That is, storage means for storing a plurality of three-dimensional shape data representing an object, alignment means for aligning the plurality of three-dimensional shape data with each other, and a plurality of three alignment means for performing alignment by the alignment means. With respect to the dimensional shape data, a cutting plane setting means for setting a cutting plane near the boundary of the plurality of three-dimensional shape data, a shape dividing means for obtaining partial shape data separated by the cutting plane, and each cutting plane. In addition, integration means for expressing data of a region sandwiching a cut surface of the partial shape data in a two-dimensional coordinate system, generating triangular patch data in the region using a Delaunay network, and integrating the plurality of three-dimensional shape data. Have and.

【0008】また、上記目的を達成するために本発明の
3次元形状データ統合方法は以下のような工程を備え
る。即ち、対象物を表わす複数の3次元形状データを格
納する工程と、前記複数の3次元形状データ同士の位置
合わせを行なう工程と、前記位置合わせを行なった複数
の3次元形状データに対して、前記複数の3次元形状デ
ータの境界近傍に切断面を設定する工程と、前記切断面
により分離された部分形状データを求める工程と、前記
切断面毎に、前記部分形状データの切断面を挟む領域の
データを2次元座標系で表現し、ドロネー網を用いて該
領域に三角形パッチデータを生成する工程とを有する。
In order to achieve the above object, the three-dimensional shape data integration method of the present invention comprises the following steps. That is, a step of storing a plurality of three-dimensional shape data representing an object, a step of aligning the plurality of three-dimensional shape data with each other, and a plurality of three-dimensional shape data after the alignment are performed, A step of setting a cutting plane near the boundary of the plurality of three-dimensional shape data, a step of obtaining partial shape data separated by the cutting plane, and a region sandwiching the cutting plane of the partial shape data for each cutting plane. Data is expressed in a two-dimensional coordinate system, and triangular patch data is generated in the area using a Delaunay network.

【0009】[0009]

【作用】以上の構成において、対象物を表わす複数の3
次元形状データを格納し、それら複数の3次元形状デー
タ同士の位置合わせを行ない、その位置合わせを行なっ
た複数の3次元形状データに対して、複数の3次元形状
データの境界近傍に切断面を設定する。そして、この切
断面により分離された部分形状データを求め、その切断
面毎に、部分形状データの切断面を挟む領域のデータを
2次元座標系で表現し、ドロネー網を用いて該領域に三
角形パッチデータを生成するして統合するように動作す
る。
In the above structure, a plurality of three objects representing the object
The three-dimensional shape data is stored, the plurality of three-dimensional shape data are aligned with each other, and a cutting plane is provided near the boundary of the plurality of three-dimensional shape data with respect to the plurality of aligned three-dimensional shape data. Set. Then, the partial shape data separated by the cut surface is obtained, and the data of the area sandwiching the cut surface of the partial shape data is expressed in a two-dimensional coordinate system for each cut surface, and the triangle is formed in the area using the Delaunay network. Operates to generate and integrate patch data.

【0010】[0010]

【実施例】以下、添付図面を参照して本発明の好適な実
施例を詳細に説明する。以下、本実施例を説明する前
に、本実施例の3次元形状データ統合方法の概要を図1
を参照して説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will now be described in detail with reference to the accompanying drawings. Before describing the present embodiment, the outline of the three-dimensional shape data integration method of the present embodiment will be described below with reference to FIG.
Will be described with reference to.

【0011】本実施例の3次元形状データ統合装置で
は、距離画像データから生成される対象物の形状を表
す、三角形ポリゴンデータ101,102を入力する。
ここで、入力される形状データが1つだけでは、対象物
体を一方から見た、或は対象画像の一部だけの形状を表
現しているにすぎない場合がある。例えば、対象物体を
上方から観察して入力される距離画像から生成される形
状データには、その対象物体の側面や底面の形状が表現
されていない。そこで、その対象物体を別の方向から表
現した3次元のポリゴンデータを複数入力する必要があ
る。図1の103は格納される形状データを示し、10
4は形状データ102を回転させたデータを示してい
る。
In the three-dimensional shape data integration device of this embodiment, triangular polygon data 101 and 102 representing the shape of an object generated from range image data are input.
Here, if only one piece of shape data is input, the shape of the target object viewed from one side or only a part of the target image may be represented. For example, the shape data generated from the distance image input by observing the target object from above does not represent the shape of the side surface or the bottom surface of the target object. Therefore, it is necessary to input a plurality of three-dimensional polygon data representing the target object from different directions. Reference numeral 103 in FIG. 1 denotes stored shape data, and 10
Reference numeral 4 denotes data obtained by rotating the shape data 102.

【0012】このように複数の形状データを入力する場
合、入力される形状データ101,102のそれぞれは
独自の座標系で構成されている場合がある。このような
場合には、個々の座標系の間の位置関係(必要に応じて
平行移動と回転を行う)の整合をとり、全ての形状デー
タを1つの世界座標系で表現できるように、位置合わせ
を行なう(図1の105で示す)。本実施例では、この
工程は操作者による対話操作により行なう。
When a plurality of pieces of shape data are input as described above, each of the input shape data 101 and 102 may have its own coordinate system. In such a case, the positional relationship between each coordinate system (parallel movement and rotation is performed as necessary) is matched, and all shape data can be expressed in one world coordinate system. Matching is performed (indicated by 105 in FIG. 1). In this embodiment, this step is performed by an interactive operation by the operator.

【0013】次に、互いに共有する部分を有する2つの
形状データを選択し、これら2つの形状データにおける
重なり合った部分に切断面(図1の109)を設定す
る。そして、この切断面を境界として、上記の2つの形
状データが後の処理で統合する。なお、この切断面は必
ず2つの形状データの重複する部分に設定される。本実
施例では、この工程は操作者による対話操作により行な
う。
Next, two pieces of shape data having portions which are shared with each other are selected, and a cut surface (109 in FIG. 1) is set in the overlapping portion of these two pieces of shape data. Then, with the cutting plane as a boundary, the above two pieces of shape data are integrated in the subsequent processing. It should be noted that this cut surface is always set to the overlapping portion of the two shape data. In this embodiment, this step is performed by an interactive operation by the operator.

【0014】更に、この切断面で、個々の形状データを
2つの部分に分割し、その内の1つの部分を選択する。
この部分を選択する際には、精度が高く、より多くのデ
ータが含まれる部分形状データを選択する。こうして2
つの形状データから1つずつ部分形状データが選択され
る。
Further, on this cutting plane, each shape data is divided into two parts, and one part is selected.
When selecting this part, the partial shape data with high accuracy and including more data is selected. Thus 2
The partial shape data is selected one by one from the one shape data.

【0015】次に、これら2つの部分形状データを統合
する。そのために、一方の部分形状データの内、切断面
に隣接している点データを、他方の部分形状データの座
標系(3次元座標系)に変換する。さらに、後者の部分座
標データ中で切断面に隣接する点データと共に、適当な
画像の座標系(2次元座標系)に射影する。そして、この
座標系上に射影された点データを用いて、ドロネー三角
網を生成する。こうして生成される三角網の接続関係
を、切断面を境界に接している元の点データの接続関係
とし、その切断面を挟んで三角形パッチの存在しない領
域に三角形パッチを生成する。そして、個々の部分形状
データと、生成される三角形パッチとにより、元の2つ
の形状データを統合する。そして最後に、このようにし
て統合された対象物体の形状データを、他のアプリケー
ションで利用できるように出力する。
Next, these two partial shape data are integrated. For that purpose, the point data adjacent to the cut surface in one of the partial shape data is converted into the coordinate system (three-dimensional coordinate system) of the other partial shape data. Furthermore, in the latter partial coordinate data, it is projected on a coordinate system (two-dimensional coordinate system) of an appropriate image together with the point data adjacent to the cut surface. Then, the Delaunay triangulation is generated using the point data projected on this coordinate system. The connection relationship of the triangular nets thus generated is used as the connection relationship of the original point data that is in contact with the cut surface as a boundary, and the triangle patch is generated in the area where the triangle patch does not exist across the cut surface. Then, the original two shape data are integrated by the individual partial shape data and the generated triangle patch. Finally, the shape data of the target object thus integrated is output so that it can be used by another application.

【0016】以下、本実施例の3次元形状データ統合装
置について詳細に説明する。
The three-dimensional shape data integration device of this embodiment will be described in detail below.

【0017】図2は、本発明の一実施例による3次元形
状データ統合装置の基本構成を表すブロック図である。
FIG. 2 is a block diagram showing the basic configuration of a three-dimensional shape data integration device according to an embodiment of the present invention.

【0018】図2において、201は記憶装置で、CP
U203により実行される処理手順を記述したプログラ
ムやデータ等を記憶している。202は処理に必要な情
報及び入出力データを記憶するための記憶装置である。
CPU203は、記憶装置201に記憶された処理手順
を記述する制御プログラムに従って各種制御処理を行な
っている。204は、液晶やCRT等の表示部で、処理
に必要な情報や、3次元形状データなどを表示する。2
05はバリュエータで、操作者が形状データの平行移動
や回転を指示するのに使用される。206はキーボード
で、ユーザからのデータや各種指示を入力するのに使用
される。207はマウス等のポインティングデバイス
で、表示部204の表示画面上でマウスカーソルの移動
を指示したり、各種コマンドやメニューなどを指示する
のに使用される。208はインターフェース部で、図示
しない外部機器とのデータの交換を行なうために使用さ
れる。
In FIG. 2, reference numeral 201 denotes a storage device, which is a CP.
The program, data, and the like describing the processing procedure executed by U203 are stored. A storage device 202 stores information and input / output data necessary for processing.
The CPU 203 performs various control processes according to a control program that describes the processing procedure stored in the storage device 201. A display unit 204 such as a liquid crystal display or a CRT displays information necessary for processing, three-dimensional shape data, and the like. Two
Reference numeral 05 denotes a valuator, which is used by the operator to instruct parallel movement and rotation of shape data. A keyboard 206 is used to input data and various instructions from the user. A pointing device 207, such as a mouse, is used for instructing the movement of the mouse cursor on the display screen of the display unit 204 and for instructing various commands and menus. An interface unit 208 is used for exchanging data with an external device (not shown).

【0019】図3は、本実施例の3次元形状データの統
合装置の記憶装置202に格納される形状データファイ
ル、即ち三角形ポリゴンデータのデータフォーマットを
示す図である。
FIG. 3 is a diagram showing a data format of a shape data file, that is, triangular polygon data stored in the storage device 202 of the three-dimensional shape data integrating device of this embodiment.

【0020】図3において、21は対象物体1の形状を
表す形状データである。識別子22(ID0)と、頂点座
標23(IDp,X,Y,Z)と、頂点間の接続情報2
5が記述されている。撮影条件27は、形状データを生
成する基となる距離画像の撮影条件、または複数の形状
データが統合された形状データの場合、元の形状データ
の情報が記憶されている。28はデリミタであり、各対
象物体情報の区切りを表している。このデリミタ28を
用いて複数の対象物体のポリゴンデータを格納できる。
In FIG. 3, reference numeral 21 is shape data representing the shape of the target object 1. Identifier 22 (ID0), vertex coordinates 23 (IDp, X, Y, Z), and connection information 2 between vertices
5 is described. As the shooting condition 27, information on the original shape data is stored in the case of the shooting condition of the range image that is the basis for generating the shape data, or in the case of shape data in which a plurality of shape data are integrated. 28 is a delimiter, which represents a delimiter of each target object information. The delimiter 28 can be used to store polygon data of a plurality of target objects.

【0021】頂点データ23は、対象物体の形状データ
に含まれる全ての三角形パッチの頂点の3次元座標(X,
Y,Z)に識別子IDpを付与したデータである。デリミ
タ24は、頂点データ23と接続情報25との区切りを
表している。接続情報25は、ポリゴンデータの接続情
報を表しており、3つの頂点の識別子を一組として1つ
の三角形を表している。26はデリミタであり、接続情
報25と撮影条件27との区切りを表している。デリミ
タ26は、接続情報25と撮影条件27の区切りを表し
ている。デリミタ28は1つの対象物体の形状データの
終了を表すコード、EOF29は、形状データファイル
の終了を表すコードである。
The vertex data 23 is the three-dimensional coordinate (X, X of the vertices of all triangular patches included in the shape data of the target object.
It is data in which the identifier IDp is added to (Y, Z). The delimiter 24 represents a delimiter between the vertex data 23 and the connection information 25. The connection information 25 represents connection information of polygon data, and represents one triangle with a set of identifiers of three vertices. Reference numeral 26 is a delimiter, which represents a delimiter between the connection information 25 and the shooting condition 27. The delimiter 26 represents a delimiter between the connection information 25 and the shooting condition 27. The delimiter 28 is a code indicating the end of the shape data of one target object, and the EOF 29 is a code indicating the end of the shape data file.

【0022】次に、本実施例の3次元形状データの統合
装置の記憶装置202に格納された形状データを用いて
3次元形状データを統合する手順を図4のフローチャー
トを参照して説明する。この処理を実行するプログラム
は記憶装置201に記憶されており、CPU203の制
御の下に実行される。
Next, the procedure for integrating the three-dimensional shape data using the shape data stored in the storage device 202 of the three-dimensional shape data integrating apparatus of this embodiment will be described with reference to the flowchart of FIG. A program for executing this process is stored in the storage device 201 and executed under the control of the CPU 203.

【0023】まずステップS1で、形状データを記憶し
ている形状データファイルを、記憶装置202から読み
込む。この形状データファイルのデータフォーマットは
図3に示すようであり、1つの形状データファイルには
複数の形状データが含まれるが、ステップS2で示すよ
うに、複数の形状データファイルを読み込んで、複数の
形状データを読み込むようにしても良い。
First, in step S1, a shape data file storing shape data is read from the storage device 202. The data format of this shape data file is as shown in FIG. 3, and one shape data file includes a plurality of shape data. However, as shown in step S2, a plurality of shape data files are read and a plurality of shape data files are read. The shape data may be read.

【0024】次にステップS3に進み、ステップS1で
読み込まれたて記憶された形状データに基づく画像を表
示部204の画面に表示する。ここで各形状データが独
自の座標系に基づいて構成されている場合には、表示部
204の画面に映しだされた各形状データを見ながら、
オペレータがキーボード206及びバリュエータ205
を操作して、個々の座標系の間の位置関係(必要に応じ
て平行移動や回転等を実行して)の整合をとり、全ての
形状データが1つの世界座標系で表現できるように位置
合わせを行なう。ここでは、3次元空間内での平行移動
と回転の自由度は“6”であるので、本実施例では6つ
の自由度を、オペレータが対話的に指定することにより
位置合わせを行なっている。
Next, in step S3, an image based on the shape data read and stored in step S1 is displayed on the screen of the display unit 204. Here, when each shape data is configured based on its own coordinate system, while looking at each shape data displayed on the screen of the display unit 204,
The operator operates the keyboard 206 and the valuator 205.
To adjust the positional relationship between individual coordinate systems (by performing translation, rotation, etc., if necessary), and position all shape data so that they can be expressed in one world coordinate system. Make a match. Here, since the degree of freedom of translation and rotation in the three-dimensional space is "6", the operator interactively designates the six degrees of freedom in this embodiment to perform alignment.

【0025】そしてステップS4に進み、全ての(図1
の例では2つの)形状データを選択し、それらの図形が
重なった部分に切断面を設定する(ステップS5)。この
ステップS5も、表示部の画面上に映しだされた各形状
データをオペレータが見ながら、キーボード206及び
バリュエータ205を操作して行なう。さらに、この切
断面で、個々の形状データを2つの部分に分割し、個々
の形状データにおいて、統合後の形状データとして残す
部分の形状データを選択する(ステップS6)。これによ
り切断面を挟む2つの部分形状データが選択される。次
にステップS7に進み、これら2つの部分形状データ同
士を統合する(ステップS7)。そしてステップS8で
は、上記の処理による形状統合を、全ての形状データが
統合されるまで繰り返し、全ての形状データが統合され
るとステップS9に進み、このようにして統合された対
象物体の形状データを、図3で示すフォーマットの形状
データファイルとして出力する。
Then, the process proceeds to step S4 and all (FIG.
In this example, two pieces of shape data are selected, and a cutting plane is set at a portion where those figures overlap (step S5). This step S5 is also performed by operating the keyboard 206 and the valuator 205 while the operator sees each shape data displayed on the screen of the display unit. Further, on this cutting plane, each shape data is divided into two parts, and the shape data of the part to be left as the shape data after integration in each shape data is selected (step S6). As a result, two pieces of partial shape data sandwiching the cut surface are selected. Next, the process proceeds to step S7, and these two partial shape data are integrated (step S7). Then, in step S8, the shape integration by the above processing is repeated until all the shape data are integrated, and when all the shape data are integrated, the process proceeds to step S9, and the shape data of the target object integrated in this way is integrated. Is output as a shape data file in the format shown in FIG.

【0026】図5は、図4のステップS6の形状分割処
理を示すフローチャートで、この処理は、2つの形状デ
ータそれぞれに対して実行される。
FIG. 5 is a flow chart showing the shape division processing in step S6 of FIG. 4, and this processing is executed for each of the two shape data.

【0027】まずステップS11で、形状データに含ま
れる頂点の集合を、切断面を境界とする2つの部分に分
割する。即ち、頂点の3次元座標を(x1,y1,z1),切
断面の方程式をax+by+cz+d=0とすると、a
x1+by1+cz1+d≧0 と ax1+by1+cz1
+d<0とで示されるの2つの部分に分割される。これ
により、頂点の集合が2つの部分集合AとBに分割され
ることになる。次にステップS12に進み、形状データ
のポリゴンデータの頂点と頂点を結ぶ辺P1P2に対し
て、両端点P1,P2が部分集合AまたはBのどちらに属
するかを求める。そして、両端点がそれぞれ部分集合A
とBに属する頂点の場合、即ち、 ((P1∈A)∧(P2∈B))∨((P1∈B)∧(P2∈A)) が真かどうかを判定し(ステップS13)、真であれば
ステップS14に進む。ステップS14では、その辺P
1P2が切断面により切断されていることを示しているた
め、その辺P1P2をポリゴンデータから削除する。この
処理を、ポリゴンデータの全ての辺に対して行ない、全
ての辺に対する処理が終了するとステップS15からス
テップS16に進み、頂点の部分集合A又はBに属する
頂点のみにより構成されるポリゴンデータDA,DBが生
成される。そしてステップS16で、統合後のデータと
して残すポリゴンデータを、ポリゴンデータDA,DBよ
り1つだけ選択する。この選択ステップは、表示部20
4の画面上に表示された2つのポリゴンデータDA,DB
の形状を観察しながら、オペレータがマウス207やキ
ーボード206を使用して対話的に選択する。
First, in step S11, a set of vertices included in the shape data is divided into two parts having a cutting plane as a boundary. That is, if the three-dimensional coordinates of the vertices are (x1, y1, z1) and the equation of the cutting plane is ax + by + cz + d = 0, a
x1 + by1 + cz1 + d ≧ 0 and ax1 + by1 + cz1
It is divided into two parts indicated by + d <0. As a result, the set of vertices is divided into two subsets A and B. Next, in step S12, it is determined whether the end points P1 and P2 belong to the subset A or B with respect to the side P1P2 connecting the vertices of the polygon data of the shape data. Then, the endpoints are each a subset A
And a vertex belonging to B, that is, ((P1εA) ∧ (P2εB)) ∨ ((P1εB) ∧ (P2εA)) is true (step S13). If so, the process proceeds to step S14. In step S14, the side P
Since 1P2 indicates that it is cut by the cut surface, its side P1P2 is deleted from the polygon data. This processing is performed for all sides of the polygon data, and when the processing for all sides is completed, the process proceeds from step S15 to step S16, and the polygon data DA composed only of the vertices belonging to the vertex subset A or B, DB is generated. Then, in step S16, only one piece of polygon data to be left as the integrated data is selected from the polygon data DA and DB. This selection step is performed by the display unit 20.
Two polygon data DA and DB displayed on the screen of 4
While observing the shape of, the operator interactively selects using the mouse 207 or the keyboard 206.

【0028】図6は、図4のステップS7で示された形
状統合処理を示すフローチャートである。
FIG. 6 is a flowchart showing the shape integration process shown in step S7 of FIG.

【0029】まずステップS21で、切残面により切断
された2つの部分形状データの個々について、前述の図
5のステップS14で削除された辺P1P2の端点であっ
た頂点を選択する。次にステップS22に進み、ステッ
プS21で選ばれた点群を1つの2次元座標系へ変換す
る。本実施例では、1つのポリゴンパッチD1を生成し
た元の画像の座標系へ、ポリゴンパッチD1及びもう1
つのポリゴンパッチD2から選択された点群を投影す
る。ポリゴンパッチD1に対するステップS3(図4)
での位置合わせのための変換行列をR1(4×4行列),
ポリゴンパッチD1に独自の3次元座標系(形状データフ
ァイルに記録されている座標)と、このポリゴンパッチ
の元となる距離画像の2次元座標系との変換行列をC1
(3×4行列)とすると、世界座標系Wで表現される点
(x,y,z)は、
First, in step S21, the vertex which was the end point of the side P1P2 deleted in step S14 of FIG. 5 is selected for each of the two partial shape data cut by the uncut surface. Next, in step S22, the point group selected in step S21 is converted into one two-dimensional coordinate system. In the present embodiment, the polygon patch D1 and the other one are added to the coordinate system of the original image in which one polygon patch D1 is generated.
A point cloud selected from one polygon patch D2 is projected. Step S3 for polygon patch D1 (Fig. 4)
R1 (4 × 4 matrix) is the transformation matrix for registration in
The conversion matrix of the original three-dimensional coordinate system (coordinates recorded in the shape data file) in the polygon patch D1 and the two-dimensional coordinate system of the distance image which is the source of this polygon patch is C1.
If (3 x 4 matrix), the points represented in the world coordinate system W
(x, y, z) is

【0030】[0030]

【数1】[Equation 1]

【0031】 で計算される2次元座標(I,J)へ変換される。この投
影の際必要な変換パラメータC1は、ポリゴンパッチD1
を記述した形状データの撮影条件27(図3)に記憶さ
れている。
[0031] It is converted to the two-dimensional coordinates (I, J) calculated by. The conversion parameter C1 necessary for this projection is the polygon patch D1.
Is stored in the imaging condition 27 (FIG. 3) of the shape data describing

【0032】次にステップS23に進み、投影された点
群を用いて2次元座標上でドロネー網を生成する。[参
考文献:情報処理(1989),Vol.30,No.9,pp.1067-1075,杉
原厚吉]。ドロネー網の辺の内、ポリゴンパッチD1の
頂点とD2の頂点とを接続する辺を選択し、この接続関
係をポリゴンパッチD1及びD2に付加する(ステップS
24)。これにより、元のポリゴンパッチD1及びD2に
存在した隙間がポリゴンパッチで接続され、両データの
統合が行なえる。
Next, in step S23, the Delaunay network is generated on the two-dimensional coordinates using the projected point group. [Reference: Information Processing (1989), Vol.30, No.9, pp.1067-1075, Kokichi Sugihara]. Among the edges of the Delaunay network, the edge connecting the vertex of the polygon patch D1 and the vertex of D2 is selected, and this connection relationship is added to the polygon patches D1 and D2 (step S
24). As a result, the gaps existing in the original polygon patches D1 and D2 are connected by the polygon patch, and both data can be integrated.

【0033】この処理の流れを図7の模式図で示す。The flow of this processing is shown in the schematic diagram of FIG.

【0034】図7において、701は、切断面を境に形
状データを分割した例を示し、702は、ポリゴンデー
タより削除された辺の端点を選択した(S21)結果を
示す。703は、こうして選択された端点を1つの2次
元座標系に変換した(S22)例を示している。そして
704は、これら2次元座標系に変換された端点を用い
て、ドロネー網を生成した例を示している。705は、
これらドロネー網の辺の内、切断面の上側のポリゴンバ
ッチの頂点と切断面の下側のポリゴンバッチの頂点とを
接続する辺を選択し、これら選択された辺に基づく接続
関係を追加する。これにより切断面を挟む形状データ同
士が接続されたことになる。
In FIG. 7, reference numeral 701 shows an example in which the shape data is divided at the cutting plane, and 702 shows the result of selecting the end points of the sides deleted from the polygon data (S21). Reference numeral 703 represents an example in which the endpoints thus selected are converted into one two-dimensional coordinate system (S22). Then, 704 shows an example in which the Delaunay network is generated using the end points converted into these two-dimensional coordinate systems. 705 is
Among these edges of the Delaunay network, edges that connect the vertices of the polygon batch above the cut surface and the vertices of the polygon batch below the cut surface are selected, and a connection relationship based on these selected edges is added. As a result, the shape data pieces sandwiching the cut surface are connected to each other.

【0035】[第2実施例]図8は本発明の第2実施例
の3次元形状データの統合装置の概略構成を示すブロッ
ク図で、前述の図2の構成と共通する部分は同じ番号で
示し、それらの説明を省略する。。
[Second Embodiment] FIG. 8 is a block diagram showing a schematic structure of an apparatus for integrating three-dimensional shape data according to a second embodiment of the present invention. The same parts as those in FIG. The description is omitted here. .

【0036】図8では、208は、液晶シャッタ眼鏡或
は偏光フィルタ眼鏡で、この眼鏡208と表示部204
とを用いることにより、3次元形状データを立体的に観
察することができる。これにより、オペレータが、前述
した図4のステップS3やS5の操作を効率的に行なう
ことが可能である。
In FIG. 8, reference numeral 208 denotes liquid crystal shutter glasses or polarization filter glasses, which are the glasses 208 and the display section 204.
By using and, three-dimensional shape data can be observed three-dimensionally. As a result, the operator can efficiently perform the operations of steps S3 and S5 of FIG. 4 described above.

【0037】またこの場合、前述の図4の処理の代わり
に、図9に示す処理の流れを実行しても、その効果は変
わらない。
In this case, even if the processing flow shown in FIG. 9 is executed instead of the processing shown in FIG. 4, the effect is the same.

【0038】この図9のフローチャートと図4のフロー
チャートとを比較すると、ステップS31とS32、及
びステップS35〜S39は、それぞれ図4のステップ
S1,S2とステップS5〜S9に対応しており、図4
のステップS3,S4が図9のステップS33,S34
のように順番が入れ替えられているだけである。従っ
て、図9のフローチャートでは、統合する2つの対象物
体の形状データを選択した後、それら2つについてのみ
位置合わせを行なう。
Comparing the flowchart of FIG. 9 with the flowchart of FIG. 4, steps S31 and S32, and steps S35 to S39 correspond to steps S1 and S2 and steps S5 to S9 of FIG. 4, respectively. Four
Steps S3 and S4 are steps S33 and S34 of FIG.
The order is only changed like. Therefore, in the flowchart of FIG. 9, after selecting the shape data of the two target objects to be integrated, alignment is performed only for those two.

【0039】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、本発明はシステム或は装置に本発明
を実施するプログラムを供給することによって達成され
る場合にも適用できる。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. The present invention can also be applied to the case where it is achieved by supplying a program for implementing the present invention to a system or an apparatus.

【0040】以上説明したように本実施例によれば、対
象物体を複数方向から見た距離画像データを基にそれぞ
れ独立に生成したポリゴンパッチデータを1つのデータ
に統合することにより、対象物体の形状を表わす欠如部
分のない幾何形状データを生成することができる。この
ような幾何形状データを用いることにより、CADやバ
ーチャルリアリティ等で利用できる形状モデルの高機能
化が可能となる。
As described above, according to this embodiment, the polygon patch data independently generated based on the distance image data of the target object viewed from a plurality of directions are integrated into one data, thereby It is possible to generate geometric shape data that is free of defects that represent a shape. By using such geometric shape data, it is possible to enhance the functionality of the shape model that can be used in CAD, virtual reality, or the like.

【0041】[0041]

【発明の効果】以上説明したように本発明によれば、複
数方向から入力した距離画像データを基に独立に生成し
た複数の3次元形状データを1つに統合し、対象物体の
完全な幾何形状データを作成することができる効果があ
る。
As described above, according to the present invention, a plurality of three-dimensional shape data independently generated on the basis of range image data input from a plurality of directions are integrated into one, and a complete geometry of a target object is obtained. There is an effect that shape data can be created.

【0042】また本発明によれば、複数の方向から対象
物を捉えた3次元形状データに基づいて対象物体の完全
な形状データを容易に作成することができる。
Further, according to the present invention, complete shape data of the target object can be easily created based on the three-dimensional shape data obtained by capturing the target object from a plurality of directions.

【0043】[0043]

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例における3次元形状データを統合する
工程を示す模式図である。
FIG. 1 is a schematic diagram showing a process of integrating three-dimensional shape data in this embodiment.

【図2】本発明の実施例の3次元形状データ統合装置の
概略構成を示すブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of a three-dimensional shape data integration device according to an embodiment of the present invention.

【図3】本実施例で扱う三角形ポリゴンデータの形状デ
ータのデータフォーマットを示す図である。
FIG. 3 is a diagram showing a data format of shape data of triangular polygon data handled in this embodiment.

【図4】本実施例の3次元形状データ統合処理の流れを
示すフローチャートである。
FIG. 4 is a flowchart showing the flow of a three-dimensional shape data integration process of this embodiment.

【図5】本実施例の3次元形状データ統合処理における
ステップS6の形状分割処理の流れを示すフローチャー
トである。
FIG. 5 is a flow chart showing the flow of shape division processing in step S6 in the three-dimensional shape data integration processing of this embodiment.

【図6】本実施例の3次元形状データ統合処理における
ステップS7の形状統合処理の流れを示すフローチャー
トである。
FIG. 6 is a flowchart showing the flow of the shape integration process of step S7 in the three-dimensional shape data integration process of this embodiment.

【図7】本実施例における3次元形状データ統合処理を
示す模式図である。
FIG. 7 is a schematic diagram showing a three-dimensional shape data integration process in this embodiment.

【図8】本発明の他の実施例の3次元形状データ統合装
置の機器構成を示すブロック図である。
FIG. 8 is a block diagram showing a device configuration of a three-dimensional shape data integration device according to another embodiment of the present invention.

【図9】他の実施例の3次元形状データ統合処理の流れ
を示すフローチャートである。
FIG. 9 is a flowchart showing the flow of a three-dimensional shape data integration process of another embodiment.

【符号の説明】[Explanation of symbols]

22 識別子 23 頂点データ 24,26,28 デリミタ 25 ポリゴンデータ 27 撮影条件 201 記憶装置 202 記憶装置 203 CPU 204 表示部 205 バリュエータ 206 キーボード 207 マウス 208 立体視用メガネ 22 identifier 23 vertex data 24, 26, 28 delimiter 25 polygon data 27 shooting conditions 201 storage device 202 storage device 203 CPU 204 display unit 205 valuator 206 keyboard 207 mouse 208 stereoscopic glasses

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 対象物を表わす複数の3次元形状データ
を格納する工程と、 前記複数の3次元形状データ同士の位置合わせを行なう
工程と、 前記位置合わせを行なった複数の3次元形状データに対
して、前記複数の3次元形状データの境界近傍に切断面
を設定する工程と、 前記切断面により分離された部分形状データを求める工
程と、 前記切断面毎に、前記部分形状データの切断面を挟む領
域のデータを2次元座標系で表現し、ドロネー網を用い
て該領域に三角形パッチデータを生成する工程と、を有
することを特徴とする3次元形状データ統合方法。
1. A step of storing a plurality of three-dimensional shape data representing an object; a step of aligning the plurality of three-dimensional shape data with each other; On the other hand, a step of setting a cut surface near the boundary of the plurality of three-dimensional shape data, a step of obtaining partial shape data separated by the cut surface, and a cut surface of the partial shape data for each cut surface. And a step of expressing data of a region sandwiching the area by a two-dimensional coordinate system and generating triangular patch data in the region using a Delaunay network, the method of integrating three-dimensional shape data.
【請求項2】 対象物を表わす複数の3次元形状データ
を格納する工程と、 前記複数の3次元形状データに対し2つの形状データ毎
に、前記3次元形状データの境界近傍に切断面を設定す
る工程と、 前記切断面により分離された部分形状データを求める工
程と、 前記切断面毎に、前記部分形状データの切断面を挟む領
域のデータを2次元座標系で表現し、ドロネー網を用い
て該領域に三角形パッチデータを生成する工程と、を有
することを特徴とする3次元形状データ統合方法。
2. A step of storing a plurality of three-dimensional shape data representing an object, and a cutting plane is set in the vicinity of a boundary of the three-dimensional shape data for every two shape data for the plurality of three-dimensional shape data. And a step of obtaining partial shape data separated by the cut surface, and data of a region sandwiching the cut surface of the partial shape data is expressed in a two-dimensional coordinate system for each cut surface, and a Delaunay network is used. And generating triangle patch data in the area.
【請求項3】 前記三角形パッチデータを追加した統合
データを作成して保存する工程を更に有することを特徴
とする請求項1又は2に記載の3次元形状データの統合
方法。
3. The three-dimensional shape data integration method according to claim 1, further comprising the step of creating and saving integrated data to which the triangle patch data is added.
【請求項4】 前記3次元形状データは、三角形パッチ
により表現されたデータであることを特徴とする請求項
1〜3項のいずれか1項に記載の3次元形状データの統
合方法。
4. The method for integrating three-dimensional shape data according to claim 1, wherein the three-dimensional shape data is data represented by a triangular patch.
【請求項5】 前記3次元形状データは、各三角形の頂
点座標及び各頂点同士の接続情報を含むことを特徴とす
る請求項4に記載の3次元形状データの統合方法。
5. The method for integrating three-dimensional shape data according to claim 4, wherein the three-dimensional shape data includes vertex coordinates of each triangle and connection information of each vertex.
【請求項6】 対象物を表わす複数の3次元形状データ
を格納する格納手段と、 前記複数の3次元形状データ同士の位置合わせを行なう
位置合せ手段と、 前記位置合せ手段により位置合わせを行なった複数の3
次元形状データに対して、前記複数の3次元形状データ
の境界近傍に切断面を設定する切断面設定手段と、 前記切断面により分離された部分形状データを求める形
状分割手段と、 前記切断面毎に、前記部分形状データの切断面を挟む領
域のデータを2次元座標系で表現し、ドロネー網を用い
て該領域に三角形パッチデータを生成して前記複数の3
次元形状データを統合する統合手段と、を有することを
特徴とする3次元形状データ統合装置。
6. Storage means for storing a plurality of three-dimensional shape data representing an object, alignment means for aligning the plurality of three-dimensional shape data with each other, and alignment by the alignment means. Multiple 3
Cutting plane setting means for setting a cutting plane near the boundary of the plurality of three-dimensional shape data with respect to the three-dimensional shape data; shape dividing means for obtaining partial shape data separated by the cutting plane; In addition, the data of the area sandwiching the cut surface of the partial shape data is expressed in a two-dimensional coordinate system, the triangular patch data is generated in the area using a Delaunay network, and the plurality of 3
A three-dimensional shape data integration device, comprising: integration means for integrating three-dimensional shape data.
【請求項7】 対象物を表わす複数の3次元形状データ
を格納する格納手段と、 前記複数の3次元形状データに対し2つの形状データ毎
に、前記3次元形状データの境界近傍に切断面を設定す
る設定手段と、 前記切断面により分離された部分形状データを求める形
状分割手段と、 前記切断面毎に、前記部分形状データの切断面を挟む領
域のデータを2次元座標系で表現し、ドロネー網を用い
て該領域に三角形パッチデータを生成して前記複数の3
次元形状データを統合する統合手段と、を有することを
特徴とする3次元形状データ統合装置。
7. Storage means for storing a plurality of three-dimensional shape data representing an object, and cutting planes for every two shape data for the plurality of three-dimensional shape data near a boundary of the three-dimensional shape data. Setting means for setting, shape dividing means for obtaining partial shape data separated by the cut surface, and data of a region sandwiching the cut surface of the partial shape data is expressed in a two-dimensional coordinate system for each cut surface, The triangular patch data is generated in the area using the Delaunay network to generate the plurality of 3
A three-dimensional shape data integration device, comprising: integration means for integrating three-dimensional shape data.
【請求項8】 前記3次元形状データは、三角形パッチ
により表現されたデータであることを特徴とする請求項
6又は7項に記載の3次元形状データの統合装置。
8. The apparatus for integrating three-dimensional shape data according to claim 6 or 7, wherein the three-dimensional shape data is data represented by a triangular patch.
【請求項9】 前記3次元形状データは、各三角形の頂
点座標及び各頂点同士の接続情報を含むことを特徴とす
る請求項8に記載の3次元形状データの統合装置。
9. The apparatus for integrating three-dimensional shape data according to claim 8, wherein the three-dimensional shape data includes vertex coordinates of each triangle and connection information of each vertex.
JP09491495A 1995-03-17 1995-04-20 3D shape data integration method and apparatus, and 3D image processing method Expired - Fee Related JP3658038B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP09491495A JP3658038B2 (en) 1995-04-20 1995-04-20 3D shape data integration method and apparatus, and 3D image processing method
US08/616,628 US5969725A (en) 1995-03-17 1996-03-15 Unification of three-dimensional image data having plural surface shapes
DE69622900T DE69622900T2 (en) 1995-03-17 1996-03-15 Method and device for three-dimensional image processing
EP96301800A EP0732672B1 (en) 1995-03-17 1996-03-15 Three-dimensional image processing method and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09491495A JP3658038B2 (en) 1995-04-20 1995-04-20 3D shape data integration method and apparatus, and 3D image processing method

Publications (2)

Publication Number Publication Date
JPH08293042A true JPH08293042A (en) 1996-11-05
JP3658038B2 JP3658038B2 (en) 2005-06-08

Family

ID=14123276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09491495A Expired - Fee Related JP3658038B2 (en) 1995-03-17 1995-04-20 3D shape data integration method and apparatus, and 3D image processing method

Country Status (1)

Country Link
JP (1) JP3658038B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240990A (en) * 2004-03-29 2004-08-26 Fujitsu Ltd Three-dimensional model preparation device and method, and computer-readable recording medium having three-dimensional model preparation program recorded thereon
US7148904B2 (en) 2003-07-25 2006-12-12 Konica Minolta Holdings, Inc. Method and apparatus for merging meshes, and computer readable medium
US7295698B2 (en) 2002-03-13 2007-11-13 Olympus Corporation Three-dimensional image photographing apparatus and method capable of acquiring more natural pasted three-dimensional image including texture image
JP2010170288A (en) * 2009-01-22 2010-08-05 Hitachi Ltd Three-dimensional modeling device
JP5022508B1 (en) * 2011-06-02 2012-09-12 三菱重工業株式会社 Shape measurement method
JP2017157208A (en) * 2016-02-26 2017-09-07 株式会社ワン・トゥー・テン・イマジン Three-dimensional model generation method, three-dimensional model generation device, three-dimensional model generation system, and program for generating three-dimensional model
JP2019049533A (en) * 2017-07-28 2019-03-28 ザ・ボーイング・カンパニーThe Boeing Company Resolution adaptive mesh for performing 3-d metrology of object

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295698B2 (en) 2002-03-13 2007-11-13 Olympus Corporation Three-dimensional image photographing apparatus and method capable of acquiring more natural pasted three-dimensional image including texture image
US7148904B2 (en) 2003-07-25 2006-12-12 Konica Minolta Holdings, Inc. Method and apparatus for merging meshes, and computer readable medium
JP2004240990A (en) * 2004-03-29 2004-08-26 Fujitsu Ltd Three-dimensional model preparation device and method, and computer-readable recording medium having three-dimensional model preparation program recorded thereon
JP2010170288A (en) * 2009-01-22 2010-08-05 Hitachi Ltd Three-dimensional modeling device
JP5022508B1 (en) * 2011-06-02 2012-09-12 三菱重工業株式会社 Shape measurement method
WO2012164987A1 (en) * 2011-06-02 2012-12-06 三菱重工業株式会社 Shape measuring method
JP2017157208A (en) * 2016-02-26 2017-09-07 株式会社ワン・トゥー・テン・イマジン Three-dimensional model generation method, three-dimensional model generation device, three-dimensional model generation system, and program for generating three-dimensional model
JP2019049533A (en) * 2017-07-28 2019-03-28 ザ・ボーイング・カンパニーThe Boeing Company Resolution adaptive mesh for performing 3-d metrology of object

Also Published As

Publication number Publication date
JP3658038B2 (en) 2005-06-08

Similar Documents

Publication Publication Date Title
US20210004973A1 (en) Image processing method, apparatus, and storage medium
US6229549B1 (en) High-speed three-dimensional texture mapping systems and methods
US20020113865A1 (en) Image processing method and apparatus
US6081273A (en) Method and system for building three-dimensional object models
EP0732672B1 (en) Three-dimensional image processing method and apparatus therefor
KR100545048B1 (en) System for drawing blind area in aerial photograph and method thereof
CN113870430B (en) Workpiece data processing method and device
CN115641401A (en) Construction method and related device of three-dimensional live-action model
JP3104638B2 (en) 3D image creation device
JP2002071315A (en) Projection planar measuring system
KR20020068151A (en) Digital Photogrammetric System
JP3658038B2 (en) 3D shape data integration method and apparatus, and 3D image processing method
JP6682984B2 (en) Free-viewpoint video display device
CN108875966A (en) A kind of machinery maintenance system and method using AR technology
US10275939B2 (en) Determining two-dimensional images using three-dimensional models
JP2003323603A (en) Stereo matching method, three-dimensional measuring method and device, program for stereo matching method and program for three dimensional measurement
JP3309841B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JP3052926B2 (en) 3D coordinate measuring device
Zhang et al. A visualization progress management approach of bridge construction based on mixed panoramic and oblique photogrammetry
JPH08263696A (en) Three-dimensional object model generating method
Wang et al. Real‐time fusion of multiple videos and 3D real scenes based on optimal viewpoint selection
JP2002135807A (en) Method and device for calibration for three-dimensional entry
JP3630725B2 (en) Three-dimensional shape input device and input method thereof
CN113298868B (en) Model building method, device, electronic equipment, medium and program product
JP2001084408A (en) Method and device for processing three-dimensional data and recording medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080318

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090318

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110318

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120318

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130318

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140318

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees