JP2000357007A - Three-dimensional data processor - Google Patents

Three-dimensional data processor

Info

Publication number
JP2000357007A
JP2000357007A JP11168272A JP16827299A JP2000357007A JP 2000357007 A JP2000357007 A JP 2000357007A JP 11168272 A JP11168272 A JP 11168272A JP 16827299 A JP16827299 A JP 16827299A JP 2000357007 A JP2000357007 A JP 2000357007A
Authority
JP
Japan
Prior art keywords
image
dimensional
work
data processing
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11168272A
Other languages
Japanese (ja)
Inventor
Naoyuki Hirayama
直之 平山
Koji Fujiwara
浩次 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP11168272A priority Critical patent/JP2000357007A/en
Publication of JP2000357007A publication Critical patent/JP2000357007A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional(3D) data processor capable of easily setting a magnification or position to a work. SOLUTION: A planar work image 19a corresponding to a work 19 as the working material of a 3D working machine is prepared. Then, this work image 19a and an object color image 21 corresponding to a distance image 21 expressing the 3D shape data of an object are two-dimensionally matched. Thus, a 3D coordinate system DR3 of the distance image 21 and a 3D coordinate system WR3 of the work 19 can be easily made geometrically correspondent. Therefore, by utilizing this geometrical correspondence, the magnification or position can be easily set to the work.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、立体形状を有する
物体を表現した3次元データを作成するための3次元形
状データ処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape data processing device for creating three-dimensional data representing an object having a three-dimensional shape.

【0002】[0002]

【従来の技術】例えば、特開平9−145319号公報
に開示されるように可搬型の非接触式3次元計測装置
(3次元カメラ)が商品化され、CG(コンピュータグ
ラフィック)システムやCADシステムへのデータ入
力、身体計測、ロボットの視覚認識などに利用されてい
る。非接触の計測方法としては、スリット光投影法(光
切断法)が一般的であるが、他にもパターン光投影法、
ステレオ視法、干渉縞法などが知られている。
2. Description of the Related Art For example, as disclosed in Japanese Patent Application Laid-Open No. 9-145319, a portable non-contact type three-dimensional measuring device (three-dimensional camera) has been commercialized, and has been developed into a CG (computer graphic) system and a CAD system. It is used for data input, body measurement, and visual recognition of robots. As a non-contact measurement method, a slit light projection method (light cutting method) is generally used.
A stereoscopic method, an interference fringe method, and the like are known.

【0003】また、パーソナルコンピュータで利用可能
な3次元CGソフトウェア、及びホビー用の小型の3次
元切削マシンが市販されている。これらを用いれば、一
般家庭でも模型や創作物を手軽に製作することができ
る。
[0003] Also, three-dimensional CG software that can be used in personal computers and small three-dimensional cutting machines for hobbies are commercially available. If these are used, models and creations can be easily manufactured even in ordinary households.

【0004】[0004]

【発明が解決しようとする課題】上述の3次元計測装置
によれば、写真をとるのと同程度の手軽さで人体を含む
各種人物の形状をデータ化することができる。非接触式
であるため、人体を計測する場合であっても、計測対象
者が煩わしさを感じることはない。そこで、この3次元
計測装置を顔写真ならぬ顔面模型の作成に利用すること
が考えられる。つまり、3次元加工機と組み合わせれ
ば、人物の顔を計測して、ワークを加工し、その場で適
当な倍率の模型を作成することが可能である。
According to the three-dimensional measuring apparatus described above, it is possible to convert the shapes of various persons including a human body into data with the same ease as taking a photograph. Since it is a non-contact type, even when measuring a human body, the person to be measured does not feel troublesome. Therefore, it is conceivable to use this three-dimensional measuring device for creating a facial model that is not a facial photograph. That is, when combined with a three-dimensional processing machine, it is possible to measure a person's face, process a workpiece, and create a model with an appropriate magnification on the spot.

【0005】そして、加工に際して、ワークのどの位置
に、どのような倍率で加工するかを決定する必要があ
る。
In processing, it is necessary to determine a position on the work and a magnification to be processed.

【0006】本発明は、ワークに対する倍率、位置を容
易に設定可能な3次元形状データ処理装置の提供を目的
とする。
An object of the present invention is to provide a three-dimensional shape data processing apparatus capable of easily setting a magnification and a position with respect to a work.

【0007】[0007]

【用語の定義】上記の目的を達成するため、この発明で
は以下のような手段を採用するが、それらにおいて、
「奥行き方向」とは、「対象物の2次元画像を規定する
2次元面を貫く方向」として、「後方」とは、「基準位
置から相対的に遠い側」として、それぞれ定義される。
[Definition of terms] In order to achieve the above object, the present invention employs the following means.
The “depth direction” is defined as “a direction that penetrates a two-dimensional plane that defines a two-dimensional image of a target object”, and the “backward” is defined as “a side relatively far from a reference position”.

【0008】[0008]

【課題を解決するための手段】すなわち、請求項1の発
明は、所定の基準位置から立体的な対象物の対向表面各
部までの距離を表現した距離画像と前記対象物の2次元
画像とを含む基礎データに基づいて前記対象物を表現し
た3次元データを生成し、それによって所定のワークの
立体加工のための情報を得る3次元データ処理装置であ
って、(a)前記ワークの加工可能領域を表現したワーク
画像と前記対象物の2次元画像とを所定の画面上に重ね
て表示させ、前記ワーク画像の内部に前記対象物の2次
元画像が適合した状態を適合状態として指定する指定手
段と、(b)前記適合状態に対応する前記対象物の距離画
像に、前記ワーク画像のサイズと前記加工可能領域の実
際のサイズとの比率に応じてスケール変換を施すととも
に、スケール変換後の前記距離画像を前記加工可能領域
の実際の座標位置へと位置変換し、それによって変換済
の距離画像を得る変換手段と、(c)前記変換済の距離画
像を利用して、前記ワークの加工情報としての3次元デ
ータを生成する手段と、を備える。
That is, according to the present invention, a distance image expressing a distance from a predetermined reference position to each part of a three-dimensional object facing surface and a two-dimensional image of the object are provided. A three-dimensional data processing apparatus that generates three-dimensional data representing the object based on basic data including the information, and thereby obtains information for three-dimensional processing of a predetermined work. A designation in which a work image representing an area and a two-dimensional image of the target object are displayed on a predetermined screen in a superimposed manner, and a state in which the two-dimensional image of the target object fits inside the work image is designated as a matching state. Means, and (b) performing a scale conversion according to a ratio between the size of the work image and the actual size of the workable area on the distance image of the object corresponding to the conforming state, and after the scale conversion. A conversion unit that converts the distance image into an actual coordinate position of the workable area, thereby obtaining a converted distance image; and (c) processing the work using the converted distance image. Means for generating three-dimensional data as information.

【0009】また、請求項2の発明は、請求項1の発明
に係る3次元データ処理装置において、前記変換手段
が、前記ワーク画像を前記距離画像の座標系に変換する
手段と、変換後の前記ワーク画像の2次元的代表点の位
置を、前記ワークの実際の加工可能領域の2次元的代表
点の位置に対応させることにより、スケール変換後の前
記距離画像を前記加工可能領域の実際の位置に2次元的
に適合させる手段と、を備える。
According to a second aspect of the present invention, in the three-dimensional data processing apparatus according to the first aspect of the present invention, the conversion means converts the work image into a coordinate system of the distance image, By associating the position of the two-dimensional representative point of the work image with the position of the two-dimensional representative point of the actual workable area of the work, the distance image after the scale conversion is converted to the actual position of the workable area. Means for two-dimensionally adapting the position.

【0010】また、請求項3の発明は、請求項2の発明
に係る3次元データ処理装置において、前記ワーク画像
の2次元的代表点が、前記ワーク画像の2次元的重心点
であり、前記ワークの実際の加工可能領域の2次元的代
表点が、前記加工可能領域の2次元的重心点である。
According to a third aspect of the present invention, in the three-dimensional data processing apparatus according to the second aspect, the two-dimensional representative point of the work image is a two-dimensional center of gravity of the work image. The two-dimensional representative point of the actual workable area of the work is the two-dimensional center of gravity of the workable area.

【0011】また、請求項4の発明は、請求項1ないし
請求項3のいずれかの発明に係る3次元データ処理装置
において、前記変換手段が、スケール変換後の前記距離
画像の奥行き方向の第1代表点の位置を、前記ワークの
実際の加工可能領域の奥行き方向の第2代表点の位置に
対応させる奥行き位置調整手段、を備える。
According to a fourth aspect of the present invention, in the three-dimensional data processing apparatus according to any one of the first to third aspects, the conversion means is configured to control the distance image after scale conversion in a depth direction. Depth position adjusting means for making the position of one representative point correspond to the position of the second representative point in the depth direction of the actual workable area of the work.

【0012】また、請求項5の発明は、請求項4の発明
に係る3次元データ処理装置において、前記第1代表点
が、スケール変換後の前記距離画像の重心点であり、前
記第2代表点が、前記加工可能領域の重心点である。
According to a fifth aspect of the present invention, in the three-dimensional data processing apparatus according to the fourth aspect of the present invention, the first representative point is a center of gravity of the distance image after scale conversion, and The point is the center of gravity of the workable area.

【0013】また、請求項6の発明は、請求項4の発明
に係る3次元データ処理装置において、前記第1代表点
が、スケール変換後の前記距離画像の前端点であり、前
記第2代表点が、前記加工可能領域の前端点である。
According to a sixth aspect of the present invention, in the three-dimensional data processing apparatus according to the fourth aspect of the present invention, the first representative point is a front end point of the distance image after scale conversion, and the second representative point is a second representative point. The point is the front end point of the workable area.

【0014】また、請求項7の発明は、請求項4の発明
に係る3次元データ処理装置において、前記第1代表点
が、スケール変換後の前記距離画像の後端点であり、前
記第2代表点が、前記加工可能領域の後端点である。
According to a seventh aspect of the present invention, in the three-dimensional data processing apparatus according to the fourth aspect of the present invention, the first representative point is a rear end point of the distance image after scale conversion, and the second representative point is The point is the rear end point of the workable area.

【0015】また、請求項8の発明は、請求項4の発明
に係る3次元データ処理装置において、前記奥行き位置
調整手段が、スケール変換後の前記距離画像の後端点
を、前記ワークの実際の加工可能領域の後端点に一致さ
せた後端一致状態を規定する手段と、前記後端一致状態
において、スケール変換後の前記距離画像の一部が前記
ワークの実際の加工可能領域のうち前記基準位置側の表
面から突出しているか否かを判定し、突出している場合
には補正要求信号を発生する判定手段と、前記補正要求
信号に応答して、スケール変換後の前記距離画像の前端
点を、前記ワークの実際の加工可能領域の前端点に一致
させるように補正する奥行き補正手段と、とを備える。
According to an eighth aspect of the present invention, in the three-dimensional data processing apparatus according to the fourth aspect of the present invention, the depth position adjusting means sets a rear end point of the distance image after scale conversion to an actual end point of the workpiece. Means for defining a rear end coincidence state matched with the rear end point of the workable area; and in the rear end coincidence state, a part of the distance image after scale conversion is the reference of the actual workable area of the work. Judgment means for judging whether or not it protrudes from the surface on the position side, and judging means for generating a correction request signal in the case of protruding, in response to the correction request signal, the front end point of the distance image after scale conversion Depth correction means for correcting the work so as to match the front end point of the actual workable area of the work.

【0016】また、請求項9の発明は、請求項8の発明
に係る3次元データ処理装置において、前記奥行き位置
調整手段が、前記奥行き補正手段が能動化されたとき、
前記スケール変換後の距離画像のうち前記ワークの実際
の加工可能領域の後方に飛び出すことになる部分の画像
情報を削除する後方削除手段、をさらに備える。
According to a ninth aspect of the present invention, in the three-dimensional data processing device according to the eighth aspect of the present invention, when the depth position adjusting means is activated, the depth correction means is activated.
The image processing apparatus further includes a rear deletion unit that deletes image information of a portion of the distance image after the scale conversion that protrudes behind the actual workable area of the work.

【0017】また、請求項10の発明は、請求項1ない
し請求項8のいずれかの発明に係る3次元データ処理装
置において、前記変換手段が、スケール変換後の前記距
離画像のうち、前記ワークの実際の加工可能領域から飛
び出すことになる部分の画像情報を削除する削除手段、
を備える。
According to a tenth aspect of the present invention, in the three-dimensional data processing apparatus according to any one of the first to eighth aspects, the converting means includes a step of: Deleting means for deleting the image information of the portion that will jump out of the actual processable area of
Is provided.

【0018】また、請求項11の発明は、請求項1ない
し請求項8のいずれかの発明に係る3次元データ処理装
置において、前記変換手段が、スケール変換後の前記距
離画像の一部が、奥行き方向において前記ワークの実際
の加工可能領域から飛び出すことになる場合には、前記
距離画像の奥行き方向への空間倍率を縮小して、前記距
離画像を前記ワークの実際の加工可能領域内に内包させ
る縮小処理手段、を備える。
According to an eleventh aspect of the present invention, in the three-dimensional data processing apparatus according to any one of the first to eighth aspects, the conversion means includes: If the work projects in the depth direction from the actual workable area of the work, the spatial magnification of the distance image in the depth direction is reduced, and the distance image is included in the workable area of the work. And a reduction processing unit.

【0019】また、請求項12の発明は、請求項1ない
し請求項11のいずれかの発明に係る3次元データ処理
装置において、前記指定手段が、操作入力手段と、前記
操作入力手段の操作に応答して、前記所定の画面上にお
いて前記ワーク画像に対する前記対象物の2次元画像の
相対的な位置と倍率とを変更する手段と、を備える。
According to a twelfth aspect of the present invention, in the three-dimensional data processing apparatus according to any one of the first to eleventh aspects, the designation means includes an operation input means and an operation of the operation input means. Means for changing a relative position and a magnification of the two-dimensional image of the target object with respect to the work image on the predetermined screen.

【0020】また、請求項13の発明は、請求項1ない
し請求項12のいずれかの発明に係る3次元データ処理
装置において、前記対象物の2次元画像が、前記基準位
置から離れた所定の撮影位置からの撮像によって取得さ
れるものであり、(d)前記基準位置から前記対象物の位
置に向かう方向と、前記撮影位置から前記対象物に向か
う方向との視差に応じて前記2次元画像を補正する2次
元画像補正手段、をさらに備える。
According to a thirteenth aspect of the present invention, in the three-dimensional data processing apparatus according to any one of the first to twelfth aspects, the two-dimensional image of the object is provided at a predetermined distance from the reference position. (D) the two-dimensional image is obtained according to a parallax between a direction from the reference position to the position of the object and a direction from the shooting position to the object. Is further provided.

【0021】また、請求項14の発明は、請求項1ない
し請求項13のいずれかの発明に係る3次元データ処理
装置において、前記指定手段が、ディスプレイと、前記
ディスプレイの画面上に配置され、前記ワーク画像とし
て前記加工可能領域の外形に対応する所定の形状を表現
しており、かつ少なくとも前記所定の形状の内部につい
ては透明性を有する形状表現手段と、前記ディスプレイ
の画面のうち、前記所定の形状で表現される範囲に重な
る位置に前記対象物の2次元画像を表示させる表示制御
手段と、を備える。
According to a fourteenth aspect of the present invention, in the three-dimensional data processing apparatus according to any one of the first to thirteenth aspects, the designation means is arranged on a display and a screen of the display, A shape expressing unit that expresses a predetermined shape corresponding to the outer shape of the workable area as the work image, and at least the inside of the predetermined shape has transparency; Display control means for displaying a two-dimensional image of the object at a position overlapping the range represented by the shape of the object.

【0022】[0022]

【発明の実施の形態】<立体模型作成装置の要部構成>
図1は、本発明に係る3次元データ処理装置が組み込ま
れた立体模型作成装置1の外観図である。この立体模型
作成装置1の全体構成は、後述する各実施形態に共通の
例になっている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS <Main Configuration of Solid Model Making Apparatus>
FIG. 1 is an external view of a three-dimensional model creation device 1 in which a three-dimensional data processing device according to the present invention is incorporated. The overall configuration of the three-dimensional model creation device 1 is an example common to each embodiment described later.

【0023】立体模型作成装置1は、立体模型を作成す
るための3次元的なオリジナル物体(以下「対象物」)
の形状を計測し、その計測データに基づいて素材を、そ
の場で加工する機能を有しており、利用客の顔をかたど
った小物品の自動販売機として使用される。作成される
物品は、所定形状(例えば四角形)の板面から顔面の模
型がレリーフ状に突き出た立体である。板面(背景部
分)に特定の起伏模様を付加することも可能である。こ
のような物品に適当な金具を取り付ければ、ペンダン
ト、ブローチ、キーホルダなどのアクセサリーとなる。
予め素材に金具を取り付けておいてもよい。
The three-dimensional model creating apparatus 1 is a three-dimensional original object (hereinafter, "object") for creating a three-dimensional model.
It has the function of measuring the shape of the object and processing the material on the spot based on the measurement data, and is used as a vending machine for small articles in the shape of a customer's face. The article to be created is a three-dimensional body in which a model of the face protrudes in a relief shape from a plate of a predetermined shape (for example, a square). It is also possible to add a specific undulating pattern to the plate surface (background portion). If an appropriate metal fitting is attached to such an article, it becomes an accessory such as a pendant, a broach, or a key holder.
A metal fitting may be attached to the material in advance.

【0024】ほぼ等身大の筐体10の上半部の前面に、
利用客がポーズを確認するためのディスプレイ16とと
もに、光学式3次元計測のための投光窓12および受光
窓14が設けられている。受光窓14は2次元のカラー
撮影にも用いられる。この受光窓14の奥には、画像デ
ータを取得するための撮影装置30が設けられている。
そして、筐体10の下半部は上半部よりも前方側に張り
出しており、その上面が操作パネル18となっている。
商品の取出口20は下半部の前面に設けられている。ま
た、筐体10の下半部内には、加工材料であるワーク1
9を加工する加工装置172が設けられている。ここ
で、加工装置172の加工ツールの3次元空間における
可動範囲の制約などからワーク19に対して加工可能な
領域を加工対象としている。なお、説明の便宜上、この
ワーク19の加工可能領域を、以下の各実施形態に関し
てはワーク19の全領域と考える。
On the front of the upper half of the substantially life-size housing 10,
A light emitting window 12 and a light receiving window 14 for optical three-dimensional measurement are provided together with a display 16 for a user to check a pose. The light receiving window 14 is also used for two-dimensional color photography. An imaging device 30 for acquiring image data is provided behind the light receiving window 14.
The lower half of the housing 10 projects forward from the upper half, and the upper surface thereof is an operation panel 18.
The product outlet 20 is provided on the front surface of the lower half. In the lower half of the housing 10, a work 1 as a processing material is provided.
9 is provided with a processing device 172 that processes the ninth. Here, an area that can be processed on the workpiece 19 is set as a processing target due to a restriction on a movable range of the processing tool of the processing apparatus 172 in a three-dimensional space. For convenience of explanation, the workable area of the work 19 is considered as the entire area of the work 19 in the following embodiments.

【0025】図2は、操作パネル18の平面図である。FIG. 2 is a plan view of the operation panel 18.

【0026】操作パネル18には、スタートボタン18
1、確認ボタン182、キャンセルボタン183、ジョ
イスティック184、及び硬貨の投入口185が設けら
れている。ジョイスティック184は模型の構図の変更
指示と、後述する背景面の設定操作に用いられる。左右
に傾けるパーン操作、上下に傾けるチルト操作、及びノ
ブを回転させるロール操作に呼応して3次元形状モデル
の回転操作が行われ、処理結果が逐次表示される。ま
た、キャンセルボタン183は、利用客が表示された3
次元形状モデルが気に入らないときなどに再計測を指示
するためのボタンである。ただし、キャンセルボタン1
83には有効回数が設定されており、無制限に再計測を
指示することはできない。
The operation panel 18 includes a start button 18
1, a confirmation button 182, a cancel button 183, a joystick 184, and a coin slot 185 are provided. The joystick 184 is used for an instruction to change the composition of the model and a setting operation of a background surface described later. A rotation operation of the three-dimensional shape model is performed in response to a pan operation for tilting left and right, a tilt operation for tilting up and down, and a roll operation for rotating a knob, and processing results are sequentially displayed. In addition, the cancel button 183 is displayed on the 3rd where the user is displayed.
A button for instructing re-measurement when the user does not like the dimensional shape model. However, Cancel button 1
The number of valid times is set in 83, and re-measurement cannot be instructed without limitation.

【0027】図3は、立体模型作成装置1の機能ブロッ
クである。
FIG. 3 is a functional block diagram of the three-dimensional model forming apparatus 1.

【0028】立体模型作成装置1は、模型サイズの3次
元形状モデルを生成するモデリングシステム1Aと、3
次元形状モデルを顕在化する加工システム1Bとから構
成されている。
The three-dimensional model forming apparatus 1 includes a modeling system 1A for generating a three-dimensional shape model having a model size,
And a processing system 1B for realizing the three-dimensional shape model.

【0029】モデリングシステム1Aは、オリジナル物
体である利用客の外観情報をデジタルデータに変換(デ
ータ化)する撮影装置30を含んでいる。撮影装置30
は、スリット光投影法で形状情報をデータ化して、3次
元の距離画像データ(3次元画像データ)DSを出力す
る3次元計測装置34、色情報をデータ化して2次元の
カラー画像データDCを出力する2次元撮像装置36、
及びコントローラ38より構成されている。
The modeling system 1A includes a photographing device 30 for converting (converting) the appearance information of a user who is an original object into digital data. Photographing device 30
Is a three-dimensional measuring device 34 that converts shape information into data by slit light projection and outputs three-dimensional distance image data (three-dimensional image data) DS, and converts two-dimensional color image data DC by converting color information into data. A two-dimensional imaging device 36 for output,
And a controller 38.

【0030】ここで、距離画像データDSはXYZの直
交座標系における座標値として与えられるデータであ
り、3次元計測装置34内の計測基準点から対象物の対
向表面上の各計測点までの距離の分布情報を与える距離
分布画像データである。距離画像データDSには、対象
物からの反射光の計測データが得られたか否かを示す有
効フラグの情報も含まれる。
Here, the distance image data DS is data given as coordinate values in an XYZ rectangular coordinate system, and is a distance from a measurement reference point in the three-dimensional measuring device 34 to each measurement point on the facing surface of the object. Is distance distribution image data that gives distribution information of. The distance image data DS also includes information on a valid flag indicating whether measurement data of reflected light from the target object has been obtained.

【0031】他方、カラー画像データDCは、対象物の
2次元的カラー画像の各画素を、3原色データ、即ち、
R(レッド)、G(グリーン)、B(ブルー)のそれぞ
れの色成分の階調によって表現したデータである。ここ
では、3次元計測と2次元撮影とを同一視点(1眼レン
ズ)から行う撮影装置30を用いているため、距離画像
データDSとカラー画像データDCとの対応付けを極め
て容易に行うことができる。これら距離画像データDS
及びカラー画像データDCは、後述する3次元形状デー
タ処理装置40に入力される。
On the other hand, the color image data DC represents each pixel of the two-dimensional color image of the object as three primary color data, that is,
This is data expressed by the gradation of each color component of R (red), G (green), and B (blue). Here, since the photographing device 30 that performs the three-dimensional measurement and the two-dimensional photographing from the same viewpoint (single lens) is used, it is possible to extremely easily associate the distance image data DS with the color image data DC. it can. These distance image data DS
The color image data DC is input to a three-dimensional shape data processing device 40 described later.

【0032】なお、3次元計測法として、スリット光投
影法に代えて他の手法を用いてもよい。
As a three-dimensional measurement method, another method may be used instead of the slit light projection method.

【0033】3次元形状データ処理装置40は、本発明
の中核部分であり、データ修正を含む各種のデータ処理
を行って加工システム1Bで利用可能な加工データDM
を生成する。3次元形状データ処理装置40のコントロ
ーラ42は、CPUおよびメモリを含んで構成されてお
り、周辺のハードウエア回路と協働しつつ、所定のソフ
トウエアに従って後記の画像処理を含む各種のデータ処
理を行う。また、このコントローラ42は、立体模型作
成装置1の全体的な制御をも担い、投影システム30の
コントローラ38及び加工システム1Bのコントローラ
176に適切な指示を与える。このコントローラ42に
は、ディスプレイ16及び操作入力システム44が接続
されている。操作入力システム44は、上述の操作パネ
ル18と料金受領機構とからなる。
The three-dimensional shape data processing device 40 is a core part of the present invention, and performs various data processing including data correction and processes data DM that can be used in the processing system 1B.
Generate The controller 42 of the three-dimensional shape data processing device 40 includes a CPU and a memory, and performs various types of data processing including image processing described later in accordance with predetermined software while cooperating with peripheral hardware circuits. Do. The controller 42 also performs overall control of the three-dimensional model creation device 1 and gives appropriate instructions to the controller 38 of the projection system 30 and the controller 176 of the processing system 1B. The display 16 and the operation input system 44 are connected to the controller 42. The operation input system 44 includes the above-described operation panel 18 and a fee receiving mechanism.

【0034】一方、加工システム1Bは、樹脂ブロック
などの材料を切削する加工装置172、ワーク19の加
工位置への供給と加工品の取出口20への搬送を行う材
料供給装置174、コントローラ176、及び取出口セ
ンサ178を備えている。取出口センサ178の検出信
号はコントローラ42に入力される。
On the other hand, the processing system 1B includes a processing device 172 for cutting a material such as a resin block, a material supply device 174 for supplying a workpiece 19 to a processing position and transporting a processed product to an outlet 20, a controller 176, And an outlet sensor 178. The detection signal of the outlet sensor 178 is input to the controller 42.

【0035】なお、撮影装置30及び加工システム1B
の制御をコントローラ42に受け持たせ、コントローラ
38及びコントローラ176を省略した回路構成を採用
してもよい。
The photographing device 30 and the processing system 1B
May be assigned to the controller 42, and the controller 38 and the controller 176 may be omitted.

【0036】<立体模型作成装置1の動作の概要>図4
は、立体模型作成装置1の動作の概要を説明するフロー
チャートである。また、立体模型作成装置1の動作の概
要は、後述する各実施形態に共通の例になっている。以
下、同図を参照して、その基本動作の処理手順を説明す
る。
<Overview of Operation of Solid Model Creation Apparatus 1> FIG.
3 is a flowchart illustrating an outline of the operation of the three-dimensional model creation device 1. The outline of the operation of the three-dimensional model creation device 1 is an example common to each embodiment described later. Hereinafter, a processing procedure of the basic operation will be described with reference to FIG.

【0037】電源が投入された後、後で詳述する利用客
に対する撮影および計測データの処理を行う(ステップ
ST10)。
After the power is turned on, photographing and measurement data processing for the customer, which will be described in detail later, is performed (step ST10).

【0038】ステップST10で得られた3次元形状モ
デルを表示する(ステップST20)。このとき、影を
付すといった公知のグラフィック手法を適用して見栄え
を高める。そして、指示操作を待つ。ただし、待ち時間
は有限であり、時限を過ぎれば確認操作が行われたもの
とみなす。
The three-dimensional shape model obtained in step ST10 is displayed (step ST20). At this time, the appearance is enhanced by applying a known graphic method such as adding a shadow. Then, it waits for an instruction operation. However, the waiting time is finite, and it is considered that a confirmation operation has been performed after the time limit.

【0039】ジョイスティック184が操作されると、
上述のように3次元形状モデルを操作に応じて回転させ
て表示する(ステップST30、ST35)。キャンセ
ルボタン183が押される(ステップST45)と、ス
テップST10に戻る。ただし、この場合、利用客が料
金を改めて投入する必要はなく、スタートボタン181
を押せば、再計測が行われる。
When the joystick 184 is operated,
As described above, the three-dimensional shape model is rotated and displayed according to the operation (steps ST30 and ST35). When the cancel button 183 is pressed (step ST45), the process returns to step ST10. However, in this case, there is no need for the customer to re-enter the fee, and the start button 181 is not required.
If you press, re-measurement is performed.

【0040】確認ボタン182が押されると(ステップ
ST40)、3次元形状モデルに基づいて加工条件デー
タベースを参照して加工制御用のデータを生成し(ステ
ップST50)、材料の加工を行う(ステップST6
0)。加工が終わると、商品を排出し(ステップST7
0)、取出口センサ178によって商品が取り出された
のを確認(ステップST80)して、ステップST10
に戻る。
When the confirm button 182 is pressed (step ST40), data for processing control is generated with reference to the processing condition database based on the three-dimensional shape model (step ST50), and the material is processed (step ST6).
0). When the processing is completed, the product is discharged (step ST7).
0), it is confirmed that the product has been taken out by the take-out port sensor 178 (step ST80), and step ST10
Return to

【0041】以下では、本発明の特徴に対応する加工デ
ータ生成の動作(後述)が含まれる各実施形態を説明す
るが、その前に、この加工データ生成の動作で用いる距
離画像とワーク19との整合化の原理を概念的に説明し
ておく。
In the following, each embodiment including an operation of generating processed data (described later) corresponding to the feature of the present invention will be described. Before that, a distance image and a work 19 used in the operation of generating processed data are described. The principle of the matching will be explained conceptually.

【0042】<距離画像とワークとの整合化の原理>ワ
ーク19に立体加工をするには、距離画像をワーク19
の加工装置172の座標系に移動させるとともに、ワー
ク19の大きさに合わせて距離画像をスケーリングする
ことが必要になる。ところが、距離画像21(図5
(a))は3次元データであり、この3次元測定および3
次元データ処理には比較的時間がかかりアルタイムの表
示が困難である。
<Principle of Matching Distance Image and Work> In order to perform three-dimensional processing on the work 19, the distance image is
It is necessary to move to the coordinate system of the processing device 172 and to scale the distance image according to the size of the work 19. However, the distance image 21 (FIG. 5)
(a)) is three-dimensional data, and the three-dimensional measurement
The dimensional data processing takes a relatively long time and it is difficult to display real time.

【0043】このため、本発明の各実施形態では、距離
画像21よりもリアルタイム処理が可能な2次元撮影装
置で得られるカラー画像22(図5(b))を使用して変
換パラメータを定めて行くようにしている。
For this reason, in each embodiment of the present invention, conversion parameters are determined using a color image 22 (FIG. 5B) obtained by a two-dimensional photographing apparatus capable of real-time processing rather than the distance image 21. I'm going to go.

【0044】ただし、対象物のカラー画像22は2次元
的な情報であり、それとの間の幾何学的関係を指定する
にあたっては、ワーク19についても2次元のワーク画
像19a(図5(d))を準備する。このカラー画像22
およびワーク画像19aにより、対象物の大きさ・位置
とワークとの関係を、2次元画像の重ね合わせで表示で
きるため、その時点では3次元データに対する処理は必
要でない。したがって、比較的時間を要する3次元測定
及び3次元データ処理を省略することができ、リアリタ
イムで表示することができる。
However, the color image 22 of the object is two-dimensional information, and when designating a geometrical relationship with the two-dimensional information, the two-dimensional work image 19a (FIG. 5D) Prepare). This color image 22
The relationship between the size and position of the target object and the work can be displayed by superimposing the two-dimensional images on the basis of the work image 19a. Therefore, the three-dimensional measurement and the three-dimensional data processing that require a relatively long time can be omitted, and the display can be performed in real time.

【0045】そして、対象物のカラー画像22とワーク
のワーク画像19aとの幾何学的関係を指定した後に
は、対象物のカラー画像22と距離画像21との座標関
係Rab(図5に仮想線で示す)と、ワーク19のワーク
画像19aと実際のワーク19との座標関係Rcd(図5
に仮想線で示す)とを利用して、距離画像21を実際の
ワーク19の座標系に変換することが可能である。
After the geometric relationship between the color image 22 of the object and the work image 19a of the work is specified, the coordinate relationship Rab between the color image 22 of the object and the distance image 21 (the virtual line in FIG. 5). 5) and a coordinate relationship Rcd between the work image 19a of the work 19 and the actual work 19 (FIG. 5).
The distance image 21 can be converted into the coordinate system of the actual work 19 by using the virtual line shown in FIG.

【0046】このような考え方によって、本発明の各実
施形態の装置では、 (1) ワークの2次元画像と対象物の2次元画像との幾何
学的整合化(サイズ整合化S1、位置整合化S2)を行
い、 (2) そのような幾何学的整合化を行った状態で、対象物
の2次元画像22と距離画像21との位置関係を利用し
て、ワーク19のワーク画像19aを距離画像21の空
間へと移し、 (3) 距離画像21の空間におけるワーク19のワーク画
像19aと、ワーク19の実際の位置やサイズとの関係
から、距離画像21をどのように変換すれば実際のワー
ク19に適合するかについての座標変換パラメータを求
め、 (4) その変換パラメータを使用して距離画像21を実際
のワーク19の空間に座標変換する、という一連のプロ
セスを実行するように構成されている。
Based on such a concept, the apparatus according to each embodiment of the present invention provides: (1) geometrical matching between a two-dimensional image of a workpiece and a two-dimensional image of an object (size matching S1, position matching; S2) is performed, and (2) the work image 19a of the work 19 is distanced using the positional relationship between the two-dimensional image 22 and the distance image 21 of the target object in a state where such geometric matching is performed. (3) From the relationship between the work image 19a of the work 19 in the space of the distance image 21 and the actual position and size of the work 19, how to convert the distance image 21 It is configured to execute a series of processes of obtaining a coordinate conversion parameter as to whether the distance image 21 matches the work 19 and (4) using the conversion parameter to convert the distance image 21 into a coordinate of the actual work 19. hand That.

【0047】<座標系>そこでまず、これらのプロセス
において使用される各座標系(図5)を定義する。
<Coordinate System> First, each coordinate system (FIG. 5) used in these processes is defined.

【0048】(a)2次元のカラー画像座標系 CR2:こ
れは対象物の2次元カラー画像22を規定する2次元直
交座標系であり、2次元撮影装置36の撮像範囲(画
角)内に固定された原点O2と2次元直交軸X2、Y2と
で定義される。後述するように、ワーク19のワーク画
像19aも対象物の2次元カラー画像22とのサイズお
よび位置合わせを行うことによって、この2次元カラー
画像座標系CR2での位置が特定される。
(A) Two-dimensional color image coordinate system CR2: This is a two-dimensional orthogonal coordinate system that defines the two-dimensional color image 22 of the object, and is within the imaging range (angle of view) of the two-dimensional photographing device 36. It is defined by a fixed origin O2 and two-dimensional orthogonal axes X2 and Y2. As will be described later, the position of the work image 19a of the work 19 in the two-dimensional color image coordinate system CR2 is specified by performing size alignment with the two-dimensional color image 22 of the object.

【0049】(b)3次元の距離画像座標系 DR3:これ
は、対象物の距離画像21を規定する3次元直交座標系
であり、3次元計測装置34の計測原点O3と、3次元
直交軸X3,Y3,Z3とで定義される。
(B) Three-dimensional distance image coordinate system DR3: This is a three-dimensional orthogonal coordinate system that defines the distance image 21 of the object, and the measurement origin O3 of the three-dimensional measuring device 34 and the three-dimensional orthogonal axis X3, Y3, and Z3.

【0050】(c)3次元のワーク座標系 WR3:これ
は、ワーク19の加工空間を規定する3次元直交座標系
であり、加工装置172に対して相対的に固定された加
工原点Owと、3次元直交軸Xw,Yw,Zwとで定義され
る。加工すべき物体はワーク19であるため、距離画像
21を実際のワーク19の位置およびサイズに合わせて
このワーク座標系WR3に移すことが、一連の変換プロ
セスの主目的である。
(C) Three-dimensional work coordinate system WR3: This is a three-dimensional orthogonal coordinate system that defines the processing space of the work 19, and a processing origin Ow fixed relative to the processing device 172; It is defined by three-dimensional orthogonal axes Xw, Yw, and Zw. Since the object to be processed is the work 19, moving the distance image 21 to the work coordinate system WR3 in accordance with the actual position and size of the work 19 is the main purpose of a series of conversion processes.

【0051】<データ間の変換プロセスの内容> <1.ワークの2次元カラ−画像の準備>図6は、上記の
原理に応じて構成された加工データ生成の動作における
データ間の変換関係を概念的に示すデータ関連図であ
る。
<Contents of Conversion Process Between Data><1. Preparation of Two-Dimensional Color Image of Work> FIG. 6 shows a conversion relationship between data in an operation of generating processed data configured according to the above principle. It is a data relation diagram shown notionally.

【0052】そこでは、対象物の2次元カラー画像22
(図6(a))が使用されるほか、ワーク19のワーク画
像19aが使用される(図6(b))。以下ではこれらの
2次元カラー画像を相互に区別するために、対象物の2
次元カラー画像を「対象物カラ−画像」と呼び、ワーク
19の2次元画像を「ワーク画像」と呼ぶ。なお、対象
物の2次元画像については、カラー画像が必須でなく、
白黒画像などでもよい。
The two-dimensional color image 22 of the object is
(FIG. 6A) and a work image 19a of the work 19 are used (FIG. 6B). In the following, in order to distinguish these two-dimensional color images from each other, a two-dimensional
The two-dimensional color image is called a “target object color image”, and the two-dimensional image of the work 19 is called a “work image”. Note that a two-dimensional image of the object is not necessarily a color image,
A monochrome image may be used.

【0053】このうち、ワーク画像19aは、ワーク1
9の正面像(加工装置172によって加工を行う側の面
の像)を表現する画像である。ワーク画像19aは、ワ
ーク19を実際に撮影することによって得てもよく、ワ
ーク19の形状やサイズのデータを参照してCADなど
によって作成していてもよい。また、実際のワーク19
そのものではなく、ワークの形状を模した幾何学的な図
形(たとえば矩形)からなるマスクを使用してもよい。
この発明では、このような幾何学的なマスクもワーク画
像として扱う。そして、ワーク画像19aの各画素と対
象物カラ−画像の各画素とは互いに対応づけることが可
能となっているが、この時点ではこれらの2次元画像は
別の画像面上で定義された画像であって、それらの相対
的な位置関係は確定されていない。
The work image 19a is the work 1
9 is an image expressing a front image (an image of a surface on which processing is performed by the processing device 172). The work image 19a may be obtained by actually photographing the work 19, or may be created by CAD or the like with reference to data on the shape and size of the work 19. In addition, the actual work 19
Instead of the mask itself, a mask made of a geometric figure (for example, a rectangle) imitating the shape of the work may be used.
In the present invention, such a geometric mask is also treated as a work image. Each pixel of the work image 19a and each pixel of the object color image can be associated with each other. At this point, these two-dimensional images are images defined on another image plane. However, their relative positional relationship has not been determined.

【0054】<2.カラー画像座標系CR2における位置
合わせ>これらの対象物カラ−画像22とワーク画像1
9aとは、互いに重ねて合成された状態でディスプレイ
16の画面上に表示される(図6(c))。このとき、ワ
ーク画像19aについてはディスプレイ16の画面の中
央に配置されるが、対象物カラ−画像22は撮影装置3
0に対する対象物の距離(以下「対カメラ距離」)や、
撮影装置30の画角内における対象物の左右上下方向の
位置(以下「画内位置」)によってその表示のサイズや
位置が異なる。
<2. Positioning in Color Image Coordinate System CR2> These object color image 22 and work image 1
9a is displayed on the screen of the display 16 in a state of being superimposed on each other and synthesized (FIG. 6C). At this time, the work image 19a is arranged at the center of the screen of the display 16, but the object color image 22 is
The distance of the object to 0 (hereinafter referred to as “the distance to the camera”),
The size and position of the display vary depending on the position of the object within the angle of view of the photographing device 30 in the horizontal and vertical directions (hereinafter, “in-image position”).

【0055】そこで、対象物カラ−画像22の位置やサ
イズを相対的に変化させることによって、対象物カラ−
画像22がワーク画像19a内にほぼ収容された幾何学
的な適合状態が得られるような位置およびサイズ調整を
行う。
Therefore, by changing the position and size of the object color image 22 relatively, the object color image 22 is changed.
The position and the size are adjusted so that the image 22 can be obtained in a geometrically fit state substantially accommodated in the work image 19a.

【0056】この調整の具体的方法としては、対象物カ
ラ−画像22として対象物のリアルタイム画像を使用し
て、対象物の対カメラ距離や画内位置を変化させ、これ
らの2次元画像が適合した状態で位置関係の確定を行う
方法や、対象物カラ−画像22としては1枚の画像を使
用し、ディスプレイ上の表示倍率や表示位置をジョイス
ティック184などの操作入力手段を使用して変化させ
て、これらの2次元画像が適合した状態で位置関係の確
定を行う方法などがある。これらの実例は後述する。
As a specific method of this adjustment, a real-time image of the object is used as the object color image 22 and the distance of the object to the camera and the position in the image are changed. In such a state, the positional relationship is determined, or a single image is used as the object color image 22, and the display magnification and the display position on the display are changed using operation input means such as a joystick 184. Thus, there is a method of determining a positional relationship in a state where these two-dimensional images are suitable. Examples of these will be described later.

【0057】なお、対象物が人間の顔のような場合には
首や胸の部分も対象物カラ−画像22および距離画像2
1に含まれる場合があるが、そのような場合には利用客
が立体加工を行なおうと意図する範囲が対象物の範囲と
なる。
When the object is a human face, the neck and the chest are also displayed in the object color image 22 and the distance image 2.
1, but in such a case, the range intended for the user to perform the three-dimensional processing is the range of the object.

【0058】ここにおいて、ディスプレイ16の画面上
で移動させるのは対象物カラ−画像22であってワーク
画像19aではないが、これらの位置関係およびサイズ
関係は相対的なものであるため、上記の工程は、カラー
画像座標系CR2上でワーク画像19aの位置およびサ
イズを特定していることと等価である。
Here, the object color image 22 to be moved on the screen of the display 16 is not the work image 19a, but the positional relationship and the size relationship are relative. The process is equivalent to specifying the position and size of the work image 19a on the color image coordinate system CR2.

【0059】したがって、この工程を終えた段階では、
2次元カラー画像座標系CR2上において、対象物カラ
−画像22の位置およびサイズのほか、ワーク画像19
aの位置およびサイズも確定した状態になり、それらは
幾何学的に整合している。このため、以下のようにし
て、対象物カラ−画像22を規定するカラー画像座標系
CR2上と、距離画像21を規定する距離座標系CR3と
の座標関係を利用すれば、ワーク画像19aと距離画像
21との位置およびサイズの関係を決定することが可能
となる。
Therefore, at the end of this step,
On the two-dimensional color image coordinate system CR2, in addition to the position and size of the object color image 22, a work image 19 is displayed.
The position and size of a are also fixed, and they are geometrically consistent. For this reason, if the coordinate relationship between the color image coordinate system CR2 defining the target color image 22 and the distance coordinate system CR3 defining the distance image 21 is used as described below, the distance between the workpiece image 19a and the workpiece image 19a can be increased. The relationship between the position and the size of the image 21 can be determined.

【0060】<3.距離画像座標系DR3への変換>上記
のようにして、ワーク画像19aの位置が2次元のカラ
ー画像座標系CR2で特定された後、ワークの位置およ
び形状を距離画像21で表現される対象物の立体像と対
応づけるために、ワーク画像19aを距離画像座標系D
R3に移し、距離画像座標系DR3のワーク画像19bを
得る(図6(d))。その際には、対象物カラ−画像22
を得た際のカメラパラメータ31を使用する。
<3. Conversion to Distance Image Coordinate System DR3> After the position of the work image 19a is specified in the two-dimensional color image coordinate system CR2 as described above, the position and shape of the work are changed to the distance image 21. In order to associate the work image 19a with the three-dimensional image of the object represented by
The process moves to R3 to obtain a work image 19b in the range image coordinate system DR3 (FIG. 6D). In this case, the object color image 22
The camera parameters 31 obtained at the time of obtaining are used.

【0061】具体的には、図7に示すように、カメラパ
ラメータとして、焦点とCCDの中心間距離FCと焦点
と対象物の基準面間距離FOとカラーCCDの画素数
(CCDx,CCDy)とカラーCCDの画素ピッチ
(pitchX,pitchY)を用いる。カラー画像座標系CR
2の座標値(Xc,Yc)に対して対応する距離画像座標
系DR3の座標値(Xr,Yr)とする。この時、次式の
ように対応付けることができる。
More specifically, as shown in FIG. 7, the camera parameters include the distance FC between the focus and the center of the CCD, the distance FO between the focus and the reference plane of the object, and the number of pixels of the color CCD (CCDx, CCDy). The pixel pitch (pitchX, pitchY) of the color CCD is used. Color image coordinate system CR
A coordinate value (Xr, Yr) of the distance image coordinate system DR3 corresponding to the coordinate value (Xc, Yc) of No. 2 is set. At this time, they can be associated as in the following equation.

【0062】[0062]

【数1】Xr =(Xc−CCDx/2)* FO/FC *
pitchX : Yr =(Yc−CCDy/2)* FO/FC * pitchY
: 既に図6(c)の段階で対象物カラ−画像22とワーク画
像19aとの平面的な幾何学的適合処理は完了している
ため、このような並進変換後には、図6(d)に示す距離
画像座標系DR3のワーク画像19bと対象物の距離画
像21(図6(e))とのXY面内方向での座標系は一致
している。
Xr = (Xc-CCDx / 2) * FO / FC *
pitchX: Yr = (Yc-CCDy / 2) * FO / FC * pitchY
: Since the planar geometrical matching process between the object color image 22 and the work image 19a has already been completed at the stage of FIG. 6C, after such a translational conversion, FIG. The coordinate system in the XY plane direction between the work image 19b of the distance image coordinate system DR3 and the distance image 21 (FIG. 6E) of the target object shown in FIG.

【0063】ただし、図6(c)の段階におけるワーク画
像のXY面内方向のサイズは座標系CR2でのサイズで
あって、ワーク19の実際のサイズではない。また、こ
の段階では距離座標系でのワーク画像19bのサイズと
は別なものとなっている。
However, the size of the work image in the direction of the XY plane in the stage of FIG. 6C is the size in the coordinate system CR2, not the actual size of the work 19. At this stage, the size of the work image 19b in the distance coordinate system is different from that of the work image 19b.

【0064】<4.ワーク座標系WR3への変換>そこ
で、(1) 距離画像座標系DR3におけるワーク画像19
bの位置やサイズに関し、それまでの処理で求められた
第1情報と、(2) ワーク座標系WR3における実際のワ
ーク19の位置やサイズに関し、予め定められた第2情
報と、の2つの情報の関係を利用して、距離画像21を
実空間のワーク19に整合させるための、距離画像座標
系DR3からワーク座標系WR3への座標変換パラメータ
(位置変換量および倍率)を算出し(図6(f))、それら
を利用して距離画像21の座標変換を行う(図6
(g))。
<4. Conversion to Work Coordinate System WR3> Therefore, (1) Work image 19 in range image coordinate system DR3
The position and size of b, the first information obtained in the processing up to that point, and (2) the second information predetermined for the actual position and size of the actual work 19 in the work coordinate system WR3. Utilizing the information relationship, a coordinate conversion parameter (position conversion amount and magnification) from the distance image coordinate system DR3 to the work coordinate system WR3 for matching the distance image 21 to the work 19 in the real space is calculated (FIG. 6 (f)), the coordinate transformation of the distance image 21 is performed by using them (FIG. 6).
(g)).

【0065】具体的には、距離画像座標系DR3におけ
るワーク画像19bの代表点(たとえば重心)の位置ベ
クトルをPrとし,ワーク座標系WR3における実際のワ
ーク19の代表点の位置ベクトルをPr0としたとき、
位置変換量(すなわち並進ベクトル)ΔPは、
Specifically, the position vector of the representative point (for example, the center of gravity) of the work image 19b in the distance image coordinate system DR3 is Pr, and the position vector of the actual representative point of the work 19 in the work coordinate system WR3 is Pr0. When
The position transformation amount (ie, translation vector) ΔP is

【0066】[0066]

【数2】ΔP = Pr0 − Pr で与えられる。## EQU2 ## It is given by ΔP = Pr0−Pr.

【0067】また、距離画像座標系DR3におけるワー
ク画像19bのサイズをSwとし、ワーク座標系WR3に
おける実際のワーク19のサイズをSw0としたとき、変
換倍率Mxyは、
When the size of the work image 19b in the distance image coordinate system DR3 is Sw and the actual size of the work 19 in the work coordinate system WR3 is Sw0, the conversion magnification Mxy is

【0068】[0068]

【数3】Mxy = Sw0 / Sw で得られる。## EQU3 ## It can be obtained by Mxy = Sw0 / Sw.

【0069】したがって、距離画像座標系DR3におい
てワーク画像19bと整合した状態での距離画像21の
各画像点の位置ベクトルをQ0としたとき、
Therefore, when the position vector of each image point of the distance image 21 in the state of being aligned with the work image 19b in the distance image coordinate system DR3 is Q0,

【0070】[0070]

【数4】Q = Mxy・(Q0−Pr)+ΔP という変換によって新たな位置ベクトルQを得ることに
より、この位置ベクトルQはワーク座標系WR3におい
て実際のワーク19と位置およびサイズにおいて整合し
たものとなる。
## EQU4 ## By obtaining a new position vector Q by the conversion of Q = Mxy. (Q0-Pr) +. DELTA.P, this position vector Q matches the actual work 19 in the work coordinate system WR3 in position and size. Become.

【0071】しかし、ワーク画像19aはワーク19の
XY面内のデータは正確に表現できるがZ方向(奥行き
方向)の厚みは表せないため、上記のワーク画像19a
の平面的な情報のみを用いる位置合わせでは、ワーク1
9の奥行き方向(Z方向)に関しては大雑把なものとな
っている。そこで、奥行き方向の位置合わせでは、ワー
ク19と距離画像21との3次元情報を対応させること
でZ方向の正確な位置変換量を求める。これは、3次元
情報どうしを結びつけるために1次元分低い2次元情報
を用いているため、この1次元分に対応するZ方向の情
報を補う必要があるからである。奥行き方向の位置合わ
せでは、距離画像21のどの位置をワーク19のどの位
置に合わせるかによって種々の態様がある(それらは後
述する)。
However, the work image 19a can accurately represent data in the XY plane of the work 19 but cannot express the thickness in the Z direction (depth direction).
In alignment using only planar information of
The depth direction (Z direction) 9 is rough. Therefore, in the positioning in the depth direction, an accurate position conversion amount in the Z direction is obtained by associating the three-dimensional information of the work 19 and the distance image 21 with each other. This is because two-dimensional information lower by one dimension is used to link the three-dimensional information, and it is necessary to supplement information in the Z direction corresponding to the one-dimensional information. In the depth direction alignment, there are various modes depending on which position of the distance image 21 is aligned with which position of the work 19 (these will be described later).

【0072】以上により、図6(g)の状態では、ワーク
19はワーク座標系WR3における実際の位置およびサ
イズを有しており、距離画像21はそのワークに合わせ
てXYZ方向でスケーリングされかつ位置合わせされた
状態となっている。
As described above, in the state shown in FIG. 6 (g), the work 19 has the actual position and size in the work coordinate system WR3, and the distance image 21 is scaled in the XYZ directions according to the work and the position It is in the state of being matched.

【0073】また、Z方向においてワークからはみ出し
た距離画像の部分は、削除するなどの処理も必要に応じ
て行うことができる。
If necessary, processing such as deleting the portion of the distance image that protrudes from the work in the Z direction can be performed.

【0074】このようにしてXY面内およびZ方向につ
いて位置変換やサイズ変換(スケーリング)を施された
距離画像21に基づいて加工装置172(図5)をワー
ク座標系WR3で駆動すれば、ワーク19に対して適正
な位置およびサイズで立体加工することが可能になる。
If the processing device 172 (FIG. 5) is driven in the work coordinate system WR3 based on the distance image 21 subjected to position conversion and size conversion (scaling) in the XY plane and the Z direction in this way, It is possible to perform three-dimensional processing at an appropriate position and size with respect to 19.

【0075】以下では、以上の原理を具体的に実現する
各種の態様を説明する。
In the following, various modes for realizing the above principle will be described.

【0076】<第1実施形態>第1実施形態では、上述
した構成の立体模型作成装置1を用い、本発明の特徴が
含まれる撮影・データ処理の動作を行う。以下では、こ
の動作の詳細を説明する。
<First Embodiment> In the first embodiment, an operation of photographing and data processing including the features of the present invention is performed using the three-dimensional model creating apparatus 1 having the above-described configuration. Hereinafter, details of this operation will be described.

【0077】図8は、撮影・データ処理の動作を説明す
るフローチャートであり、図4に示すフローチャートの
ST10に対応する。
FIG. 8 is a flowchart for explaining the photographing / data processing operation, and corresponds to ST10 in the flowchart shown in FIG.

【0078】まず、ステップS10では、あらかじめ準
備されて記憶されているワーク画像19aをディスプレ
イ16に表示する(図9参照)。ワーク19の加工可能
領域がワーク19の全域でないときには、少なくとも加
工可能領域を示す範囲の画像を表示させるが、ワーク1
9の物理的外形をあわせて表示してもよい。
First, in step S10, a work image 19a prepared and stored in advance is displayed on the display 16 (see FIG. 9). When the workable area of the work 19 is not the entire area of the work 19, at least an image of a range indicating the workable area is displayed.
9 may be displayed together.

【0079】ステップS11では、利用客の頭部付近を
対象物として、基準位置に配置された撮影装置30によ
って対象物カラー画像22を撮影する。
In step S11, an object color image 22 is photographed by the photographing device 30 disposed at the reference position, with the vicinity of the head of the customer as the object.

【0080】ステップS12では、撮影された2次元の
対象物カラー画像22をリアルタイムでワーク画像19
aに重ねてディスプレイ16に表示する(図9参照)。
ここでは、画像表示とともに定期的にガイダンスを表示
してもよい。
In step S12, the photographed two-dimensional object color image 22 is converted to the work image 19 in real time.
a is displayed on the display 16 (see FIG. 9).
Here, guidance may be displayed periodically together with the image display.

【0081】次に、ステップS13では、操作入力が行
われたかを判断する。すなわち、料金が投入されてスタ
ートボタン181が利用客により押下される操作入力が
行われていれば、ステップS14に進み、押下されてい
なければステップS11に戻り、引続き2次元画像をデ
ィスプレイ16に表示する。図9(a)に示すようにワ
ーク画像19aと対象物カラー画像22とが適合してい
ない状態の時は利用客が自身の頭部などを移動させて、
図9(b)に示すようにワーク画像19aと対象物カラ
ー画像22とを適合させる。具体的には、利用客が自身
の頭部などをXY面内方向に移動させれば対象物カラー
画像22がディスプレイ16中で左右上下方向に移動
し、頭部をZ方向に移動させればディスプレイ16中に
おける対象物カラー画像22の全体サイズが変化する。
そして、図9(b)のように対象物カラー画像22がワ
ーク画像19aにほぼ適合する状態であり、希望する大
きさ・位置になったと利用客が判断すると、その利用客
はスタートボタン181を操作することによって、対象
物カラー画像22の位置およびサイズを確定する。
Next, in step S13, it is determined whether an operation input has been performed. That is, if a fee has been input and the operation input for pressing the start button 181 by the user has been performed, the process proceeds to step S14, and if not, the process returns to step S11 and the two-dimensional image is continuously displayed on the display 16. I do. As shown in FIG. 9A, when the work image 19a and the target object color image 22 do not match, the user moves his / her own head and the like,
The work image 19a and the target object color image 22 are matched as shown in FIG. Specifically, if the user moves his / her head in the XY plane direction, the object color image 22 moves in the display 16 in the left, right, up, and down directions, and if the user moves the head in the Z direction, The overall size of the object color image 22 in the display 16 changes.
Then, as shown in FIG. 9 (b), when the user determines that the target object color image 22 substantially matches the work image 19a and has reached the desired size and position, the user presses the start button 181. By performing the operation, the position and size of the target object color image 22 are determined.

【0082】ステップS14では、撮影装置30によっ
て利用客の2次元のカラー画像データDCを取得する。
ここにおいて、図9のようなワーク画像19aとの適合
のための対象物カラー画像22の取得(準備撮影)が高
分解能で行われてる場合には、そのような準備撮影で繰
り返して取り込まれている2次元画像データのうち、ス
タートボタン181を操作した時点の画像の情報を2次
元カラー画像データDCとして採用してもよいが、準備
撮影を低分解能で行っている場合にはこの時点で高分解
能の撮影を行うことによって、3次元加工のための高分
解能の2次元カラー画像データDCを取得する。
In step S14, the photographing device 30 obtains two-dimensional color image data DC of the customer.
Here, when the acquisition (preparation photographing) of the target object color image 22 for matching with the work image 19a as shown in FIG. 9 is performed at a high resolution, it is repeatedly taken in by such preparation photographing. Of the existing two-dimensional image data, the information of the image at the time when the start button 181 is operated may be adopted as the two-dimensional color image data DC. By performing high-resolution imaging, high-resolution two-dimensional color image data DC for three-dimensional processing is obtained.

【0083】ステップS15では、撮影装置30によっ
て、対象物の3次元データ、すなわち距離画像データD
Sの取得を行う。
In step S15, the photographing device 30 uses the three-dimensional data of the object, that is, the distance image data D
Acquire S.

【0084】ステップS16では、ステップS15で取
得した距離画像データDSはノイズやデータの欠落等を
含む生データであるため、この距離画像データDSに対
するをデータ補正処理を行う。以上が図5(a)〜(c)の
プロセスに対応し、以下の各工程は図5(d)〜(g)に対
応する。
In step S16, since the distance image data DS obtained in step S15 is raw data including noise and missing data, data correction processing is performed on the distance image data DS. The above corresponds to the processes of FIGS. 5A to 5C, and the following steps correspond to FIGS. 5D to 5G.

【0085】ステップS20では、ステップS16で補
正された距離画像データDSを用い、加工データDMを
生成する。その詳細を以下で説明する。
In step S20, the processed data DM is generated using the distance image data DS corrected in step S16. The details will be described below.

【0086】ステップS21では、3次元距離画像座標
系におけるワーク画像19bと実際のワーク19とのサ
イズの比率に応じて、距離画像21をスケール変換す
る。具体的には、図10に示すように、2次元のカラー
画像座標系CR2におけるワーク画像19aの座標デー
タ、例えば、図10に示すようなワーク画像19aの外
形の広がりの最大範囲をXY方向について規定した最大
矩形19rの対角の2次元座標値(XL,YT)、(XR,YB)を2
次元カラー画像座標系CR2において取得し、それによ
ってワーク画像19aの位置と広がりを表現する。次
に、図11に示すように、2次元のカラー画像座標系C
R2におけるワーク画像19a(図11(a))を、カ
メラパラメータ31を用いて3次元距離画像座標系DR
3に移し、ワーク画像19bを得る。これは既述した数
1による変換に相当する。そして、このワーク画像19
bのサイズと、実際のワーク19におけるXY面内のサ
イズとの比率を算出し、この比率で距離画像21のスケ
ール変換を施すことにより、距離画像21とワーク画像
19bとのサイズ関係を整合させる。
In step S21, the distance image 21 is scale-converted according to the size ratio between the work image 19b and the actual work 19 in the three-dimensional distance image coordinate system. Specifically, as shown in FIG. 10, the coordinate data of the work image 19a in the two-dimensional color image coordinate system CR2, for example, the maximum range of the spread of the outer shape of the work image 19a as shown in FIG. The two-dimensional coordinate values (XL, YT) and (XR, YB) of the diagonal of the specified maximum rectangle 19r are 2
Acquired in the two-dimensional color image coordinate system CR2, thereby expressing the position and spread of the work image 19a. Next, as shown in FIG. 11, a two-dimensional color image coordinate system C
The work image 19a (FIG. 11A) in R2 is converted into a three-dimensional range image coordinate system DR using the camera parameters 31.
The process moves to 3 to obtain a work image 19b. This corresponds to the conversion by the above-described equation 1. And this work image 19
The ratio between the size of b and the size of the actual work 19 in the XY plane is calculated, and the scale conversion of the distance image 21 is performed at this ratio to match the size relationship between the distance image 21 and the work image 19b. .

【0087】ステップS22では、スケール変換後の距
離画像21をワーク19の位置に対応するようにXY面
内で位置決めする。具体的には、図12に示すように、
距離画像座標系DR3におけるワーク画像19bのXY
面内の2次元的な重心RPを、ワーク座標系WR3にお
ける実際のワーク19における重心WPに一致させるよ
うな位置変換を行う。
In step S22, the scale-converted distance image 21 is positioned in the XY plane so as to correspond to the position of the work 19. Specifically, as shown in FIG.
XY of work image 19b in range image coordinate system DR3
The position conversion is performed such that the two-dimensional center of gravity RP in the plane matches the center of gravity WP of the actual work 19 in the work coordinate system WR3.

【0088】また、この代わりに、図13に示すよう
に、距離画像座標系DR3におけるスケール変換後の距
離画像21のXY座標に関する重心RPを、ワーク座標
系WR3における実際のワーク19における重心WPに
一致させるような位置変換を行ってもよい。
Alternatively, as shown in FIG. 13, the center of gravity RP of the distance image 21 after scale conversion in the distance image coordinate system DR3 is set to the center of gravity WP of the actual work 19 in the work coordinate system WR3. Position conversion may be performed so as to match.

【0089】なお、XY面内の位置決めについては、重
心どうしの一致は必須ではなく、対応関係が明確である
2次元的な代表点(例えば、X座標および/またはY座
標についての座標値が最小となる点)を一致させればよ
い。また、ワーク19の一部が加工可能領域となってい
るときには、上記における代表点はその領域だけについ
ての重心点などによって定義される。以下の「前端」、
「後端」などについても同様である。
For positioning in the XY plane, it is not essential that the centers of gravity coincide with each other, but a two-dimensional representative point having a clear correspondence (for example, the coordinate value of the X coordinate and / or the Y coordinate is minimum). Point). When a part of the work 19 is a workable area, the representative point in the above is defined by a center of gravity of the area alone. "Front end" below,
The same applies to the “rear end” and the like.

【0090】これらの変換は、既述した数2の変換に相
当しており、図6(d)〜(f)のプロセスに相当する。
These conversions correspond to the above-described conversion of Expression 2, and correspond to the processes of FIGS. 6D to 6F.

【0091】ステップS23では、スケール変換後の距
離画像21をワーク19に対してZ方向で位置決めす
る。つまり、図14に示すように、距離画像座標系DR
3における距離画像21においてZ座標が最大値となっ
ている前端点21aを第1代表点とし、ワーク座標系W
R3におけるワーク19においてZ座標が最大値となっ
ている前端点19fとして、第1代表点の位置を第2代
表点の位置に一致させるようなZ方向の位置変換を行
う。なお、Z座標の最大値に対応する点どうしを一致さ
せるのは必須でなく、図15に示すように距離画像21
の広がりの範囲を近似的に表現する直方体の重心点21
gをワーク19の3次元的な最大矩形の重心点19gに
Z方向で一致させるようにしてもよい。
In step S23, the scale-converted distance image 21 is positioned with respect to the work 19 in the Z direction. That is, as shown in FIG.
The front end point 21a where the Z coordinate has the maximum value in the distance image 21 in FIG.
As the front end point 19f where the Z coordinate of the work 19 in R3 is the maximum value, the Z-direction position conversion is performed so that the position of the first representative point coincides with the position of the second representative point. Note that it is not essential to match the points corresponding to the maximum value of the Z coordinate, as shown in FIG.
Centroid point 21 of a rectangular parallelepiped that approximately represents the range of the spread of
g may be made to coincide with the three-dimensional maximum rectangular center point 19g of the work 19 in the Z direction.

【0092】さらに、図16に示すようにZ座標が最小
値となっている後端点21hおよび19hどうしを一致
させてもよい。ただし、図17(a)に示すように、ス
ケール変換された距離画像21のZ方向の幅がワーク1
9より大きく、距離画像21の一部(前面部21k)が
表面から突出するかどうかを判定し、突出する場合に
は、補正要求信号を発生させる。そして、補正要求信号
に発生を受けて、図17(b)に示すように前端点21
f、19fどうしを一致させる位置補正を行う。これ
は、距離画像21の前面部21kが対象物の前面部に対
応して、重要なデータであるため、優先する必要がある
からである。
Further, as shown in FIG. 16, the rear end points 21h and 19h at which the Z coordinate has the minimum value may be matched. However, as shown in FIG. 17A, the width of the scale-converted distance image 21 in the Z direction is
It is determined whether or not a part of the distance image 21 (the front part 21k) is larger than 9 and protrudes from the surface, and if so, a correction request signal is generated. Then, in response to the generation of the correction request signal, as shown in FIG.
Position correction is performed to make f and 19f coincide with each other. This is because the front part 21k of the distance image 21 corresponds to the front part of the target object and is important data, and therefore needs to be prioritized.

【0093】ステップS24では、ワーク座標系WR3
に変換された距離画像21の一部がワーク19から飛び
出すかを判定する。飛び出す場合には、ステップS25
に進み、飛び出さない場合には、ステップST20に進
む。
In step S24, the work coordinate system WR3
It is determined whether or not a part of the distance image 21 converted into is projected from the work 19. When jumping out, step S25
If not, the process proceeds to step ST20.

【0094】ステップS25では、飛び出した距離画像
21のデータの調整を行う。つまり、飛び出した距離画
像21の画像情報を削除する。なお、Z方向にのみ飛び
出す場合には、距離画像21のZ方向の空間倍率を縮小
して、距離画像21をワーク19に内包させてもよい。
これによって、図6(g)のプロセスが完了する。
In step S25, the data of the projected distance image 21 is adjusted. That is, the image information of the projected distance image 21 is deleted. When the distance image 21 is projected only in the Z direction, the distance image 21 may be included in the work 19 by reducing the spatial magnification of the distance image 21 in the Z direction.
Thus, the process of FIG. 6G is completed.

【0095】以上の動作により、距離画像データDS
(3次元形状データ)を3次元加工機で利用可能なデー
タDMに迅速に変換できる。そして、リアルタイムに近
いレスポンスが要求されるベンディングマシンである立
体模型作成装置1上においても支障なく使用することが
できる。
With the above operation, the distance image data DS
(3D shape data) can be quickly converted to data DM that can be used by a 3D processing machine. And it can be used without trouble even on the three-dimensional model creation device 1 which is a bending machine that requires a response in near real time.

【0096】<第2実施形態>第2実施形態は、2次元
撮影を行う視点と3次元計測を行う視点とが異なる場合
である。ここでは、視差補正が必要となる。以下、第2
実施形態の構成及び動作を説明する。
<Second Embodiment> In the second embodiment, the viewpoint for performing two-dimensional imaging is different from the viewpoint for performing three-dimensional measurement. Here, parallax correction is required. The second
The configuration and operation of the embodiment will be described.

【0097】<第2実施形態の構成>第1実施形態の撮
影装置30が1眼レンズを採用しているのに対して、第
2実施形態の立体模型作成装置では、撮影装置が2眼レ
ンズを採用している。
<Structure of the Second Embodiment> While the photographing device 30 of the first embodiment employs a single-lens lens, in the three-dimensional model forming device of the second embodiment, the photographing device uses a two-lens lens. Is adopted.

【0098】図18は、2眼レンズを採用する撮影装置
30Aの光学系を示す図である。
FIG. 18 is a view showing an optical system of a photographing apparatus 30A employing a two-lens lens.

【0099】撮影装置30Aは、3次元計測装置34に
設けられるCCD34a及びレンズ34bと、2次元撮
影装置36に設けられるCCD36a及びレンズ36b
との位置が異なる構成となっている。
The photographing device 30A includes a CCD 34a and a lens 34b provided in the three-dimensional measuring device 34 and a CCD 36a and a lens 36b provided in the two-dimensional photographing device 36.
And the position is different.

【0100】上記のような構成のため、第1実施形態の
撮影装置30では同一視点のため距離画像データDS及
びカラー画像データDCの2次元(XY座標系)におけ
る対応付けを考慮する必要がなかったが、撮影装置30
Aでは、これを考慮した視差補正を行わなければならな
い。
With the above-described configuration, it is not necessary to consider the two-dimensional (XY coordinate system) correspondence between the distance image data DS and the color image data DC in the photographing apparatus 30 of the first embodiment because of the same viewpoint. However, the photographing device 30
In A, parallax correction must be performed in consideration of this.

【0101】図18(a)において、光軸36cとCC
D36aとが交わる点CoはCCD36aの中心と一致
しないため、このオフセット量offdis_fundをまず求め
る必要がある。そこで、CCD34aで捉えるとCCD
34aの中心に捉えることができ、CCD36aで捉え
るとCCD36aの中心に捉えることができる対象物の
点fundを通り距離画像座標系DR3のXY平面と平行な
基準面50fを設定する。この点fundがCCD36aに
結像する点に対する点Coからのオフセット量を算出
し、これをoffdis_fundとする。また、対象物50にお
ける点ObjはCCD34aで捉えるとCCD34aの中
心に捉えることができるとする。この点ObjがCCD3
6aに結像する点に対する点Coからのオフセット量を
算出し、これをoffdis_objとする。これらにより、図1
8(b)に示すように、カラー画像中心つまりCCD3
6aの中心からの視差ベクトルoffdisは、上記のoffdis
_objとoffdis_fundとの差(offdis_obj−offdis_fund)
から算出でき、これが視差補正量に対応する。
In FIG. 18A, the optical axis 36c and CC
Since the point Co where D36a intersects does not coincide with the center of the CCD 36a, the offset amount offdis_fund must be obtained first. So, if you capture it with CCD 34a, CCD
A reference plane 50f that passes through a point fund of an object that can be captured at the center of the CCD 34a and can be captured at the center of the CCD 36a when captured by the CCD 36a and that is parallel to the XY plane of the distance image coordinate system DR3 is set. An offset amount from the point Co with respect to the point where the point fund forms an image on the CCD 36a is calculated, and this is set as offdis_fund. Further, it is assumed that the point Obj on the object 50 can be captured at the center of the CCD 34a when captured by the CCD 34a. This point Obj is CCD3
The offset amount from the point Co with respect to the point to be imaged at 6a is calculated, and this is set as offdis_obj. As a result, FIG.
8 (b), the center of the color image, that is, the CCD 3
The disparity vector offdis from the center of 6a is the above-mentioned offdis
Difference between _obj and offdis_fund (offdis_obj-offdis_fund)
, Which corresponds to the parallax correction amount.

【0102】図19は、距離画像座標系DR3のXY平
面55に対する対象物カラー画像22およびワーク画像
19aの関係を示す図である。図19(a)に示すよう
に、上記の視差ベクトルoffdis相当分だけ対象物カラ
ー画像22の中心は、画角の中心O3からずれている。
よって、図19(b)に示すように、ワーク画像19a
も視差ベクトルoffdis相当分移動させると、距離画像
座標系DR3に対する対応関係が第1実施形態の同一視
点と同様となる。
FIG. 19 is a diagram showing the relationship between the object color image 22 and the work image 19a with respect to the XY plane 55 of the distance image coordinate system DR3. As shown in FIG. 19A, the center of the object color image 22 is shifted from the center O3 of the angle of view by an amount corresponding to the parallax vector offdis.
Therefore, as shown in FIG.
When the image is moved by an amount corresponding to the parallax vector offfdis, the correspondence to the distance image coordinate system DR3 is the same as that of the same viewpoint in the first embodiment.

【0103】<第2実施形態の動作>図20は、撮影・
データ処理の動作を説明するフローチャートであり、図
4に示すフローチャートのST10に対応する。また、
図8に示すフローチャートに類似しており、相違するの
はステップS41が追加されているところである。
<Operation of Second Embodiment> FIG.
5 is a flowchart illustrating an operation of data processing, and corresponds to ST10 of the flowchart illustrated in FIG. Also,
The flowchart is similar to the flowchart shown in FIG. 8 except that step S41 is added.

【0104】ステップS41では、上述したようにワー
ク画像19aを視差を考慮した位置(図19(b))に
設定する。これにより、ワーク19と距離画像21との
3次元的な対応付けが第1実施形態と同様となるため、
ステップS41以降の加工データDM生成の動作をステ
ップS20と同様に処理できる。
In step S41, the work image 19a is set to a position (FIG. 19B) in consideration of parallax as described above. Thereby, the three-dimensional association between the work 19 and the distance image 21 is the same as in the first embodiment,
The operation of generating the processed data DM after step S41 can be processed in the same manner as in step S20.

【0105】以上で説明したステップ以外は、第1実施
形態の動作と同様であり、この第2実施形態の動作によ
り、2眼レンズを採用する撮影装置の場合でも距離画像
データDS(3次元形状データ)を3次元加工機で利用
可能なデータDMに迅速に変換できる。
Except for the steps described above, the operation is the same as that of the first embodiment. By the operation of the second embodiment, the distance image data DS (three-dimensional shape Data) can be quickly converted into data DM usable by the three-dimensional processing machine.

【0106】<第3実施形態>第3実施形態では、図2
のジョイスティック184の代わりに図21に示すよう
な1次元ジョイスティック184aと2次元ジョイステ
ィック184bとの組合せからなる操作入力手段を、利
用者がディスプレイ16の画面上で視認しながらワーク
画像19aの倍率と位置を上記操作入力手段によってマ
ニュアル調節しながら対象物カラー画像22との適合を
行う。
<Third Embodiment> In the third embodiment, FIG.
Instead of the joystick 184, the operation input means composed of a combination of a one-dimensional joystick 184a and a two-dimensional joystick 184b as shown in FIG. Is manually adjusted by the operation input means to match with the object color image 22.

【0107】<第3実施形態の動作>図22は、撮影・
データ処理の動作を説明するフローチャートであり、図
4に示すフローチャートのST10に対応する。また、
図20に示すフローチャートに類似しており、相違する
のは、ステップS10が削除され、代わりにステップS
61、S62が追加されているところである。
<Operation of Third Embodiment> FIG.
5 is a flowchart illustrating an operation of data processing, and corresponds to ST10 of the flowchart illustrated in FIG. Also,
It is similar to the flowchart shown in FIG. 20 except that Step S10 is deleted and Step S10 is replaced.
61 and S62 are being added.

【0108】ステップS61では、図23に示すよう
に、ステップS53で取得した対象物カラー画像22の
倍率と位置を調節する。この調節方法について、以下で
説明する。
In step S61, as shown in FIG. 23, the magnification and position of the object color image 22 acquired in step S53 are adjusted. This adjustment method will be described below.

【0109】まず、図23(a)に示す状態から、1次
元ジョイスティック184aを上に傾ける操作を行え
ば、図23(b)に示すように対象物カラー画像22が
拡大表示されるようになっており、下に傾ければ縮小す
るようになっている。このため、1次元ジョイスティッ
ク184aの上下の操作により倍率が調節できる。そし
て、対象物カラー画像22のサイズがワーク画像22に
適合した後、2次元ジョイスティック184bを利用し
て画像位置の調整を行う。すなわち、2次元倍率を調節
した対象物カラー画像22(図23(c))に対して、
2次元ジョイスティック184bを左に傾けると図23
(d)に示す状態に移行し、2次元ジョイスティック1
84bを下に傾けると図23(e)に示す状態に移行で
きるようになっており、2次元ジョイスティック184
bの上下左右の操作により位置が調節できる。
First, by performing an operation of tilting the one-dimensional joystick 184a upward from the state shown in FIG. 23A, the object color image 22 is enlarged and displayed as shown in FIG. 23B. And if you lean down, it shrinks. Therefore, the magnification can be adjusted by operating the one-dimensional joystick 184a up and down. Then, after the size of the target color image 22 matches the work image 22, the image position is adjusted using the two-dimensional joystick 184b. That is, with respect to the target object color image 22 (FIG. 23C) in which the two-dimensional magnification is adjusted,
When the two-dimensional joystick 184b is tilted to the left, FIG.
The state shifts to the state shown in FIG.
By tilting 84b downward, it is possible to shift to the state shown in FIG.
The position can be adjusted by the up, down, left and right operations of b.

【0110】ステップS62では、対象物カラー画像2
2がワーク画像19aに適合できたかを判定する。つま
り、ジョイスティック184a、184bの操作によ
り、ワーク画像19aに対する相対的な倍率と位置との
調節が完了したときは、確認ボタン182を押下する。
そして、確認ボタン182が押下された場合にはステッ
プST63に進み、押下されていない場合にはステップ
S61に戻る。
In the step S62, the object color image 2
It is determined whether or not No. 2 is suitable for the work image 19a. That is, when the adjustment of the relative magnification and position with respect to the work image 19a is completed by operating the joysticks 184a and 184b, the confirmation button 182 is pressed.
If the confirmation button 182 has been pressed, the process proceeds to step ST63, and if not, the process returns to step S61.

【0111】なお、2つのジョイスティック184a、
184bの代わりに図2の1つのジョイスティック18
4を時間的に切替えることによって倍率調整と位置調整
とを行わせるようにしてもよい。また、対象物カラー画
像22の代わりに、距離画像(例えばワイヤーフレーム
画像)を表示するようにしてもよい。この場合、操作の
度に3次元データに対して「移動」「倍率調整」の処理
が必要となるが、1度測定された3次元データに対して
繰り返し処理を行うため、時間を要する3次元測定は1
回であり、リアルタイムで表示が行える。
Note that two joysticks 184a,
One joystick 18 of FIG. 2 instead of 184b
The magnification adjustment and the position adjustment may be performed by temporally switching the number 4. Further, instead of the object color image 22, a distance image (for example, a wire frame image) may be displayed. In this case, processing of “moving” and “adjustment of magnification” is required for the three-dimensional data every time the operation is performed. Measurement is 1
Times and can be displayed in real time.

【0112】以上で説明したステップ以外は、第1実施
形態の動作と同様であり、この第3実施形態の動作によ
り、対象物カラー画像22とワーク画像19aとの適合
を利用者の意図に従って迅速行うことができ、距離画像
データDS(3次元形状データ)を3次元加工機で利用
可能なデータDMに迅速に変換できる。
Except for the steps described above, the operation is the same as that of the first embodiment. By the operation of the third embodiment, the matching between the target object color image 22 and the work image 19a is promptly performed according to the user's intention. The distance image data DS (three-dimensional shape data) can be quickly converted to data DM that can be used by a three-dimensional processing machine.

【0113】<変形例>◎この発明で利用するワーク画
像は、必ずしもワークの2次元画像をディスプレイの画
面上で電子光学的に表示したものである必要はなく、ワ
ークの加工可能領域の外形が視認できれるものであれ
ば、どのようなものであっても「ワーク画像」として利
用できる。
<Modifications> The work image used in the present invention does not necessarily need to be a two-dimensional image of the work electro-optically displayed on the screen of the display. Any object that can be visually recognized can be used as a “work image”.

【0114】たとえば、図24(a)に示すように、ワ
ーク19の加工可能領域の外形に対応したフレームない
しは形状(以下「ワーク外形」)19fが表示された透
明板71をディスプレイ16の画面16sの上に近接し
て配置しておくことによって、図7のステップS10で
ワークカラー画像をディスプレイ16の画面16sに表
示することを省略することもできる。また、図24
(b)に示すように、ワーク外形19fに相当する中空
窓73を持った枠体72を画面16sの上に近接して配
置してもよい。これらの場合には、画面16sに表示さ
れたワークカラ−画像19bがワーク外形19fに適合
するような位置関係で、利用客がスタートボタン181
(図1)を操作する。
For example, as shown in FIG. 24A, a transparent plate 71 on which a frame or shape (hereinafter, “work outline”) 19f corresponding to the outline of the workable area of the work 19 is displayed on the screen 16s of the display 16. The display of the work color image on the screen 16s of the display 16 in step S10 of FIG. FIG.
As shown in (b), a frame 72 having a hollow window 73 corresponding to the work outer shape 19f may be arranged close to the screen 16s. In these cases, the user presses the start button 181 in a positional relationship such that the work color image 19b displayed on the screen 16s conforms to the work outline 19f.
(Fig. 1).

【0115】このように、ディスプレイ16の画面16
s上において、加工可能領域の外形に対応する所定の形
状(ワーク外形)をワーク画像として表現する手段とし
ては、少なくともそのワーク外形の内部については、画
面16sを利用客が視認できるような透明性を有するも
のが使用される。その透明性は、図24(a)のように
透明材質の板で達成されていてもよく、図24(b)の
ように中空とされることによって達成されていてもよ
い。また、ディスプレイ16の画面16s上にワーク図
形を直接にペイントしたり、シール状ものを貼り付けた
りすることもできるが、これも「形状表現手段」のひと
つである。
Thus, the screen 16 of the display 16
As means for expressing a predetermined shape (work outline) corresponding to the outline of the workable area as a work image on s, at least the inside of the work outline is transparent so that the user can visually recognize the screen 16s. Is used. The transparency may be achieved by a plate made of a transparent material as shown in FIG. 24A, or may be achieved by being hollow as shown in FIG. In addition, a work figure can be directly painted on the screen 16s of the display 16 or a sticker can be pasted, but this is also one of the "shape expressing means".

【0116】図24などのように構成する場合には、図
40のコントローラ42内のメモリに、ディスプレイ1
6の画面座標におけるワーク外形19fの輪郭線の座標
値(図示例のように矩形の場合にはその矩形の頂点の座
標値)があらかじめ記憶されている。したがって、コン
トローラ42内のCPUがそれらの座標値を参照するこ
とにより、以後の処理は、ディスプレイ16の画面16
sにワークカラ−画像19bを表示する場合と同様に行
うことができる。
In the case of the configuration as shown in FIG. 24 or the like, the display 1 is stored in the memory in the controller 42 in FIG.
The coordinate values of the outline of the work outline 19f at the screen coordinates of No. 6 (the coordinate values of the vertexes of the rectangle in the case of a rectangle as shown in the figure) are stored in advance. Therefore, when the CPU in the controller 42 refers to those coordinate values, the subsequent processing is performed on the screen 16 of the display 16.
This can be performed in the same manner as when the work color image 19b is displayed in s.

【0117】このような変形例は、ワーク19として常
に同一の形状およびサイズのものを使用する場合に特に
有効である。もっとも、透明板71や枠体72を、他の
ワーク外形に対応するものと交換可能にしておけば、複
数種類のワークに対応することもできる。
Such a modification is particularly effective when the workpiece 19 is always of the same shape and size. However, if the transparent plate 71 and the frame body 72 are made interchangeable with those corresponding to other workpiece outlines, it is possible to support a plurality of types of workpieces.

【0118】◎上記の各実施形態では、ワークを直方体
としているが、円柱形状等の立体形状であってもよい。
In the above embodiments, the work is a rectangular parallelepiped, but may be a three-dimensional shape such as a cylindrical shape.

【0119】◎上記の各実施形態における加工データ作
成の動作(ステップS20、S40、S60)は、図4
に示すフローチャートにおける加工データ作成の動作
(ステップST50)にて実施してもよい。
The operation (steps S20, S40, S60) for creating processed data in each of the above embodiments is described in FIG.
May be performed in the operation of creating the processed data (step ST50) in the flowchart shown in FIG.

【0120】[0120]

【発明の効果】以上説明したように、請求項1の発明に
よれば、ワークの加工可能領域を表現したワーク画像と
対象物の2次元画像とを所定の画面上に重ねて表示さ
せ、ワーク画像の内部に前記対象物の2次元画像が適合
した状態に対応する対象物の距離画像に、ワーク画像の
サイズと加工可能領域の実際のサイズとの比率に応じて
スケール変換を施すとともに、スケール変換後の距離画
像を加工可能領域の実際の座標位置へと位置変換してい
る。その結果、3次元形状データである距離画像におい
て、ワークに対する倍率、位置を容易に設定することが
できる。
As described above, according to the first aspect of the present invention, a work image representing a workable area of a work and a two-dimensional image of an object are displayed on a predetermined screen in a superimposed manner. A scale conversion is performed on the distance image of the object corresponding to a state in which the two-dimensional image of the object fits inside the image according to the ratio between the size of the work image and the actual size of the workable area. The position image of the converted distance image is converted into the actual coordinate position of the workable area. As a result, in the distance image as the three-dimensional shape data, the magnification and the position with respect to the work can be easily set.

【0121】また、請求項2の発明によれば、距離画像
の座標系に変換したワーク画像の2次元的代表点の位置
を、ワークの実際の加工可能領域の2次元的代表点の位
置に対応させることにより、スケール変換後の距離画像
を加工可能領域の実際の位置に2次元的に適合させるた
め、2次元平面に関して距離画像を3次元加工機で利用
可能なデータに正確に変換できる。
According to the second aspect of the present invention, the position of the two-dimensional representative point of the work image converted into the coordinate system of the distance image is changed to the position of the two-dimensional representative point of the actual workable area of the work. By making the correspondence, the distance image after the scale conversion is two-dimensionally adapted to the actual position of the processable area, so that the distance image can be accurately converted into data usable by the three-dimensional processing machine with respect to the two-dimensional plane.

【0122】また、請求項3の発明によれば、ワーク画
像の2次元的代表点がワーク画像の2次元的重心点であ
り、ワークの実際の加工可能領域の2次元的代表点が加
工可能領域の2次元的重心点であるため、距離画像を3
次元加工機で利用可能なデータにより正確に変換でき
る。
According to the third aspect of the present invention, the two-dimensional representative point of the work image is the two-dimensional center of gravity of the work image, and the two-dimensional representative point of the actual workable area of the work can be processed. Since this is a two-dimensional center of gravity of the area, the distance image
It can be accurately converted by the data available on the 3D processing machine.

【0123】また、請求項4の発明によれば、スケール
変換後の距離画像の奥行き方向の第1代表点の位置を、
ワークの実際の加工可能領域の奥行き方向の第2代表点
の位置に対応させるため、奥行き方向に関して距離画像
を3次元加工機で利用可能なデータに正確に変換でき
る。
According to the fourth aspect of the present invention, the position of the first representative point in the depth direction of the scale-converted range image is determined by:
In order to correspond to the position of the second representative point in the depth direction of the actual workable area of the work, the distance image in the depth direction can be accurately converted into data usable by the three-dimensional processing machine.

【0124】また、請求項5の発明によれば、第1代表
点がスケール変換後の距離画像の重心点であり、第2代
表点が加工可能領域の重心点であるため、奥行き方向に
関して距離画像を3次元加工機で利用可能なデータによ
り正確に変換できる。
According to the fifth aspect of the present invention, the first representative point is the center of gravity of the scale-converted distance image, and the second representative point is the center of gravity of the workable area. The image can be accurately converted by the data available in the three-dimensional processing machine.

【0125】また、請求項6の発明によれば、第1代表
点がスケール変換後の距離画像の前端点であり、第2代
表点が加工可能領域の前端点であるため、奥行き方向に
関して距離画像を3次元加工機で利用可能なデータに正
確に変換できる。
According to the sixth aspect of the present invention, since the first representative point is the front end point of the scale-converted distance image and the second representative point is the front end point of the workable area, the distance in the depth direction is small. Images can be accurately converted to data that can be used by a three-dimensional processing machine.

【0126】また、請求項7の発明によれば、第1代表
点がスケール変換後の距離画像の後端点であり、第2代
表点が加工可能領域の後端点であるため、奥行き方向に
関して距離画像を3次元加工機で利用可能なデータに正
確に変換できる。
According to the seventh aspect of the present invention, the first representative point is the rear end point of the scale-converted distance image, and the second representative point is the rear end point of the workable area. Images can be accurately converted to data that can be used by a three-dimensional processing machine.

【0127】また、請求項8の発明によれば、スケール
変換後の距離画像の後端点をワークの実際の加工可能領
域の後端点に一致させ、スケール変換後の距離画像の一
部がワークの実際の加工可能領域のうち基準位置側の表
面から突出しているか否かを判定し、突出している場合
には補正要求信号を発生し、補正要求信号に応答して、
スケール変換後の距離画像の前端点を、ワークの実際の
加工可能領域の前端点に一致させるように補正する。そ
の結果、奥行き方向に関して重要度の高い基準位置側の
距離画像のデータを優先できるとともに、奥行き方向に
関して距離画像を3次元加工機で利用可能なデータに正
確に変換できる。
According to the eighth aspect of the present invention, the rear end point of the distance image after the scale conversion is made coincident with the rear end point of the actual workable area of the work, and a part of the distance image after the scale conversion becomes part of the work. Determine whether or not it protrudes from the surface on the reference position side in the actual workable area, and if it protrudes, generates a correction request signal and responds to the correction request signal,
The front end point of the scale-converted distance image is corrected to match the front end point of the actual workable area of the work. As a result, it is possible to give priority to the data of the distance image on the reference position side with high importance in the depth direction, and to accurately convert the distance image in the depth direction into data usable by the three-dimensional processing machine.

【0128】また、請求項9の発明によれば、スケール
変換後の距離画像のうちワークの実際の加工可能領域の
後方に飛び出すことになる部分の画像情報を削除するた
め、距離画像を3次元加工機で利用可能なデータに適切
に変換できる。
Further, according to the ninth aspect of the present invention, since the image information of a portion of the distance image after the scale conversion, which is projected to the rear of the actual workable area of the work, is deleted, the distance image is converted into a three-dimensional image. It can be properly converted to data that can be used on a processing machine.

【0129】また、請求項10の発明によれば、スケー
ル変換後の距離画像のうちワークの実際の加工可能領域
から飛び出すことになる部分の画像情報を削除するた
め、距離画像を3次元加工機で利用可能なデータに適切
に変換できる。
Further, according to the tenth aspect of the present invention, since the image information of a portion of the distance image after the scale conversion that is to protrude from the actual workable area of the workpiece is deleted, the distance image is converted into a three-dimensional processing machine. Can be properly converted to data that can be used.

【0130】また、請求項11の発明によれば、スケー
ル変換後の距離画像の一部が、奥行き方向においてワー
クの実際の加工可能領域から飛び出すことになる場合に
は、距離画像の奥行き方向への空間倍率を縮小して、距
離画像をワークの実際の加工可能領域内に内包させるた
め、距離画像を3次元加工機で利用可能なデータに適切
に変換できる。
According to the eleventh aspect of the present invention, when a part of the scale-converted distance image jumps out of the actual workable area of the work in the depth direction, the distance image moves in the depth direction of the distance image. Since the spatial magnification is reduced and the distance image is included in the actual workable area of the work, the distance image can be appropriately converted into data usable by the three-dimensional processing machine.

【0131】また、請求項12の発明によれば、操作入
力手段の操作に応答して、所定の画面上においてワーク
画像に対する対象物の2次元画像の相対的な位置と倍率
とを変更するため、距離画像を3次元加工機で利用可能
なデータに利用者の意図どうりに変換できる。
According to the twelfth aspect, the relative position and magnification of the two-dimensional image of the object with respect to the work image on a predetermined screen are changed in response to the operation of the operation input means. In addition, the distance image can be converted into data usable by the three-dimensional processing machine according to the user's intention.

【0132】また、請求項13の発明によれば、基準位
置から対象物の位置に向かう方向と、撮影位置から対象
物に向かう方向との視差に応じて2次元画像を補正する
ため、対象物の2次元画像が基準位置から離れた所定の
撮影位置からの撮像によって取得されても距離画像を3
次元加工機で利用可能なデータに迅速に変換できる。
According to the thirteenth aspect of the present invention, the two-dimensional image is corrected according to the parallax between the direction from the reference position to the position of the object and the direction from the photographing position to the object. Even if the two-dimensional image is acquired by imaging from a predetermined imaging position distant from the reference position, the distance image
It can be quickly converted to data that can be used by 3D processing machines.

【0133】また、請求項14の発明によれば、指定手
段がディスプレイとディスプレイの画面上に配置され、
ワーク画像として加工可能領域の外形に対応する所定の
形状を表現しており、かつ少なくとも所定の形状の内部
については透明性を有する形状表現手段とディスプレイ
の画面のうち所定の形状で表現される範囲に重なる位置
に対象物の2次元画像を表示させる表示制御手段とを備
えている。その結果、ワーク画像に限らず加工可能領域
の外形に対応する所定の形状を用いて、3次元形状デー
タである距離画像においてワークに対する倍率、位置を
容易に設定することができる。
According to the fourteenth aspect, the designation means is arranged on the display and the screen of the display,
A shape representing a predetermined shape corresponding to the outer shape of the workable region as a work image, and at least the inside of the predetermined shape is a shape expressing means having transparency and a range expressed in a predetermined shape of a screen of a display. And display control means for displaying a two-dimensional image of the object at a position overlapping with. As a result, not only the work image but also a predetermined shape corresponding to the outer shape of the workable area can be used to easily set the magnification and position for the work in the distance image, which is three-dimensional shape data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る3次元データ処理装置が組み込ま
れた立体模型作成装置1の外観図である。
FIG. 1 is an external view of a three-dimensional model creation device 1 in which a three-dimensional data processing device according to the present invention is incorporated.

【図2】操作パネル18の平面図である。FIG. 2 is a plan view of the operation panel 18. FIG.

【図3】立体模型作成装置1の機能ブロック図である。FIG. 3 is a functional block diagram of the three-dimensional model creation device 1.

【図4】立体模型作成装置1の動作の概要を説明するフ
ローチャートである。
FIG. 4 is a flowchart illustrating an outline of an operation of the three-dimensional model creation device 1.

【図5】距離画像21とワーク19との整合化の概念を
説明する図である。
FIG. 5 is a diagram for explaining a concept of matching between a distance image 21 and a work 19;

【図6】加工データ生成の動作におけるデータ間の変換
関係を概念的に示すデータ関連図である。
FIG. 6 is a data relation diagram conceptually showing a conversion relationship between data in an operation of processing data generation.

【図7】カメラパラメータを説明する図である。FIG. 7 is a diagram illustrating camera parameters.

【図8】第1実施形態に係る撮影・データ処理の動作を
説明するフローチャートである。
FIG. 8 is a flowchart illustrating an operation of photographing / data processing according to the first embodiment.

【図9】対象物カラー画像22とワーク画像19aとを
示す図である。
FIG. 9 is a diagram showing an object color image 22 and a work image 19a.

【図10】カラー画像座標系CR2におけるワーク画像
19aの座標を示す図である。
FIG. 10 is a diagram showing the coordinates of a work image 19a in a color image coordinate system CR2.

【図11】ワーク画像19aの距離画像座標系DR3へ
の変換を説明する図である。
FIG. 11 is a diagram illustrating conversion of a work image 19a to a distance image coordinate system DR3.

【図12】距離画像座標系DR3とワーク座標系WR3と
のXY座標に関する対応を説明する図である。
FIG. 12 is a diagram illustrating correspondence between a distance image coordinate system DR3 and a work coordinate system WR3 with respect to XY coordinates.

【図13】距離画像座標系DR3とワーク座標系WR3と
のXY座標に関する対応を説明する図である。
FIG. 13 is a diagram for explaining the correspondence of the distance image coordinate system DR3 and the work coordinate system WR3 with respect to XY coordinates.

【図14】距離画像座標系DR3とワーク座標系WR3と
のZ座標に関する対応を説明する図である。
FIG. 14 is a diagram illustrating the correspondence of the distance image coordinate system DR3 and the work coordinate system WR3 with respect to the Z coordinate.

【図15】距離画像座標系DR3とワーク座標系WR3と
のZ座標に関する対応を説明する図である。
FIG. 15 is a diagram illustrating the correspondence between the distance image coordinate system DR3 and the work coordinate system WR3 regarding the Z coordinate.

【図16】距離画像座標系DR3とワーク座標系WR3と
のZ座標に関する対応を説明する図である。
FIG. 16 is a diagram illustrating correspondence between a distance image coordinate system DR3 and a work coordinate system WR3 regarding Z coordinates.

【図17】距離画像座標系DR3とワーク座標系WR3と
のZ座標に関する対応を説明する図である。
FIG. 17 is a diagram illustrating the correspondence between the distance image coordinate system DR3 and the work coordinate system WR3 regarding the Z coordinate.

【図18】第2実施形態に係る2眼レンズを採用する撮
影装置30Aの光学系を示す図である。
FIG. 18 is a diagram illustrating an optical system of a photographing apparatus 30A employing a twin-lens lens according to a second embodiment.

【図19】2眼レンズを採用する撮影装置30Aの光学
系を示す図である。
FIG. 19 is a diagram showing an optical system of a photographing apparatus 30A employing a two-lens lens.

【図20】第2実施形態に係る撮影・データ処理の動作
を説明するフローチャートである。
FIG. 20 is a flowchart illustrating an operation of photographing / data processing according to the second embodiment.

【図21】第3実施形態に係るジョイスティックを説明
する図である。
FIG. 21 is a diagram illustrating a joystick according to a third embodiment.

【図22】第3実施形態に係る撮影・データ処理の動作
を説明するフローチャートである。
FIG. 22 is a flowchart illustrating an operation of shooting / data processing according to the third embodiment.

【図23】対象物カラー画像22の調節を説明する図で
ある。
FIG. 23 is a diagram illustrating adjustment of a target object color image 22.

【図24】ワーク外形を説明する図である。FIG. 24 is a diagram illustrating a work outer shape.

【符号の説明】[Explanation of symbols]

1 立体模型作成装置 16 ディスプレイ 18 操作パネル 19 ワーク 19a ワーク画像 21 距離画像 22 対象物カラー画像 30 撮影装置 40 3次元形状データ処理装置 172 加工装置 DESCRIPTION OF SYMBOLS 1 Solid model creation apparatus 16 Display 18 Operation panel 19 Work 19a Work image 21 Distance image 22 Object color image 30 Imaging device 40 Three-dimensional shape data processing device 172 Processing device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 13/00 G06F 15/62 350A 9A001 Fターム(参考) 2F065 AA04 AA17 AA53 CC16 EE05 FF01 FF02 FF09 HH05 JJ03 JJ26 MM16 QQ31 SS02 SS13 5B050 BA09 BA12 CA07 DA01 EA12 EA17 EA28 FA02 FA08 5C023 AA10 AA37 AA38 BA02 DA08 5C061 AB03 AB08 AB11 AB24 5H269 AB01 AB26 JJ09 JJ20 QA05 QD10 QE03 9A001 HZ20 HZ26 KK37 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 13/00 G06F 15/62 350A 9A001 F term (Reference) 2F065 AA04 AA17 AA53 CC16 EE05 FF01 FF02 FF09 HH05 JJ03 JJ26 MM16 QQ31 SS02 SS13 5B050 BA09 BA12 CA07 DA01 EA12 EA17 EA28 FA02 FA08 5C023 AA10 AA37 AA38 BA02 DA08 5C061 AB03 AB08 AB11 AB24 5H269 AB01 AB26 JJ09 JJ20 QA05 QD10 QE03 9A001 HZ20 HZ26 KK37

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 所定の基準位置から立体的な対象物の対
向表面各部までの距離を表現した距離画像と前記対象物
の2次元画像とを含む基礎データに基づいて前記対象物
を表現した3次元データを生成し、それによって所定の
ワークの立体加工のための情報を得る3次元データ処理
装置であって、 (a) 前記ワークの加工可能領域を表現したワーク画像と
前記対象物の2次元画像とを所定の画面上に重ねて表示
させ、前記ワーク画像の内部に前記対象物の2次元画像
が適合した状態を適合状態として指定する指定手段と、 (b) 前記適合状態に対応する前記対象物の距離画像に、
前記ワーク画像のサイズと前記加工可能領域の実際のサ
イズとの比率に応じてスケール変換を施すとともに、ス
ケール変換後の前記距離画像を前記加工可能領域の実際
の座標位置へと位置変換し、それによって変換済の距離
画像を得る変換手段と、 (c) 前記変換済の距離画像を利用して、前記ワークの加
工情報としての3次元データを生成する手段と、を備え
ることを特徴とする3次元データ処理装置。
The object is represented based on basic data including a distance image representing a distance from a predetermined reference position to each part of a three-dimensional object facing surface and a two-dimensional image of the object. A three-dimensional data processing apparatus that generates dimensional data and thereby obtains information for three-dimensional processing of a predetermined workpiece, comprising: (a) a workpiece image expressing a workable area of the workpiece and a two-dimensional object; (B) specifying a state in which the two-dimensional image of the object fits inside the work image as a conforming state, and (b) the corresponding to the conforming state. In the distance image of the object,
While performing scale conversion according to the ratio between the size of the work image and the actual size of the workable area, the distance image after the scale conversion is position-converted to the actual coordinate position of the workable area, (C) means for generating three-dimensional data as processing information of the work using the converted distance image. Dimensional data processing device.
【請求項2】 請求項1に記載の3次元データ処理装置
において、 前記変換手段が、 前記ワーク画像を前記距離画像の座標系に変換する手段
と、 変換後の前記ワーク画像の2次元的代表点の位置を、前
記ワークの実際の加工可能領域の2次元的代表点の位置
に対応させることにより、スケール変換後の前記距離画
像を前記加工可能領域の実際の位置に2次元的に適合さ
せる手段と、を備えることを特徴とする3次元データ処
理装置。
2. The three-dimensional data processing apparatus according to claim 1, wherein the conversion unit converts the work image into a coordinate system of the distance image, and a two-dimensional representation of the converted work image. By associating the position of a point with the position of a two-dimensional representative point of the actual workable area of the work, the distance image after scale conversion is two-dimensionally adapted to the actual position of the workable area. Means, and a three-dimensional data processing apparatus.
【請求項3】 請求項2に記載の3次元データ処理装置
において、 前記ワーク画像の2次元的代表点が、前記ワーク画像の
2次元的重心点であり、 前記ワークの実際の加工可能領域の2次元的代表点が、
前記加工可能領域の2次元的重心点であることを特徴と
する3次元データ処理装置。
3. The three-dimensional data processing apparatus according to claim 2, wherein the two-dimensional representative point of the work image is a two-dimensional center of gravity of the work image, and The two-dimensional representative point is
3. A three-dimensional data processing device, wherein the three-dimensional data center is a two-dimensional center of gravity of the workable area.
【請求項4】 請求項1ないし請求項3のいずれかに記
載の3次元データ処理装置において、 前記変換手段が、 スケール変換後の前記距離画像の奥行き方向の第1代表
点の位置を、前記ワークの実際の加工可能領域の奥行き
方向の第2代表点の位置に対応させる奥行き位置調整手
段、を備えることを特徴とする3次元データ処理装置。
4. The three-dimensional data processing apparatus according to claim 1, wherein the conversion unit determines a position of a first representative point in a depth direction of the distance image after scale conversion. A three-dimensional data processing apparatus comprising: a depth position adjusting unit that corresponds to a position of a second representative point in a depth direction of an actual workable area of a work.
【請求項5】 請求項4に記載の3次元データ処理装置
において、 前記第1代表点が、スケール変換後の前記距離画像の重
心点であり、 前記第2代表点が、前記加工可能領域の重心点であるこ
とを特徴とする3次元データ処理装置。
5. The three-dimensional data processing apparatus according to claim 4, wherein the first representative point is a center of gravity of the distance image after scale conversion, and the second representative point is a position of the workable area. A three-dimensional data processing device, characterized by being a center of gravity.
【請求項6】 請求項4に記載の3次元データ処理装置
において、 前記第1代表点が、スケール変換後の前記距離画像の前
端点であり、 前記第2代表点が、前記加工可能領域の前端点であるこ
とを特徴とする3次元データ処理装置。
6. The three-dimensional data processing device according to claim 4, wherein the first representative point is a front end point of the distance image after scale conversion, and the second representative point is a part of the processable area. A three-dimensional data processing device, which is a front end point.
【請求項7】 請求項4に記載の3次元データ処理装置
において、 前記第1代表点が、スケール変換後の前記距離画像の後
端点であり、 前記第2代表点が、前記加工可能領域の後端点であるこ
とを特徴とする3次元データ処理装置。
7. The three-dimensional data processing apparatus according to claim 4, wherein the first representative point is a rear end point of the distance image after scale conversion, and the second representative point is a position of the processable area. A three-dimensional data processing device, which is a rear end point.
【請求項8】 請求項4に記載の3次元データ処理装置
において、 前記奥行き位置調整手段が、 スケール変換後の前記距離画像の後端点を、前記ワーク
の実際の加工可能領域の後端点に一致させた後端一致状
態を規定する手段と、 前記後端一致状態において、スケール変換後の前記距離
画像の一部が前記ワークの実際の加工可能領域のうち前
記基準位置側の表面から突出しているか否かを判定し、
突出している場合には補正要求信号を発生する判定手段
と、 前記補正要求信号に応答して、スケール変換後の前記距
離画像の前端点を、前記ワークの実際の加工可能領域の
前端点に一致させるように補正する奥行き補正手段と、 とを備えることを特徴とする3次元データ処理装置。
8. The three-dimensional data processing apparatus according to claim 4, wherein the depth position adjusting means matches a rear end point of the distance image after scale conversion with a rear end point of an actual workable area of the work. Means for defining the rear end coincidence state, wherein in the rear end coincidence state, whether part of the distance image after scale conversion projects from the surface on the reference position side in the actual workable area of the work Judge whether or not
A judging means for generating a correction request signal when projecting; in response to the correction request signal, a front end point of the distance image after scale conversion coincides with a front end point of an actual workable area of the work. And a depth correcting means for correcting the three-dimensional data to be corrected.
【請求項9】 請求項8に記載の3次元データ処理装置
において、 前記奥行き位置調整手段が、 前記奥行き補正手段が能動化されたとき、前記スケール
変換後の距離画像のうち前記ワークの実際の加工可能領
域の後方に飛び出すことになる部分の画像情報を削除す
る後方削除手段、をさらに備えることを特徴とする3次
元データ処理装置。
9. The three-dimensional data processing apparatus according to claim 8, wherein the depth position adjusting means is configured to: when the depth correcting means is activated, an actual image of the work in the distance image after the scale conversion. A three-dimensional data processing device, further comprising: a rearward deletion unit that deletes image information of a portion that is projected behind a workable area.
【請求項10】 請求項1ないし請求項8のいずれかに
記載の3次元データ処理装置において、 前記変換手段が、 スケール変換後の前記距離画像のうち、前記ワークの実
際の加工可能領域から飛び出すことになる部分の画像情
報を削除する削除手段、を備えることを特徴とする3次
元データ処理装置。
10. The three-dimensional data processing device according to claim 1, wherein said conversion means jumps out of an actual workable area of said workpiece in said distance image after scale conversion. A three-dimensional data processing device, comprising: a deletion unit that deletes image information of a different part.
【請求項11】 請求項1ないし請求項8のいずれかに
記載の3次元データ処理装置において、 前記変換手段が、 スケール変換後の前記距離画像の一部が、奥行き方向に
おいて前記ワークの実際の加工可能領域から飛び出すこ
とになる場合には、前記距離画像の奥行き方向への空間
倍率を縮小して、前記距離画像を前記ワークの実際の加
工可能領域内に内包させる縮小処理手段、を備えること
を特徴とする3次元データ処理装置。
11. The three-dimensional data processing device according to claim 1, wherein said converting means includes: a part of said distance image after scale conversion is performed in an actual direction of said workpiece in a depth direction. When jumping out of the workable area, a reduction processing unit for reducing the spatial magnification of the distance image in the depth direction to include the distance image in the actual workable area of the work is provided. A three-dimensional data processing device characterized by the above-mentioned.
【請求項12】 請求項1ないし請求項11のいずれか
に記載の3次元データ処理装置において、 前記指定手段が、 操作入力手段と、 前記操作入力手段の操作に応答して、前記所定の画面上
において前記ワーク画像に対する前記対象物の2次元画
像の相対的な位置と倍率とを変更する手段と、を備える
ことを特徴とする3次元データ処理装置。
12. The three-dimensional data processing device according to claim 1, wherein said specifying means comprises: an operation input means; and said predetermined screen in response to an operation of said operation input means. Means for changing a relative position and a magnification of the two-dimensional image of the target object with respect to the work image.
【請求項13】 請求項1ないし請求項12のいずれか
に記載の3次元データ処理装置において、 前記対象物の2次元画像が、前記基準位置から離れた所
定の撮影位置からの撮像によって取得されるものであ
り、 (d)前記基準位置から前記対象物の位置に向かう方向
と、前記撮影位置から前記対象物に向かう方向との視差
に応じて前記2次元画像を補正する2次元画像補正手
段、をさらに備えることを特徴とする3次元データ処理
装置。
13. The three-dimensional data processing device according to claim 1, wherein the two-dimensional image of the object is acquired by imaging from a predetermined imaging position apart from the reference position. (D) a two-dimensional image correcting means for correcting the two-dimensional image according to a parallax between a direction from the reference position toward the position of the target and a direction from the shooting position toward the target. A three-dimensional data processing device, further comprising:
【請求項14】 請求項1ないし請求項13のいずれか
に記載の3次元データ処理装置において、 前記指定手段が、 ディスプレイと、 前記ディスプレイの画面上に配置され、前記ワーク画像
として前記加工可能領域の外形に対応する所定の形状を
表現しており、かつ少なくとも前記所定の形状の内部に
ついては透明性を有する形状表現手段と、 前記ディスプレイの画面のうち、前記所定の形状で表現
される範囲に重なる位置に前記対象物の2次元画像を表
示させる表示制御手段と、を備えることを特徴とする3
次元データ処理装置。
14. The three-dimensional data processing apparatus according to claim 1, wherein the designation unit is arranged on a display, and on a screen of the display, and the workable area is provided as the work image. A predetermined shape corresponding to the outer shape of the shape, and at least a shape expressing means having transparency at least inside the predetermined shape; and a display area of the screen of the display expressed by the predetermined shape. Display control means for displaying a two-dimensional image of the object at an overlapping position.
Dimensional data processing device.
JP11168272A 1999-06-15 1999-06-15 Three-dimensional data processor Pending JP2000357007A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11168272A JP2000357007A (en) 1999-06-15 1999-06-15 Three-dimensional data processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11168272A JP2000357007A (en) 1999-06-15 1999-06-15 Three-dimensional data processor

Publications (1)

Publication Number Publication Date
JP2000357007A true JP2000357007A (en) 2000-12-26

Family

ID=15864953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11168272A Pending JP2000357007A (en) 1999-06-15 1999-06-15 Three-dimensional data processor

Country Status (1)

Country Link
JP (1) JP2000357007A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152896A (en) * 2007-03-29 2012-08-16 Nippon Steel Corp Method and device for grinding slab
JP2013205402A (en) * 2012-03-29 2013-10-07 Sumitomo (Shi) Construction Machinery Co Ltd Periphery monitoring apparatus for working machine
CN104075665A (en) * 2013-03-25 2014-10-01 株式会社东芝 Measuring device
US9094657B2 (en) 2011-09-22 2015-07-28 Kabushiki Kaisha Toshiba Electronic apparatus and method
CN104864821A (en) * 2014-02-20 2015-08-26 株式会社东芝 Calculation Device And Method, And Computer Program Product
JP2018042106A (en) * 2016-09-07 2018-03-15 キヤノン株式会社 Image output device, image output method, and imaging apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152896A (en) * 2007-03-29 2012-08-16 Nippon Steel Corp Method and device for grinding slab
US9094657B2 (en) 2011-09-22 2015-07-28 Kabushiki Kaisha Toshiba Electronic apparatus and method
JP2013205402A (en) * 2012-03-29 2013-10-07 Sumitomo (Shi) Construction Machinery Co Ltd Periphery monitoring apparatus for working machine
KR101625997B1 (en) 2012-03-29 2016-05-31 스미토모 겐키 가부시키가이샤 Perimeter-monitoring device for operating machine
US9715015B2 (en) 2012-03-29 2017-07-25 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Periphery-monitoring device for working machines
CN104075665A (en) * 2013-03-25 2014-10-01 株式会社东芝 Measuring device
CN104864821A (en) * 2014-02-20 2015-08-26 株式会社东芝 Calculation Device And Method, And Computer Program Product
JP2018042106A (en) * 2016-09-07 2018-03-15 キヤノン株式会社 Image output device, image output method, and imaging apparatus

Similar Documents

Publication Publication Date Title
US9008371B2 (en) Method and system for ascertaining the position and orientation of a camera relative to a real object
JP6663718B2 (en) Intraoral scanning device with illumination frame incorporated into image frame
JP2011112402A (en) Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
KR101707707B1 (en) Method for fiiting virtual items using human body model and system for providing fitting service of virtual items
US6775403B1 (en) Device for and method of processing 3-D shape data
JP2010210458A (en) Display method of recognition result by three-dimensional visual sensor, and the three-dimensional visual sensor
JP2010210585A (en) Model display method in three-dimensional visual sensor, and three-dimensional visual sensor
JP2010211746A (en) Three-dimensional recognition result displaying method and three-dimensional visual sensor
WO2016033085A1 (en) Method of making a personalized animatable mesh
TWI659279B (en) Process planning apparatus based on augmented reality
JP4306006B2 (en) Three-dimensional data input method and apparatus
JP2006318095A (en) Image processing method and image processor
JP7248599B2 (en) Information processing device and data processing method
JP2002071315A (en) Projection planar measuring system
JP2019505809A (en) Multi-measurement mode three-dimensional measurement system and measurement method
JP2018195996A (en) Image projection apparatus, image projection method, and image projection program
JP2009211513A (en) Image processing apparatus and method therefor
JP2000357007A (en) Three-dimensional data processor
JP2001012922A (en) Three-dimensional data-processing device
JP4221808B2 (en) Three-dimensional data input method and apparatus
JP2000321050A (en) Method and apparatus for acquiring three-dimensional data
JP2001045519A (en) Three-dimensional data generating device, three- dimensional data generating method and recording medium
CN115317136A (en) Control method and control device for surgical robot and robot
JP2000076454A (en) Three-dimensional shape data processor
JP7225109B2 (en) Work support system and work support method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060220