JP2013234854A - Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same - Google Patents

Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same Download PDF

Info

Publication number
JP2013234854A
JP2013234854A JP2012105436A JP2012105436A JP2013234854A JP 2013234854 A JP2013234854 A JP 2013234854A JP 2012105436 A JP2012105436 A JP 2012105436A JP 2012105436 A JP2012105436 A JP 2012105436A JP 2013234854 A JP2013234854 A JP 2013234854A
Authority
JP
Japan
Prior art keywords
shape
unit
extraction region
measurement
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012105436A
Other languages
Japanese (ja)
Inventor
Kenta Shindo
建太 神藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012105436A priority Critical patent/JP2013234854A/en
Publication of JP2013234854A publication Critical patent/JP2013234854A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To set an extraction area of point group data indicating a three-dimensional shape of an object to be measured, in an optional shape.SOLUTION: A shape measuring device includes: a photographing portion for generating a photographed image obtained by photographing an object to be measured; a projecting portion for projecting a pattern to the object to be measured, from a different direction from a direction in which the photographing portion photographs so as to photograph the photographed image photographed by the photographing portion as an image in which the pattern is projected to the object to be measured; an extraction area setting portion for setting an extraction area from any one of a plurality of shapes which can be set, on the basis of information for setting the extraction area when the extraction area is set from among areas in the photographed image generated by the photographing portion; and a generating portion for generating point group data indicating a three-dimensional shape of the object to be measured, on the basis of the photographed image of the extraction area within the photographed image generated by the photographing portion.

Description

本発明は、非接触光学走査により形状測定を行う、形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及びそのプログラムに関する。   The present invention relates to a shape measuring apparatus, a structure manufacturing system, a shape measuring method, a structure manufacturing method, and a program for measuring the shape by non-contact optical scanning.

測定対象の3次元形状を非接触で測定する方法として、測定対象にスリット光を照射し、このスリット光により測定対象の断面形状に対応して形成される光切断線を撮像し、この光切断線を撮像した画像データから測定対象の点群データを生成する光切断法がある(例えば、特許文献1を参照)。   As a method of measuring the three-dimensional shape of the measurement object in a non-contact manner, the measurement object is irradiated with slit light, and a light cutting line formed corresponding to the cross-sectional shape of the measurement object is imaged by the slit light. There is a light cutting method for generating point cloud data to be measured from image data obtained by imaging a line (see, for example, Patent Document 1).

特表2009―534969号公報Special table 2009-534969

ところで、上記の光切断法では、測定対象の表面を光切断線によりスキャン(走査)し、この光切断線を撮像した撮像画像から点群データを生成することにより、測定対象の3次元形状を測定している。しかしながら、この撮像画像には光切断線の多重反射等により発生する光切断線の像とは異なる像(例えば、不連続点など)が含まれることがある。このため、従来は、撮像画像の表示画面において、そのような像が含まれそうな領域を画面上で確認し、点群データを取得する範囲(抽出領域)を矩形などの単純な形状により設定していた。   By the way, in the above-described optical cutting method, the surface of the measurement target is scanned (scanned) with the optical cutting line, and point cloud data is generated from the captured image obtained by imaging the optical cutting line, thereby changing the three-dimensional shape of the measurement target. Measuring. However, the captured image may include an image (for example, a discontinuous point) different from the image of the light section line generated by multiple reflection of the light section line. For this reason, conventionally, on a display screen of a captured image, a region on which such an image is likely to be included is confirmed on the screen, and a range (extraction region) for acquiring point cloud data is set by a simple shape such as a rectangle. Was.

しかしながら、上記のような矩形などによる抽出領域の設定方法では、測定対象が複雑な形状である場合や、スキャンの際に投影画像の形が変わるような測定対象の場合などには、異常点を正しく省いて点群データを生成することができない可能性もあった。   However, in the method of setting the extraction area using a rectangle or the like as described above, abnormal points are detected when the measurement target is a complicated shape or when the shape of the projection image changes during scanning. There was a possibility that point cloud data could not be generated by omitting correctly.

本発明は、上記問題を解決すべくなされたもので、その目的は、測定対象の3次元形状の算出に用いる点群データの抽出領域を任意の形状で設定することができる、形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及びそのプログラムを提供することにある。   The present invention has been made to solve the above problems, and its purpose is to provide a shape measuring device capable of setting an extraction region of point cloud data used for calculation of a three-dimensional shape of a measurement object in an arbitrary shape, The object is to provide a structure manufacturing system, a shape measuring method, a structure manufacturing method, and a program thereof.

本発明の一実施形態は、測定対象を撮像した撮像画像を生成する撮像部と、前記撮像部によって撮像される撮像画像が、前記測定対象にパターンが投影された画像として撮像されるように、前記撮像部が撮像している方向と異なる方向から、前記パターンを前記測定対象に投影する投影部と、前記撮像部が生成した前記撮像画像内の領域の中から抽出領域を設定する際に、前記抽出領域を設定するための情報に基づいて、複数の設定可能な形状のいずれかから前記抽出領域を設定する抽出領域設定部と、前記撮像部が生成した前記撮像画像内の前記抽出領域の前記撮像画像に基づいて、前記測定対象の三次元形状を示す点群データを生成する生成部とを備える形状測定装置である。   In one embodiment of the present invention, an imaging unit that generates a captured image obtained by imaging a measurement target, and a captured image captured by the imaging unit are captured as an image in which a pattern is projected on the measurement target. When setting an extraction region from among a region in the captured image generated by the imaging unit and a projection unit that projects the pattern onto the measurement target from a direction different from the direction in which the imaging unit is imaging, Based on the information for setting the extraction region, an extraction region setting unit that sets the extraction region from any of a plurality of settable shapes, and the extraction region in the captured image generated by the imaging unit It is a shape measuring apparatus provided with the production | generation part which produces | generates the point cloud data which show the three-dimensional shape of the said measuring object based on the said captured image.

また、本発明の一実施形態は、構造物の形状に関する構造物設計情報を作製する設計装置と、前記構造物設計情報に基づいて前記構造物を作製する成形装置と、作成された前記構造物の形状を、撮像画像に基づいて測定する上記の形状測定装置と、前記測定によって得られた形状情報と、前記構造物設計情報とを比較する検査装置とを含む構造物製造システムである。   Further, according to one embodiment of the present invention, a design apparatus that creates structure design information related to a shape of a structure, a molding apparatus that creates the structure based on the structure design information, and the created structure This is a structure manufacturing system including the above-described shape measuring apparatus that measures the shape based on a captured image, and the inspection apparatus that compares the shape information obtained by the measurement with the structure design information.

また、本発明の一実施形態は、測定対象を撮像した撮像画像を生成する撮像手順と、前記撮像手順において撮像される撮像画像が、前記測定対象にパターンが投影された画像として撮像されるように、前記撮像手順において撮像される方向と異なる方向から、前記パターンを前記測定対象に投影する投影手順と、前記撮像手順において生成された前記撮像画像内の領域の中から抽出領域を設定する際に、前記抽出領域を設定するための情報に基づいて、複数の設定可能な形状のいずれかから前記抽出領域を設定する抽出領域設定手順と、前記撮像手順において生成された前記撮像画像内の前記抽出領域の前記撮像画像に基づいて、前記測定対象の三次元形状を示す点群データを生成する生成手順とを有する形状測定方法である。   In one embodiment of the present invention, an imaging procedure for generating a captured image obtained by imaging a measurement target, and a captured image captured in the imaging procedure are captured as an image in which a pattern is projected on the measurement target. In addition, when setting an extraction region from among a projection procedure for projecting the pattern onto the measurement target from a direction different from the direction in which the imaging is performed in the imaging procedure, and a region in the captured image generated in the imaging procedure In addition, based on the information for setting the extraction area, an extraction area setting procedure for setting the extraction area from any of a plurality of settable shapes, and the imaging image generated in the imaging procedure in the captured image And a generation procedure for generating point cloud data indicating a three-dimensional shape of the measurement target based on the captured image of the extraction region.

また、本発明の一実施形態は、構造物の形状に関する構造物設計情報を作製する工程と、前記構造物設計情報に基づいて前記構造物を作製する工程と、作成された前記構造物の形状を、上記の形状測定方法を用いて生成した撮像画像に基づいて測定する工程と、前記測定によって得られた形状情報と、前記構造物設計情報とを比較する工程とを含む構造物製造方法。   One embodiment of the present invention includes a step of creating structure design information related to a shape of a structure, a step of creating the structure based on the structure design information, and a shape of the created structure. A method for manufacturing a structure including a step of measuring based on a captured image generated using the shape measurement method, and a step of comparing the shape information obtained by the measurement with the structure design information.

また、本発明の一実施形態は、コンピュータに、測定対象を撮像した撮像画像を生成する撮像ステップと、前記撮像ステップによって撮像される撮像画像が、前記測定対象にパターンが投影された画像として撮像されるように、前記撮像ステップによって撮像される方向と異なる方向から、前記パターンを前記測定対象に投影する投影ステップと、前記撮像ステップによって生成された前記撮像画像内の領域の中から抽出領域を設定する際に、前記抽出領域を設定するための情報に基づいて、複数の設定可能な形状のいずれかにより前記抽出領域を設定する抽出領域設定ステップと、前記撮像ステップによって生成された前記撮像画像内の前記抽出領域の前記撮像画像に基づいて、前記測定対象の三次元形状を示す点群データを生成する生成ステップとを実行させるための形状測定プログラムである。   In one embodiment of the present invention, an imaging step of generating a captured image obtained by imaging a measurement target on a computer, and a captured image captured by the imaging step is captured as an image in which a pattern is projected on the measurement target. As described above, a projection step of projecting the pattern onto the measurement target from a direction different from the direction imaged by the imaging step, and an extraction region from among the regions in the captured image generated by the imaging step. An extraction area setting step for setting the extraction area by one of a plurality of settable shapes based on information for setting the extraction area when setting, and the captured image generated by the imaging step Generating point cloud data indicating the three-dimensional shape of the measurement object based on the captured image of the extraction region A shape measuring program for executing the step.

本発明によれば、測定対象の3次元形状の算出に用いる点群データの抽出領域を任意の形状で設定することができる。   According to the present invention, it is possible to set an extraction region of point cloud data used for calculation of a three-dimensional shape of a measurement object in an arbitrary shape.

本発明の概要について説明するための図である。It is a figure for demonstrating the outline | summary of this invention. 本発明の第1実施形態に係る形状測定装置の概略構成を示す図である。It is a figure which shows schematic structure of the shape measuring apparatus which concerns on 1st Embodiment of this invention. 第1実施形態における形状測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the shape measuring apparatus in 1st Embodiment. 測定対象(平歯車)の形状測定の例を示す図である。It is a figure which shows the example of the shape measurement of a measuring object (spur gear). 形状測定装置の制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part of a shape measuring apparatus. 形状データから「直線」を選択して抽出領域を設定する例を示す図である。It is a figure which shows the example which selects a "straight line" from shape data and sets an extraction area | region. 形状データから「多角形」を選択して抽出領域を設定する例を示す図である。It is a figure which shows the example which selects "polygon" from shape data and sets an extraction area | region. 形状データから「円」を選択して抽出領域を設定する第1の例を示す図である。It is a figure which shows the 1st example which selects "circle" from shape data and sets an extraction area | region. 形状データから「円」を選択して抽出領域を設定する第2の例を示す図である。It is a figure which shows the 2nd example which selects "circle" from shape data and sets an extraction area | region. 形状データから「楕円」を選択して抽出領域を設定する例を示す図である。It is a figure which shows the example which selects "ellipse" from shape data and sets an extraction area | region. 形状データから「曲線」を選択して抽出領域を設定する例を示す図である。It is a figure which shows the example which selects a "curve" from shape data and sets an extraction area | region. 抽出領域の他の設定例を示す図である。It is a figure which shows the other example of a setting of an extraction area | region. 2つの抽出領域を設定する例を示す図である。It is a figure which shows the example which sets two extraction area | regions. 本発明の第2実施形態に係る形状測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the shape measuring apparatus which concerns on 2nd Embodiment of this invention. 第2実施形態における抽出領域設定部の構成と動作を説明するための図である。It is a figure for demonstrating the structure and operation | movement of an extraction area | region setting part in 2nd Embodiment. 第2実施形態における抽出領域の設定例を示す図である。It is a figure which shows the example of a setting of the extraction area | region in 2nd Embodiment. 本発明の第3実施形態に係る形状測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the shape measuring apparatus which concerns on 3rd Embodiment of this invention. 第3実施形態における抽出領域設定部の構成と動作を説明するための図である。It is a figure for demonstrating the structure and operation | movement of an extraction area | region setting part in 3rd Embodiment. 第3実施形態における抽出領域の設定例を示す図である。It is a figure which shows the example of a setting of the extraction area | region in 3rd Embodiment. 本発明の第4実施形態に係る形状測定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the shape measuring apparatus which concerns on 4th Embodiment of this invention. 第4実施形態における抽出領域設定部の構成と動作を説明するための図である。It is a figure for demonstrating the structure and operation | movement of an extraction area | region setting part in 4th Embodiment. 第4実施形態における抽出領域の設定例を示す図である。It is a figure which shows the example of a setting of the extraction area | region in 4th Embodiment. 本発明の第5実施形態に係る構造物製造システムの構成を示すブロック図である。It is a block diagram which shows the structure of the structure manufacturing system which concerns on 5th Embodiment of this invention. 構造物製造システムによる処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process by a structure manufacturing system.

以下、図面を参照して本発明の実施形態について説明する。
[概要]
図1は、本発明の形状測定装置の概要について説明するための図である。
本発明の形状測定装置は、測定対象(平歯車SG)3を光切断線PCLによりスキャン(走査)し、この光切断線PCLの撮像画像を基に、この測定対象3の3次元形状を示す点群データを生成する形状測定装置である。そして、本発明の形状測定装置は、光切断線PCLの撮像画像において、点群データの取得を許可する抽出領域を任意の形状で設定できる点に特徴がある。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Overview]
FIG. 1 is a diagram for explaining an outline of a shape measuring apparatus according to the present invention.
The shape measuring apparatus of the present invention scans (scans) the measurement target (spur gear SG) 3 with the optical cutting line PCL, and shows the three-dimensional shape of the measurement target 3 based on the captured image of the optical cutting line PCL. It is a shape measuring device that generates point cloud data. The shape measuring apparatus of the present invention is characterized in that an extraction region that allows acquisition of point cloud data can be set in an arbitrary shape in a captured image of the light section line PCL.

本発明の形状測定装置は、図1(A)に示すように、投影部21により、測定対象3に向けて、この測定対象3の表面の法線方向に対応して定められる照射方向DR1(第1方向)から、ライン状の測定光を照射する。このライン状の測定光によって、測定対象3の表面に光切断線PCLが形成される。
撮像部22は、測定対象3の凹凸形状が延在する方向(歯すじの方向)を撮像方向DR2にして、光切断線PCLが撮像された撮像画像を生成する。
As shown in FIG. 1 (A), the shape measuring apparatus of the present invention is directed toward the measuring object 3 by the projection unit 21, and the irradiation direction DR1 (corresponding to the normal direction of the surface of the measuring object 3) The line-shaped measurement light is irradiated from the first direction. With this line-shaped measurement light, a light cutting line PCL is formed on the surface of the measurement object 3.
The imaging unit 22 generates a captured image in which the optical cutting line PCL is captured with the direction in which the concavo-convex shape of the measurement target 3 extends (the direction of the tooth trace) as the imaging direction DR2.

そして、測定対象3を歯車の円周方向(つまり、移動方向DR3)に移動させながら、光切断線PCLにより測定対象3の表面をスキャン(走査)する。
これにより、例えば、図1(B)に示すように、表示画面46上に光切断線PCLの投影位置に応じた撮像画像L1が得られる。なお、この図1(B)に示す例は、測定対象3の1回のスキャン時における、光切断線PCLの撮像画像L1を模式的に示したものである。
Then, the surface of the measurement object 3 is scanned (scanned) by the light cutting line PCL while moving the measurement object 3 in the circumferential direction of the gear (that is, the movement direction DR3).
Thereby, for example, as shown in FIG. 1B, a captured image L1 corresponding to the projection position of the light cutting line PCL is obtained on the display screen 46. The example shown in FIG. 1B schematically shows a captured image L1 of the light section line PCL at the time of one scan of the measurement object 3.

この図1(B)の撮像画像に示すように、撮像画像L1において、撮像画像の多重反射(歯面により発生する多重反射)等によるノイズ成分が重畳することがある。この図1(B)に示す例では、撮像画像L1の近くに鏡面多重反射光像(ノイズN1)が異常点として現れている。   As shown in the captured image of FIG. 1B, noise components due to multiple reflection (multiple reflection generated by tooth surfaces) of the captured image may be superimposed on the captured image L1. In the example shown in FIG. 1B, a specular multiple reflected light image (noise N1) appears as an abnormal point near the captured image L1.

このため、この撮像画像L1から点群データを生成して測定対象3の3次元形状測定を行う場合には、撮像画像L1において、鏡面多重反射光像(以下、単に「多重反射光像」とも呼ぶ)などの異常点が含まれない抽出領域を設定して点群データを生成する必要がある。
しかしながら、従来は、抽出領域を矩形の領域で設定していた。例えば、図1(B)に示すように、表示画面46上において、マウスなどによりA1点とA2点(対角線上の2点)の位置を指定することにより矩形の抽出領域(一点鎖線で囲まれる矩形領域)を設定していた。このため、光切断線PCLの撮像画像L1の像の近くに鏡面多重反射光像(ノイズN1)が現れてしまうと、この矩形の抽出領域の中に、多重反射光像(ノイズN1)も含まれてしまう。
このように、矩形による抽出領域の設定方法では、多重反射光像などの異常点を正しく省いて抽出領域を設定することができない可能性があった。
For this reason, when the point cloud data is generated from the captured image L1 and the three-dimensional shape measurement of the measurement object 3 is performed, the mirror image of the multiple reflected light image (hereinafter simply referred to as the “multiple reflected light image”) is obtained. It is necessary to set an extraction area that does not include abnormal points, such as calling) and generate point cloud data.
However, conventionally, the extraction area is set as a rectangular area. For example, as shown in FIG. 1B, a rectangular extraction region (a dashed-dotted line is surrounded by specifying the positions of points A1 and A2 (two points on the diagonal line) on the display screen 46 with a mouse or the like. (Rectangular area) was set. For this reason, if a specular multiple reflection light image (noise N1) appears near the image of the captured image L1 of the light cutting line PCL, the multiple reflection light image (noise N1) is also included in this rectangular extraction region. It will be.
As described above, in the method of setting the extraction area using the rectangle, there is a possibility that the extraction area cannot be set by correctly omitting abnormal points such as a multiple reflected light image.

そこで、本発明の形状測定装置では、抽出領域を複数の線分を用いて任意の形状で設定できるようにする。例えば、図1(B)に示すように、表示画面46上において、マウスにより「点B1→点B2→点B3→点B4→点B5→点B6」の順に各点B1〜B6の座標を指定することにより、破線で示す線分B1−B2、線分B2−B3、線分B3−B4、線分B4−B5、線分B5−B6及び線分B6−B1で囲まれる多角形を設定する。これにより、点B1〜点B6を頂点する多角形を抽出領域として設定することができる。   Therefore, in the shape measuring apparatus of the present invention, the extraction region can be set in an arbitrary shape using a plurality of line segments. For example, as shown in FIG. 1B, on the display screen 46, the coordinates of the points B1 to B6 are designated by the mouse in the order of “point B1 → point B2 → point B3 → point B4 → point B5 → point B6”. By doing this, the polygon surrounded by the line segment B1-B2, the line segment B2-B3, the line segment B3-B4, the line segment B4-B5, the line segment B5-B6, and the line segment B6-B1 indicated by the broken line is set. . Thereby, the polygon which appoints point B1-point B6 can be set as an extraction area | region.

このように、本発明の形状測定装置では、複数の線分を用いて任意の形状で抽出領域を設定することができるため、多重反射光像(ノイズN1)などの異常点を含まないようにして撮像画像L1の抽出領域を複数または任意の設定可能な形状のいずれかにより設定することができる。このため、本発明の形状測定装置では、複雑な形状の測定対象3や、スキャンの際に投影画像の形が変わるような測定対象3の場合においても、異常点を正しく省いて抽出領域を設定することができる。   As described above, in the shape measuring apparatus of the present invention, an extraction region can be set in an arbitrary shape using a plurality of line segments, so that an abnormal point such as a multiple reflected light image (noise N1) is not included. Thus, the extraction area of the captured image L1 can be set by a plurality of or any shape that can be set. For this reason, in the shape measuring apparatus of the present invention, even in the case of the measurement target 3 having a complicated shape or the measurement target 3 whose shape of the projected image changes during scanning, the extraction area is set by correctly omitting the abnormal points. can do.

なお、後述する図13(B)に示すように、測定対象3の被測定面の形状によっては、測定対象3をチルト、例えば、後述する図2に示すように測定対象3を回転軸φ回りにB方向に回転し、このチルトされた測定対象3の撮像画像L1に対して抽出領域設(B1〜B6を頂点とする多角形)を設定することも可能である。このように、測定対象3を傾けて形状測定(ラインパターンを投影して、撮像部22で撮影)を行うことにより、直接反射光等が撮像部22に到達しないようにして撮像することもできる。   As shown in FIG. 13B, which will be described later, depending on the shape of the measurement target surface of the measuring object 3, the measuring object 3 is tilted, for example, the measuring object 3 is rotated about the rotation axis φ as shown in FIG. It is also possible to set an extraction region (polygon having B1 to B6 as vertices) for the tilted captured image L1 of the measuring object 3 rotated in the B direction. In this way, by measuring the shape of the measurement object 3 while tilting it (projecting a line pattern and photographing with the imaging unit 22), it is possible to capture an image so that the reflected light or the like does not reach the imaging unit 22 directly. .

[第1実施形態]
(形状測定装置の構成)
図2は、本発明の実施形態に係る形状測定装置の概略構成を示す図である。形状測定装置100は、測定機本体1と制御ユニット40(図3を参照)とを備えている。また、図3は、形状測定装置100の構成を示すブロック図である。
[First Embodiment]
(Configuration of shape measuring device)
FIG. 2 is a diagram showing a schematic configuration of the shape measuring apparatus according to the embodiment of the present invention. The shape measuring apparatus 100 includes a measuring machine main body 1 and a control unit 40 (see FIG. 3). FIG. 3 is a block diagram showing the configuration of the shape measuring apparatus 100.

図2に示されるように、測定機本体1は、水平な上面(基準面)を備えている基台2と、この基台2上に設けられ、測定ヘッド13を支持して移動させる移動部10と、基台2上に設けられ測定対象3を載置する支持装置30とを備えている。ここで、本実施形態の形状測定装置100は、例えば、歯車やタービンなど円周方向に周期的に配列されかつ円周方向とは異なる方向に延在した凹凸形状の表面を有する測定対象3の表面形状を測定する。   As shown in FIG. 2, the measuring machine main body 1 includes a base 2 having a horizontal upper surface (reference surface) and a moving unit that is provided on the base 2 and supports and moves the measurement head 13. 10 and a support device 30 that is provided on the base 2 and on which the measurement object 3 is placed. Here, the shape measuring apparatus 100 according to the present embodiment includes, for example, a measuring object 3 having an uneven surface that is periodically arranged in the circumferential direction, such as a gear or a turbine, and extends in a direction different from the circumferential direction. Measure the surface shape.

ここで、この基台2の基準面を基準とする直交座標系を定義する。互いに直交するX軸とY軸とが基準面に対して平行に定められ、Z軸が基準面に対して直交する方向に定められている。また、基台2には、Y方向(紙面に垂直な方向でこれを前後方向とする)に延びるガイドレール(不図示)が設けられている。   Here, an orthogonal coordinate system based on the reference surface of the base 2 is defined. The X axis and the Y axis that are orthogonal to each other are determined in parallel to the reference plane, and the Z axis is determined in a direction that is orthogonal to the reference plane. In addition, the base 2 is provided with a guide rail (not shown) extending in the Y direction (a direction perpendicular to the paper surface, which is the front-rear direction).

移動部10は、そのガイドレール上をY方向に移動自在に設けられ、支柱10aと、支柱10aと対をなす支柱10bとの間で水平に延びるように架け渡された水平フレーム10cとを備え、門型の構造体を形成している。また、移動部10は、水平フレーム10cにおいて、X方向(左右方向)に移動自在に設けられたキャリッジ(不図示)を備えており、そのキャリッジに対してZ方向(上下方向)に移動自在に設けられた測定ヘッド13を備えている。   The moving part 10 is provided on the guide rail so as to be movable in the Y direction, and includes a support column 10a and a horizontal frame 10c spanned between the support column 10a and a support column 10b paired with the support column 10a. , Forming a gate-shaped structure. Further, the moving unit 10 includes a carriage (not shown) that is movable in the X direction (left and right direction) in the horizontal frame 10c, and is movable in the Z direction (up and down direction) with respect to the carriage. A provided measuring head 13 is provided.

測定ヘッド13の下部には、測定対象3の形状を検出する検出部20が設けられている。この検出部20は、検出部20の下方に配置される測定対象3と検出部20との相対位置を検出するように、測定ヘッド13に支持されている。測定ヘッド13の位置を制御することにより、検出部20の位置を移動させることができる。また、検出部20とキャリッジとの間には、Z軸方向と平行な軸に対して検出部20を回転するヘッド回転機構13aを有している。   A detection unit 20 that detects the shape of the measurement object 3 is provided below the measurement head 13. The detection unit 20 is supported by the measurement head 13 so as to detect the relative position between the measurement target 3 disposed below the detection unit 20 and the detection unit 20. By controlling the position of the measurement head 13, the position of the detection unit 20 can be moved. In addition, a head rotation mechanism 13a that rotates the detection unit 20 with respect to an axis parallel to the Z-axis direction is provided between the detection unit 20 and the carriage.

また、移動部10の内部には、入力される駆動信号に基づき測定ヘッド13を3方向(X、Y、Z方向)に電動で移動させるヘッド駆動部14(図3を参照)と、測定ヘッド13の座標を検出し測定ヘッド13の座標値を示す信号を出力するヘッド位置検出部15(図3を参照)と、が設けられている。   Further, inside the moving unit 10, a head driving unit 14 (see FIG. 3) that electrically moves the measuring head 13 in three directions (X, Y, and Z directions) based on an input drive signal, and the measuring head There is provided a head position detector 15 (see FIG. 3) that detects 13 coordinates and outputs a signal indicating the coordinate value of the measuring head 13.

基台2上には、支持装置30が設けられている。支持装置30は、ステージ31と、支持テーブル32とを備えている。ステージ31は、測定対象3を載置して把持する。
支持テーブル32は、直交する2方向の回転軸周りにステージ31を回転可能に支持することによりステージ31を基準面に対して傾斜または水平回転させる。本実施形態の支持テーブル32は、例えば、垂直(Z軸方向)に延びる回転軸θを中心として水平面内で図2に示すA方向に回転可能、かつ、水平(X軸方向)に延びる回転軸φを中心として図2に示すB方向に回転可能にステージ31を支持している。
A support device 30 is provided on the base 2. The support device 30 includes a stage 31 and a support table 32. The stage 31 places and holds the measurement object 3.
The support table 32 tilts or horizontally rotates the stage 31 with respect to the reference plane by rotatably supporting the stage 31 around two orthogonal rotation axes. The support table 32 of the present embodiment is, for example, a rotation axis that can rotate in the A direction shown in FIG. 2 in the horizontal plane around the rotation axis θ extending vertically (Z-axis direction) and that extends horizontally (X-axis direction). A stage 31 is supported so as to be rotatable in the direction B shown in FIG.

また、支持装置30には、入力される駆動信号に基づきステージ31を回転軸θ及び回転軸φ回りに電動でそれぞれ回転駆動させるステージ駆動部33(図3を参照)と、ステージ31の座標を検出し、ステージ座標値を示す信号を出力するステージ位置検出部34(図3を参照)とが設けられている。   In addition, the support device 30 includes a stage drive unit 33 (see FIG. 3) that electrically rotates the stage 31 around the rotation axis θ and the rotation axis φ based on the input drive signal, and coordinates of the stage 31. A stage position detector 34 (see FIG. 3) that detects and outputs a signal indicating the stage coordinate value is provided.

制御ユニット40は、入力装置41(マウス42およびキーボード43)と、ジョイスティック44と、表示装置45と、制御部51とを備える。
制御部51は、測定機本体1を制御する。その詳細は後述する。入力装置41は、各種指示情報を入力するマウス42やキーボード43などである。表示装置45は、表示画面46上に、計測画面、指示画面、計測結果、点群データの抽出領域などを表示する。
The control unit 40 includes an input device 41 (a mouse 42 and a keyboard 43), a joystick 44, a display device 45, and a control unit 51.
The control unit 51 controls the measuring machine main body 1. Details thereof will be described later. The input device 41 is a mouse 42 or a keyboard 43 for inputting various instruction information. The display device 45 displays a measurement screen, an instruction screen, a measurement result, a point cloud data extraction area, and the like on the display screen 46.

続いて、図3を参照し、測定機本体1の構成について説明する。
測定機本体1は、駆動部16と、位置検出部17と、検出部20とを備えている。駆動部16は、前述のヘッド駆動部14と、ステージ駆動部33とを備えている。
ヘッド駆動部14は、支柱10a、10bをY方向に駆動するY軸用モータ、キャリッジをX方向に駆動するX軸用モータ、測定ヘッド13をZ方向に駆動するZ軸用モータ及び検出部20をZ軸方向と平行な軸に回転するヘッド回転用モータを備えている。ヘッド駆動部14は、後述の駆動制御部54から供給される駆動信号を受け取る。ヘッド駆動部14は、その駆動信号に基づき測定ヘッド13を3方向(X、Y、Z方向)に電動で移動させる。
Next, the configuration of the measuring machine main body 1 will be described with reference to FIG.
The measuring machine main body 1 includes a drive unit 16, a position detection unit 17, and a detection unit 20. The drive unit 16 includes the head drive unit 14 and the stage drive unit 33 described above.
The head drive unit 14 includes a Y-axis motor that drives the columns 10a and 10b in the Y direction, an X-axis motor that drives the carriage in the X direction, a Z-axis motor that drives the measurement head 13 in the Z direction, and a detection unit 20. Is provided with a head rotation motor that rotates the shaft around an axis parallel to the Z-axis direction. The head drive unit 14 receives a drive signal supplied from a drive control unit 54 described later. The head drive unit 14 electrically moves the measurement head 13 in three directions (X, Y, and Z directions) based on the drive signal.

ステージ駆動部33は、ステージ31を回転軸θ回りに回転駆動するロータリ軸用モータ及び回転軸φ回りに回転駆動するチルト軸用モータを備える。また、ステージ駆動部33は、駆動制御部54から供給される駆動信号を受け取り、受け取った駆動信号に基づきステージ31を回転軸θ及び回転軸φ回りに、電動でそれぞれ回転させる。また、ステージ駆動部33は、測定光が照射される測定対象3の位置を、円周方向に対応して定められる検出部20の移動方向DR3(第3方向)に相対的に移動させる。また、ステージ駆動部33は、検出部20を、測定対象3に対して検出部20の移動方向DR3に相対的に移動させる。また、ステージ駆動部33は、測定対象3の中心軸AXと回転移動の回転軸θとを一致させて測定対象3を回転移動させる。   The stage drive unit 33 includes a rotary shaft motor that rotates the stage 31 around the rotation axis θ and a tilt shaft motor that rotates around the rotation axis φ. Further, the stage drive unit 33 receives the drive signal supplied from the drive control unit 54, and electrically rotates the stage 31 about the rotation axis θ and the rotation axis φ based on the received drive signal. In addition, the stage drive unit 33 moves the position of the measurement target 3 irradiated with the measurement light in the movement direction DR3 (third direction) of the detection unit 20 that is determined corresponding to the circumferential direction. The stage drive unit 33 moves the detection unit 20 relative to the measurement target 3 in the movement direction DR3 of the detection unit 20. Further, the stage drive unit 33 rotates and moves the measurement target 3 with the central axis AX of the measurement target 3 and the rotational axis θ of the rotational movement being coincident.

ここで、例えば、測定対象3としての歯車の形状を測定する場合、ステージ駆動部33は、測定光が照射される測定対象3の位置を、歯の歯幅の方向に対応して定められる検出部20の移動方向DR3(第3方向)に相対的に移動させる。
位置検出部17は、前述のヘッド位置検出部15と、ステージ位置検出部34とを備えている。
ヘッド位置検出部15は、測定ヘッド13のX軸、Y軸、及びZ軸方向の位置及びヘッドの設置角度をそれぞれ検出するX軸用エンコーダ、Y軸用エンコーダ、Z軸用エンコーダ、及びヘッド回転用エンコーダを備えている。また、ヘッド位置検出部15は、それらのエンコーダによって測定ヘッド13の座標を検出し、測定ヘッド13の座標値を示す信号を後述の座標検出部52へ供給する。
Here, for example, when measuring the shape of the gear as the measurement object 3, the stage driving unit 33 detects the position of the measurement object 3 irradiated with the measurement light in accordance with the tooth width direction. The unit 20 is moved relatively in the movement direction DR3 (third direction).
The position detection unit 17 includes the head position detection unit 15 and a stage position detection unit 34 described above.
The head position detection unit 15 detects the position of the measuring head 13 in the X-axis, Y-axis, and Z-axis directions and the installation angle of the head, the Y-axis encoder, the Z-axis encoder, and the head rotation. An encoder is provided. The head position detection unit 15 detects the coordinates of the measurement head 13 using these encoders, and supplies a signal indicating the coordinate value of the measurement head 13 to the coordinate detection unit 52 described later.

ステージ位置検出部34は、ステージ31の回転軸θ及び回転軸φ回りの回転位置をそれぞれ検出するロータリ軸用エンコーダ及びチルト軸用エンコーダを備えている。また、ステージ位置検出部34は、それらのエンコーダを用いて、ステージ31の回転軸θ及び回転軸φ回りの回転位置を検出し、検出した回転位置を表す信号を座標検出部52へ供給する。
検出部20は、投影部21と、撮像部22とを有する光プローブ20Aを備えており、光切断方式により測定対象3の表面形状を検出する。つまり、検出部20は、投影部21と撮像部22との間の相対的な位置が変化しないように、投影部21と撮像部22とを保持している。
The stage position detector 34 includes a rotary axis encoder and a tilt axis encoder that detect the rotational positions of the stage 31 about the rotation axis θ and the rotation axis φ, respectively. Further, the stage position detection unit 34 uses these encoders to detect the rotational position of the stage 31 around the rotational axis θ and the rotational axis φ, and supplies a signal representing the detected rotational position to the coordinate detection unit 52.
The detection unit 20 includes an optical probe 20A having a projection unit 21 and an imaging unit 22, and detects the surface shape of the measurement target 3 by a light cutting method. That is, the detection unit 20 holds the projection unit 21 and the imaging unit 22 so that the relative position between the projection unit 21 and the imaging unit 22 does not change.

投影部21は、後述の間隔調整部53から供給される光の照射を制御する制御信号に基づき、所定の光量分布を有する測定光を、測定対象3の表面の法線方向に対応して定められる照射方向DR1(第1方向)によって測定対象の測定領域(測定対象の表面)に照射する。この測定光は、例えば、平面に照射された場合にライン状に形成される光量分布を有している。この場合、測定対象3に照射された測定光は、測定対象3の凹凸形状に応じて長手方向が設定されたライン状の投影パターンを測定対象3に投影することで形成される。この長手方向が前述のような方向になるように、ヘッド回転機構13aを駆動制御している。このような測定光は、例えば、点光源から発せられた光が屈折または掃引されてライン状に形成されてもよい。このライン状に形成された測定光によって、測定対象3の表面に光切断線PCLが形成される。   The projection unit 21 determines measurement light having a predetermined light amount distribution corresponding to the normal direction of the surface of the measurement target 3 based on a control signal for controlling irradiation of light supplied from the interval adjustment unit 53 described later. The measurement region (surface of the measurement target) is irradiated with the irradiation direction DR1 (first direction). For example, the measurement light has a light amount distribution formed in a line shape when irradiated on a flat surface. In this case, the measurement light emitted to the measurement object 3 is formed by projecting a line-shaped projection pattern whose longitudinal direction is set according to the uneven shape of the measurement object 3 onto the measurement object 3. The head rotation mechanism 13a is driven and controlled so that the longitudinal direction is the above-described direction. Such measurement light may be formed in a line shape, for example, by refracting or sweeping light emitted from a point light source. A light cutting line PCL is formed on the surface of the measuring object 3 by the measuring light formed in the line shape.

ここで、例えば、測定対象3としての歯車の形状を測定する場合、投影部21は、測定対象3の歯車が有する歯に測定光を、歯の歯面の法線方向にそって照射する。この場合、光切断線PCLは、測定対象3の表面形状(例えば、歯車の歯面の形状)に応じて形成される。   Here, for example, when measuring the shape of the gear as the measuring object 3, the projection unit 21 irradiates the teeth of the gear of the measuring object 3 with measurement light along the normal direction of the tooth surface of the tooth. In this case, the optical cutting line PCL is formed according to the surface shape of the measuring object 3 (for example, the shape of the tooth surface of the gear).

撮像部22は、測定光が照射された表面を照射方向DR1と異なる方向(測定対象3が歯車である場合、その歯車の円周方向とは異なる方向)の撮像方向DR2(第2方向)から撮像し、測定用画像を生成する。例えば、本実施形態の撮像部22は、測定対象3の凹凸形状が延在する方向を撮像方向DR2にして、測定光が撮像された撮像画像を生成する。ここで、測定対象3が歯車である場合には、測定対象3の凹凸形状(つまり歯車の歯)が延在する方向は、例えば歯車の歯すじの方向である。この場合、撮像部22は、測定対象3としての歯車の歯すじの方向から測定光が投影された歯面の像を撮像画像として生成する。このように、撮像部22は、投影部21からの照射光により測定対象3の表面に形成される光切断線PCLを撮像する。なお、測定対象3の凹凸形状が延在する方向に対応して撮像方向DR2が設定されているが、必ずしも凹凸形状が延在する方向と一致する必要は無く、延在方向を中心に、測定部位の凸部又は凹部が、隣接する凸部により撮像部22から見て隠れない方向であればよい。   The imaging unit 22 irradiates the surface irradiated with the measurement light from an imaging direction DR2 (second direction) in a direction different from the irradiation direction DR1 (when the measurement target 3 is a gear, a direction different from the circumferential direction of the gear). An image is taken and a measurement image is generated. For example, the imaging unit 22 of the present embodiment generates a captured image in which the measurement light is captured with the direction in which the uneven shape of the measurement target 3 extends as the imaging direction DR2. Here, when the measuring object 3 is a gear, the direction in which the uneven shape (that is, the gear teeth) of the measuring object 3 extends is, for example, the direction of the gear teeth. In this case, the imaging unit 22 generates, as a captured image, an image of the tooth surface onto which the measurement light is projected from the direction of the tooth trace of the gear as the measurement target 3. As described above, the imaging unit 22 images the optical cutting line PCL formed on the surface of the measurement target 3 by the irradiation light from the projection unit 21. Note that the imaging direction DR2 is set corresponding to the direction in which the uneven shape of the measurement object 3 extends, but it does not necessarily match the direction in which the uneven shape extends, and the measurement is performed with the extending direction as the center. The convex part or concave part of a part should just be the direction which is not hidden from the imaging part 22 by an adjacent convex part.

また、撮像部22は、測定対象3の表面に測定光を投影することにより形成される陰影パターンを撮像し、撮像した画像情報を間隔調整部53へ供給する。これにより、制御ユニット40は、形状測定データを取得する。撮像部22は、CCD(Charge Coupled Device)、C−MOS(Complementary Metal Oxide Semiconductor)センサなどの個体撮像素子を備えている。   In addition, the imaging unit 22 images a shadow pattern formed by projecting measurement light onto the surface of the measurement target 3 and supplies the captured image information to the interval adjustment unit 53. Thereby, the control unit 40 acquires shape measurement data. The imaging unit 22 includes an individual imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (C-MOS) sensor.

ここで、例えば、測定対象3としての歯車の形状を測定する場合、撮像部22は、測定光が照射された歯面の歯すじの向きに対応して定められる撮像方向DR2(第2方向)から光切断線が撮像された撮像画像を生成する。また、投影部21と撮像部22は同じ筐体に固定されており、測定位置が変わっても投影部21の投影方向と撮像部22の撮像方向及び、投影部21と撮像部22の位置は変わらない。   Here, for example, when measuring the shape of the gear serving as the measurement object 3, the imaging unit 22 captures the imaging direction DR2 (second direction) determined in accordance with the direction of the tooth trace of the tooth surface irradiated with the measurement light. A captured image in which the optical cutting line is captured is generated. In addition, the projection unit 21 and the imaging unit 22 are fixed to the same housing, and even if the measurement position changes, the projection direction of the projection unit 21, the imaging direction of the imaging unit 22, and the positions of the projection unit 21 and the imaging unit 22 are the same. does not change.

続いて、制御ユニット40について説明する。上述したように、制御ユニット40は、制御部51と、入力装置41と、ジョイスティック44と、表示装置45とを備える。
入力装置41は、ユーザが各種指示情報を入力するマウス42及びキーボード43を備えており、例えば、マウス42やキーボード43により入力された指示情報を検出し、検出した指示情報を、後述する記憶部60に書き込み記憶させる。本実施形態の入力装置41には、例えば、測定対象3の種類が指示情報として入力される。例えば、測定対象3が歯車である場合に、入力装置41には、測定対象3の種類としては、歯車の種類(例えば、平歯車SG、はすば歯車HG、かさ歯車BG、曲りばかさ歯車SBG、ウォーム歯車WGなど)が指示情報として入力される。
また、入力装置41は、後述するように、表示装置45に表示された撮像画像(測定対象3に投影された光切断線PCLの撮像画像)から、3次元形状測定に使用する点群データの抽出領域の設定するために使用される。この抽出領域の設定については、後に、詳細に説明される。
Next, the control unit 40 will be described. As described above, the control unit 40 includes the control unit 51, the input device 41, the joystick 44, and the display device 45.
The input device 41 includes a mouse 42 and a keyboard 43 for a user to input various instruction information. For example, the input device 41 detects instruction information input by the mouse 42 or the keyboard 43, and stores the detected instruction information, which will be described later. 60 is written and stored. For example, the type of the measurement target 3 is input to the input device 41 of the present embodiment as instruction information. For example, when the measuring object 3 is a gear, the input device 41 includes the type of the measuring object 3 as a gear type (for example, a spur gear SG, a helical gear HG, a bevel gear BG, a curved bevel gear). SBG, worm gear WG, etc.) are input as instruction information.
Further, as will be described later, the input device 41 uses the picked-up image displayed on the display device 45 (the picked-up image of the light section line PCL projected on the measurement object 3) to generate point cloud data used for three-dimensional shape measurement. Used to set the extraction area. The setting of the extraction area will be described later in detail.

表示装置45は、データ出力部57から供給された測定データ(全測定ポイントの座標値)等を受け取る。表示装置45は、受け取った測定データ(全測定ポイントの座標値)等を表示する。また、表示装置45は、計測画面、指示画面等を表示する。
制御部51は、座標検出部52と、間隔調整部53と、駆動制御部54と、移動指令部55と、座標算出部56と、点群データ生成部56Aと、データ出力部57と、記憶部60と、抽出領域設定部70と、を備えている。
The display device 45 receives measurement data (coordinate values of all measurement points) and the like supplied from the data output unit 57. The display device 45 displays the received measurement data (coordinate values of all measurement points) and the like. The display device 45 displays a measurement screen, an instruction screen, and the like.
The control unit 51 includes a coordinate detection unit 52, an interval adjustment unit 53, a drive control unit 54, a movement command unit 55, a coordinate calculation unit 56, a point group data generation unit 56A, a data output unit 57, and a storage. Unit 60 and an extraction area setting unit 70.

記憶部60には、測定対象3の種類ごとに、測定対象3の凹凸形状が延在する方向の位置と、凹凸形状が延在する方向の位置毎に凹凸形状が延在する方向を示す情報とが関連付けられて予め記憶されている。記憶部60には、例えば、歯車の種類ごとに、歯車の歯すじ方向の位置と、歯すじ方向の位置毎に歯すじの方向を示す情報とが関連付けられて予め記憶されている。つまり、記憶部60には、測定ポイントの移動方向が、歯車の種類に関連付けられて予め記憶されている。   In the storage unit 60, for each type of the measurement object 3, information indicating the position in the direction in which the uneven shape of the measurement object 3 extends and the direction in which the uneven shape extends for each position in the direction in which the uneven shape extends. Are stored in advance in association with each other. For example, for each type of gear, the storage unit 60 stores in advance a position in the tooth trace direction of the gear and information indicating the direction of the tooth trace for each position in the tooth trace direction. That is, the storage unit 60 stores in advance the movement direction of the measurement point in association with the type of gear.

また、記憶部60には、測定対象3の種類ごとに、測定対象3の測定開始位置(最初の測定ポイント)の座標値と測定終了位置(最後の測定ポイント)の座標値、及び各測定ポイントの距離間隔が、測定対象3の種類に関連付けられて予め記憶されている。また、記憶部60には、座標算出部56から供給された3次元座標値の点群データが測定データとして保持される。また、記憶部60には、座標検出部52から供給された各測定ポイントの座標情報が保持される。
また、記憶部60には、設計データ(CADデータ)61は保持される。また、記憶部60には、後述する抽出領域設定部70により点群データを生成する抽出領域を設定する際に使用される形状データ62が記憶されている。この形状データ62の詳細については、後述する。
In addition, the storage unit 60 stores, for each type of measurement object 3, the coordinate value of the measurement start position (first measurement point) and the measurement end position (last measurement point) of the measurement object 3, and each measurement point. Are stored in advance in association with the type of the measurement object 3. Further, the storage unit 60 holds the point group data of the three-dimensional coordinate values supplied from the coordinate calculation unit 56 as measurement data. In addition, the storage unit 60 holds coordinate information of each measurement point supplied from the coordinate detection unit 52.
In addition, design data (CAD data) 61 is held in the storage unit 60. Further, the storage unit 60 stores shape data 62 used when an extraction region for generating point cloud data is set by an extraction region setting unit 70 described later. Details of the shape data 62 will be described later.

座標検出部52は、ヘッド位置検出部15から出力される座標信号により、ヘッド位置検出部15に支持されている光プローブ20Aの位置、すなわち水平方向における観察位置と上下方向における観察位置と、光プローブ20Aの撮像方向を検知する。また、座標検出部52は、ステージ位置検出部34から出力される回転位置を示す信号により、ステージ31の回転軸θ及び回転軸φ回りの回転位置を検知する。   Based on the coordinate signal output from the head position detector 15, the coordinate detector 52 detects the position of the optical probe 20A supported by the head position detector 15, that is, the observation position in the horizontal direction, the observation position in the vertical direction, and the light. The imaging direction of the probe 20A is detected. Further, the coordinate detection unit 52 detects the rotational position of the stage 31 about the rotational axis θ and the rotational axis φ based on the signal indicating the rotational position output from the stage position detection unit 34.

座標検出部52は、それぞれ検知された水平方向における観察位置と上下方向における観察位置の情報と、ステージ位置検出部34から出力される回転位置を示す情報(ステージ31の回転位置情報)とから、座標情報を検出する。そして、座標検出部52は、光プローブ20Aの座標情報、撮像方向とステージ31の回転位置情報とを座標算出部56へ供給する。また、座標検出部52は、光プローブ20Aの座標情報、撮像方向とステージ31の回転位置情報とに基づいて、光プローブ20Aとステージ31との相対的な移動経路、移動速度、移動が停止しているか否かなどの情報を検出し、検出した情報を移動指令部55へ供給する。   The coordinate detection unit 52 includes information on the detected observation position in the horizontal direction and the observation position in the vertical direction, and information indicating the rotation position output from the stage position detection unit 34 (rotation position information on the stage 31). Detect coordinate information. Then, the coordinate detection unit 52 supplies the coordinate information of the optical probe 20 </ b> A, the imaging direction, and the rotational position information of the stage 31 to the coordinate calculation unit 56. Also, the coordinate detection unit 52 stops the relative movement path, movement speed, and movement between the optical probe 20A and the stage 31 based on the coordinate information of the optical probe 20A, the imaging direction, and the rotational position information of the stage 31. Information is detected, and the detected information is supplied to the movement command unit 55.

間隔調整部53は、座標計測開始前に記憶部60からサンプリング周波数を指定するデータを読み出す。間隔調整部53は、そのサンプリング周波数で、撮像部22から画像情報を受け取る。   The interval adjustment unit 53 reads data specifying the sampling frequency from the storage unit 60 before starting coordinate measurement. The interval adjustment unit 53 receives image information from the imaging unit 22 at the sampling frequency.

駆動制御部54は、移動指令部55からの指令信号に基づいて、ヘッド駆動部14に駆動信号を出力して、測定ヘッド13の駆動制御を行う。また、駆動制御部54は、移動制御部54Aと、速度制御部54Bとを備えている。
移動制御部54Aは、測定対象3を、測定対象3の円周方向に対応して定められる検出部20の移動方向DR3(第3方向)に相対的に回転移動させて、測定光が照射される位置を移動させるようにステージ駆動部33を制御する。本実施形態の移動制御部54Aは、例えば、測定対象3としての歯車を、歯車の円周方向に一致するように定められる移動方向DR3(つまり歯車の円周方向)に回転移動させて、測定光が照射される位置を移動させるようにステージ駆動部33を制御する。
Based on the command signal from the movement command unit 55, the drive control unit 54 outputs a drive signal to the head drive unit 14 and performs drive control of the measurement head 13. The drive control unit 54 includes a movement control unit 54A and a speed control unit 54B.
The movement control unit 54A relatively rotates and moves the measurement object 3 in the movement direction DR3 (third direction) of the detection unit 20 determined corresponding to the circumferential direction of the measurement object 3, and the measurement light is irradiated. The stage drive unit 33 is controlled to move the position. For example, the movement control unit 54A of the present embodiment rotates and moves the gear as the measurement object 3 in the movement direction DR3 (that is, the circumferential direction of the gear) determined to coincide with the circumferential direction of the gear. The stage drive unit 33 is controlled to move the position where the light is irradiated.

すなわち、移動制御部54Aの制御によりステージ駆動部33は、歯車を検出部20の移動方向DR3(第3方向)に相対的に回転移動させて、測定光が照射される位置を検出部20の移動方向DR3に相対的に移動させる。このようにして、本実施形態の形状測定装置100は、測定対象3の円周方向に周期的に配列されかつ円周方向とは異なる方向に延在した凹凸形状(例えば、測定対象3としての歯車の歯やタービンのブレード)に対して順に測定光を照射して、測定対象3の表面形状を測定する。速度制御部54Bは、測定光が照射されている測定対象3の回転移動のステージ半径rs方向(半径方向)の位置に応じて、測定対象3を相対的に回転移動させる移動速度を制御する。   That is, the stage drive unit 33 controls the movement of the movement control unit 54 </ b> A to relatively rotate the gear in the movement direction DR <b> 3 (third direction) of the detection unit 20 to determine the position where the measurement light is irradiated. It moves relative to the moving direction DR3. In this way, the shape measuring apparatus 100 according to the present embodiment is configured to have a concavo-convex shape periodically arranged in the circumferential direction of the measuring object 3 and extending in a direction different from the circumferential direction (for example, as the measuring object 3 The surface shape of the measuring object 3 is measured by sequentially irradiating measurement light onto gear teeth and turbine blades. The speed control unit 54B controls the moving speed for relatively rotating the measuring object 3 according to the position of the measuring object 3 irradiated with the measuring light in the stage radius rs direction (radial direction).

座標算出部56は、光プローブ20Aにより検出された測定対象3の表面の形状に基づいて、測定対象3の表面の形状データ、すなわち3次元形状データを算出する。つまり、座標算出部56は、撮像部22からの撮像画像から、撮像部22の撮像面上での測定光が検出された位置に基づいて、表面の形状を測定する。
また、座標算出部56は、間隔調整部53から供給されたフレームからなる画像情報を受け取る。座標算出部56は、座標検出部52から供給された光プローブ20Aの座標情報、撮像方向と、ステージ31の回転位置情報とを受け取る。
The coordinate calculation unit 56 calculates the shape data of the surface of the measurement target 3, that is, three-dimensional shape data, based on the shape of the surface of the measurement target 3 detected by the optical probe 20A. That is, the coordinate calculation unit 56 measures the shape of the surface from the captured image from the imaging unit 22 based on the position where the measurement light on the imaging surface of the imaging unit 22 is detected.
In addition, the coordinate calculation unit 56 receives image information including a frame supplied from the interval adjustment unit 53. The coordinate calculation unit 56 receives the coordinate information of the optical probe 20 </ b> A, the imaging direction, and the rotation position information of the stage 31 supplied from the coordinate detection unit 52.

なお、座標算出部56は点群データ生成部56Aを含み、この点群データ生成部56Aにより、間隔調整部53から供給された画像情報と、光プローブ20Aの座標情報、撮像方向と、ステージ31の回転位置情報とに基づき、各測定ポイントの座標値(3次元座標値)の点群データを算出する。   The coordinate calculation unit 56 includes a point group data generation unit 56A. The point group data generation unit 56A provides image information supplied from the interval adjustment unit 53, coordinate information of the optical probe 20A, an imaging direction, and the stage 31. Point group data of coordinate values (three-dimensional coordinate values) of the respective measurement points is calculated based on the rotational position information.

ここで、例えば、測定対象3としての歯車の形状を測定する場合、座標算出部56は、撮像部22からの撮像画像に撮像されている像の測定光の位置に基づいて、歯の形状を測定する。
具体的な算出方法は以下の通りである。まず、座標算出部56は、撮像部22の撮影された画像情報から、陰影パターンが示すラインパターンが投影された相対位置を取得する。この相対位置は、検出部20に対する測定対象3のラインパターンが投影された位置である。また、相対位置は、撮像部22の撮影方向と投影部21の投影方向と撮像部22と投影部21の距離に基づいて、座標算出部56で算出される。一方、受け取った光プローブ20Aの座標とラインパターンが撮像された画像データ上での位置とを基に、基準座標系におけるラインパターンが投影された位置の座標を算出する。
ここで、投影部21は光プローブ20Aに固定されているので、投影部21の照射角度は、光プローブ20Aに対して固定である。また、撮像部22も光プローブ20Aに固定されているので、撮像部22の撮像角度は、光プローブ20Aに対して固定である。
Here, for example, when measuring the shape of the gear as the measurement object 3, the coordinate calculation unit 56 determines the shape of the tooth based on the position of the measurement light of the image captured in the captured image from the imaging unit 22. taking measurement.
A specific calculation method is as follows. First, the coordinate calculation unit 56 acquires the relative position on which the line pattern indicated by the shadow pattern is projected from the image information captured by the imaging unit 22. This relative position is a position where the line pattern of the measuring object 3 is projected on the detection unit 20. The relative position is calculated by the coordinate calculation unit 56 based on the shooting direction of the imaging unit 22, the projection direction of the projection unit 21, and the distance between the imaging unit 22 and the projection unit 21. On the other hand, the coordinates of the position where the line pattern is projected in the reference coordinate system are calculated based on the received coordinates of the optical probe 20A and the position on the image data where the line pattern is captured.
Here, since the projection unit 21 is fixed to the optical probe 20A, the irradiation angle of the projection unit 21 is fixed to the optical probe 20A. Further, since the imaging unit 22 is also fixed to the optical probe 20A, the imaging angle of the imaging unit 22 is fixed with respect to the optical probe 20A.

座標算出部56は、照射した光が測定対象3に照射された位置の座標を、撮像された画像の画素毎に、三角測量を用いて算出する。ここで、照射した光が測定対象3にあたった点の座標は、投影部21の座標から投影部21の照射角度で描画される直線と、撮像部22の座標から撮像部22の撮像角度で描画される直線(光軸)とが交わる点の座標である。なお、上記の撮像された画像は、測定位置に配置された光プローブ20Aによって検出された画像を示す。
このようにして、座標算出部56は撮像部22からの撮像画像に撮像されている像の測定光の位置に基づいて、表面の形状を測定する。
The coordinate calculation unit 56 calculates the coordinates of the position where the irradiated light is irradiated onto the measurement object 3 using triangulation for each pixel of the captured image. Here, the coordinates of the point where the irradiated light hits the measurement target 3 are a straight line drawn from the coordinates of the projection unit 21 at the irradiation angle of the projection unit 21 and the imaging angle of the imaging unit 22 from the coordinates of the imaging unit 22. The coordinates of the point where the straight line (optical axis) to be drawn intersects. In addition, said imaged image shows the image detected by optical probe 20A arrange | positioned at a measurement position.
In this way, the coordinate calculation unit 56 measures the shape of the surface based on the position of the measurement light of the image captured in the captured image from the imaging unit 22.

また、測定対象3は、ステージ31に支持されている。測定対象3は、支持テーブル32によって、ステージ31が回転軸θ周りに回転することにより、ステージ31の回転軸θを中心にステージ31と一緒に回転する。また、測定対象3は、ステージ31が回転軸φ周りに回転することにより、ステージ31の回転軸φを中心にステージ31と一緒に回転する。つまり、算出された光が照射された位置の座標は、ステージ31の回転軸θ及び回転軸φを中心に回転したことによって姿勢が傾けられた測定対象3の表面の位置を示す情報である。このようにして、座標算出部56は、ラインパターンが照射された位置の座標を、ステージ31の傾き、即ち回転軸θ及び回転軸φ周りの回転位置情報に基づいて、ステージ31の傾きに応じた座標変換を行うことにより、実際の測定対象3の表面形状データを算出する。
また、座標算出部56は、算出した測定対象3の表面形状データである3次元座標値の点群データを記憶部60に記憶させる。
Further, the measuring object 3 is supported by the stage 31. The measurement object 3 rotates together with the stage 31 about the rotation axis θ of the stage 31 as the stage 31 rotates around the rotation axis θ by the support table 32. Further, the measurement object 3 rotates together with the stage 31 around the rotation axis φ of the stage 31 as the stage 31 rotates around the rotation axis φ. That is, the calculated coordinates of the position irradiated with light are information indicating the position of the surface of the measuring object 3 whose posture is tilted by rotating around the rotation axis θ and the rotation axis φ of the stage 31. In this way, the coordinate calculation unit 56 determines the coordinates of the position irradiated with the line pattern according to the inclination of the stage 31 based on the inclination of the stage 31, that is, the rotational position information about the rotation axis θ and the rotation axis φ. The surface shape data of the actual measurement object 3 is calculated by performing the coordinate conversion.
In addition, the coordinate calculation unit 56 causes the storage unit 60 to store point group data of three-dimensional coordinate values that are the calculated surface shape data of the measurement object 3.

移動指令部55は、記憶部60から、入力装置41によって記憶された指示情報(つまり測定対象3の種類)を読み出す。また、移動指令部55は、読み出した測定対象3の種類に関連付けられた測定対象3の測定範囲を示す測定ポイントの座標値、測定対象3の測定開始位置(最初の測定ポイント)の座標値、測定終了位置(最後の測定ポイント)の座標値、測定ポイントの移動方向、及び各測定ポイントの距離間隔(例えば、一定距離間隔の測定ピッチ)を示すデータ等を記憶部60から読み出す。移動指令部55は、上記読み出したデータに基づいて、測定対象3に対するスキャンの移動経路を算出する。そして、移動指令部55は、算出した移動経路及び記憶部60から読み出した各測定ポイントの距離間隔(例えば、一定距離間隔の測定ピッチ)等に従って、測定ヘッド13及びステージ31を駆動させるための指令信号を駆動制御部54に供給し、ヘッド駆動部14とステージ駆動部33(移動部)とに測定ヘッド13及びステージ31を駆動させる。   The movement command unit 55 reads the instruction information (that is, the type of the measurement target 3) stored by the input device 41 from the storage unit 60. In addition, the movement command unit 55 includes the coordinate value of the measurement point indicating the measurement range of the measurement target 3 associated with the type of the read measurement target 3, the coordinate value of the measurement start position (first measurement point) of the measurement target 3, Data indicating the coordinate value of the measurement end position (last measurement point), the moving direction of the measurement point, and the distance interval between the measurement points (for example, the measurement pitch at a constant distance interval) is read from the storage unit 60. The movement command unit 55 calculates a scanning movement path for the measurement object 3 based on the read data. The movement command unit 55 then commands to drive the measurement head 13 and the stage 31 according to the calculated movement path and the distance interval of each measurement point read from the storage unit 60 (for example, the measurement pitch of a constant distance interval). A signal is supplied to the drive control unit 54, and the measurement head 13 and the stage 31 are driven by the head drive unit 14 and the stage drive unit 33 (moving unit).

例えば、移動指令部55は、移動経路及び測定ピッチに従って、測定ヘッド13の移動または移動の停止と、ステージ31の回転または回転の停止を駆動させる指令信号を供給して、光プローブ20Aとステージ31との相対的な位置を移動させて測定ポイント毎に停止させる。また、移動指令部55は、この指令信号を間隔調整部53に供給する。   For example, the movement command unit 55 supplies a command signal for driving movement or stop of the measurement head 13 and rotation or stop of rotation of the measurement head 13 according to the movement path and the measurement pitch, and the optical probe 20A and the stage 31 are supplied. The relative position is moved and stopped at each measurement point. Further, the movement command unit 55 supplies this command signal to the interval adjustment unit 53.

データ出力部57は、記憶部60から測定データ(全測定ポイントの座標値)等を読み出す。データ出力部57は、その測定データ等を表示装置45に供給する。
また、データ出力部57は、抽出領域設定部70からの指示により、後述する抽出領域を設定する際に使用されるアイコンや抽出領域の形状を示す画像データなどを表示装置45に供給する。また、データ出力部57は、測定データ等をプリンタやCADシステムなど設計システム(不図示)へ出力する。
The data output unit 57 reads measurement data (coordinate values of all measurement points) and the like from the storage unit 60. The data output unit 57 supplies the measurement data and the like to the display device 45.
Further, the data output unit 57 supplies an icon used when setting an extraction region, which will be described later, image data indicating the shape of the extraction region, and the like to the display device 45 in accordance with an instruction from the extraction region setting unit 70. The data output unit 57 outputs measurement data and the like to a design system (not shown) such as a printer or a CAD system.

抽出領域設定部70は、光プローブ20Aにより測定対象3の表面に照射される計測光によって形成される陰影パターンを撮像した撮像画像から、点群データを生成する抽出領域を設定するための処理部である。座標算出部56内の点群データ生成部56Aは、この抽出領域設定部70により設定された抽出領域内の画像情報に基づいて、測定対象3の座標値の点群データを算出する。この抽出領域設定部70の構成と動作の詳細については後述する。   The extraction region setting unit 70 is a processing unit for setting an extraction region for generating point cloud data from a captured image obtained by capturing a shadow pattern formed by measurement light irradiated on the surface of the measurement target 3 by the optical probe 20A. It is. The point group data generation unit 56A in the coordinate calculation unit 56 calculates the point group data of the coordinate value of the measurement target 3 based on the image information in the extraction region set by the extraction region setting unit 70. Details of the configuration and operation of the extraction area setting unit 70 will be described later.

次に、本実施形態の形状測定装置100が測定対象3である歯車の形状を測定する場合の、照射方向DR1、撮像方向DR2、移動方向DR3及び移動方向DR4の各方向について、平歯車SGを測定する場合を例にして説明する。   Next, when the shape measuring apparatus 100 of the present embodiment measures the shape of the gear that is the measurement target 3, the spur gear SG is set in each of the irradiation direction DR1, the imaging direction DR2, the moving direction DR3, and the moving direction DR4. The case of measuring will be described as an example.

(平歯車の測定)
本実施形態の形状測定装置100は、例えば、図4に示すように、平歯車SGを測定対象3にして測定対象3の形状を測定することができる。
(Measurement of spur gear)
For example, as shown in FIG. 4, the shape measuring apparatus 100 of the present embodiment can measure the shape of the measuring object 3 with the spur gear SG as the measuring object 3.

図4は、形状測定装置100による平歯車SGの形状を測定する例を示す図である。
形状測定装置100によって平歯車SGの形状を測定する場合、測定対象3である平歯車SGは、例えば、平歯車SGの回転軸の中心とステージ31の回転軸θの中心とを一致させてステージ31上に載置される。つまり、ステージ駆動部33は、平歯車SGの回転軸と回転移動の回転軸とを一致させて、平歯車SGを回転移動させる。
FIG. 4 is a diagram illustrating an example of measuring the shape of the spur gear SG by the shape measuring apparatus 100.
When measuring the shape of the spur gear SG by the shape measuring apparatus 100, the spur gear SG as the measuring object 3 is, for example, a stage in which the center of the rotation axis of the spur gear SG and the center of the rotation axis θ of the stage 31 are matched. 31 is mounted. That is, the stage drive unit 33 causes the rotation shaft of the spur gear SG and the rotation shaft of the rotation movement to coincide with each other to rotate and move the spur gear SG.

ここで、投影部21は、図4(A)に示すように、測定光を、平歯車SGの歯面の法線方向に対応して定められる照射方向DR1によって平歯車SGの歯面に照射する。具体的には、各歯の頭頂部の包絡面を想定し、測定領域における包絡面に対して垂直な方向となる。
この場合、撮像部22は、測定光が照射された平歯車SGの歯面(表面)の歯すじの方向(円周方向とは異なる方向)に対応して定められる撮像方向DR2から測定光を撮像する。つまり、撮像部22は、図4(B)に示すように、平歯車SGの歯すじの方向、つまりZ軸方向を撮像方向DR2にして、光切断線PCLを撮像する。
また、この場合、移動制御部54Aは、図4(B)に示すように、回転軸θを中心にした移動方向DR3の方向に支持テーブル32を回転させる。すなわち、移動制御部54Aは、測定光が照射される測定対象3の位置を、円周方向に対応して定められる検出部20の移動方向DR3に相対的に移動させる。このようにして、形状測定装置100は、平歯車SGの形状を測定する。
Here, as shown in FIG. 4 (A), the projection unit 21 irradiates the tooth surface of the spur gear SG with the measurement light according to the irradiation direction DR1 determined corresponding to the normal direction of the tooth surface of the spur gear SG. To do. Specifically, the enveloping surface of the top of each tooth is assumed and the direction is perpendicular to the enveloping surface in the measurement region.
In this case, the imaging unit 22 receives the measurement light from the imaging direction DR2 that is determined corresponding to the direction of the tooth trace (direction different from the circumferential direction) of the tooth surface (front surface) of the spur gear SG irradiated with the measurement light. Take an image. That is, as illustrated in FIG. 4B, the imaging unit 22 captures the light cutting line PCL with the direction of the teeth of the spur gear SG, that is, the Z-axis direction as the imaging direction DR2.
In this case, as shown in FIG. 4B, the movement control unit 54A rotates the support table 32 in the movement direction DR3 about the rotation axis θ. That is, the movement control unit 54A relatively moves the position of the measurement target 3 irradiated with the measurement light in the movement direction DR3 of the detection unit 20 determined corresponding to the circumferential direction. In this way, the shape measuring apparatus 100 measures the shape of the spur gear SG.

また、本実施形態の形状測定装置100は、測定光が照射される測定領域の位置を、円周方向に対応した移動方向DR3(第3方向)に移動させるためにステージ31のロータリ軸用モータを備えている。このモータを駆動させることで、ステージが回転軸θ周りに回転する。それゆえ、測定対象3が投影部21に対して相対的に移動する。また、撮像部22は、第3方向に測定領域が変位する毎に撮像画像を生成し、座標算出部56は、撮像画像に基づいて、複数の凹凸形状を測定する。また、移動部10は、更に歯すじが延在する方向に対応して定められる移動方向DR4(第4方向)に移動させるように投影部21と測定対象3とを相対的に移動する。   In addition, the shape measuring apparatus 100 according to the present embodiment has a rotary axis motor for the stage 31 in order to move the position of the measurement region irradiated with the measurement light in the movement direction DR3 (third direction) corresponding to the circumferential direction. It has. By driving this motor, the stage rotates about the rotation axis θ. Therefore, the measurement object 3 moves relative to the projection unit 21. In addition, the imaging unit 22 generates a captured image every time the measurement region is displaced in the third direction, and the coordinate calculation unit 56 measures a plurality of uneven shapes based on the captured image. Further, the moving unit 10 relatively moves the projection unit 21 and the measurement target 3 so as to move in a moving direction DR4 (fourth direction) determined corresponding to the direction in which the tooth traces extend.

具体的には、形状測定装置100は、測定領域を平歯車SGの歯の配列方向(例えば、図4(A)の回転軸θの回転方向)に沿って移動させながら、歯すじの方向(例えば、図4(B)の回転軸θの軸線方向)に沿って順次移動させる。例えば、形状測定装置100は、平歯車SGを回転軸θの回転方向(例えば、図4(B)の移動方向DR3(第3方向))に回転させて、各々の歯が測定領域になるように測定領域を移動させる。これとともに、形状測定装置100は、投影部21及び撮像部22を平歯車SGの回転軸θの軸線方向(例えば、図4(B)の移動方向DR4(第4方向))に移動させて、歯面のそれぞれの位置が測定領域になるように測定領域を移動させる。このようにして、本実施形態の形状測定装置100は、平歯車SGの各々の歯の形状を順次測定することができる。   Specifically, the shape measuring apparatus 100 moves the measurement region along the tooth arrangement direction of the spur gear SG (for example, the rotation direction of the rotation axis θ in FIG. 4A), while moving the tooth line direction ( For example, they are sequentially moved along the axis of rotation axis θ in FIG. For example, the shape measuring apparatus 100 rotates the spur gear SG in the rotation direction of the rotation axis θ (for example, the movement direction DR3 (third direction) in FIG. 4B) so that each tooth becomes a measurement region. Move the measurement area. At the same time, the shape measuring apparatus 100 moves the projection unit 21 and the imaging unit 22 in the axial direction of the rotation axis θ of the spur gear SG (for example, the movement direction DR4 (fourth direction) in FIG. 4B), The measurement area is moved so that each position of the tooth surface becomes the measurement area. Thus, the shape measuring apparatus 100 of this embodiment can sequentially measure the shape of each tooth of the spur gear SG.

また、このとき、投影部21は、測定対象3の凹凸形状の最凸部から最凹部に掛けてライン(光切断線PCL)が形成されるようにライン状の測定光を照明する。そのときの照射方向である照射方向DR1(第1方向)は、主に測定したい面の法線方向に設定する。つまり、投影部21は、測定対象3としての歯車の測定したい面において、その面の歯先部から歯底部にわたって光切断線PCLが形成されるように、測定光を照射する。   At this time, the projection unit 21 illuminates the line-shaped measurement light so that a line (light cutting line PCL) is formed from the concave / convex convex portion of the measurement target 3 to the concave portion. The irradiation direction DR1 (first direction), which is the irradiation direction at that time, is set mainly in the normal direction of the surface to be measured. That is, the projection unit 21 irradiates the measurement light so that the optical cutting line PCL is formed from the tooth tip portion to the tooth bottom portion of the surface of the gear as the measurement object 3 to be measured.

そして、撮像部22は、測定対象3表面の撮像画像を生成する。また、座標算出部56は、撮像部22によって撮像された撮像画像に基づいて、歯面の一部の領域の凹凸形状を測定する。ここで、これを歯車の歯すじ方向にそって、ライン状の測定光の投影領域を順次変えながら撮影することで、歯車の各歯の面形状を測定することができる。測定対象3の凹凸形状(つまり歯車の歯)の寸法は、歯車の歯厚の方向である。また、表面に照射されている測定光が撮像される長さとは、例えば、測定対象3の表面に形成される光切断線PCLの撮像方向DR2から見た長さのうちの、撮像部22によって撮像される長さである。つまり、測定対象3が歯車である場合には、撮像部22は、歯の歯幅の長さと歯面に照射されている測定光が撮像される長さとに応じて撮像した複数の撮像画像を生成する。すなわち、撮像部22は、歯車が有する複数の歯をそれぞれ撮像した複数の撮像画像を生成する。この場合、座標算出部56は、これら複数の撮像画像に基づいて、複数の歯の形状を測定する。   Then, the imaging unit 22 generates a captured image of the surface of the measurement target 3. In addition, the coordinate calculation unit 56 measures the uneven shape of a partial region of the tooth surface based on the captured image captured by the imaging unit 22. Here, the surface shape of each tooth of the gear can be measured by photographing this while sequentially changing the projection area of the line-shaped measurement light along the tooth trace direction of the gear. The dimension of the concavo-convex shape of the measurement object 3 (that is, the gear teeth) is the direction of the gear thickness. In addition, the length by which the measurement light applied to the surface is imaged is, for example, by the imaging unit 22 out of the length viewed from the imaging direction DR2 of the light cutting line PCL formed on the surface of the measurement target 3. This is the length to be imaged. That is, when the measurement target 3 is a gear, the imaging unit 22 captures a plurality of captured images that are captured according to the length of the tooth width and the length of the measurement light irradiated on the tooth surface. Generate. That is, the imaging unit 22 generates a plurality of captured images obtained by capturing a plurality of teeth of the gear. In this case, the coordinate calculation unit 56 measures a plurality of tooth shapes based on the plurality of captured images.

なお、投影部21は、測定対象3の円周方向に交差する方向を光切断線PCL(ライン)の方向にして測定光を照射してもよい。つまり、投影部21は、光切断線PCLが、例えば、平歯車SGの円周方向から歯すじの方向に傾いて形成されるように測定光を照射してもよい。また、歯すじに対して左右のどちらか一方の面を測定したい場合には、測定光を測定したい歯の面に対して垂直に近くなるように設定しても良い。   Note that the projection unit 21 may irradiate the measurement light with the direction intersecting the circumferential direction of the measurement target 3 as the direction of the light cutting line PCL (line). In other words, the projection unit 21 may irradiate the measurement light so that the light cutting line PCL is formed to be inclined in the direction of the tooth trace from the circumferential direction of the spur gear SG, for example. Further, when it is desired to measure one of the left and right surfaces with respect to the tooth trace, the measurement light may be set so as to be nearly perpendicular to the tooth surface to be measured.

(形状測定を実行する処理についての説明)
次に、図5が示すフローチャートを用いて、形状測定装置100が測定対象3の形状測定を実行する処理について説明する。主に、ティーチングの工程時における作業について説明する。実際には、ティーチング工程により、測定ポイントとして選ばれた測定位置の点群を取得して、その点群情報が信頼における値を示しているかどうかを、ユーザーが判定する。ユーザが信頼における値を示していると判断したら、測定ポイントの各点を結ぶように連続的に走査しながら、更に細かい間隔で測定することで本測定が行われる。
(Explanation about processing to execute shape measurement)
Next, the process in which the shape measuring apparatus 100 performs the shape measurement of the measuring object 3 will be described using the flowchart shown in FIG. The operation during the teaching process will be mainly described. Actually, a point cloud of the measurement position selected as the measurement point is acquired by the teaching process, and the user determines whether or not the point cloud information indicates a reliability value. If it is determined that the user indicates a value in the reliability, the main measurement is performed by measuring at finer intervals while continuously scanning the measurement points.

図5は、本実施形態における形状測定処理の一例を示すフローチャートである。
最初に、ユーザは、測定対象3の測定開始位置(最初の測定ポイント)及び測定終了位置(最後の測定ポイント)を入力装置41から入力して設定する。入力装置41は、入力された測定開始位置(最初の測定ポイント)及び測定終了位置(最後の測定ポイント)を記憶部60に記憶させる(ステップS11)。
また、ユーザは、測定対象3の測定ポイントの距離間隔を入力装置41から入力して設定する。入力装置41は、入力された測定ポイントの距離間隔を記憶部60に記憶させる(ステップS12)。
次に、測定対象3の測定ポイントにおける歯車の緒元データを基に、測定光の投影方向及び撮像方向を設定する。具体的には、歯車の歯面の方向に応じて、投影方向が設定され、歯車の歯すじの方向に沿って、検出部20の走査方向が設定される(ステップS13)。
移動指令部55は、記憶部60から入力されて設定された情報である測定開始位置(最初の測定ポイント)と測定終了位置(最後の測定ポイント)との座標値、及び各測定ポイントの距離間隔(例えば、一定距離間隔の測定ピッチ)を示すデータや、予め設定された情報である測定範囲を示す測定ポイントの座標値、及び測定ポイントの移動方向等を読み出す。移動指令部55は、上記読み出したデータに基づいて、測定対象3に対するスキャンの移動経路を算出する。
FIG. 5 is a flowchart illustrating an example of the shape measurement process in the present embodiment.
First, the user inputs and sets the measurement start position (first measurement point) and measurement end position (last measurement point) of the measurement object 3 from the input device 41. The input device 41 stores the input measurement start position (first measurement point) and measurement end position (last measurement point) in the storage unit 60 (step S11).
Further, the user inputs and sets the distance between the measurement points of the measurement object 3 from the input device 41. The input device 41 stores the distance distance of the input measurement points in the storage unit 60 (step S12).
Next, the projection direction and the imaging direction of the measurement light are set based on the original data of the gear at the measurement point of the measurement object 3. Specifically, the projection direction is set according to the direction of the tooth surface of the gear, and the scanning direction of the detection unit 20 is set along the direction of the tooth trace of the gear (step S13).
The movement command unit 55 includes coordinate values of a measurement start position (first measurement point) and a measurement end position (last measurement point), which are information input from the storage unit 60 and set, and distance intervals between the measurement points. Data indicating (for example, measurement pitches at constant distance intervals), coordinate values of measurement points indicating measurement ranges, which are preset information, moving directions of measurement points, and the like are read. The movement command unit 55 calculates a scanning movement path for the measurement object 3 based on the read data.

次に、移動指令部55は、算出した移動経路に基づいて、測定ヘッド13及びステージ31を駆動させるための指令信号を駆動制御部54に供給し、ヘッド駆動部14とステージ駆動部33(移動部)とに測定ヘッド13及びステージ31を駆動させる。これにより、移動指令部55は、測定ヘッド13とステージ31との相対的な位置を移動させて光プローブ20Aを測定対象3の測定開始位置(最初の測定ポイント)に移動させる(ステップS14)。   Next, the movement command unit 55 supplies a command signal for driving the measuring head 13 and the stage 31 to the drive control unit 54 based on the calculated movement path, and the head driving unit 14 and the stage driving unit 33 (movement). And the measurement head 13 and the stage 31 are driven. Thereby, the movement command unit 55 moves the relative position between the measurement head 13 and the stage 31 to move the optical probe 20A to the measurement start position (first measurement point) of the measurement object 3 (step S14).

次に、間隔調整部53は、光プローブ20Aを介して測定対象3の表面の形状を検出し、検出した撮像画像(光切断線PCLの撮像画像)の画像情報を座標算出部56へ供給する。
また、座標検出部52は、位置検出部17より光プローブ20Aの座標情報とステージ31の回転位置情報とを検出し、検出した情報を座標算出部56へ供給する(ステップS15)。
Next, the interval adjustment unit 53 detects the shape of the surface of the measurement target 3 via the optical probe 20 </ b> A and supplies image information of the detected captured image (captured image of the optical cutting line PCL) to the coordinate calculation unit 56. .
Further, the coordinate detection unit 52 detects the coordinate information of the optical probe 20A and the rotational position information of the stage 31 from the position detection unit 17, and supplies the detected information to the coordinate calculation unit 56 (step S15).

座標算出部56は、間隔調整部53から供給された撮像画像(光切断線PCLの撮像画像)の画像情報を、座標検出部52から供給された光プローブ20Aの座標情報とステージ31の回転位置情報とともに、記憶部60に保存する(ステップS16)。
また、座標算出部56は、間隔調整部53から供給された撮像画像(光切断線PCLの撮像画像)を、(図1(B)の撮像画像L1を参照)、表示装置45の表示画面46上に表示する(ステップS17)。
The coordinate calculation unit 56 uses the image information of the captured image (captured image of the optical cutting line PCL) supplied from the interval adjustment unit 53, the coordinate information of the optical probe 20A supplied from the coordinate detection unit 52, and the rotational position of the stage 31. The information is stored in the storage unit 60 together with the information (step S16).
In addition, the coordinate calculation unit 56 displays the captured image (captured image of the optical cutting line PCL) supplied from the interval adjustment unit 53 (see the captured image L1 in FIG. 1B) and the display screen 46 of the display device 45. Displayed above (step S17).

次に、抽出領域設定部70により、測定対象3の3次元形状データの算出に使用する画像の抽出領域を設定する(ステップS18)。この抽出領域の設定方法の詳細については、後述する。また、ステップS18で設定された領域は、ステップS15で取得された位置検出部17より光プローブ20Aの座標情報とステージ31の回転位置情報と対応づけられて、記憶部60に記憶される。
次に、移動指令部55は、直前に測定した測定ポイントが測定終了位置(最後の測定ポイント)であるか否かを判定する(ステップS19)。
ステップS19において、直前に測定した測定ポイントが測定終了位置(最後の測定ポイント)でない(測定終了位置以外の測定ポイントである)と判定された場合(ステップS19;NO)、移動指令部55は、次の測定ポイントに光プローブ20Aを移動させた後停止させる。例えば、移動指令部55は、移動経路に従って次の測定ポイントへ移動させるために、測定ヘッド13及びステージ31を駆動させるための指令信号を駆動制御部54に供給し、ヘッド駆動部14とステージ駆動部33とに測定ヘッド13及びステージ31を駆動させる(ステップS20)。そして、移動指令部55は、ステップS15に制御を戻す。
Next, the extraction area setting unit 70 sets an extraction area of an image used for calculating the three-dimensional shape data of the measurement object 3 (step S18). Details of the extraction area setting method will be described later. The region set in step S18 is stored in the storage unit 60 in association with the coordinate information of the optical probe 20A and the rotational position information of the stage 31 by the position detection unit 17 acquired in step S15.
Next, the movement command unit 55 determines whether or not the measurement point measured immediately before is the measurement end position (last measurement point) (step S19).
In step S19, when it is determined that the measurement point measured immediately before is not the measurement end position (last measurement point) (measurement point other than the measurement end position) (step S19; NO), the movement command unit 55 The optical probe 20A is moved to the next measurement point and then stopped. For example, the movement command unit 55 supplies a command signal for driving the measurement head 13 and the stage 31 to the drive control unit 54 in order to move to the next measurement point according to the movement path, and drives the head drive unit 14 and the stage. The measurement head 13 and the stage 31 are driven by the unit 33 (step S20). Then, the movement command unit 55 returns the control to step S15.

一方、ステップS19において、直前に測定した測定ポイントが測定終了位置(最後の測定ポイント)であると判定された場合(ステップS19;YES)、すでに、設定された抽出領域にを基に、検出部20と測定対象3の測定光投影位置の相対位置情報を算出し、点群データを生成する。座標算出部56内の点群データ生成部56Aは、記憶部60から、光プローブ20Aにより検出された抽出領域内の画像情報、及び座標検出部52により検出された光プローブ20Aの座標情報と、ステージ31の回転位置情報とを読み出し、これらの読み出した情報に基づいて、抽出領域内の撮像画像の点群データを生成する。また、座標算出部56は、点群データ生成部56Aにより生成された抽出領域内の点群データに基づいて、測定対象3の3次元形状データを算出する(ステップS21)。
このようにして、ティーチング工程での3次元形状データを出力して、これで良いかどうかユーザが判定する。その結果に基づき、本測定に移ることとなる。
On the other hand, when it is determined in step S19 that the measurement point measured immediately before is the measurement end position (last measurement point) (step S19; YES), the detection unit is already set based on the set extraction region. 20 and the relative position information of the measurement light projection positions of the measurement object 3 are calculated, and point cloud data is generated. The point cloud data generation unit 56A in the coordinate calculation unit 56 includes, from the storage unit 60, image information in the extraction area detected by the optical probe 20A, and coordinate information of the optical probe 20A detected by the coordinate detection unit 52, The rotational position information of the stage 31 is read out, and point cloud data of the captured image in the extraction area is generated based on the read information. In addition, the coordinate calculation unit 56 calculates the three-dimensional shape data of the measurement target 3 based on the point group data in the extraction region generated by the point group data generation unit 56A (step S21).
In this way, the three-dimensional shape data in the teaching process is output, and the user determines whether this is acceptable. Based on the result, the main measurement is started.

なお、ステップS18において、測定ポイントが測定終了位置に至らない場合には、各測定ポイント毎に、撮像画像を表示して、抽出領域を設定することとなるが、平歯車のように歯すじ方向に沿っての断面形状が大きく変わらない測定対象の場合必ず各測定ポイント毎に抽出領域を設定しなくても良い。   In step S18, when the measurement point does not reach the measurement end position, the picked-up image is displayed and the extraction area is set for each measurement point. In the case of a measurement object whose cross-sectional shape along the line does not change significantly, it is not always necessary to set an extraction region for each measurement point.

このように、本実施形態の形状測定装置100では、撮像画像における点群データの抽出領域を、任意の形状で設定することができようにし、この設定された抽出領域内の点群データを基に、測定対象3の3次元形状データを算出する。このため、測定対象3の形状が複雑な形状である場合においても、異常点を正しく省くようにして、点群データを生成することができる。   As described above, the shape measuring apparatus 100 according to the present embodiment makes it possible to set the extraction region of the point cloud data in the captured image in an arbitrary shape, and based on the point cloud data in the set extraction region. Then, the three-dimensional shape data of the measuring object 3 is calculated. For this reason, even when the shape of the measuring object 3 is a complicated shape, the point cloud data can be generated in such a manner that abnormal points are correctly omitted.

[抽出領域設定部70における抽出領域の設定例]
(「直線」を用いて抽出領域を設定する例)
図6は、抽出領域設定部70における抽出領域の設定例を示す図であり、直線(より正確には線分)を用いて多角形を描画することにより、ある投影位置で取得された画像データから、点群データ生成時に使用する画像領域を抽出する領域を設定する例を示している。
この場合、記憶部60には、抽出領域を設定する際に使用される基本的な形状データ62が、「抽出領域の境界を設定する抽出形状要素」として記憶されている。
例えば、抽出形状要素として、直線、曲線(スプライン曲線)、矩形、円、多角形、楕円等が記憶部60に登録されている。また、形状データ62内のそれぞれの形状データ(抽出形状要素)には、この形状データを用いて抽出領域の境界形状を設定する際に使用されるパラメータの種類(例えば、直線であれば、2つの点と座標、多角形であれば頂点数と頂点座標など)が関連付けされて記憶されている。
[Example of Extraction Area Setting in Extraction Area Setting Unit 70]
(Example of setting the extraction area using “Line”)
FIG. 6 is a diagram illustrating an example of setting an extraction region in the extraction region setting unit 70. Image data acquired at a certain projection position by drawing a polygon using a straight line (more precisely, a line segment). 3 shows an example in which an area for extracting an image area used when generating point cloud data is set.
In this case, the storage unit 60 stores basic shape data 62 used when setting the extraction region as “extraction shape element for setting the boundary of the extraction region”.
For example, straight lines, curves (spline curves), rectangles, circles, polygons, ellipses, and the like are registered in the storage unit 60 as extracted shape elements. In addition, each shape data (extracted shape element) in the shape data 62 includes parameter types used when setting the boundary shape of the extraction region using this shape data (for example, 2 for a straight line). Point and coordinates, and in the case of a polygon, the number of vertices and vertex coordinates are stored in association with each other.

ユーザは、この形状データ62の中から、所望の形状データ(抽出形状要素)を選択し、また、選択した抽出形状要素に具体的な境界位置を設定するためのパラメータの値を設定することにより抽出領域を設定することができる。例えば、形状データ62の中から「直線」を選択する場合は、この直線の形状を規定するパラメータとして、表示画面46上において2点の座標を指定することにより、この2点を結ぶ直線(線分)を設定することができる。そして、表示画面46上において、複数の線分により1の領域を囲むことにより、この1の領域を抽出領域として設定することができる。   The user selects desired shape data (extracted shape element) from the shape data 62, and sets a parameter value for setting a specific boundary position in the selected extracted shape element. An extraction area can be set. For example, when “straight line” is selected from the shape data 62, by specifying the coordinates of two points on the display screen 46 as parameters for defining the shape of the straight line, a straight line (line) connecting the two points is selected. Minutes) can be set. Then, by enclosing one area with a plurality of line segments on the display screen 46, this one area can be set as an extraction area.

この形状データ62の情報は、表示画面46の左端側にアイコン47として表示されている。このアイコン47には、縦方向に、「直線」を示すアイコンと、「曲線」を示すアイコンと、「矩形」を示すアイコンと、「円」を示すアイコンと、「多角形」を示すアイコンと、「楕円」を示すアイコンと、が並べて配置されている。
ユーザは、この表示画面46に表示されたアイコン47の中から、所望の図形のアイコンにマウスカーソルをあわせてクリック(例えば、左ボタン42Lを押下)することにより、形状データを選択することができる。
Information of the shape data 62 is displayed as an icon 47 on the left end side of the display screen 46. The icon 47 includes an icon indicating “straight line”, an icon indicating “curve”, an icon indicating “rectangle”, an icon indicating “circle”, and an icon indicating “polygon” in the vertical direction. , And an icon indicating “ellipse” are arranged side by side.
The user can select shape data by placing the mouse cursor on the icon of a desired graphic and clicking (for example, pressing the left button 42L) from the icons 47 displayed on the display screen 46. .

また、抽出領域設定部70には、図形選択処理部71と、クリック点座標取得部72と、抽出領域描画部73とを有している。図形選択処理部71は、記憶部60に登録された形状データ62から、ユーザがアイコン47により所望の形状データを選択することを可能にするための処理部である。この図形選択処理部71は、データ出力部57を介して表示画面46上に形状データのアイコン47を表示させるとともに、このアイコン47の中からユーザが選択(マウス42でクリック)したアイコンの種類を検出する。   The extraction area setting unit 70 includes a graphic selection processing unit 71, a click point coordinate acquisition unit 72, and an extraction region drawing unit 73. The graphic selection processing unit 71 is a processing unit that allows the user to select desired shape data from the shape data 62 registered in the storage unit 60 using the icon 47. The graphic selection processing unit 71 displays a shape data icon 47 on the display screen 46 via the data output unit 57, and the type of icon selected by the user (clicked with the mouse 42) from the icon 47. To detect.

また、クリック点座標取得部72は、表示画面46上でマウスボタンのクリックにより指定された座標点を取得するための処理部である。例えば、クリック点座標取得部72は、ユーザが形状データとして「直線」を選択した場合に、ユーザにより指定される最初のクリック点を直線(より正確には線分)の一端の座標として取得し、次のクリック点を直線の他端の座標として取得する。
抽出領域描画部73は、ユーザが選択した形状データの情報と、クリック点座標取得部72により指定された座標点の情報とを基に、表示画面46上で抽出領域を描画するための処理部である。
The click point coordinate acquisition unit 72 is a processing unit for acquiring a coordinate point designated by clicking a mouse button on the display screen 46. For example, when the user selects “straight line” as the shape data, the click point coordinate acquisition unit 72 acquires the first click point specified by the user as the coordinates of one end of the straight line (more precisely, a line segment). Then, the next click point is acquired as the coordinates of the other end of the straight line.
The extraction region drawing unit 73 is a processing unit for drawing the extraction region on the display screen 46 based on the shape data information selected by the user and the coordinate point information specified by the click point coordinate acquisition unit 72. It is.

そして、例えば、表示画面46に示すように、撮像部22により撮像された光切断線PCLの撮像画像L1が、その測定ポイントに応じた態様で表示されているものとする。なお、この表示画面46の撮像画像の例では、光プローブ20A(図3参照)による1回のスキャン時の、光切断線PCLの撮像画像L1を模式的に示したものである。   For example, as shown in the display screen 46, the captured image L1 of the light section line PCL captured by the imaging unit 22 is displayed in a manner corresponding to the measurement point. In the example of the captured image on the display screen 46, the captured image L1 of the light section line PCL at the time of one scan by the optical probe 20A (see FIG. 3) is schematically shown.

この図に示す画像データでは、撮像画像L1と、撮像画像L1に多重反射(歯面により発生する多重反射)等によるノイズN1の像が隣接して撮影されている。
従って、形状測定装置100では、抽出領域設定部70により、撮像画像L1においてノイズN1が含まれない抽出領域を設定し、この抽出領域内の撮像画像を基に3次元形状測定を行う点群データを生成する必要がある。
In the image data shown in this figure, a captured image L1 and an image of noise N1 due to multiple reflection (multiple reflection generated by a tooth surface) or the like are captured adjacent to the captured image L1.
Therefore, in the shape measuring apparatus 100, the extraction region setting unit 70 sets an extraction region that does not include the noise N1 in the captured image L1, and point group data that performs three-dimensional shape measurement based on the captured image in the extraction region. Must be generated.

このため、ユーザは、点群データを生成する抽出領域を、多角形により設定する。この場合、ユーザは、最初に、マウスカーソルをアイコン47の中の「直線」のアイコンの位置に合わせて、マウス42の左ボタン42Lをクリックする。これにより、図形選択処理部71により、記憶部60の形状データ62から「直線」が選択され、「直線」による多角形の描画処理が開始される。   For this reason, the user sets an extraction region for generating point cloud data with a polygon. In this case, the user first sets the mouse cursor to the position of the “straight line” icon in the icon 47 and clicks the left button 42 </ b> L of the mouse 42. As a result, the graphic selection processing unit 71 selects “straight line” from the shape data 62 of the storage unit 60 and starts drawing processing of the polygon by “straight line”.

続いて、ユーザは、表示画面46上で、マウスカーソルの移動とクリックとを繰り返すことにより、「点A1→点A2→点A3→点A4→点A5→点A6→点A7」の順に各点A1〜A7の座標を指定する。
例えば、ユーザが、点A1の位置にマウスカーソルを移動させて左ボタン42Lをクリックした後に、マウスカーソルを点A2の位置に移動させ、この点A2の位置で再度左ボタン42Lをクリックする。この場合、クリック点座標取得部72が、点A1と点A2の座標を取得することに応じて、抽出領域描画部73は、点A1と点A2とを結ぶ直線B1を描画する。
Subsequently, the user repeatedly moves and clicks the mouse cursor on the display screen 46 to thereby change the points in the order of “Point A1 → Point A2 → Point A3 → Point A4 → Point A5 → Point A6 → Point A7”. Specify the coordinates of A1 to A7.
For example, after the user moves the mouse cursor to the position of the point A1 and clicks the left button 42L, the user moves the mouse cursor to the position of the point A2, and clicks the left button 42L again at the position of the point A2. In this case, when the click point coordinate acquisition unit 72 acquires the coordinates of the points A1 and A2, the extraction region drawing unit 73 draws a straight line B1 connecting the points A1 and A2.

以降、ユーザが、マウスカーソルを点A3〜点A7の位置に移動させて左ボタン42Lをクリックするごとに、クリック点座標取得部72が、点A3〜点A7の座標位置を取得するとともに、抽出領域描画部73が、直線B2〜B6を順番に描画する。
なお、点A7を、直線B1とB6とが交差するように設定することにより、抽出領域設定部70は、点A1〜A6を頂点とする多角形(この例では、6角形)を抽出領域として設定する。また、直線B1とB6とが交差しないように点A7が設定された場合は、後に、点A1〜点A7を頂点とする多角形(7角形)が設定される。
Thereafter, each time the user moves the mouse cursor to the position of points A3 to A7 and clicks the left button 42L, the click point coordinate acquisition unit 72 acquires and extracts the coordinate positions of the points A3 to A7. The area drawing unit 73 draws the straight lines B2 to B6 in order.
In addition, by setting the point A7 so that the straight lines B1 and B6 intersect, the extraction region setting unit 70 uses a polygon (in this example, a hexagon) having the points A1 to A6 as vertices as the extraction region. Set. Further, when the point A7 is set so that the straight lines B1 and B6 do not intersect with each other, a polygon (hexagon) having the points A1 to A7 as vertices is set later.

このように、ユーザが、表示画面46上でマウス42により点A1〜A7を設定することにより、クリック点座標取得部72は、各点A1〜A7の座標の情報を取得して、記憶部60に記憶する。また、抽出領域描画部73は、表示画面46上に、直線(線分)B1、B2、B3、B4、B5、B6を表示する。そして、ユーザが最後に、例えば、「Enter」キーを押下するか、また、例えば、マウス42の右ボタン42Rをクリックすることにより、点A1〜点A6(または点A7)を頂点する多角形が抽出領域として設定される。   As described above, when the user sets the points A1 to A7 with the mouse 42 on the display screen 46, the click point coordinate acquisition unit 72 acquires information on the coordinates of the points A1 to A7, and the storage unit 60 To remember. In addition, the extraction area drawing unit 73 displays straight lines (line segments) B1, B2, B3, B4, B5, and B6 on the display screen 46. Then, when the user finally presses the “Enter” key, for example, or when the user clicks the right button 42R of the mouse 42, for example, a polygon that vertexes the points A1 to A6 (or the point A7) is formed. Set as an extraction area.

このように、本実施形態の形状測定装置100は、直線を用いて、任意の形状の多角形を描画することにより抽出領域を設定することができる。このため、複雑な形状の測定対象3や、スキャンの際に投影画像の形が変わるような測定対象3においても、異常点(ノイズを含む点)を除いた領域で点群データを取得することができる。   Thus, the shape measuring apparatus 100 of this embodiment can set an extraction region by drawing a polygon having an arbitrary shape using a straight line. For this reason, even in the measurement object 3 having a complex shape or the measurement object 3 whose shape of the projected image changes during scanning, point cloud data is acquired in a region excluding abnormal points (points including noise). Can do.

なお、図6に示す例では、多角形により囲まれる領域を設定して、点群データを生成する抽出領域を設定する例について説明したが、逆に、多角形により囲まれる領域の画像データでもって、点群データを生成しない非抽出領域として設定することも可能である(図7〜図13に示す例においても同様)。   In the example illustrated in FIG. 6, the example in which the region surrounded by the polygon is set and the extraction region for generating the point cloud data is set has been described. Conversely, the image data of the region surrounded by the polygon is used. Therefore, it is also possible to set as a non-extraction area where no point cloud data is generated (the same applies to the examples shown in FIGS. 7 to 13).

(記憶部が記憶している多角形の形状データを用いて抽出領域を設定する例)
図6に示す例では、形状データのアイコン47から「直線」のアイコンを選択し、この直線により任意形状の多角形をマウス42により描画することにより、抽出領域を設定する例について説明したが、抽出領域の設定方法はこれに限定されない。本実施形態の形状測定装置100では、記憶部60が記憶している複数の形状候補から、所望の形状データを選択し、この選択した形状データにより抽出領域の形状を設定することもできる。
(Example of setting the extraction area using polygonal shape data stored in the storage unit)
In the example illustrated in FIG. 6, the example in which the extraction region is set by selecting the “straight line” icon from the shape data icon 47 and drawing a polygon of an arbitrary shape with the straight line using the mouse 42 has been described. The method of setting the extraction area is not limited to this. In the shape measuring apparatus 100 according to the present embodiment, desired shape data can be selected from a plurality of shape candidates stored in the storage unit 60, and the shape of the extraction region can be set based on the selected shape data.

例えば、図7は、形状データ62から「多角形」を選択して抽出領域を設定する例を示す図である。この場合に、記憶部60には、「多角形」の形状データと、この「多角形」の形状データに関連付けされて、多角形の形状を規定するパラメータの種類、例えば、角数、寸法、回転角(底辺角度;水平方向からの傾き角度)などのパラメータの種類を示す情報が記憶されている。   For example, FIG. 7 is a diagram illustrating an example in which “polygon” is selected from the shape data 62 and an extraction region is set. In this case, the storage unit 60 stores the “polygon” shape data and the types of parameters associated with the “polygon” shape data to define the shape of the polygon, for example, the number of corners, dimensions, Information indicating the type of parameter such as a rotation angle (base angle; tilt angle from the horizontal direction) is stored.

そして、ユーザは、最初に、表示画面46上の形状データのアイコン47から「多角形」のアイコンを選択する。例えば、マウス42の移動によりマウスカーソルをアイコン47内の「多角形」のアイコンの位置に合わせ、マウス42の左ボタン42Lをクリックする。これにより、図形選択処理部71は、記憶部60の形状データ62から「多角形」を選択する。このようにして、「多角形」による描画処理が開始される。   The user first selects the “polygon” icon from the shape data icon 47 on the display screen 46. For example, the mouse cursor is moved to the position of the “polygon” icon in the icon 47 by moving the mouse 42, and the left button 42 </ b> L of the mouse 42 is clicked. Thereby, the graphic selection processing unit 71 selects “polygon” from the shape data 62 of the storage unit 60. In this way, the drawing process using the “polygon” is started.

この形状データ「多角形」が選択されると、表示画面46の最上部に、パラメータ設定ウィンドウ48がポップアップ表示される。ユーザは、このパラメータ設定ウィンドウ48に、角数、寸法、回転角(底辺角度;水平方向からの傾き角度)を入力する。この例では、角数に5を入力し、寸法に30(例えば、外接円の半径30mmに相当)を入力し、回転角(底辺角度)に10を入力する。
次に、ユーザは、表示画面46上で、マウス42によりマウスカーソルを点A1の位置に移動し、このA1点において左ボタン42Lをクリックすることにより、A1点を中心とする5角形POLが抽出領域として設定される。
When this shape data “polygon” is selected, a parameter setting window 48 pops up at the top of the display screen 46. The user inputs the number of angles, dimensions, and rotation angle (base angle; tilt angle from the horizontal direction) in the parameter setting window 48. In this example, 5 is input as the number of corners, 30 (for example, corresponding to a radius of a circumscribed circle of 30 mm) is input as the size, and 10 is input as the rotation angle (base angle).
Next, the user moves the mouse cursor to the position of the point A1 with the mouse 42 on the display screen 46, and clicks the left button 42L at this A1 point, thereby extracting a pentagon POL centered on the A1 point. Set as an area.

このように、本実施形態に形状測定装置100は、記憶部60が記憶している複数の形状候補から多角形の形状を選択して抽出領域を設定することができる。このため、複雑な形状の測定対象3や、スキャンの際に投影画像の形が変わるような測定対象3においても、異常点を除いた抽出領域を正しく設定して点群データを取得することができる。   As described above, the shape measuring apparatus 100 according to the present embodiment can set the extraction region by selecting a polygonal shape from a plurality of shape candidates stored in the storage unit 60. For this reason, even in the measurement object 3 having a complicated shape or the measurement object 3 in which the shape of the projected image changes during scanning, it is possible to acquire point cloud data by correctly setting the extraction region excluding abnormal points. it can.

(抽出領域を円により設定する例)
次に、形状データ62から「円」を選択して抽出領域を設定する例について説明する。
図8は、形状データ62から「円」を選択して抽出領域を設定する例を示す図である。
この場合に、記憶部60には、「円」の形状データと、この「円」の形状データに関連付けされて、円の形状を規定するパラメータの種類、例えば、中心座標、半径などのパラメータの種類を示す情報が記憶されている。
(Example of setting the extraction area with a circle)
Next, an example in which “circle” is selected from the shape data 62 and an extraction region is set will be described.
FIG. 8 is a diagram illustrating an example in which “circle” is selected from the shape data 62 and an extraction region is set.
In this case, the storage unit 60 stores the shape data of “circle” and the types of parameters that define the shape of the circle in association with the shape data of the “circle”, for example, parameters such as center coordinates and radius. Information indicating the type is stored.

そして、ユーザは、最初に、表示画面46上の形状データのアイコン47から「円」を選択する。すなわち、マウス42の移動によりマウスカーソルを「円」のアイコンの位置に合わせ、マウス42の左ボタン42Lをクリックする。これにより、図形選択処理部71は、記憶部60の形状データ62から形状データ「円」を選択する。このようにして、「円」による描画処理が開始される。   The user first selects “circle” from the shape data icon 47 on the display screen 46. That is, the mouse cursor is moved to the position of the “circle” icon by moving the mouse 42, and the left button 42L of the mouse 42 is clicked. As a result, the graphic selection processing unit 71 selects the shape data “circle” from the shape data 62 of the storage unit 60. In this way, the drawing process using “circle” is started.

この形状データ「円」が選択されると、表示画面46の上部に、パラメータ設定ウィンドウ49がポップアップ表示される。ユーザは、このパラメータ設定ウィンドウ49に、半径入力する。この例では、半径に30(例えば、30mmに相当)を入力する。
次に、ユーザは、表示画面46上で、マウス42によりマウスカーソルを点A1の位置に移動し、この点A1において左ボタン42Lをクリックすることにより、点A1を中心とする円CIRが描画されるとともに、この円CIRが点群データを生成する抽出領域として設定される。
このように、本実施形態に形状測定装置100は、記憶部60が記憶している複数の形状候補から円の形状データを選択して抽出領域を設定することができる。
When the shape data “circle” is selected, a parameter setting window 49 is popped up on the upper portion of the display screen 46. The user inputs a radius in the parameter setting window 49. In this example, 30 (for example, equivalent to 30 mm) is input as the radius.
Next, on the display screen 46, the user moves the mouse cursor to the position of the point A1 with the mouse 42 and clicks the left button 42L at this point A1, thereby drawing a circle CIR centered on the point A1. In addition, this circle CIR is set as an extraction region for generating point cloud data.
As described above, the shape measuring apparatus 100 according to the present embodiment can select the circle shape data from the plurality of shape candidates stored in the storage unit 60 and set the extraction region.

なお、この「円」を抽出領域として設定する場合には、パラメータ設定ウィンドウ49を用いることなく、図9に示すように、マウスカーソルを点A1の位置に移動して円の中心点を定めた後に、マウスカーソルを点A2まで移動してクリックすることにより半径Rを定めて円CIRを描画するようにしてもよい。   When this “circle” is set as the extraction region, the center point of the circle is determined by moving the mouse cursor to the position of the point A1, as shown in FIG. 9, without using the parameter setting window 49. Later, the circle R may be drawn with the radius R determined by moving the mouse cursor to point A2 and clicking.

(抽出領域を楕円により設定する例)
次に、形状データ62から「楕円」を選択して抽出領域を設定する例について説明する。図10は、形状データ62から「楕円」を選択して抽出領域を設定する例を示す図である。
この場合、記憶部60には、「楕円」の形状データと、この「楕円」の形状データに関連付けされて、楕円の形状を規定するパラメータの種類、例えば、長軸または短軸の長さと位置、傾き角、楕円上の1点の座標などのパラメータの種類を示す情報が記憶されている。
(Example of setting the extraction area by an ellipse)
Next, an example in which “ellipse” is selected from the shape data 62 and the extraction area is set will be described. FIG. 10 is a diagram showing an example in which “ellipse” is selected from the shape data 62 and the extraction region is set.
In this case, the storage unit 60 stores the shape data of the “ellipse” and the types of parameters associated with the shape data of the “ellipse” to define the shape of the ellipse, for example, the length and position of the major axis or minor axis. Information indicating the type of parameter, such as the angle of inclination, the coordinates of one point on the ellipse, is stored.

そして、ユーザは、最初に、表示画面46において、マウス42の移動によりマウスカーソルをアイコン47中の「楕円」のアイコンの位置に合わせて、マウス42の左ボタン42Lをクリックする。これにより、図形選択処理部71は、記憶部60の形状データ62から形状データ「楕円」を選択する。このようにして、「楕円」による描画処理が開始される。この「楕円」による描画処理は、3点指示により行われる。   Then, on the display screen 46, the user first moves the mouse 42 to align the mouse cursor with the position of the “ellipse” icon 47 in the icon 47 and clicks the left button 42 </ b> L of the mouse 42. As a result, the graphic selection processing unit 71 selects the shape data “ellipse” from the shape data 62 of the storage unit 60. In this way, the drawing process by “ellipse” is started. The drawing process using this “ellipse” is performed by a three-point instruction.

次に、ユーザは、表示画面46上でマウスカーソルの移動とクリックにより、長軸または短軸の長さと、位置と、傾き角度とを、点A1と点A2により選択する。続いて、ユーザは、楕円上の一点A3を選択する。これにより、点A1と点A2と点A3とを含む楕円ELが抽出領域として設定される。
なお、形状測定装置100は、楕円を抽出領域として設定する場合に、中心点の位置をマウスカーソルにより設定し、長軸及び短軸の長さと、傾きとを、パラメータにより設定するようにしてもよい。
Next, the user selects the major axis or minor axis length, position, and tilt angle from points A1 and A2 by moving and clicking the mouse cursor on the display screen 46. Subsequently, the user selects one point A3 on the ellipse. Thereby, an ellipse EL including the points A1, A2, and A3 is set as the extraction region.
Note that when the ellipse is set as the extraction region, the shape measuring apparatus 100 sets the position of the center point with the mouse cursor, and sets the lengths and inclinations of the major and minor axes with parameters. Good.

このように、本実施形態に形状測定装置100は、任意の形状の楕円ELで抽出領域を設定することができる。このため、複雑な形状の測定対象3においても、異常点を除いた抽出領域を設定して点群データを取得することができる。   As described above, the shape measuring apparatus 100 according to the present embodiment can set the extraction region with an ellipse EL having an arbitrary shape. For this reason, even in the measurement object 3 having a complicated shape, it is possible to set the extraction area excluding the abnormal points and acquire the point cloud data.

(抽出領域を曲線により設定する例)
図11は、曲線により抽出領域を設定する例を示している。
形状測定装置100のユーザは、表示画面46に表示された形状データのアイコン47の中から、「曲線」のアイコンをマウス42により選択する。
(Example of setting the extraction area with a curve)
FIG. 11 shows an example in which the extraction region is set by a curve.
The user of the shape measuring apparatus 100 selects the “curve” icon from the shape data icons 47 displayed on the display screen 46 with the mouse 42.

そして、ユーザは、表示画面46上でマウスカーソルの移動とクリックとを繰り返して行うことにより、「点A1→点A2→点A3→点A4→点A5→点A6→点A7」の順に各点A1〜A7の座標を指定する。例えば、ユーザが、点A1の位置にマウスカーソルを移動させて左ボタン42Lをクリックした後に、マウスカーソルを点A2の位置に移動させ、この点A2の位置で再度左ボタン42Lをクリックすると、クリック点座標取得部72は、点A1と点A2の座標を取得するととともに、抽出領域描画部73は、A1と点A2とを結ぶ直線B1を描画する。

以降、ユーザが、マウスカーソルを点A3〜点A7の位置に移動させて左ボタン42Lをクリックするごとに、クリック点座標取得部72は、点A3〜点A7の座標位置を取得するとともに、直線B2〜B6を順番に描画する。
Then, the user repeatedly moves and clicks the mouse cursor on the display screen 46 so that each point is in the order of “point A1 → point A2 → point A3 → point A4 → point A5 → point A6 → point A7”. Specify the coordinates of A1 to A7. For example, if the user moves the mouse cursor to the position of the point A1 and clicks the left button 42L, then moves the mouse cursor to the position of the point A2, and clicks the left button 42L again at the position of the point A2, the click The point coordinate acquisition unit 72 acquires the coordinates of the points A1 and A2, and the extraction region drawing unit 73 draws a straight line B1 connecting A1 and the point A2.

Thereafter, every time the user moves the mouse cursor to the position of points A3 to A7 and clicks the left button 42L, the click point coordinate acquisition unit 72 acquires the coordinate positions of the points A3 to A7, and B2 to B6 are drawn in order.

これにより、クリック点座標取得部72は、各点A1〜A7の座標の情報を取得して、記憶部60に記憶するとともに、表示画面46上に、線分B1、B2、B3、B4、B5、B6が表示される。そして、ユーザが最後に、例えば、「Enter」キーを押下するか、または、右ボタン42Rをクリックすることにより、線分B1、B2、B3、B4、B5、B6、B7(点A7とA1とを結ぶ直線)が確定するとともに、点A1〜点A7を含む滑らかなスプライン曲線SPLが抽出領域として設定される。
このように、本実施形態に形状測定装置100は、曲線により任意の形状の抽出領域を設定することができる。このため、複雑な形状の測定対象3などにおいても、異常点を除いた抽出領域を設定して点群データを取得することができる。
As a result, the click point coordinate acquisition unit 72 acquires information on the coordinates of the points A1 to A7, stores the information in the storage unit 60, and displays the line segments B1, B2, B3, B4, B5 on the display screen 46. , B6 is displayed. Finally, for example, when the user presses the “Enter” key or clicks the right button 42R, the line segments B1, B2, B3, B4, B5, B6, B7 (points A7 and A1 and And a smooth spline curve SPL including the points A1 to A7 is set as the extraction region.
As described above, the shape measuring apparatus 100 according to the present embodiment can set an extraction region having an arbitrary shape using a curve. For this reason, even in the measurement object 3 having a complicated shape, the point group data can be acquired by setting the extraction region excluding the abnormal point.

以上、抽出領域の設定方法について、種々の例を示して説明したが、本発明の形状測定装置100における抽出領域の設定方法は、図6から図11の図示例に限定されるものではない。例えば、上述した方法により表示画面46上に描かれた2つの図形に挟まれる領域を抽出領域として設定することもできる。例えば、図12(A)に示すように、表示画面46上に点A1を中心とする円CIR1と、点A2を中心とする円CIR2とを描画し、この2つの円CIR1とCIR2とで挟まれる領域ERA1を抽出領域として設定することができる。
また、図12(B)に示すように、描画した図面の内側の領域ではなく、外側の領域ERA2を抽出領域として設定することもできる。換言すれば、図12(B)において、円CIR1により、点群データを生成しない非抽出領域を設定することも可能である。
Although the extraction region setting method has been described with various examples, the extraction region setting method in the shape measuring apparatus 100 of the present invention is not limited to the illustrated examples of FIGS. For example, an area sandwiched between two graphics drawn on the display screen 46 by the method described above can be set as the extraction area. For example, as shown in FIG. 12A, a circle CIR1 centered on the point A1 and a circle CIR2 centered on the point A2 are drawn on the display screen 46, and sandwiched between the two circles CIR1 and CIR2. The area ERA1 to be recorded can be set as the extraction area.
Further, as shown in FIG. 12B, not the area inside the drawn drawing but the area ERA2 outside can be set as the extraction area. In other words, in FIG. 12B, it is also possible to set a non-extraction region that does not generate point cloud data by the circle CIR1.

また、図13(A)に示すように、形状測定装置100は、表示画面46上に2つの抽出領域を設定することもできる。この図13(A)に示す例は、図11で説明したスプライン曲線SPLで囲まれた抽出領域と、図8で説明した円CIRで囲まれた抽出領域との2つの抽出領域を、点群データを生成する領域として設定する例である。
なお、本実施形態で、円、楕円、曲線等で囲まれた領域を設定することで、抽出領域を設定する際、画像データ上で設定される抽出領域の境界は、非常に微細な線分をつなぎ合わせて、略円、略楕円、略曲線で近似して設定することができる。
Further, as shown in FIG. 13A, the shape measuring apparatus 100 can also set two extraction areas on the display screen 46. In the example shown in FIG. 13A, two extraction areas, that is, an extraction area surrounded by the spline curve SPL described in FIG. 11 and an extraction area surrounded by the circle CIR described in FIG. This is an example of setting as an area for generating data.
In this embodiment, by setting an area surrounded by a circle, an ellipse, a curve, etc., when setting the extraction area, the boundary of the extraction area set on the image data is a very fine line segment. Can be connected and approximated by a substantially circle, a substantially ellipse, or a substantially curved line.

また、図13(B)に示すように、測定対象3の被測定面の形状によっては、測定対象3をチルトし、このチルトされた測定対象3の撮像画像に対して抽出領域設(頂点A1〜A6を有する6角形)を設定することも可能である。具体的には、図2に示す支持テーブル32を、水平(X軸方向)に延びる回転軸φを中心として図2に示すB方向に回転させることにより、直接反射光が撮像部22のカメラに到達しないように測定対象を傾けて撮像する。
このように、測定対象3を傾けて、形状測定を行うことにより、直接反射光等が撮像部22に到達しないようにして撮像することができる。
Further, as shown in FIG. 13B, depending on the shape of the surface to be measured of the measuring object 3, the measuring object 3 is tilted, and an extraction region (vertex A1) is set for the captured image of the tilted measuring object 3. It is also possible to set a hexagon having .about.A6. Specifically, the reflected light is directly reflected on the camera of the imaging unit 22 by rotating the support table 32 shown in FIG. 2 in the B direction shown in FIG. 2 about the rotation axis φ extending horizontally (X-axis direction). Tilt the measurement object so that it does not reach.
In this way, by measuring the shape by tilting the measurement object 3, it is possible to capture an image so that directly reflected light or the like does not reach the imaging unit 22.

[第2実施形態]
上述した第1実施形態では、抽出領域の設定を記憶部60に記憶された形状データ62を用いて設定するようにしていた。これに対して、第2実施形態では、測定対象3のCADデータ(設計情報)に基づいて抽出領域の形状を設定する例について説明する。
[Second Embodiment]
In the first embodiment described above, the extraction area is set using the shape data 62 stored in the storage unit 60. On the other hand, 2nd Embodiment demonstrates the example which sets the shape of an extraction area | region based on CAD data (design information) of the measuring object 3. FIG.

図14は、本発明の第2実施形態に係る形状測定装置100Aの構成を示すブロック図である。この図14に示す形状測定装置100Aは、図3に示す第1実施形態の形状測定装置100の構成と比較して、図3に示す抽出領域設定部70を、図14に示す抽出領域設定部70Aに置き換えた点が異なる。他の構成は、図3に示す形状測定装置100と同様である。このため、同一の構成部分には同一の符号を付し、重複する説明は省略する。   FIG. 14 is a block diagram showing a configuration of a shape measuring apparatus 100A according to the second embodiment of the present invention. Compared with the configuration of the shape measuring apparatus 100 of the first embodiment shown in FIG. 3, the shape measuring apparatus 100 </ b> A shown in FIG. 14 is different from the extraction area setting unit 70 shown in FIG. The difference is that it is replaced with 70A. Other configurations are the same as those of the shape measuring apparatus 100 shown in FIG. For this reason, the same code | symbol is attached | subjected to the same component and the overlapping description is abbreviate | omitted.

また、図15は、抽出領域設定部70Aの構成と動作を説明するための図である。
この図15に示すように、抽出領域設定部70Aには、抽出領域推定部74が設けられている。また、記憶部60に、測定対象3のCADデータ(設計情報)61が記憶されている。
FIG. 15 is a diagram for explaining the configuration and operation of the extraction region setting unit 70A.
As shown in FIG. 15, the extraction region setting unit 70A is provided with an extraction region estimation unit 74. Further, CAD data (design information) 61 of the measurement object 3 is stored in the storage unit 60.

抽出領域推定部74は、記憶部60が記憶するCADデータ61を利用して、鏡面による多重反射光像(ノイズN1)の発生位置を推定する。この場合に、抽出領域推定部74は、光切断線PCLの照射方向、撮像方向、測定対象の面の方向を判定し、CADデータ61を基に、多重反射光像の発生位置を幾何学的に推定する。   The extraction area estimation unit 74 uses the CAD data 61 stored in the storage unit 60 to estimate the generation position of the multiple reflected light image (noise N1) by the mirror surface. In this case, the extraction region estimation unit 74 determines the irradiation direction of the optical cutting line PCL, the imaging direction, and the direction of the surface to be measured, and geometrically determines the generation position of the multiple reflected light image based on the CAD data 61. To estimate.

具体的には、抽出領域推定部74は、図16(A)に示すように、CADデータCL(一点鎖線で示される図形CL)を基に、多重反射光像(ノイズN1)の発生位置を推定する。そして、抽出領域推定部74は、図16(B)に示すように、多重反射光像(ノイズN1)を除外するようにして、点A1、A2、A3、A4、A5、A6を頂点とする多角形で囲まれる領域ERA1を抽出領域として推定(設定)する。なお、抽出領域推定部74により推定された抽出領域ERA1は、表示画面46上に撮像画像L1とともに表示することができる。   Specifically, as illustrated in FIG. 16A, the extraction region estimation unit 74 determines the generation position of the multiple reflected light image (noise N1) based on the CAD data CL (the graphic CL indicated by the alternate long and short dash line). presume. Then, as shown in FIG. 16B, the extraction area estimation unit 74 excludes the multiple reflected light image (noise N1) and uses the points A1, A2, A3, A4, A5, and A6 as vertices. An area ERA1 surrounded by a polygon is estimated (set) as an extraction area. The extraction area ERA1 estimated by the extraction area estimation unit 74 can be displayed on the display screen 46 together with the captured image L1.

このように、第2実施形態の形状測定装置100Aでは、CADデータ61に基づいて抽出すべき領域を推定し、推定した領域を抽出領域として自動的に設定することができる。なお、第2実施形態の形状測定装置100Aは、CADデータ61に基づいて抽出すべき領域を自動で設定できる機能に加えて、第1実施形態と同様に、ユーザが、記憶部60に保持された形状データ62を用いて抽出領域を設定できるようにしてもよい。   As described above, the shape measuring apparatus 100A according to the second embodiment can estimate a region to be extracted based on the CAD data 61, and can automatically set the estimated region as an extraction region. In addition to the function of automatically setting the area to be extracted based on the CAD data 61, the shape measuring apparatus 100A of the second embodiment is held in the storage unit 60 as in the first embodiment. Alternatively, the extraction area may be set using the shape data 62.

[第3実施形態]
次に、第3実施形態として、測定対象3に対して、仮測定により点群データを生成し、この仮測定結果に基づいて抽出領域を設定する例について説明する。図17は、第3実施形態に係る形状測定装置100Bの構成を示すブロック図である。
この図17に示す形状測定装置100Bは、図3に示す第1実施形態の形状測定装置100の構成と比較して、図3に示す抽出領域設定部70を、図17に示す抽出領域設定部70Bに置き換えた点が異なる。他の構成は、図3に示す形状測定装置100と同様である。このため、同一の構成部分には同一の符号を付し、重複する説明は省略する。
[Third Embodiment]
Next, as a third embodiment, an example in which point group data is generated by temporary measurement for the measurement object 3 and an extraction region is set based on the temporary measurement result will be described. FIG. 17 is a block diagram illustrating a configuration of a shape measuring apparatus 100B according to the third embodiment.
17 is different from the configuration of the shape measuring apparatus 100 of the first embodiment shown in FIG. 3 in that the extraction region setting unit 70 shown in FIG. The difference is that it is replaced with 70B. Other configurations are the same as those of the shape measuring apparatus 100 shown in FIG. For this reason, the same code | symbol is attached | subjected to the same component and the overlapping description is abbreviate | omitted.

また、図18は、抽出領域設定部70Bの構成と動作を説明するための図である。
この図18に示す抽出領域設定部70Bは、仮測定実行部75を有している。また、記憶部60には、抽出領域設定部70Bにより抽出された抽出領域を示す情報である抽出領域情報63が保存される。
FIG. 18 is a diagram for explaining the configuration and operation of the extraction region setting unit 70B.
The extraction region setting unit 70B illustrated in FIG. 18 includes a temporary measurement execution unit 75. Further, the storage unit 60 stores extraction region information 63 that is information indicating the extraction region extracted by the extraction region setting unit 70B.

仮測定実行部75は、表示画面46上において、測定対象3に対して仮測定を実行する。この仮測定において、仮測定実行部75は、通常の計測の場合と同様にして、点群データ生成部56Aにより、撮像部22が生成した撮像画像に基づいて、測定対象3の3次元形状を示す点群データを生成する。この場合に、仮測定実行部75は、撮像画像に対して抽出領域設定部70Bにより抽出領域を設定することなく、撮像画像の全体から点群データを生成する。そして、抽出領域設定部70Bは、仮測定実行部75における仮測定結果に基づいて抽出領域を設定する。また、抽出領域設定部70Bは、設定した抽出領域を記憶部60に記憶する。   The temporary measurement execution unit 75 performs temporary measurement on the measurement target 3 on the display screen 46. In this temporary measurement, the temporary measurement execution unit 75 determines the three-dimensional shape of the measurement target 3 based on the captured image generated by the imaging unit 22 by the point cloud data generation unit 56A in the same manner as in the case of normal measurement. The point cloud data shown is generated. In this case, the temporary measurement execution unit 75 generates point cloud data from the entire captured image without setting an extraction region for the captured image by the extraction region setting unit 70B. Then, the extraction region setting unit 70B sets the extraction region based on the temporary measurement result in the temporary measurement execution unit 75. The extraction region setting unit 70B stores the set extraction region in the storage unit 60.

具体的には、仮測定実行部75は、図19(A)に示す表示画面46上の撮像画像L1および多重反射光像(ノイズN1)に対して点群データを生成する。そして、抽出領域設定部70Bは、仮測定実行部75により生成された点群データを基に、多重反射光像(ノイズN1)が含まれる領域を判定する。例えば、抽出領域設定部70Bは、点群データが不連続になる部分など判定することにより多重反射光像(ノイズN1)を異常点として含まれる領域として判定する。   Specifically, the temporary measurement execution unit 75 generates point cloud data for the captured image L1 and the multiple reflected light image (noise N1) on the display screen 46 shown in FIG. Then, the extraction region setting unit 70B determines a region including the multiple reflected light image (noise N1) based on the point cloud data generated by the temporary measurement execution unit 75. For example, the extraction region setting unit 70B determines that the multiple reflected light image (noise N1) is included as an abnormal point by determining a portion where the point cloud data is discontinuous.

そして、抽出領域設定部70Bは、多重反射光像(ノイズN1)を含む領域を除外した正常な領域を抽出領域として設定し、この抽出領域の設定情報を、抽出領域情報63として記憶部60に記憶する。
例えば、抽出領域設定部70Bは、図19(B)に示すように、表示画面46において、正常な領域AUR1(A1〜A6を頂点とする多角形の領域)を抽出領域として設定し、この設定した抽出領域AUR1の情報を抽出領域情報63として記憶部60に記憶する。以降、抽出領域設定部70Bは、この記憶部60に記憶された抽出領域情報63を基に、入力される撮像画像に対して抽出領域を設定する。
Then, the extraction region setting unit 70B sets a normal region excluding the region including the multiple reflected light image (noise N1) as the extraction region, and sets the extraction region setting information as the extraction region information 63 in the storage unit 60. Remember.
For example, as shown in FIG. 19B, the extraction area setting unit 70B sets a normal area AUR1 (polygonal area having vertices A1 to A6) as an extraction area on the display screen 46, and this setting is performed. The information of the extracted area AUR1 is stored in the storage unit 60 as the extracted area information 63. Thereafter, the extraction region setting unit 70B sets the extraction region for the input captured image based on the extraction region information 63 stored in the storage unit 60.

このように、第3の実施形態では、測定対象(製品)の製造ライン等、同一形状かつ複数の測定対象を測定する場合に、いちど仮測定して抽出領域を記憶部60に記憶しておくことにより、その後は、複数の測定対象3について、自動的に抽出領域を設定することができる。なお、第2実施形態の形状測定装置100Bは、仮測定により抽出すべき領域を自動で設定する機能に加えて、第1実施形態と同様に、ユーザが、記憶部60に保持された形状データ62を用いて抽出領域を設定できるようにしてもよい。   As described above, in the third embodiment, when measuring a plurality of measurement objects having the same shape, such as a production line of a measurement object (product), temporary measurement is performed once and the extraction region is stored in the storage unit 60. Thus, thereafter, extraction regions can be automatically set for a plurality of measurement objects 3. In addition to the function of automatically setting the region to be extracted by provisional measurement, the shape measuring apparatus 100B of the second embodiment allows the user to store the shape data held in the storage unit 60 as in the first embodiment. 62 may be used to set the extraction region.

[第4実施形態]
次に、第4実施形態として、撮像部22が生成した撮像画像に基づいて、抽出領域を自動で設定する例について説明する。
図20は、第4実施形態に係る形状測定装置100Cの構成を示すブロック図である。この図20に示す形状測定装置100Cは、図3に示す第1実施形態の形状測定装置100の構成と比較して、図3に示す抽出領域設定部70を、図20に示す抽出領域設定部70Cに置き換えた点が異なる。他の構成は、図3に示す形状測定装置100と同様である。このため、同一の構成部分には同一の符号を付し、重複する説明は省略する。
[Fourth Embodiment]
Next, an example in which an extraction region is automatically set based on a captured image generated by the imaging unit 22 will be described as a fourth embodiment.
FIG. 20 is a block diagram showing a configuration of a shape measuring apparatus 100C according to the fourth embodiment. 20 is different from the configuration of the shape measuring apparatus 100 according to the first embodiment shown in FIG. 3 in that the extraction region setting unit 70 shown in FIG. The difference is that it is replaced with 70C. Other configurations are the same as those of the shape measuring apparatus 100 shown in FIG. For this reason, the same code | symbol is attached | subjected to the same component and the overlapping description is abbreviate | omitted.

また、図21は、抽出領域設定部70Cの構成と動作を説明するための図である。
この図21に示すように、抽出領域設定部70Cは、第2抽出領域設定部80を有している。この第2抽出領域設定部80は、撮像部22により計測された測定対象3の光切断線PCLの撮像画像を基に、多重反射光像(ノイズN1)等の異常点が含まれる領域を判定し、異常点を除外した正常な領域を、自動抽出領域として推定する。
FIG. 21 is a diagram for explaining the configuration and operation of the extraction region setting unit 70C.
As illustrated in FIG. 21, the extraction region setting unit 70 </ b> C includes a second extraction region setting unit 80. The second extraction region setting unit 80 determines a region including an abnormal point such as a multiple reflected light image (noise N1) based on the captured image of the optical cutting line PCL of the measurement target 3 measured by the imaging unit 22. Then, a normal area excluding abnormal points is estimated as an automatic extraction area.

具体的には、第2抽出領域設定部80は、図22(A)に示す表示画面46上の撮像画像L1および多重反射光像(ノイズN1)において、例えば、多重反射光像(ノイズN1)が不連続な画像(閉じた領域の画像)であると判定することにより、多重反射光像(ノイズN1)を異常点と判定する。
そして、第2抽出領域設定部80は、例えば、図22(B)に示すように、表示画面46において、多重反射光像(ノイズN1)を含まない領域(A1〜A6を頂点とする多角形の領域)を抽出領域として推定する。抽出領域設定部70Cは、第2抽出領域設定部80の推定結果を基に、抽出領域GER1を点群データを生成する抽出領域として設定する。
Specifically, the second extraction region setting unit 80 uses, for example, a multiple reflected light image (noise N1) in the captured image L1 and the multiple reflected light image (noise N1) on the display screen 46 shown in FIG. Is a discontinuous image (closed region image), the multiple reflected light image (noise N1) is determined as an abnormal point.
Then, the second extraction region setting unit 80, for example, as shown in FIG. 22B, in the display screen 46, a polygon that does not include the multiple reflected light image (noise N1) (A1 to A6 as a vertex) Are estimated as extraction regions. Based on the estimation result of the second extraction region setting unit 80, the extraction region setting unit 70C sets the extraction region GER1 as an extraction region for generating point cloud data.

このように、第4実施形態の形状測定装置100Cでは、測定対象3の撮像画像を基に、点群データを生成する抽出領域を自動で設定することができる。なお、第4実施形態の形状測定装置100Cは、撮像画像に基づいて抽出すべき領域を自動で設定する機能に加えて、第1実施形態と同様に、ユーザが、記憶部60に保持された形状データ62を用いて抽出領域を設定できるようにしてもよい。   As described above, in the shape measuring apparatus 100C according to the fourth embodiment, the extraction region for generating the point cloud data can be automatically set based on the captured image of the measurement target 3. In addition to the function of automatically setting the region to be extracted based on the captured image, the shape measuring apparatus 100C according to the fourth embodiment holds the user in the storage unit 60 as in the first embodiment. The extraction area may be set using the shape data 62.

[第5実施形態]
次に、本発明の第5実施形態として、上述した第1の実施形態の形状測定装置100、第2の実施形態の形状測定装置100A、第3実施形態の形状測定装置100B、および第4実施形態の形状測定装置100Cの、いずれかの形状測定装置を備えた構造物製造システムについて説明する。
[Fifth Embodiment]
Next, as a fifth embodiment of the present invention, the shape measuring apparatus 100 according to the first embodiment, the shape measuring apparatus 100A according to the second embodiment, the shape measuring apparatus 100B according to the third embodiment, and the fourth embodiment. A structure manufacturing system including any one of the shape measuring devices of the shape measuring device 100C will be described.

図23は、第5実施形態に係る構造物製造システム200の構成を示すブロック図である。構造物製造システム200は、例えば、上述した形状測定装置100と、設計装置110と、成形装置120と、制御装置(検査装置)150と、リペア装置140とを備える。   FIG. 23 is a block diagram illustrating a configuration of a structure manufacturing system 200 according to the fifth embodiment. The structure manufacturing system 200 includes, for example, the shape measuring apparatus 100, the design apparatus 110, the molding apparatus 120, the control apparatus (inspection apparatus) 150, and the repair apparatus 140 described above.

設計装置110は、構造物の形状に関する設計情報を作製し、作成した設計情報を成形装置120に送信する。また、設計装置110は、作成した設計情報を制御装置150の後述する座標記憶部151に記憶させる。ここで、設計情報とは、構造物の各位置の座標を示す情報である。   The design device 110 creates design information related to the shape of the structure, and transmits the created design information to the molding device 120. In addition, the design device 110 stores the created design information in a coordinate storage unit 151 described later of the control device 150. Here, the design information is information indicating the coordinates of each position of the structure.

成形装置120は、設計装置110から入力された設計情報に基づいて上記構造物を作製する。成形装置120の成形工程には、鋳造、鍛造、または切削等が含まれる。
形状測定装置100は、作製された構造物(測定対象3)の座標を測定し、測定した座標を示す情報(形状情報)を制御装置150へ送信する。
The molding apparatus 120 produces the structure based on the design information input from the design apparatus 110. The molding process of the molding apparatus 120 includes casting, forging, cutting, or the like.
The shape measuring apparatus 100 measures the coordinates of the manufactured structure (measurement target 3), and transmits information (shape information) indicating the measured coordinates to the control device 150.

制御装置150は、座標記憶部151と、検査部152とを備える。座標記憶部151には、前述の通り、設計装置110により設計情報が記憶される。検査部152は、座標記憶部151から設計情報を読み出す。検査部152は、形状測定装置100から受信した座標を示す情報(形状情報)と座標記憶部151から読み出した設計情報とを比較する。   The control device 150 includes a coordinate storage unit 151 and an inspection unit 152. As described above, design information is stored in the coordinate storage unit 151 by the design device 110. The inspection unit 152 reads design information from the coordinate storage unit 151. The inspection unit 152 compares information (shape information) indicating coordinates received from the shape measuring apparatus 100 with design information read from the coordinate storage unit 151.

検査部152は、比較結果に基づき、構造物が設計情報通りに成形されたか否かを判定する。換言すれば、検査部152は、作成された構造物が良品であるか否かを判定する。
検査部152は、構造物が設計情報通りに成形されていない場合、修復可能であるか否か判定する。修復できる場合、検査部152は、比較結果に基づき、不良部位と修復量を算出し、リペア装置140に不良部位を示す情報と修復量を示す情報とを送信する。
The inspection unit 152 determines whether or not the structure has been molded according to the design information based on the comparison result. In other words, the inspection unit 152 determines whether or not the created structure is a non-defective product.
If the structure is not molded according to the design information, the inspection unit 152 determines whether or not the structure can be repaired. If repair is possible, the inspection unit 152 calculates a defective part and a repair amount based on the comparison result, and transmits information indicating the defective part and information indicating the repair amount to the repair device 140.

リペア装置140は、制御装置150から受信した不良部位を示す情報と修復量を示す情報とに基づき、構造物の不良部位を加工する。   The repair device 140 processes the defective portion of the structure based on the information indicating the defective portion received from the control device 150 and the information indicating the repair amount.

図24は、構造物製造システム200による処理の流れを示したフローチャートである。   FIG. 24 is a flowchart showing the flow of processing by the structure manufacturing system 200.

まず、設計装置110が、構造物の形状に関する設計情報を作製する(ステップS101)。次に、成形装置120は、設計情報に基づいて上記構造物を作製する(ステップS102)。次に、形状測定装置100は、作製された上記構造物の形状を測定する(ステップS103)。次に、制御装置150の検査部152は、形状測定装置100で得られた形状情報と、上記設計情報とを比較することにより、構造物が設計情報通りに作成されたか否か検査する(ステップS104)。   First, the design apparatus 110 creates design information related to the shape of the structure (step S101). Next, the molding apparatus 120 produces the structure based on the design information (step S102). Next, the shape measuring apparatus 100 measures the shape of the manufactured structure (step S103). Next, the inspection unit 152 of the control device 150 checks whether or not the structure is created according to the design information by comparing the shape information obtained by the shape measuring device 100 with the design information (step). S104).

次に、制御装置150の検査部152は、作成された構造物が良品であるか否かを判定する(ステップS105)。作成された構造物が良品である場合(ステップS105;YES)、構造物製造システム200はその処理を終了する。一方、作成された構造物が良品でない場合(ステップS105;NO)、制御装置150の検査部152は、作成された構造物が修復できるか否か判定する(ステップS106)。   Next, the inspection unit 152 of the control device 150 determines whether or not the created structure is a non-defective product (step S105). If the created structure is a non-defective product (step S105; YES), the structure manufacturing system 200 ends the process. On the other hand, when the created structure is not a non-defective product (step S105; NO), the inspection unit 152 of the control device 150 determines whether the created structure can be repaired (step S106).

作成された構造物が修復できると検査部152が判断した場合(ステップS106;YES)、リペア装置140は、構造物の再加工を実施し(ステップS107)、ステップS103の処理に戻る。一方、作成された構造物が修復できないと検査部152が判断した場合(ステップS106;NO)、構造物製造システム200はその処理を終了する。以上で、本フローチャートの処理を終了する。   When the inspection unit 152 determines that the created structure can be repaired (step S106; YES), the repair device 140 performs reworking of the structure (step S107) and returns to the process of step S103. On the other hand, when the inspection unit 152 determines that the created structure cannot be repaired (step S106; NO), the structure manufacturing system 200 ends the process. Above, the process of this flowchart is complete | finished.

以上により、上記の実施形態における形状測定装置100が構造物の座標(3次元形状)を、撮像画像の異常点を容易に除外して測定することができるので、構造物製造システム200は、作成された構造物が良品であるか否かを正確に判定することができる。また、構造物製造システム200は、構造物が良品でない場合、構造物の再加工を実施し、修復することができる。   As described above, since the shape measuring apparatus 100 in the above embodiment can measure the coordinates (three-dimensional shape) of the structure by easily excluding the abnormal points of the captured image, the structure manufacturing system 200 is created. It is possible to accurately determine whether or not the formed structure is a non-defective product. In addition, the structure manufacturing system 200 can repair the structure by reworking the structure when the structure is not a good product.

以上、本発明の実施形態について説明したが、ここで、本発明と上述した実施形態との対応関係について補足して説明しておく。
すなわち、上記実施形態において、本発明における形状測定装置は、形状測定装置100、100A、100B、100Cのいずれかが対応する。また、本発明における投影部は、投影部21が対応し、本発明における撮像部は、撮像部22が対応する。また、本発明における抽出領域設定部は、抽出領域設定部70、70A、70B、70Cのいずれかが対応し、本発明における生成部は、座標算出部56(より正確には点群データ生成部56A)が対応する。
また、本発明における構造物製造システムは、構造物製造システム200が対応し、本発明における設計装置は、設計装置110が対応し、本発明における成形装置は、成形装置120が対応し、本発明における検査装置は、制御装置150が対応する。
The embodiment of the present invention has been described above. Here, the correspondence relationship between the present invention and the above-described embodiment will be supplementarily described.
That is, in the said embodiment, the shape measuring apparatus in this invention corresponds to either of the shape measuring apparatuses 100, 100A, 100B, and 100C. The projection unit in the present invention corresponds to the projection unit 21, and the imaging unit in the present invention corresponds to the imaging unit 22. The extraction region setting unit in the present invention corresponds to any one of the extraction region setting units 70, 70A, 70B, and 70C, and the generation unit in the present invention is a coordinate calculation unit 56 (more precisely, a point cloud data generation unit). 56A) corresponds.
Further, the structure manufacturing system according to the present invention corresponds to the structure manufacturing system 200, the design apparatus according to the present invention corresponds to the design apparatus 110, and the molding apparatus according to the present invention corresponds to the molding apparatus 120. The control device 150 corresponds to the inspection device in FIG.

以上説明したように、上記実施形態において、形状測定装置100は、測定対象3を撮像した撮像画像を生成する撮像部22と、撮像部22によって撮像される撮像画像が、測定対象3にパターン(光切断線PCL)が投影された画像として撮像されるように、撮像部22が撮像している方向と異なる方向から、パターンを測定対象3に投影する投影部21と、撮像部22が生成した撮像画像内の領域の中から、抽出領域を設定するための情報に基づいて、3またはそれ以上の線分によって設定可能な形状のいずれかにより抽出領域を設定する抽出領域設定部70と、撮像部22が生成した撮像画像内の抽出領域の撮像画像に基づいて、測定対象3の三次元形状を示す点群データを生成する生成部(点群データ生成部56A)とを備える。
このような構成の形状測定装置100であれば、抽出領域設定部70は、撮像部22が生成した撮像画像内の領域の中から、3またはそれ以上の線分によって設定可能な形状(例えば、多角形)により抽出領域を設定し、生成部(点群データ生成部56A)は、この抽出領域の撮像画像に基づいて、測定対象3の三次元形状を示す点群データを生成する。
これにより、形状測定装置100では、測定対象の3次元形状を示す点群データの抽出領域を任意の形状で指定することができる。このため、測定対象3が複雑な形状である場合や、スキャンの際に投影画像が形の変わるような場合においても、異常点を正しく省いて点群データを生成することができる。
As described above, in the above-described embodiment, the shape measuring apparatus 100 includes the imaging unit 22 that generates a captured image obtained by imaging the measurement target 3 and the captured image captured by the imaging unit 22 in the pattern ( The projection unit 21 that projects the pattern onto the measurement target 3 from a direction different from the direction in which the imaging unit 22 is imaging, and the imaging unit 22 are generated so that the optical cutting line PCL) is captured as a projected image. An extraction region setting unit 70 that sets an extraction region in any of shapes that can be set by three or more line segments based on information for setting the extraction region from among regions in the captured image; A generation unit (point group data generation unit 56A) that generates point cloud data indicating the three-dimensional shape of the measurement target 3 based on the captured image of the extraction region in the captured image generated by the unit 22 is provided.
With the shape measuring apparatus 100 having such a configuration, the extraction area setting unit 70 can set a shape that can be set by three or more line segments from among the areas in the captured image generated by the imaging unit 22 (for example, The extraction area is set by a polygon, and the generation unit (point cloud data generation unit 56A) generates point cloud data indicating the three-dimensional shape of the measurement target 3 based on the captured image of the extraction area.
Thereby, in the shape measuring apparatus 100, the extraction area | region of the point cloud data which shows the three-dimensional shape of a measuring object can be designated by arbitrary shapes. For this reason, even when the measurement target 3 has a complicated shape or when the shape of the projected image changes during scanning, the point cloud data can be generated by correctly omitting the abnormal points.

また、上記実施形態において、形状測定装置100は、抽出領域の輪郭を示す複数種類の形状データが記憶されている記憶部60を備え、抽出領域設定部70は、記憶部60に記憶されている複数の形状データのうちから、入力される抽出領域を設定するための情報に基づいて選択された形状データにより抽出領域を選択する。
このような構成の形状測定装置100であれば、記憶部60には、抽出領域の輪郭を示す複数種類の形状データ(例えば、多角形や、円などの形状データ)が記憶されており、ユーザは、所望の形状データを選択して、この選択した形状データを用いて、撮像画像内の領域から点群データを生成する抽出領域を設定する。
これにより、形状測定装置100では、記憶部60に記憶されている形状データのうちから、所望の形状データを選択して抽出領域を設定することができる。
In the above-described embodiment, the shape measuring apparatus 100 includes the storage unit 60 in which a plurality of types of shape data indicating the outline of the extraction region are stored, and the extraction region setting unit 70 is stored in the storage unit 60. From the plurality of shape data, the extraction region is selected based on the shape data selected based on the information for setting the input extraction region.
In the case of the shape measuring apparatus 100 having such a configuration, the storage unit 60 stores a plurality of types of shape data (for example, shape data such as polygons and circles) indicating the outline of the extraction region. Selects desired shape data, and uses this selected shape data to set an extraction region for generating point cloud data from the region in the captured image.
Thereby, in the shape measuring apparatus 100, desired shape data can be selected from the shape data memorize | stored in the memory | storage part 60, and an extraction area | region can be set.

また、上記実施形態において、抽出領域を設定するための情報には、抽出領域の境界を設定する抽出形状要素と、抽出領域の境界を規定するパラメータの値とが含まれ、記憶部60には、抽出形状要素とパラメータの種類とが関連付けられて形状データ62として記憶されており、抽出領域設定部70は、抽出領域を設定するための情報に該当する抽出形状要素に関連付けて記憶されているパラメータを記憶部60から読み出し、読み出した当該抽出形状要素と、入力される抽出領域を設定するための情報に含まれるパラメータの値とに基づいて、前記抽出領域の形状を選択する。
このような構成の形状測定装置100であれば、記憶部60に、抽出形状要素(例えば、多角形等)とパラメータの種類(例えば、多角形の頂点数等)とを関連付して形状データ62として記憶しておく。そして、抽出領域設定部70は、抽出領域の設定に使用する抽出形状要素のパラメータの種類を記憶部60から読み出し、この読み出したパラメータと、入力されるパラメータの値(例えば、多角形の頂点の座標値)とに基づいて、抽出領域の形状を選択する。
これにより、抽出領域の境界形状要素(例えば、多角形等)と、そのパラメータの値とに基づいて、抽出領域を設定することができる。
In the above embodiment, the information for setting the extraction region includes an extraction shape element that sets the boundary of the extraction region and a parameter value that defines the boundary of the extraction region. The extracted shape element and the parameter type are associated with each other and stored as shape data 62, and the extraction region setting unit 70 is stored in association with the extracted shape element corresponding to the information for setting the extraction region. The parameter is read from the storage unit 60, and the shape of the extraction region is selected based on the read extracted shape element and the value of the parameter included in the information for setting the input extraction region.
In the shape measuring apparatus 100 having such a configuration, the shape data is obtained by associating the extracted shape element (for example, a polygon) and the type of parameter (for example, the number of vertices of the polygon) with the storage unit 60. This is stored as 62. Then, the extraction region setting unit 70 reads the type of extracted shape element parameter used for setting the extraction region from the storage unit 60, and the read parameter and the input parameter value (for example, the vertex of the polygon) The shape of the extraction region is selected based on the coordinate value.
Thereby, the extraction region can be set based on the boundary shape element (for example, polygon) of the extraction region and the value of the parameter.

また、上記実施形態において、抽出形状要素には、3以上の頂点を有する多角形の頂点数を示す情報が含まれ、パラメータには、多角形の頂点の数を示す情報が含まれている。また、パラメータには、それぞれの頂点に関する座標値が含まれ、抽出領域設定部70は、入力される抽出領域を設定するための情報に該当する多角形を示す情報と一致する多角形を示す情報に関連付けて記憶されている多角形の形状を、多角形の頂点の座標に関する情報に基づいて記憶部60から読み出し、読み出した当該多角形の形状を頂点の座標によって規定することを示す情報と、入力される頂点の座標値とに基づいて、抽出領域の形状を選択する。
これにより、形状測定装置100では、多角形と多角形の頂点座標とにより、抽出領域を設定することができる。
In the above embodiment, the extracted shape element includes information indicating the number of vertices of a polygon having three or more vertices, and the parameter includes information indicating the number of vertices of the polygon. The parameters include coordinate values related to the respective vertices, and the extraction area setting unit 70 indicates information indicating a polygon that matches the information indicating the polygon corresponding to the information for setting the input extraction area. Information indicating that the shape of the polygon stored in association with is read from the storage unit 60 based on information about the coordinates of the vertex of the polygon, and the shape of the read polygon is defined by the coordinates of the vertex; The shape of the extraction region is selected based on the input vertex coordinate values.
Thereby, in the shape measuring apparatus 100, an extraction area | region can be set with a polygon and the vertex coordinate of a polygon.

また、上記実施形態において、入力される抽出領域を設定するための情報には、抽出領域を設定するための多角形状の頂点に関する情報が含まれ、抽出領域設定部70は、多角形状の頂点に関する情報を基に、抽出領域の境界位置を設定する。
これにより、形状測定装置100では、多角形と多角形の頂点座標とにより、抽出領域を設定することができる。
In the above-described embodiment, the information for setting the extraction region to be input includes information regarding the vertex of the polygonal shape for setting the extraction region, and the extraction region setting unit 70 relates to the vertex of the polygonal shape. Based on the information, the boundary position of the extraction region is set.
Thereby, in the shape measuring apparatus 100, an extraction area | region can be set with a polygon and the vertex coordinate of a polygon.

また、上記実施形態において、入力される抽出領域を設定するための情報には、抽出領域を設定するための円の中心の位置と半径に関する情報が含まれ、抽出領域設定部は、円の中心の位置と半径とに関する情報を基に、抽出領域の境界位置を設定する。
これにより、形状測定装置100では、円の中心座標と、半径とにより、抽出領域を設定することができる。
In the above embodiment, the information for setting the extraction area to be input includes information on the position and radius of the center of the circle for setting the extraction area, and the extraction area setting unit displays the center of the circle. The boundary position of the extraction area is set based on the information on the position and radius of.
Thereby, in the shape measuring apparatus 100, the extraction region can be set by the center coordinates of the circle and the radius.

また、上記実施形態において、形状測定装置100Aでは、抽出領域設定部70Aが、さらに測定対象3の設計情報(CADデータ)に基づいて、抽出領域の形状を設定する。
これにより、形状測定装置100Aを利用するユーザは、測定対象3のCADデータを利用して、点群データを生成する抽出領域を設定することができる。
In the embodiment, in the shape measuring apparatus 100A, the extraction region setting unit 70A further sets the shape of the extraction region based on the design information (CAD data) of the measurement object 3.
Thereby, the user who uses 100 A of shape measuring apparatuses can set the extraction area | region which produces | generates point cloud data using the CAD data of the measuring object 3. FIG.

また、上記実施形態において、形状測定装置100Bでは、抽出領域設定部70Bが、生成部(点群データ生成部56A)が生成した点群データに基づいて抽出領域を示す情報を設定する。
このような構成の形状測定装置100Bであれば、仮測定により測定対象3の点群データを生成し、この仮測定結果に基づき、3次元形状データの算出に用いる点群データの抽出領域を設定する。
これにより、形状測定装置100Bを利用するユーザは、測定対象3の仮測定結果を基に、ノイズ等の異常点の含まれる領域を確認して、抽出領域を設定することができる。
In the above embodiment, in the shape measuring apparatus 100B, the extraction region setting unit 70B sets information indicating the extraction region based on the point cloud data generated by the generation unit (point cloud data generation unit 56A).
With the shape measuring apparatus 100B having such a configuration, the point cloud data of the measurement target 3 is generated by temporary measurement, and the point cloud data extraction region used for calculating the three-dimensional shape data is set based on the temporary measurement result. To do.
Thereby, the user using the shape measuring apparatus 100 </ b> B can set the extraction region by confirming the region including the abnormal point such as noise based on the temporary measurement result of the measurement object 3.

また、上記実施形態において、形状測定装置100Cは、撮像部22が生成した撮像画像に基づいて抽出領域を示す情報を設定する第2抽出領域設定部80を備え、抽出領域設定部70は、第2抽出領域設定部80から入力される抽出領域を示す情報に基づいて、抽出領域の形状を選択する。
このような構成の形状測定装置100Cであれば、第2抽出領域設定部80は、撮像部22が生成した撮像画像に基づいてノイズ等の異常点の含まれる領域を判定し、抽出領域設定部70は、第2抽出領域設定部80により判定されたノイズ等の含まれる領域を除外するようにして、点群データを生成する抽出領域を設定することができる。
In the above embodiment, the shape measuring apparatus 100C includes the second extraction region setting unit 80 that sets information indicating the extraction region based on the captured image generated by the imaging unit 22, and the extraction region setting unit 70 includes 2. Based on the information indicating the extraction region input from the extraction region setting unit 80, the shape of the extraction region is selected.
In the shape measuring apparatus 100C having such a configuration, the second extraction region setting unit 80 determines a region including an abnormal point such as noise based on the captured image generated by the imaging unit 22, and the extraction region setting unit 70 can set an extraction region for generating point cloud data by excluding a region including noise determined by the second extraction region setting unit 80.

また、上記実施形態において、抽出領域設定部70は、撮像画像から非抽出領域を選択させることで、抽出領域を設定する。
これにより、ユーザは、撮像画像において、点群データを生成しない非抽出領域を設定することができる。
In the above embodiment, the extraction region setting unit 70 sets an extraction region by selecting a non-extraction region from the captured image.
Thereby, the user can set the non-extraction area | region which does not produce | generate point cloud data in a captured image.

また、上記実施形態において、構造物製造システム200は、構造物の形状に関する構造物設計情報を作製する設計装置110と、構造物設計情報に基づいて構造物を作製する成形装置120と、作成された前記構造物の形状を、撮像画像に基づいて測定する形状測定装置100と、測定によって得られた形状情報と、構造物設計情報とを比較する検査装置(制御装置150)とを含む。
これにより、構造物製造システム200は、形状測定装置100が構造物の座標(3次元形状)を、撮像画像の異常点を容易に除外して測定することができるので、構造物製造システム200は、作成された構造物が良品であるか否かを正確に判定することができる。
In the above embodiment, the structure manufacturing system 200 is created with a design device 110 that creates structure design information related to the shape of the structure, and a molding device 120 that creates a structure based on the structure design information. The shape measuring device 100 that measures the shape of the structure based on the captured image, and the inspection device (control device 150) that compares the shape information obtained by the measurement and the structure design information are included.
As a result, the structure manufacturing system 200 can measure the coordinates (three-dimensional shape) of the structure by easily excluding the abnormal points of the captured image. It is possible to accurately determine whether or not the created structure is a non-defective product.

以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。   As mentioned above, although embodiment of this invention has been explained in full detail with reference to drawings, a concrete structure is not restricted to this embodiment and can be suitably changed in the range which does not deviate from the meaning of this invention. .

なお、上記の各実施形態における制御ユニット40及び各装置が備える制御部(以下、これらを総称して制御部CONTと記載する)又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。   The control unit 40 and the control unit included in each device in the above embodiments (hereinafter collectively referred to as the control unit CONT) or each unit included in the control unit CONT is realized by dedicated hardware. It may also be realized by a memory and a microprocessor.

なお、この制御部CONT又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、この制御部CONT又はこの制御部CONTが備える各部はメモリおよびCPU(中央演算装置)により構成され、制御部CONT、又はこの制御部CONTが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。   The control unit CONT or each unit included in the control unit CONT may be realized by dedicated hardware, and the control unit CONT or each unit included in the control unit CONT includes a memory and a CPU ( The control unit CONT or a program for realizing the function of each unit included in the control unit CONT may be loaded into a memory and executed to implement the function.

また、制御部CONT又はこの制御部CONTが備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部CONT又はこの制御部CONTが備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Also, the control unit CONT or a program for realizing the functions of each unit included in the control unit CONT is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Thus, the processing by the control unit CONT or each unit provided in the control unit CONT may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

1…測定機本体、2…基台、3…測定対象、20…検出部、21…投影部、22…撮像部、40…制御ユニット、41…入力装置、42…マウス、43…キーボード、45…表示装置、46…表示画面、47…形状データのアイコン、51…制御部、52…座標検出部、53…間隔調整部、54…駆動制御部、55…移動指令部、56…座標算出部、56A…点群データ生成部(生成部)、57…データ出力部、60…記憶部、61…CADデータ、62…形状データ、63…抽出領域情報、70,70A,70B,70C…抽出領域設定部、71…図形選択処理部、72…クリック点座標取得部、73…抽出領域描画部、74…抽出領域推定部、75…仮測定実行部、80…第2抽出領域設定部、100,100A,100B,100C…形状測定装置、110…設計装置、120…成形装置、140…リペア装置、150…制御装置、151…座標記憶部、152…検査部、200…構造物製造システム DESCRIPTION OF SYMBOLS 1 ... Measuring machine main body, 2 ... Base, 3 ... Measurement object, 20 ... Detection part, 21 ... Projection part, 22 ... Imaging part, 40 ... Control unit, 41 ... Input device, 42 ... Mouse, 43 ... Keyboard, 45 Display device 46 Display screen 47 Shape data icon 51 Control unit 52 Coordinate detection unit 53 Space adjustment unit 54 Drive control unit 55 Movement command unit 56 Coordinate calculation unit 56A ... Point cloud data generation unit (generation unit) 57 ... Data output unit 60 ... Storage unit 61 ... CAD data 62 ... Shape data 63 ... Extraction area information 70, 70A, 70B, 70C ... Extraction area Setting unit, 71 ... Graphic selection processing unit, 72 ... Click point coordinate acquisition unit, 73 ... Extraction region drawing unit, 74 ... Extraction region estimation unit, 75 ... Temporary measurement execution unit, 80 ... Second extraction region setting unit, 100, 100A, 100B, 100C ... Jo measuring device, 110 ... design device, 120 ... molding apparatus 140 ... repair apparatus, 150 ... controller, 151 ... coordinate storage unit, 152 ... inspection unit, 200 ... structure manufacturing system

Claims (16)

測定対象を撮像した撮像画像を生成する撮像部と、
前記撮像部によって撮像される撮像画像が、前記測定対象にパターンが投影された画像として撮像されるように、前記撮像部が撮像している方向と異なる方向から、前記パターンを前記測定対象に投影する投影部と、
前記撮像部が生成した前記撮像画像内の領域の中から抽出領域を設定する際に、前記抽出領域を設定するための情報に基づいて、複数の設定可能な形状のいずれかから前記抽出領域を設定する抽出領域設定部と、
前記撮像部が生成した前記撮像画像内の前記抽出領域の前記撮像画像に基づいて、前記測定対象の三次元形状を示す点群データを生成する生成部と
を備える形状測定装置。
An imaging unit that generates a captured image of the measurement object;
The pattern is projected onto the measurement target from a direction different from the direction in which the imaging unit is capturing so that the captured image captured by the imaging unit is captured as an image in which the pattern is projected onto the measurement target. A projection unit to
When setting an extraction region from among regions in the captured image generated by the imaging unit, the extraction region is selected from any of a plurality of settable shapes based on information for setting the extraction region. An extraction area setting section to be set;
A shape measurement apparatus comprising: a generation unit that generates point cloud data indicating a three-dimensional shape of the measurement target based on the captured image of the extraction region in the captured image generated by the imaging unit.
前記抽出領域設定部は、前記抽出領域を設定する際に、3またはそれ以上の線分によって設定可能な形状の何れかにより前記抽出領域を設定することを特徴とする請求項1に記載の形状測定装置。   2. The shape according to claim 1, wherein the extraction region setting unit sets the extraction region according to any of shapes that can be set by three or more line segments when setting the extraction region. measuring device. 前記抽出領域の輪郭を示す複数種類の形状データが記憶されている記憶部を備え、
前記抽出領域設定部は、前記記憶部に記憶されている複数の前記形状データのうちから、入力される前記抽出領域を設定するための情報に基づいて選択された前記形状データにより前記抽出領域を選択する
請求項2に記載の形状測定装置。
A storage unit storing a plurality of types of shape data indicating the outline of the extraction region;
The extraction region setting unit is configured to select the extraction region based on the shape data selected based on information for setting the extraction region that is input from among the plurality of shape data stored in the storage unit. The shape measuring device according to claim 2 to be selected.
前記抽出領域を設定するための情報には、前記抽出領域の境界を設定する抽出形状要素と、前記抽出領域の境界を規定するパラメータの値とが含まれ、
前記記憶部には、前記抽出形状要素と前記パラメータの種類とが関連付けられて前記形状データとして記憶されており、
前記抽出領域設定部は、
前記抽出領域を設定するための情報に該当する前記抽出形状要素に関連付けて記憶されている前記パラメータを前記記憶部から読み出し、読み出した当該抽出形状要素と、前記入力される前記抽出領域を設定するための情報に含まれる前記パラメータの値とに基づいて、前記抽出領域の形状を選択する
請求項3に記載の形状測定装置。
The information for setting the extraction region includes an extraction shape element that sets a boundary of the extraction region, and a parameter value that defines the boundary of the extraction region,
In the storage unit, the extracted shape element and the type of the parameter are associated and stored as the shape data,
The extraction area setting unit includes:
The parameter stored in association with the extracted shape element corresponding to the information for setting the extraction region is read from the storage unit, and the read extracted shape element and the input extraction region are set. The shape measuring device according to claim 3, wherein the shape of the extraction region is selected based on the value of the parameter included in the information for the purpose.
前記抽出形状要素には、3以上の頂点を有する多角形の頂点数を示す情報が含まれ、
前記パラメータの値には、前記頂点の座標値が含まれ、
前記抽出領域設定部は、
前記入力される前記抽出領域を設定するための情報に該当する前記多角形を示す情報と一致する前記多角形を示す情報に関連付けて記憶されている前記多角形の形状を、前記多角形の頂点の座標に関する情報に基づいて前記記憶部から読み出し、読み出した当該多角形の形状を頂点の座標によって規定することを示す情報と、入力される前記頂点の座標値とに基づいて、前記抽出領域の形状を選択する
請求項4に記載の形状測定装置。
The extracted shape element includes information indicating the number of vertices of a polygon having three or more vertices,
The value of the parameter includes the coordinate value of the vertex,
The extraction area setting unit includes:
The polygonal shape stored in association with the information indicating the polygon that matches the information indicating the polygon corresponding to the information for setting the input extraction area is the vertex of the polygon Is read from the storage unit based on the information on the coordinates of the extracted, based on the information indicating that the read shape of the polygon is defined by the coordinates of the vertex, and the coordinate value of the input vertex, The shape measuring apparatus according to claim 4, wherein a shape is selected.
前記入力される前記抽出領域を設定するための情報には、前記抽出領域を設定するための多角形状の頂点に関する情報が含まれ、
前記抽出領域設定部は、前記多角形状の頂点に関する情報を基に、前記抽出領域の境界位置を設定することを特徴とする請求項1に記載の形状測定装置。
The input information for setting the extraction area includes information on the vertices of the polygonal shape for setting the extraction area,
The shape measurement apparatus according to claim 1, wherein the extraction region setting unit sets a boundary position of the extraction region based on information on the vertexes of the polygonal shape.
前記入力される前記抽出領域を設定するための情報には、前記抽出領域を設定するための円の中心の位置と半径に関する情報が含まれ、
前記抽出領域設定部は、前記円の中心の位置と半径とに関する情報を基に、前記抽出領域の境界位置を設定することを特徴とする請求項1または請求項2に記載の形状測定装置。
The input information for setting the extraction area includes information on the position and radius of the center of the circle for setting the extraction area,
The shape measurement apparatus according to claim 1, wherein the extraction region setting unit sets a boundary position of the extraction region based on information on a position and a radius of the center of the circle.
前記抽出領域設定部は、
さらに入力される前記測定対象の設計情報に基づいて、前記抽出領域の形状を設定する
請求項1から請求項7のいずれか一項に記載の形状測定装置。
The extraction area setting unit includes:
The shape measuring device according to any one of claims 1 to 7, wherein the shape of the extraction region is set based on the design information of the measurement target that is further input.
前記抽出領域設定部は、前記生成部が生成した前記点群データに基づいて前記抽出領域を示す情報を設定する
請求項1から請求項8のいずれか一項に記載の形状測定装置。
The shape measurement apparatus according to claim 1, wherein the extraction region setting unit sets information indicating the extraction region based on the point cloud data generated by the generation unit.
前記撮像部が生成した前記撮像画像に基づいて前記抽出領域を示す情報を設定する第2抽出領域設定部
を備え、
前記抽出領域設定部は、
前記第2抽出領域設定部から入力される前記抽出領域を示す情報に基づいて、前記抽出領域の形状を選択する
請求項1から請求項9のいずれか一項に記載の形状測定装置。
A second extraction region setting unit that sets information indicating the extraction region based on the captured image generated by the imaging unit;
The extraction area setting unit includes:
The shape measuring device according to any one of claims 1 to 9, wherein a shape of the extraction region is selected based on information indicating the extraction region input from the second extraction region setting unit.
前記抽出領域設定部は、前記撮像画像から非抽出領域を選択させることで、前記抽出領域を設定することを特徴とする請求項1に記載の形状測定装置。   The shape measurement apparatus according to claim 1, wherein the extraction region setting unit sets the extraction region by selecting a non-extraction region from the captured image. 構造物の形状に関する構造物設計情報を作製する設計装置と、
前記構造物設計情報に基づいて前記構造物を作製する成形装置と、
作成された前記構造物の形状を、撮像画像に基づいて測定する請求項1から請求項11のいずれか一項に記載の形状測定装置と、
前記測定によって得られた形状情報と、前記構造物設計情報とを比較する検査装置と
を含む構造物製造システム。
A design device for creating structure design information relating to the shape of the structure;
A molding apparatus for producing the structure based on the structure design information;
The shape measuring device according to any one of claims 1 to 11, which measures the shape of the created structure based on a captured image;
A structure manufacturing system comprising: an inspection device that compares the shape information obtained by the measurement and the structure design information.
測定対象を撮像した撮像画像を生成する撮像手順と、
前記撮像手順において撮像される撮像画像が、前記測定対象にパターンが投影された画像として撮像されるように、前記撮像手順において撮像される方向と異なる方向から、前記パターンを前記測定対象に投影する投影手順と、
前記撮像手順において生成された前記撮像画像内の領域の中から抽出領域を設定する際に、前記抽出領域を設定するための情報に基づいて、複数の設定可能な形状のいずれかから前記抽出領域を設定する抽出領域設定手順と、
前記撮像手順において生成された前記撮像画像内の前記抽出領域の前記撮像画像に基づいて、前記測定対象の三次元形状を示す点群データを生成する生成手順と
を有する形状測定方法。
An imaging procedure for generating a captured image obtained by imaging a measurement target;
The pattern is projected onto the measurement target from a direction different from the direction imaged in the imaging procedure so that the captured image captured in the imaging procedure is captured as an image in which the pattern is projected onto the measurement target. Projection procedure;
When setting an extraction area from among the areas in the captured image generated in the imaging procedure, the extraction area is selected from any of a plurality of settable shapes based on information for setting the extraction area. Extraction area setting procedure to set
A shape measurement method comprising: generating a point group data indicating a three-dimensional shape of the measurement target based on the captured image of the extraction region in the captured image generated in the imaging procedure.
前記抽出領域設定手順は、前記抽出領域を設定する際に、3またはそれ以上の線分によって設定可能な形状の何れかにより前記抽出領域を設定することを特徴とする請求項13に記載の形状測定方法。   14. The shape according to claim 13, wherein the extraction region setting procedure sets the extraction region according to any of shapes that can be set by three or more line segments when setting the extraction region. Measuring method. 構造物の形状に関する構造物設計情報を作製する工程と、
前記構造物設計情報に基づいて前記構造物を作製する工程と、
作成された前記構造物の形状を、請求項13または請求項14に記載の形状測定方法を用いて生成した撮像画像に基づいて測定する工程と、
前記測定によって得られた形状情報と、前記構造物設計情報とを比較する工程と
を含む構造物製造方法。
Creating structure design information on the shape of the structure;
Producing the structure based on the structure design information;
Measuring the shape of the created structure based on a captured image generated using the shape measuring method according to claim 13 or claim 14,
A structure manufacturing method including a step of comparing the shape information obtained by the measurement with the structure design information.
コンピュータに、
測定対象を撮像した撮像画像を生成する撮像ステップと、
前記撮像ステップによって撮像される撮像画像が、前記測定対象にパターンが投影された画像として撮像されるように、前記撮像ステップによって撮像される方向と異なる方向から、前記パターンを前記測定対象に投影する投影ステップと、
前記撮像ステップによって生成された前記撮像画像内の領域の中から抽出領域を設定する際に、前記抽出領域を設定するための情報に基づいて、複数の設定可能な形状のいずれかにより前記抽出領域を設定する抽出領域設定ステップと、
前記撮像ステップによって生成された前記撮像画像内の前記抽出領域の前記撮像画像に基づいて、前記測定対象の三次元形状を示す点群データを生成する生成ステップと
を実行させるための形状測定プログラム。
On the computer,
An imaging step for generating a captured image of the measurement object;
The pattern is projected onto the measurement target from a direction different from the direction captured at the imaging step so that the captured image captured at the imaging step is captured as an image on which the pattern is projected onto the measurement target. A projection step;
When setting an extraction area from among the areas in the captured image generated by the imaging step, the extraction area is selected from any of a plurality of settable shapes based on information for setting the extraction area. An extraction area setting step for setting
A shape measurement program for executing a generation step of generating point cloud data indicating a three-dimensional shape of the measurement object based on the captured image of the extraction region in the captured image generated by the imaging step.
JP2012105436A 2012-05-02 2012-05-02 Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same Pending JP2013234854A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012105436A JP2013234854A (en) 2012-05-02 2012-05-02 Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012105436A JP2013234854A (en) 2012-05-02 2012-05-02 Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same

Publications (1)

Publication Number Publication Date
JP2013234854A true JP2013234854A (en) 2013-11-21

Family

ID=49761101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012105436A Pending JP2013234854A (en) 2012-05-02 2012-05-02 Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same

Country Status (1)

Country Link
JP (1) JP2013234854A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013252582A (en) * 2012-06-06 2013-12-19 Hamai Co Ltd Gear processing machine
WO2015189985A1 (en) * 2014-06-13 2015-12-17 株式会社ニコン Shape measurement device, structure production system, shape measurement method, structure production method, shape measurement program, and recording medium
JP2018141810A (en) * 2018-06-07 2018-09-13 株式会社ニコン Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium
WO2021241265A1 (en) * 2020-05-27 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 Image-capturing device, method for controlling image-capturing device, and shape measurement device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013252582A (en) * 2012-06-06 2013-12-19 Hamai Co Ltd Gear processing machine
WO2015189985A1 (en) * 2014-06-13 2015-12-17 株式会社ニコン Shape measurement device, structure production system, shape measurement method, structure production method, shape measurement program, and recording medium
JPWO2015189985A1 (en) * 2014-06-13 2017-04-20 株式会社ニコン Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, shape measuring program, and recording medium
US10482592B2 (en) 2014-06-13 2019-11-19 Nikon Corporation Shape measuring device, structured object manufacturing system, shape measuring method, structured object manufacturing method, shape measuring program, and recording medium
JP2018141810A (en) * 2018-06-07 2018-09-13 株式会社ニコン Shape measurement apparatus, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and recording medium
WO2021241265A1 (en) * 2020-05-27 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 Image-capturing device, method for controlling image-capturing device, and shape measurement device

Similar Documents

Publication Publication Date Title
JP6194996B2 (en) Shape measuring device, shape measuring method, structure manufacturing method, and shape measuring program
JP6044705B2 (en) Shape measuring apparatus, structure manufacturing system, shape measuring method, structure manufacturing method, and shape measuring program
EP3023736A1 (en) Shape measurement device, structural object production system, shape measurement method, structural object production method, shape measurement program, and recording medium
JP2013234854A (en) Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same
JP2020173175A (en) Projection image capturing method, control device, control program, processing device, and processing program
JP2018533722A (en) Method and apparatus for measuring features on or near a subject
JP2018537693A (en) Equipment for non-contact 3D inspection of mechanical parts with teeth
JP2014153149A (en) Shape measurement device, structure manufacturing system, shape measurement method and program
JP2012112790A (en) X-ray ct apparatus
JP6205727B2 (en) Shape measuring method, structure manufacturing method, shape measuring program, optical shape measuring apparatus, and structure manufacturing system
JP6248510B2 (en) Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, shape measuring program, and recording medium
JP4821987B2 (en) X-ray CT system
JP2014102243A (en) Shape measurement device, structure manufacturing system, shape measurement method, structure manufacturing method, and program for the same
EP3979201A1 (en) Automated turbine blade to shroud gap measurement
JP4524224B2 (en) Lens centering device, lens centering method, and lens centering program
US20220414922A1 (en) Method of compensating data and system for compensating data using same
JP6840590B2 (en) Calibration system, calibration jig, calibration method, and calibration program
KR20230002038A (en) Method for data compensation and apparatus for data compensation using thereof
JP2012141245A (en) Three-dimensional shape measuring device
JP2010107413A (en) Shape-measuring device
JP2014006149A (en) Shape-measuring device, system for manufacturing structure, shape-measuring method, method for manufacturing structure and shape-measuring program