JP4491687B2 - Coordinate transformation function correction method - Google Patents

Coordinate transformation function correction method Download PDF

Info

Publication number
JP4491687B2
JP4491687B2 JP2005123197A JP2005123197A JP4491687B2 JP 4491687 B2 JP4491687 B2 JP 4491687B2 JP 2005123197 A JP2005123197 A JP 2005123197A JP 2005123197 A JP2005123197 A JP 2005123197A JP 4491687 B2 JP4491687 B2 JP 4491687B2
Authority
JP
Japan
Prior art keywords
coordinate
coordinate system
dimensional
dimensional shape
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005123197A
Other languages
Japanese (ja)
Other versions
JP2006301991A (en
Inventor
正樹 高林
敏 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pulstec Industrial Co Ltd
Original Assignee
Pulstec Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pulstec Industrial Co Ltd filed Critical Pulstec Industrial Co Ltd
Priority to JP2005123197A priority Critical patent/JP4491687B2/en
Publication of JP2006301991A publication Critical patent/JP2006301991A/en
Application granted granted Critical
Publication of JP4491687B2 publication Critical patent/JP4491687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、3次元形状測定装置により複数の異なる位置で測定した物体の各座標系における3次元画像データを、1つの基準座標系における3次元形状データ群に変換する座標変換関数の補正方法に関する。   The present invention relates to a method for correcting a coordinate conversion function for converting three-dimensional image data in each coordinate system of an object measured at a plurality of different positions by a three-dimensional shape measuring apparatus into a three-dimensional shape data group in one reference coordinate system. .

従来から、測定対象の物体に対し測定位置が移動される3次元形状測定装置により、測定対象物の3次元形状を複数の異なる位置から測定して各測定位置ごとの3次元画像データを合成し、測定対象物の立体形状を任意の方向から見て表示できるようにした3次元形状の測定方法はよく知られている。この測定においては、測定対象物の3次元形状を測定する前に、3次元形状測定装置による各測定位置ごとの座標値を基準座標系における座標値に変換するための座標変換関数の計算が行われる。具体的には、予め決められた形状の基準物体を測定対象空間内に配置して、この3次元形状を測定し、同測定した3次元形状を表す3次元画像データを用いて予め基準物体内に設定してある定点の座標値を各測定位置ごとに計算し、この計算した座標値を用いて座標変換関数を計算する。そして、この座標変換関数により各測定位置における測定対象物の3次元形状を表す3次元画像データを基準座標系における3次元画像データに変換することが行われている(特許文献1参照)。
特開2002−328013号公報
Conventionally, a three-dimensional shape measuring apparatus in which a measurement position is moved with respect to an object to be measured measures a three-dimensional shape of the measurement object from a plurality of different positions and synthesizes three-dimensional image data for each measurement position. A method for measuring a three-dimensional shape that allows a three-dimensional shape of a measurement object to be viewed and displayed from an arbitrary direction is well known. In this measurement, before measuring the three-dimensional shape of the object to be measured, a coordinate conversion function for converting the coordinate value at each measurement position by the three-dimensional shape measuring apparatus into the coordinate value in the reference coordinate system is performed. Is called. Specifically, a reference object having a predetermined shape is placed in the measurement target space, this three-dimensional shape is measured, and the reference object is previously stored using three-dimensional image data representing the measured three-dimensional shape. The coordinate value of the fixed point set in is calculated for each measurement position, and the coordinate conversion function is calculated using the calculated coordinate value. The coordinate conversion function converts the three-dimensional image data representing the three-dimensional shape of the measurement object at each measurement position into three-dimensional image data in the reference coordinate system (see Patent Document 1).
JP 2002-328013 A

しかしながら、本発明の発明者らは、上記のように計算した座標変換関数を用いて、同一の測定対象物を複数の異なる位置で測定した場合、同測定対象物を表す基準座標系における3次元画像データが、各測定位置ごとに僅かに異なる値になっていることを発見した。これは、基準物体の3次元形状を測定する際、基準物体を表す3次元画像データに測定誤差が生じているため計算した座標変換関数に誤差があることによると考えられる。このため、表示装置に表示される測定対象物の立体形状の位置が同測定対象物を見る方向によって僅かにずれ、正確な3次元形状測定ができないという問題があった。   However, when the same measurement object is measured at a plurality of different positions using the coordinate transformation function calculated as described above, the inventors of the present invention can obtain a three-dimensional reference coordinate system representing the measurement object. It was found that the image data had slightly different values for each measurement position. This is considered to be due to the fact that there is an error in the calculated coordinate conversion function because a measurement error occurs in the three-dimensional image data representing the reference object when measuring the three-dimensional shape of the reference object. For this reason, there is a problem that the position of the three-dimensional shape of the measurement object displayed on the display device is slightly shifted depending on the direction of viewing the measurement object, and accurate three-dimensional shape measurement cannot be performed.

本発明は上記問題に対処するためなされたもので、その目的は、測定対象物の正確な3次元形状測定を行うために、精度のよい座標変換関数を計算することが可能な座標変換関数の補正方法を提供することにある。   The present invention has been made to cope with the above-described problem, and an object of the present invention is to provide a coordinate conversion function capable of calculating a coordinate conversion function with high accuracy in order to perform accurate three-dimensional shape measurement of a measurement object. It is to provide a correction method.

前記目的を達成するために、第1の明は、変形可能な支持機構(20)によって支持された3次元形状測定装置(30)に測定対象物の3次元形状を測定させコンピュータ装置によって構成した3次元画像処理装置(42)に、前記3次元形状測定装置による測定対象物の測定情報を入力させ(S72)、かつ前記入力させた測定情報を用いて前記3次元形状測定装置に関する座標系における前記測定した測定対象物の3次元形状を表す3次元画像データを生成させ(S74)前記3次元画像処理装置に、前記生成させた3次元画像データを座標回転関数と座標移動関数とからなる第1座標変換関数を用いて前記変形可能な支持機構に関する座標系における3次元画像データに変換させ、かつ前記変換させた3次元画像データを前記支持機構の変形状態に応じて変化する第2座標変換関数を用いて予め決めた所定の座標系の3次元画像データに変換させ(S76)前記測定対象物を任意の方向から見て表示可能な3次元画像生成システムに適用される第1座標変換関数を補正する座標変換関数の補正方法において、前記3次元形状測定装置に関する座標系における座標軸の方向と、前記予め決めた所定の座標系の座標軸の方向とを一致させたうえで、前記支持機構を変形させて前記3次元形状測定装置を前記予め決めた所定の座標系の座標軸と平行に移動させ、少なくとも2つの位置で前記3次元形状測定装置に前記3次元形状測定装置の測定対象空間内に配置された基準物体の3次元形状を測定させ前記3次元画像処理装置に、前記少なくとも2つの位置で測定した前記3次元形状測定装置による基準物体の測定情報を入力させ、かつ前記各測定位置ごとに前記3次元形状測定装置に関する座標系における前記基準物体の3次元形状を表す3次元画像データを生成させ(S42)前記3次元画像処理装置に、前記第1座標変換関数、前記第2座標変換関数および前記生成された各測定位置ごとの3次元画像データを用いて、前記少なくとも2つの位置で測定した前記基準物体の定点を前記予め決めた所定の座標系で表す3次元データを計算させ(S44、S46,S48,S50)前記3次元画像処理装置に、前記予め決めた所定の座標系の座標軸に対する前記定点の3次元データを用いて定義される直線の傾きに応じて前記第1座標変換関数における座標回転関数を補正させる(S52,S54)ことにある。 To achieve the above object, the first inventions, is measured three-dimensional shape of the measuring object in the three-dimensional shape measurement device which is supported by a deformable support mechanism (20) (30), by a computer system The measurement information of the measurement object by the three-dimensional shape measurement device is input to the configured three-dimensional image processing device (42) (S72), and the coordinates relating to the three-dimensional shape measurement device are used using the input measurement information. 3D image data representing the 3D shape of the measured measurement object in the system is generated (S74) , and the generated 3D image data is converted into a coordinate rotation function and a coordinate transfer function by the 3D image processing apparatus. Using the first coordinate transformation function consisting of the following, the three-dimensional image data in the coordinate system relating to the deformable support mechanism, and the transformed three-dimensional image data is converted into the support data. Using the second coordinate transformation function that varies according to the deformation state of the lifting mechanism is converted into 3-dimensional image data of a predetermined coordinate system determined in advance in (S76), the display look the measurement object from any direction In a correction method of a coordinate conversion function for correcting a first coordinate conversion function applied to a possible three-dimensional image generation system, a direction of a coordinate axis in a coordinate system related to the three-dimensional shape measuring apparatus, and the predetermined predetermined coordinate system after having matched the direction of the coordinate axis of the support mechanism to deform in the three-dimensional shape measuring apparatus is moved parallel to the axes of the predetermined coordinate system said predetermined, said at least two positions 3D The shape measuring device measures the three-dimensional shape of the reference object arranged in the measurement target space of the three-dimensional shape measuring device, and the three-dimensional image processing device measures at the at least two positions. The three-dimensional shape measuring apparatus is inputted measurement information of the reference object by, and to generate three-dimensional image data representing a three-dimensional shape of the reference object in a coordinate system related to the three-dimensional shape measuring apparatus wherein each measurement position ( S42) using the first coordinate transformation function , the second coordinate transformation function, and the generated three-dimensional image data for each measurement position in the three- dimensional image processing device, and measuring at the at least two positions. wherein the fixed point of the reference object to calculate the three-dimensional data represented by the predetermined given coordinate system (S44, S46, S48, S50 ), the three-dimensional image processing apparatus, the coordinate axes of a predetermined coordinate system said pre-determined make correct coordinate rotation function in the first coordinate transformation function according to the inclination of the line defined by using the three-dimensional data of the fixed point relative to (S52, S54) In the door.

また、第2の発明は、変形可能な支持機構(20)によって支持された3次元形状測定装置(30)に測定対象物の3次元形状を測定させ、コンピュータ装置によって構成した3次元画像処理装置(42)に、前記3次元形状測定装置による測定対象物の測定情報を入力させ(S72)、かつ前記入力させた測定情報を用いて前記3次元形状測定装置に関する座標系における前記測定した測定対象物の3次元形状を表す3次元画像データを生成させ(S74)、前記3次元画像処理装置に、前記生成させた3次元画像データを座標回転関数と座標移動関数とからなる第1座標変換関数を用いて前記変形可能な支持機構に関する座標系における3次元画像データに変換させ、かつ前記変換させた3次元画像データを前記支持機構の変形状態に応じて変化する第2座標変換関数を用いて予め決めた所定の座標系の3次元画像データに変換させて(S76)、前記測定対象物を任意の方向から見て表示可能な3次元画像生成システムに適用される第1座標変換関数を補正する座標変換関数の補正方法において、前記3次元形状測定装置に関する座標系における座標軸の方向と、前記予め決めた所定の座標系の座標軸の方向とを一致させたうえで、前記支持機構を変形させて前記3次元形状測定装置を前記予め決めた所定の座標系の座標軸と平行に移動させ、少なくとも2つの位置で前記3次元形状測定装置に前記3次元形状測定装置の測定対象空間内に配置された基準物体の3次元形状を測定させ、前記3次元画像処理装置に、前記少なくとも2つの位置で測定した前記3次元形状測定装置による基準物体の測定情報を入力させ、かつ前記各測定位置ごとに前記3次元形状測定装置に関する座標系における前記基準物体の3次元形状を表す3次元画像データを生成させ(S42)、前記3次元画像処理装置に、前記第1座標変換関数、前記第2座標変換関数および前記生成された各測定位置ごとの3次元画像データを用いて、前記少なくとも2つの位置で測定した前記基準物体の定点を前記予め決めた所定の座標系で表す3次元データを計算させ(S44、S46,S48,S50)、前記3次元画像処理装置に、前記基準物体の3次元形状を測定させた位置間における前記3次元形状測定装置の移動量を前記支持機構の変形状態に応じて計算させ、かつ前記計算させた移動量と、前記予め決めた所定の座標系の座標軸方向のうちで前記3次元形状測定装置の移動方向と異なる座標軸方向の前記基準物体の定点の座標値の変化量とによって定義される直線の傾きに応じて前記第1座標変換関数における座標回転関数を補正させることにある。The second invention is a three-dimensional image processing apparatus configured by a computer device by causing a three-dimensional shape measuring device (30) supported by a deformable support mechanism (20) to measure a three-dimensional shape of a measurement object. (42), the measurement information of the measurement object by the three-dimensional shape measurement apparatus is input (S72), and the measurement object in the coordinate system related to the three-dimensional shape measurement apparatus is input using the input measurement information. Three-dimensional image data representing a three-dimensional shape of an object is generated (S74), and the three-dimensional image processing apparatus causes the generated three-dimensional image data to be converted into a first coordinate transformation function comprising a coordinate rotation function and a coordinate movement function. Is converted into three-dimensional image data in a coordinate system relating to the deformable support mechanism, and the converted three-dimensional image data is adapted to the deformation state of the support mechanism. A three-dimensional image generation system capable of converting the measurement object into three-dimensional image data in a predetermined coordinate system using a second coordinate conversion function that changes in advance (S76) and displaying the measurement object as viewed from an arbitrary direction. In the correction method of the coordinate transformation function for correcting the first coordinate transformation function applied to the coordinate system, the direction of the coordinate axis in the coordinate system related to the three-dimensional shape measuring apparatus matches the direction of the coordinate axis of the predetermined coordinate system Then, the support mechanism is deformed to move the three-dimensional shape measuring apparatus in parallel with the coordinate axis of the predetermined coordinate system, and the three-dimensional shape measuring apparatus is moved to the three-dimensional shape measuring apparatus at at least two positions. The three-dimensional shape measuring device which measures the three-dimensional shape of a reference object arranged in the measurement target space of the shape measuring device and causes the three-dimensional image processing device to measure at the at least two positions. The measurement information of the reference object is input, and three-dimensional image data representing the three-dimensional shape of the reference object in the coordinate system related to the three-dimensional shape measuring apparatus is generated for each measurement position (S42). Using the first coordinate transformation function, the second coordinate transformation function, and the generated three-dimensional image data for each measurement position, the fixed point of the reference object measured at the at least two positions is stored in an image processing apparatus. The three-dimensional data represented by the predetermined coordinate system is calculated (S44, S46, S48, S50), and the three-dimensional image processing apparatus measures the three-dimensional shape between the positions where the three-dimensional shape of the reference object is measured. The movement amount of the three-dimensional shape measuring apparatus is calculated according to the deformation state of the support mechanism, and the calculated movement amount and the coordinate axis direction of the predetermined coordinate system determined in advance The coordinate rotation function in the first coordinate transformation function is corrected according to the slope of a straight line defined by the amount of change in the coordinate value of the fixed point of the reference object in the coordinate axis direction different from the moving direction of the three-dimensional shape measuring apparatus. There is.

また、第3の発明は、変形可能な支持機構(20)によって支持された3次元形状測定装置(30)に測定対象物の3次元形状を測定させ、コンピュータ装置によって構成した3次元画像処理装置(42)に、前記3次元形状測定装置による測定対象物の測定情報を入力させ(S72)、かつ前記入力させた測定情報を用いて前記3次元形状測定装置に関する座標系における前記測定した測定対象物の3次元形状を表す3次元画像データを生成させ(S74)、前記3次元画像処理装置に、前記生成させた3次元画像データを座標回転関数と座標移動関数とからなる第1座標変換関数を用いて前記変形可能な支持機構に関する座標系における3次元画像データに変換させ、かつ前記変換させた3次元画像データを前記支持機構の変形状態に応じて変化する第2座標変換関数を用いて予め決めた所定の座標系の3次元画像データに変換させて(S76)、前記測定対象物を任意の方向から見て表示可能な3次元画像生成システムに適用される第1座標変換関数を補正する座標変換関数の補正方法において、前記3次元形状測定装置に関する座標系における座標軸の方向と、前記予め決めた所定の座標系の座標軸の方向とを一致させない状態で、前記支持機構を変形させて前記3次元形状測定装置を前記3次元形状測定装置に関する座標系における座標軸の方向と平行に移動させ、少なくとも2つの位置で前記3次元形状測定装置に前記3次元形状測定装置の測定対象空間内に配置された基準物体の3次元形状を測定させ、前記3次元画像処理装置に、前記少なくとも2つの位置で測定した前記3次元形状測定装置による基準物体の測定情報を入力させ、かつ前記各測定位置ごとに前記3次元形状測定装置に関する座標系における前記基準物体の3次元形状を表す3次元画像データを生成させ(S42)、前記3次元画像処理装置に、前記支持機構の変形状態に応じて前記予め決めた所定の座標系の3次元データを前記移動させた3次元形状測定装置の座標系の3次元データに変換するための座標変換補正関数を計算させ(S42,S45)、前記3次元画像処理装置に、前記第1座標変換関数、前記第2座標変換関数および前記生成された各測定位置ごとの3次元画像データを用いて、前記少なくとも2つの位置で測定した前記基準物体の定点を前記予め決めた所定の座標系で表す3次元データを計算させ、かつ前記計算させた予め決めた所定の座標系で表す3次元データを前記座標変換補正関数を用いて前記移動させた3次元形状測定装置の座標系の3次元データに変換させ(S44、S46,S48,S50)、前記3次元画像処理装置に、前記移動させた3次元形状測定装置の座標系の座標軸に対する前記変換された定点の3次元データを用いて定義される直線の傾きに応じて前記第1座標変換関数における座標回転関数を補正させる(S52,S54)ことにある。A third invention is a three-dimensional image processing apparatus configured by a computer device by causing a three-dimensional shape measuring device (30) supported by a deformable support mechanism (20) to measure a three-dimensional shape of a measurement object. (42), the measurement information of the measurement object by the three-dimensional shape measurement apparatus is input (S72), and the measurement object in the coordinate system related to the three-dimensional shape measurement apparatus is input using the input measurement information. Three-dimensional image data representing a three-dimensional shape of an object is generated (S74), and the three-dimensional image processing apparatus causes the generated three-dimensional image data to be converted into a first coordinate transformation function comprising a coordinate rotation function and a coordinate movement function. Is converted into three-dimensional image data in a coordinate system relating to the deformable support mechanism, and the converted three-dimensional image data is adapted to the deformation state of the support mechanism. A three-dimensional image generation system capable of converting the measurement object into three-dimensional image data in a predetermined coordinate system using a second coordinate conversion function that changes in advance (S76) and displaying the measurement object as viewed from an arbitrary direction. In the correction method of the coordinate transformation function for correcting the first coordinate transformation function applied to the coordinate system, the direction of the coordinate axis in the coordinate system related to the three-dimensional shape measuring apparatus matches the direction of the coordinate axis of the predetermined coordinate system In such a state, the support mechanism is deformed to move the three-dimensional shape measuring apparatus parallel to the direction of the coordinate axis in the coordinate system related to the three-dimensional shape measuring apparatus, and the three-dimensional shape measuring apparatus is moved to the three-dimensional shape measuring apparatus at at least two positions. A three-dimensional shape of a reference object placed in a measurement target space of the three-dimensional shape measuring apparatus is measured, and the three-dimensional image processing apparatus measures at the at least two positions. Further, measurement information of the reference object by the three-dimensional shape measurement apparatus is input, and three-dimensional image data representing the three-dimensional shape of the reference object in the coordinate system related to the three-dimensional shape measurement apparatus is generated for each measurement position. (S42) The three-dimensional data of the coordinate system of the three-dimensional shape measuring apparatus in which the three-dimensional image processing apparatus has moved the three-dimensional data of the predetermined coordinate system determined in advance according to the deformation state of the support mechanism. A coordinate transformation correction function for transforming into the first coordinate transformation function is calculated (S42, S45), and the three-dimensional image processing apparatus causes the first coordinate transformation function, the second coordinate transformation function, and 3 for each of the generated measurement positions. Using the three-dimensional image data, three-dimensional data representing the fixed point of the reference object measured at the at least two positions in the predetermined coordinate system is calculated, and the calculation is performed. The three-dimensional data represented by a predetermined coordinate system determined in advance is converted into the three-dimensional data of the coordinate system of the moved three-dimensional shape measuring apparatus using the coordinate conversion correction function (S44, S46, S48, S50). The first coordinate transformation is performed on the three-dimensional image processing device according to the slope of the straight line defined using the transformed three-dimensional data of the fixed point with respect to the coordinate axis of the coordinate system of the moved three-dimensional shape measuring device. The coordinate rotation function in the function is corrected (S52, S54).

また、この場合、例えば、前記基準物体を、球、角柱、角錐、円柱および円錐のうちのいずれか一つの形状を有するものとするとよい。   In this case, for example, the reference object may have any one shape of a sphere, a prism, a pyramid, a cylinder, and a cone.

これらの第1ないし第3の発明によれば、第1座標変換関数における座標回転関数が補正される。したがって、第1座標変換関数における座標回転関数に誤差が生じている場合であっても、第1座標変換関数を補正することができ、精度のよい第1座標変換関数を計算することができる。この結果、測定対象物の正確な3次元形状測定を行うことができる。 According to these first to third inventions, the coordinate rotation function in the first coordinate conversion function is corrected. Therefore, even when an error in the coordinate rotation function is occurring in the first coordinate transformation function, it is possible to correct the first coordinate transformation function, it is possible to calculate a good first coordinate transformation function accuracy. As a result, accurate three-dimensional shape measurement of the measurement object can be performed.

また、第4の発明は、上記第1ないし第3の発明の構成に、さらに、前記支持機構に固定した触診を前記基準物体の複数個所に接触させ、前記3次元画像処理装置に、前記触針を接触させた複数個所ごとの前記支持機構の変形状態に応じて前記基準物体の定点を前記予め決めた所定の座標系で表わす3次元データを、特定の定点を表わす3次元データとして計算させ(S12〜S16)、前記3次元画像処理装置に、前記3次元形状測定装置によって測定した3次元画像データに基づいて前記基準物体の定点を前記3次元形状測定装置に関する座標系で表わす3次元データを計算させ、かつ前記計算させた3次元形状測定装置に関する座標系で表わす3次元データを、前記座標回転関数を補正した第1座標変換関数と、前記3次元形状測定装置による3次元画像データの測定時における前記支持機構の変形状態に応じた第2座標変換関数とを用いて、前記予め決めた所定の座標系で表す3次元データに変換させ(S56〜S60)、前記3次元画像処理装置に、前記変換させて前記予め決めた所定の座標系で表された定点の3次元データと、前記計算させた特定の定点の3次元データとの差に応じて、前記第1座標変換関数の座標移動関数を補正させる(S62,S64)ようにしたことにある。According to a fourth aspect of the present invention, in addition to the configurations of the first to third aspects of the present invention, a palpation fixed to the support mechanism is brought into contact with a plurality of locations of the reference object, and the three-dimensional image processing apparatus has the touch. Three-dimensional data representing a fixed point of the reference object in the predetermined coordinate system in accordance with the deformed state of the support mechanism at each of a plurality of locations in contact with the needle is calculated as three-dimensional data representing a specific fixed point. (S12 to S16), in the three-dimensional image processing apparatus, three-dimensional data representing a fixed point of the reference object in a coordinate system related to the three-dimensional shape measuring apparatus based on the three-dimensional image data measured by the three-dimensional shape measuring apparatus. And the three-dimensional data represented in the coordinate system related to the calculated three-dimensional shape measuring apparatus, the first coordinate transformation function in which the coordinate rotation function is corrected, and the three-dimensional shape measuring device Using the second coordinate conversion function according to the deformation state of the support mechanism at the time of measurement of the three-dimensional image data by means of conversion into three-dimensional data represented in the predetermined coordinate system (S56 to S60), In accordance with the difference between the three-dimensional data of the fixed point expressed in the predetermined coordinate system that is converted and determined in advance, and the calculated three-dimensional data of the specific fixed point. This is because the coordinate movement function of the first coordinate conversion function is corrected (S62, S64).

これによれば、第1座標変換関数の座標移動関数を精度よく補正することができて、精度のよい第1座標変換関数を計算することができる。この結果、測定対象物のより正確な3次元形状測定を行うことができる。 According to this, the coordinate movement function of the first coordinate conversion function can be corrected with high accuracy , and the accurate first coordinate conversion function can be calculated. As a result, more accurate three-dimensional shape measurement of the measurement object can be performed.

以下、本発明の一実施形態について図面を用いて説明する。図1は、本発明の座標変換関数の補正方法に利用される3次元画像生成システムの基本構成を示す概略図である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing the basic configuration of a three-dimensional image generation system used in the coordinate transformation function correction method of the present invention.

この3次元画像生成システムは、基台10上に固定して先端部を測定対象空間内で自由に変位させる支持機構20と、支持機構20の先端部に取り付けた3次元形状測定装置30とを備えている。支持機構20は、固定ポール21、回転ロッド22、第1アーム23、第2アーム24および第3アーム25からなる。   This three-dimensional image generation system includes a support mechanism 20 that is fixed on a base 10 and that freely displaces a tip portion in a measurement target space, and a three-dimensional shape measuring device 30 attached to the tip portion of the support mechanism 20. I have. The support mechanism 20 includes a fixed pole 21, a rotating rod 22, a first arm 23, a second arm 24, and a third arm 25.

固定ポール21は、円筒状に形成され、その下端にて基台10上に垂直に立設固定されている。回転ロッド22は、円柱状に形成され、その下端部にて固定ポール21に軸線回りに回転可能に支持されて、固定ポール21から上方に突出している。第1アーム23は、その基端に設けた連結部23aにて、回転ロッド22の先端に設けた連結部22aに、回転ロッド22の軸線方向に直交する軸線回りに回転可能に組み付けられている。第2アーム24は、その基端に設けた連結部24aにて、第1アーム23の先端に設けた連結部23bに、第1アーム23の軸線方向に直交する軸線回りに回転可能に組み付けられている。第3アーム25は、その基端に設けた連結部25aにて、第2アーム24の先端に設けた連結部24bに、第2アーム24の軸線方向に直交する軸線回りに回転可能に組み付けられている。第3アーム25の先端部には、固定部材26を介して3次元形状測定装置30が、第3アーム25の軸線回りに回転可能、かつ着脱自在に取り付けられている。固定部材26は、3次元形状測定装置30の方形状のハウジングの底面または側面に固定されている。   The fixed pole 21 is formed in a cylindrical shape, and is vertically erected and fixed on the base 10 at the lower end thereof. The rotating rod 22 is formed in a columnar shape, and is supported at the lower end of the rotating rod 22 so as to be rotatable around the axis, and protrudes upward from the fixing pole 21. The first arm 23 is assembled to a connecting portion 22 a provided at the distal end of the rotating rod 22 at a connecting portion 23 a provided at the base end thereof so as to be rotatable around an axis perpendicular to the axial direction of the rotating rod 22. . The second arm 24 is assembled at a connecting portion 24 a provided at the base end thereof to a connecting portion 23 b provided at the distal end of the first arm 23 so as to be rotatable about an axis perpendicular to the axial direction of the first arm 23. ing. The third arm 25 is assembled at a connecting portion 25a provided at the base end thereof to a connecting portion 24b provided at the distal end of the second arm 24 so as to be rotatable about an axis perpendicular to the axial direction of the second arm 24. ing. A three-dimensional shape measuring apparatus 30 is attached to the distal end portion of the third arm 25 via a fixing member 26 so as to be rotatable about the axis of the third arm 25 and detachable. The fixing member 26 is fixed to the bottom surface or the side surface of the rectangular housing of the three-dimensional shape measuring apparatus 30.

また、支持機構20内には、回転角センサ27a,27b,27c,27d,27eがそれぞれ設けられている。回転角センサ27aは、固定ポール21内に組み込まれて、固定ポール21に対する回転ロッド22の軸線回りの回転角を検出する。回転角センサ27bは、第1アーム23の連結部23a内に組み込まれて、回転ロッド22の連結部22aに対する第1アーム23の連結部23aにおける一軸線回りの回転角を検出する。回転角センサ27cは、第2アーム24の連結部24a内に組み込まれて、第1アーム23の連結部23aに対する第2アーム24の連結部24aにおける一軸線回りの回転角を検出する。回転角センサ27dは、第3アーム25の連結部25a内に組み込まれて、第2アーム24の連結部24bに対する第3アーム25の連結部25aにおける一軸線回りの回転角を検出する。回転角センサ27eは、第3アーム25の先端部内に組み込まれて、第3アーム25に対する3次元形状測定装置30の第3アーム25における一軸線回りの回転角、すなわち3次元形状測定装置30の第3アーム25の先端部に対する回転角を検出する。   Further, rotation angle sensors 27a, 27b, 27c, 27d, and 27e are provided in the support mechanism 20, respectively. The rotation angle sensor 27 a is incorporated in the fixed pole 21 and detects a rotation angle around the axis of the rotation rod 22 with respect to the fixed pole 21. The rotation angle sensor 27 b is incorporated in the connection portion 23 a of the first arm 23 and detects a rotation angle around one axis in the connection portion 23 a of the first arm 23 with respect to the connection portion 22 a of the rotation rod 22. The rotation angle sensor 27 c is incorporated in the connection portion 24 a of the second arm 24 and detects a rotation angle around one axis in the connection portion 24 a of the second arm 24 with respect to the connection portion 23 a of the first arm 23. The rotation angle sensor 27 d is incorporated in the connection portion 25 a of the third arm 25 and detects a rotation angle around one axis in the connection portion 25 a of the third arm 25 with respect to the connection portion 24 b of the second arm 24. The rotation angle sensor 27 e is incorporated in the distal end portion of the third arm 25, and the rotation angle of the third arm 25 of the three-dimensional shape measuring apparatus 30 relative to the third arm 25 around one axis, that is, the three-dimensional shape measuring apparatus 30. A rotation angle with respect to the tip of the third arm 25 is detected.

3次元形状測定装置30は、その正面側に位置する物体の3次元形状を測定するとともに同測定した3次元形状を表す情報を出力するものであり、本実施形態においては、レーザ光を用いて3角測量法に従って物体の3次元形状を測定するものである。なお、本実施形態では、レーザ光を用いるようにしているが、3次元物体の表面形状を測定し、反射率および色などを識別することが可能であれば他の光を用いてもよい。   The three-dimensional shape measuring apparatus 30 measures the three-dimensional shape of an object located on the front side of the object and outputs information representing the measured three-dimensional shape. In this embodiment, laser light is used. The three-dimensional shape of an object is measured according to a triangulation method. In the present embodiment, laser light is used. However, other light may be used as long as the surface shape of the three-dimensional object can be measured and the reflectance and color can be identified.

この3次元形状測定装置30においては、レーザ光源から物体に向けて出射されるレーザ光の進行方向にほぼ垂直な仮想平面を想定するとともに、同仮想平面上にて互いに直交するX軸方向およびY軸方向に沿って分割した多数の微小エリアを想定する。そして、3次元形状測定装置30は、前記多数の微小エリアにレーザ光を順次照射し、物体からの反射光によって前記微小エリアが規定する物体表面までの距離をZ軸方向距離として順次検出して、物体の表面を微小エリアずつに分割した各分割エリア位置を表すX,Y,Z座標に関する情報を得て、同3次元形状測定装置30に面した物体表面の形状を測定するものである。   In this three-dimensional shape measuring apparatus 30, a virtual plane that is substantially perpendicular to the traveling direction of the laser light emitted from the laser light source toward the object is assumed, and the X-axis direction and Y that are orthogonal to each other on the virtual plane are assumed. A large number of minute areas divided along the axial direction are assumed. The three-dimensional shape measuring apparatus 30 sequentially irradiates the plurality of minute areas with laser light, and sequentially detects the distance to the object surface defined by the minute areas as reflected in the Z-axis direction by reflected light from the object. Information on X, Y, and Z coordinates representing each divided area position obtained by dividing the surface of the object into minute areas is obtained, and the shape of the object surface facing the three-dimensional shape measuring apparatus 30 is measured.

したがって、この3次元形状測定装置30は、出射レーザ光の向きをX軸方向に変化させるX軸方向走査器と、出射レーザ光の向きをY軸方向に変化させるY軸方向走査器と、物体表面にて反射された反射レーザ光を受光して物体表面までの距離を検出する距離検出器とを備えている。X軸方向走査器およびY軸方向走査器としては、レーザ光源からの出射レーザ光の光路をX軸方向およびY軸方向に独立に変化させ得る機構であればよく、例えばレーザ光源自体をX軸方向およびY軸方向の軸線回りに電動モータによって回転させたり、出射レーザ光の光路に設けられてその方向を変更するガルバノミラーをX軸方向およびY軸方向の軸線回りに電動モータによって回転させる機構を利用できる。距離検出器としては、前記出射レーザ光の光路に追従して回転し、物体表面にて反射された反射レーザ光を集光する結像レンズおよび同集光したレーザ光を受光するCCDなどの複数の受光素子を一列に配置させたラインセンサからなり、ラインセンサによる反射レーザ光の受光位置によって物体表面までの距離を検出する機構を利用できる。   Therefore, the three-dimensional shape measuring apparatus 30 includes an X-axis direction scanner that changes the direction of the emitted laser light in the X-axis direction, a Y-axis direction scanner that changes the direction of the emitted laser light in the Y-axis direction, A distance detector that receives reflected laser light reflected from the surface and detects the distance to the object surface. The X-axis direction scanner and the Y-axis direction scanner may be any mechanism that can change the optical path of the laser beam emitted from the laser light source independently in the X-axis direction and the Y-axis direction. Rotating around the axis in the direction and the Y-axis direction by an electric motor, or rotating the galvanometer mirror provided in the optical path of the emitted laser light and changing the direction around the axes in the X-axis direction and the Y-axis direction by the electric motor Can be used. As the distance detector, a plurality of imaging lenses such as an imaging lens that condenses the reflected laser light reflected on the object surface and rotates following the optical path of the emitted laser light, and a CCD that receives the condensed laser light are used. It is possible to use a mechanism for detecting the distance to the object surface based on the light receiving position of the reflected laser beam by the line sensor.

したがって、このような3次元形状測定装置30は、物体の表面を微小エリアずつに分割した各分割エリア位置を表すX,Y,Z座標に関する情報として、X軸方向走査器による出射レーザ光の基準方向に対するX軸方向への傾きθx、Y軸方向走査器による出射レーザ光の基準方向に対するY軸方向への傾きθy、および距離検出器による物体表面までの距離Lzとが、前記仮想したX軸方向およびY軸方向に沿って分割した多数の微小エリアごとに出力される。より具体的には、X軸およびY軸方向への傾きθx,θyは、電動モータの基準位置からの回転角である。また、物体表面までの距離Lzは、ラインセンサにおける反射レーザ光の受光位置である。なお、前述した3次元形状測定装置30はその一例を示すもので、レーザ光に代えてミリ波、超音波などを使用したものなど、いかなる3次元形状測定装置をも利用できる。   Therefore, such a three-dimensional shape measuring apparatus 30 uses the reference of the emitted laser light by the X-axis direction scanner as information on the X, Y, and Z coordinates representing the divided area positions obtained by dividing the surface of the object into minute areas. The inclination θx in the X-axis direction with respect to the direction, the inclination θy in the Y-axis direction with respect to the reference direction of the laser beam emitted by the Y-axis direction scanner, and the distance Lz to the object surface by the distance detector are the virtual X-axis. Are output for each of a number of minute areas divided along the direction and the Y-axis direction. More specifically, the inclinations θx and θy in the X-axis and Y-axis directions are rotation angles from the reference position of the electric motor. Further, the distance Lz to the object surface is the light receiving position of the reflected laser beam in the line sensor. The three-dimensional shape measuring apparatus 30 described above is an example, and any three-dimensional shape measuring apparatus can be used, such as one using millimeter waves or ultrasonic waves instead of laser light.

この3次元形状測定装置30には、コントローラ41および3次元画像処理装置42が接続されている。コントローラ41は、複数の操作子を含むキーボードなどからなる入力装置43からの指示にしたがって、3次元形状測定装置30の作動を制御する。また、コントローラ41は、入力装置43からの指示にしたがって3次元画像処理装置42の作動を制御するとともに、同入力装置43にて入力されたデータを3次元画像処理装置42に供給する。   A controller 41 and a three-dimensional image processing device 42 are connected to the three-dimensional shape measuring device 30. The controller 41 controls the operation of the three-dimensional shape measuring apparatus 30 in accordance with an instruction from the input device 43 including a keyboard including a plurality of operators. Further, the controller 41 controls the operation of the three-dimensional image processing device 42 in accordance with an instruction from the input device 43 and supplies data input by the input device 43 to the three-dimensional image processing device 42.

3次元画像処理装置42は、コンピュータ装置によって構成されて図3,4,6,9のプログラムの実行により、回転角センサ27a〜27eによって検出された回転角および3次元形状測定装置30からの3次元形状を表す情報、具体的には、X軸方向への傾きθx、Y軸方向への傾きθy、物体表面までの距離Lzを入力して、測定対象空間内に位置する物体の立体形状を任意の方向から見て表示可能な3次元画像データを生成する。この3次元画像処理装置42には、表示装置44が接続されている。表示装置44は、液晶ディスプレイ、プラズマディスプレイ、CRTディスプレイなどを備えており、3次元画像処理装置42から出力する3次元画像データに基づいて測定対象空間内に位置する物体の立体形状を表示する。   The three-dimensional image processing device 42 is constituted by a computer device, and the rotation angles detected by the rotation angle sensors 27a to 27e and the three-dimensional shape from the three-dimensional shape measuring device 30 by executing the programs of FIGS. Information representing the dimensional shape, specifically, the inclination θx in the X-axis direction, the inclination θy in the Y-axis direction, and the distance Lz to the object surface are input, and the three-dimensional shape of the object located in the measurement target space is input. Three-dimensional image data that can be viewed from an arbitrary direction is generated. A display device 44 is connected to the three-dimensional image processing device 42. The display device 44 includes a liquid crystal display, a plasma display, a CRT display, and the like, and displays a three-dimensional shape of an object located in the measurement target space based on the three-dimensional image data output from the three-dimensional image processing device 42.

以下、上記のように構成した3次元画像生成システムの作動について説明する。まず、作業者は、3次元形状測定装置30に関する座標系(以下、カメラ座標系という)によって表された3次元画像データを、支持機構20に関する座標系(以下、アーム座標系という)によって表された3次元画像データに変換するための第1座標変換関数を計算する。ここで、カメラ座標系は、3次元形状測定装置30に関する座標系であり、互いに直交する3つの座標軸(X軸,Y軸,Z軸)からなり3次元形状測定装置30の特定点を原点とする3次元座標系である。また、アーム座標系は、3次元形状測定装置30の取り付け部に関する座標系であり、カメラ座標系に対応する3つの座標軸(X軸,Y軸,Z軸)からなり、3次元形状測定装置30を支持機構20に取り付けるための取り付け部である第3アーム25の先端部の予め決められた位置を原点とする3次元座標系である。この第3アーム25の先端部の予め決められた位置とは、詳しくは第3アーム25に対して軸線回りに回転する点である。   Hereinafter, the operation of the three-dimensional image generation system configured as described above will be described. First, the worker expresses three-dimensional image data represented by a coordinate system (hereinafter referred to as a camera coordinate system) related to the three-dimensional shape measuring apparatus 30 by a coordinate system (hereinafter referred to as an arm coordinate system) related to the support mechanism 20. A first coordinate conversion function for converting into the three-dimensional image data is calculated. Here, the camera coordinate system is a coordinate system related to the three-dimensional shape measuring apparatus 30 and includes three coordinate axes (X axis, Y axis, Z axis) orthogonal to each other, and a specific point of the three-dimensional shape measuring apparatus 30 as an origin. This is a three-dimensional coordinate system. The arm coordinate system is a coordinate system related to the mounting portion of the three-dimensional shape measuring apparatus 30 and includes three coordinate axes (X axis, Y axis, Z axis) corresponding to the camera coordinate system. 3 is a three-dimensional coordinate system having a predetermined position of the tip end of the third arm 25 as an attachment portion for attaching to the support mechanism 20 as an origin. The predetermined position of the tip portion of the third arm 25 is a point that rotates around the axis with respect to the third arm 25 in detail.

まず、作業者は、図2に示すように、第3アーム25の先端部に、先端を尖らせて形成した触針50の基部51を固定する。次に、作業者は、基台10上における適当な位置に基準球60を配置する。この場合、基準球60は、円柱状の支持部61を介して設置され、基台10の上面から適当な高さに配置される。基準球60は、真球体に形成され測定対象空間内の定点を定めるための基準物体として機能する。なお、この触針50においては、基部51の所定位置に対する先端の位置は作業者により認識されており、3次元画像処理装置42のメモリ装置に予め記憶される。また、固定ポール21、回転ロッド22および第1〜第3アーム23〜25の長さも作業者に認識されており、3次元画像処理装置42のメモリ装置に予め記憶される。また、本実施形態においては、基準球60を支持部61を介して基台10上に配置したが、基準球60を直接基台10上に配置するようにしてもよい。さらに、触針50の先端を球状に形成し、基部51の所定位置に対する球の中心位置を認識するようにしてもよい。   First, as shown in FIG. 2, the operator fixes a base 51 of a stylus 50 formed by sharpening the tip to the tip of the third arm 25. Next, the worker places the reference sphere 60 at an appropriate position on the base 10. In this case, the reference sphere 60 is installed via a columnar support portion 61 and is disposed at an appropriate height from the upper surface of the base 10. The reference sphere 60 is formed in a true sphere and functions as a reference object for determining a fixed point in the measurement target space. In the stylus 50, the position of the tip of the base 51 with respect to a predetermined position is recognized by the operator and stored in advance in the memory device of the three-dimensional image processing device 42. The lengths of the fixed pole 21, the rotating rod 22 and the first to third arms 23 to 25 are also recognized by the operator and stored in advance in the memory device of the three-dimensional image processing device 42. Further, in the present embodiment, the reference sphere 60 is arranged on the base 10 via the support portion 61, but the reference sphere 60 may be directly arranged on the base 10. Furthermore, the tip of the stylus 50 may be formed in a spherical shape, and the center position of the sphere with respect to a predetermined position of the base 51 may be recognized.

次に、作業者は、前記準備の終了後、入力装置43を操作して、図3に示す触針測定プログラムを3次元画像処理装置42に実行させる。そして、作業者は、触針50を変位させて基準球60の外表面の異なる4点に触針50の先端を接触させるとともに、各接触ごとに入力装置43を操作することにより触針50の基準球60に対する接触を入力する。3次元画像処理装置42は、触針測定プログラムをステップS10にて開始しており、前記接触の入力により、ステップS12にて、触針50の基準球60への接触時に、回転角センサ27a〜27dから検出回転角をそれぞれ入力する。   Next, after the preparation is completed, the operator operates the input device 43 to cause the three-dimensional image processing device 42 to execute the stylus measurement program shown in FIG. Then, the operator displaces the stylus 50 to bring the tip of the stylus 50 into contact with four different points on the outer surface of the reference sphere 60, and operates the input device 43 for each contact, thereby operating the stylus 50. The contact to the reference sphere 60 is input. The three-dimensional image processing device 42 has started the stylus measurement program in step S10, and when the stylus 50 is in contact with the reference sphere 60 in step S12 by the input of the contact, the rotation angle sensors 27a to 27c. The detected rotation angle is input from 27d.

そして、これらの入力した検出回転角のセットに加えて、固定ポール21、回転ロッド22、第1〜第3アーム23〜25および触針50の長さを用いて、触針50の基準球60への接触点を表す座標であって基台10に関する座標系である基準座標系の座標を計算する。基準座標系は、カメラ座標系に対応する3つの座標軸(X軸,Y軸,Z軸)からなり固定ポール21の基台10への固定部における予め定められた点を原点とする3次元座標系である。このような基準座標系の座標の計算を各接触点ごとに行って、4つの接触点にそれぞれ対応した4組の座標データを一時的に記憶しておく。3次元画像処理装置42は、ステップS12の処理後、ステップS14にて基準球60の中心位置を表す座標であって基準座標系の座標(以下、中心座標(x”,y”,z”)という)を、前記計算した4組の座標データを用いて計算する。この計算においては、球体の外表面を表す下記数1の方程式のX,Y,Zに、前記4組の座標データを代入し、a,b,cの各値を計算することにより、基準球60の中心位置を表す座標(x”,y”,z”)を計算する。なお、a,b,cは球体の中心位置を表すX,Y,Z座標であり、dは球体の半径である。   In addition to the set of detected rotation angles, the reference ball 60 of the stylus 50 is used by using the lengths of the fixed pole 21, the rotation rod 22, the first to third arms 23 to 25 and the stylus 50. The coordinates of the reference coordinate system, which is a coordinate system representing the contact point to the base 10 and is a coordinate system related to the base 10, is calculated. The reference coordinate system is composed of three coordinate axes (X axis, Y axis, Z axis) corresponding to the camera coordinate system, and a three-dimensional coordinate having a predetermined point at the fixed portion of the fixed pole 21 to the base 10 as an origin. It is a system. Such calculation of coordinates in the reference coordinate system is performed for each contact point, and four sets of coordinate data respectively corresponding to the four contact points are temporarily stored. After the processing in step S12, the three-dimensional image processing apparatus 42 is a coordinate representing the center position of the reference sphere 60 in step S14 and is a coordinate in the reference coordinate system (hereinafter referred to as center coordinates (x ″, y ″, z ″)). In the calculation, the four sets of coordinate data are substituted into X, Y, and Z in the following equation 1 representing the outer surface of the sphere. Then, the coordinates (x ″, y ″, z ″) representing the center position of the reference sphere 60 are calculated by calculating each value of a, b, c. Note that a, b, and c are X, Y, and Z coordinates representing the center position of the sphere, and d is the radius of the sphere.

Figure 0004491687
Figure 0004491687

次に、3次元画像処理装置42は、ステップS16にて、前記計算した中心座標(x”,y”,z”)を基準球60の定点を表す座標として記憶しておく。そして、ステップS18にて、この触針測定プログラムの実行を終了する。なお、本実施形態では、基準球60に対して触針50を4箇所接触させるようにしたが、5箇所以上の接触を行って、補正を含む高精度の中心座標の計算を行うようにしてもよい。また、基準球60の半径dが既知である場合には、接触点を3点にしても、基準球60の中心座標を求めることができる。   Next, in step S16, the three-dimensional image processing device 42 stores the calculated center coordinates (x ″, y ″, z ″) as coordinates representing a fixed point of the reference sphere 60. Then, step S18. In this embodiment, the stylus 50 is brought into contact with the reference sphere 60 at four locations, but correction is performed by making contact at five or more locations. In addition, when the radius d of the reference sphere 60 is known, the center coordinates of the reference sphere 60 are obtained even if the number of contact points is three. be able to.

次に、作業者は、図1に示すように、第3アーム25の先端部に3次元形状測定装置30を第3アーム25の軸線回りに回転可能に組み付けるとともに、図4に示す座標変換関数計算プログラムを3次元画像処理装置42に実行させる。そして、作業者は、入力装置43を操作することによりコントローラ41を介して、3次元形状測定装置30に対して基準球60の3次元形状の測定開始を指示する。これに応答して、3次元形状測定装置30は、基準球60の3次元形状の測定を開始する。この場合、作業者は、3次元形状測定装置30を手で持って、回転ロッド22、第1〜第3アーム25および3次元形状測定装置30の各連結部における回転変位を伴いながら、基準球60に対して3次元形状測定装置30を移動させて基準球60の3次元形状を測定する。この場合、基準球60の測定は、それぞれ異なる3つの測定位置からそれぞれ行われる。   Next, as shown in FIG. 1, the operator assembles the three-dimensional shape measuring device 30 at the tip of the third arm 25 so as to be rotatable around the axis of the third arm 25, and the coordinate conversion function shown in FIG. 4. The calculation program is executed by the three-dimensional image processing device 42. Then, the operator operates the input device 43 to instruct the three-dimensional shape measuring device 30 to start measuring the three-dimensional shape of the reference sphere 60 via the controller 41. In response to this, the three-dimensional shape measurement apparatus 30 starts measuring the three-dimensional shape of the reference sphere 60. In this case, the operator holds the three-dimensional shape measuring device 30 with his hand, and the reference sphere is accompanied by rotational displacement at each connecting portion of the rotating rod 22, the first to third arms 25 and the three-dimensional shape measuring device 30. The three-dimensional shape measuring apparatus 30 is moved with respect to 60 to measure the three-dimensional shape of the reference sphere 60. In this case, the measurement of the reference sphere 60 is performed from three different measurement positions.

一方、3次元画像処理装置42は、3次元形状測定装置30による基準球60の3次元形状の測定中、前記座標変換関数計算プログラムの実行をステップS20にて開始して、ステップS22にて支持機構20内の回転角センサ27a〜27eから検出回転角をそれぞれ入力する。そして、前記ステップS22の処理後、ステップS24にて、3次元形状測定装置30による測定終了を待って、基準球60の3次元形状を表す情報を入力する。すなわち、基準球60の表面を微小エリアずつに分割した各分割エリア位置を表すX−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)をそれぞれ入力する。そして、同ステップS24にて、前記入力した3次元形状測定装置30からのX−Y−Z座標に関する情報に基づいて、各測定位置ごとにおける基準球60の3次元形状を表す立体形状データ群からなる3次元画像データをそれぞれ計算する。この場合、3次元画像データは、3次元形状測定装置30に関する座標系、すなわちカメラ座標系によって表されている。なお、前記3次元画像データ中に基準球60以外の物体(例えば、基台10など)に関する不要な3次元画像データが含まれている場合には、3次元画像処理装置42は、3次元形状測定装置30からX−Y−Z座標に関する情報とともに、ラインセンサの受光光量のデータまたは同受光光量の出射光量に対する比のデータを入力し、同ステップS24にて、この受光光量または受光光量の出射光量に対する比のデータにより同不要な3次元画像データを除去する処理を併せて実行する。   Meanwhile, during the measurement of the three-dimensional shape of the reference sphere 60 by the three-dimensional shape measuring device 30, the three-dimensional image processing device 42 starts execution of the coordinate conversion function calculation program in step S20 and supports it in step S22. The detected rotation angles are input from the rotation angle sensors 27a to 27e in the mechanism 20, respectively. After step S22, information representing the three-dimensional shape of the reference sphere 60 is input after waiting for the measurement by the three-dimensional shape measuring apparatus 30 in step S24. That is, information (specifically, inclinations θx, θy and distance Lz) relating to XYZ coordinates representing the divided area positions obtained by dividing the surface of the reference sphere 60 into minute areas is input. In step S24, from the three-dimensional shape data group representing the three-dimensional shape of the reference sphere 60 for each measurement position, based on the input information about the XYZ coordinates from the three-dimensional shape measurement apparatus 30. Each of the three-dimensional image data is calculated. In this case, the three-dimensional image data is represented by a coordinate system related to the three-dimensional shape measuring apparatus 30, that is, a camera coordinate system. If the 3D image data includes unnecessary 3D image data related to an object other than the reference sphere 60 (for example, the base 10 or the like), the 3D image processing device 42 has a 3D shape. Along with information on the XYZ coordinates from the measuring device 30, data on the received light quantity of the line sensor or data on the ratio of the received light quantity to the emitted light quantity is input, and in step S24, the received light quantity or received light quantity is emitted. A process for removing the unnecessary three-dimensional image data from the data of the ratio with respect to the amount of light is also executed.

次に、3次元画像処理装置42は、ステップS26にて、前記計算した各測定位置ごとの3次元画像データを、上記数1の方程式のX,Y,Zに適用して、最小2乗法により基準球60の各測定位置ごとに中心座標(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)を計算する。なお、各測定位置ごとの基準球60の3次元画像データの区別は、前記入力した回転角センサ27a〜27eによる検出回転角を用いる。   Next, in step S26, the three-dimensional image processing device 42 applies the calculated three-dimensional image data for each measurement position to X, Y, and Z of the above equation 1, and uses the least square method. Center coordinates (x1, y1, z1), (x2, y2, z2), (x3, y3, z3) are calculated for each measurement position of the reference sphere 60. In addition, the three-dimensional image data of the reference sphere 60 for each measurement position is distinguished using the rotation angles detected by the input rotation angle sensors 27a to 27e.

次に、3次元画像処理装置42は、ステップS28にて、前記入力した回転角センサ27a〜27eによる検出回転角に加えて、固定ポール21、回転ロッド22および第1〜第3アーム23〜25の長さを用いて、第3アーム25の先端部の予め決められた位置を表す座標、すなわちアーム座標系の原点を表す座標であって基準座標系に関する座標(xd1,yd1,zd1),(xd2,yd2,zd2),(xd3,yd3,zd3)を各測定位置ごとにそれぞれ計算する。また、このステップS28においては、前記入力した回転角センサ27a〜27eによる検出回転角を用いて、アーム座標系のX軸、Y軸およびZ軸回りの回転角(α1,β1,γ1),(α2,β2,γ2),(α3,β3,γ3)も各測定位置ごとにそれぞれ計算する。   Next, in step S28, the three-dimensional image processing device 42 adds the fixed rotation angle 21, the rotation rod 22, and the first to third arms 23 to 25 in addition to the input rotation angle detected by the rotation angle sensors 27a to 27e. Are coordinates representing a predetermined position of the tip of the third arm 25, that is, coordinates representing the origin of the arm coordinate system and coordinates (xd1, yd1, zd1), ( xd2, yd2, zd2) and (xd3, yd3, zd3) are calculated for each measurement position. In step S28, rotation angles (α1, β1, γ1), (about the X, Y, and Z axes of the arm coordinate system are used by using the rotation angles detected by the input rotation angle sensors 27a to 27e. α2, β2, γ2) and (α3, β3, γ3) are also calculated for each measurement position.

次に、3次元画像処理装置42は、ステップS30にて、前記図3の触針測定プログラムの実行によってメモリ装置に記憶した基準球60の基準座標系における中心座標(x”,y”,z”)と、前記ステップS28の処理によって計算した基準座標系におけるアーム座標系の原点座標(xd1,yd1,zd1),(xd2,yd2,zd2),(xd3,yd3,zd3)と、同ステップS28の処理によって計算した基準座標系に対するアーム座標系の各座標軸X,Y,Zの回転角(α1,β1,γ1),(α2,β2,γ2),(α3,β3,γ3)とを下記数2及び数3に代入して、基準球60の中心座標であってアーム座標系での中心座標(x’1,y’1,z’1),(x’2,y’2,z’2),(x’3,y’3,z’3)を計算する。   Next, in step S30, the three-dimensional image processing device 42 performs center coordinates (x ″, y ″, z) in the reference coordinate system of the reference sphere 60 stored in the memory device by executing the stylus measurement program of FIG. )), The origin coordinates (xd1, yd1, zd1), (xd2, yd2, zd2), (xd3, yd3, zd3) of the arm coordinate system in the reference coordinate system calculated by the processing of step S28, and step S28. The rotation angles (α1, β1, γ1), (α2, β2, γ2), (α3, β3, γ3) of the coordinate axes X, Y, and Z of the arm coordinate system with respect to the reference coordinate system calculated by the process of Substituting into 2 and Equation 3, the center coordinates of the reference sphere 60 and the center coordinates (x′1, y′1, z′1), (x′2, y′2, z ′) in the arm coordinate system. 2) Calculate (x'3, y'3, z'3).

Figure 0004491687
Figure 0004491687

Figure 0004491687
Figure 0004491687

上記数2および数3は、X−Y−Z座標からなる第1座標系における一点の座標(x,y,z)を、同第1座標系をX軸、Y軸およびZ軸回りにそれぞれxθ,yθ,zθだけ回転させるとともに、同第1座標系の原点をX軸方向、Y軸方向およびZ軸方向にそれぞれa,b,cだけ移動させた第2座標系における同一点の座標(x’,y’,z’)との関係を示している。そして、このステップS30の計算においては、数2中の座標値x,y,zが、基準球60の中心座標であって基準座標系の中心座標(x”,y”,z”)の各X,Y,Z座標値にそれぞれ対応する。また、数2中の座標値x’,y’,z’が、基準球60の中心座標であってアーム座標系の中心座標(x’,y’,z’)の各X,Y,Z座標値に対応する。なお、前記数2中の値a,b,cは前記ステップS28にて計算したアーム座標系の原点座標(xd1,yd1,zd1),(xd2,yd2,zd2),(xd3,yd3,zd3)に対応し、かつ前記数2中のα,β,γは同ステップS28にて計算した回転角(α1,β1,γ1),(α2,β2,γ2),(α3,β3,γ3)に相当する。   Equations (2) and (3) above represent the coordinates (x, y, z) of one point in the first coordinate system composed of XYZ coordinates, and the first coordinate system around the X, Y, and Z axes, respectively. The coordinates of the same point in the second coordinate system are rotated by xθ, yθ, zθ and the origin of the first coordinate system is moved by a, b, c in the X-axis direction, Y-axis direction and Z-axis direction, respectively ( x ′, y ′, z ′). In the calculation in step S30, the coordinate values x, y, and z in Equation 2 are the center coordinates of the reference sphere 60 and each of the center coordinates (x ″, y ″, z ″) of the reference coordinate system. The coordinate values x ′, y ′, and z ′ in Equation 2 are the center coordinates of the reference sphere 60 and the center coordinates (x ′, y) of the arm coordinate system, respectively. ', z') corresponding to the respective X, Y, Z coordinate values, wherein the values a, b, c in the equation 2 are the origin coordinates (xd1, yd1,) of the arm coordinate system calculated in step S28. zd1), (xd2, yd2, zd2), (xd3, yd3, zd3), and α, β, γ in Equation 2 are rotation angles (α1, β1, γ1) calculated in step S28. , (Α2, β2, γ2), (α3, β3, γ3).

前記ステップS30の処理後、ステップS32にて、ステップS26の処理によって計算したカメラ座標系の基準球60の各測定位置ごとの中心座標(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)と、ステップS30の処理によって計算したアーム座標系の基準球60の中心座標(x’1,y’1,z’1),(x’2,y’2,z’2),(x’3,y’3,z’3)とを用いて、カメラ座標系からアーム座標系への第1座標変換関数を計算する。   After the process of step S30, in step S32, the center coordinates (x1, y1, z1), (x2, y2, z2), for each measurement position of the reference sphere 60 of the camera coordinate system calculated by the process of step S26, (x3, y3, z3) and the center coordinates (x'1, y'1, z'1), (x'2, y'2, z) of the reference sphere 60 of the arm coordinate system calculated by the processing of step S30 The first coordinate conversion function from the camera coordinate system to the arm coordinate system is calculated using '2) and (x'3, y'3, z'3).

この第1座標変換関数の計算の前に、この種の座標変換について簡単に説明しておく。まず、X−Y−Z座標からなる第1座標系と、同第1座標系をX軸、Y軸およびZ軸回りにそれぞれxθ,yθ,zθだけ回転させるとともに、同第1座標系の原点をX軸方向、Y軸方向およびZ軸方向にそれぞれa,b,cだけ移動させた第2座標系を想定する。この場合も、第1座標系における一点の座標を(x,y,z)とし、第2座標系における同一点の座標を(x’,y’,z’)すると、前記数2,3の場合と同様に、下記数4が成立するとともに、同数4中の行列Mは下記数5によって表される。   Before calculating the first coordinate conversion function, this type of coordinate conversion will be briefly described. First, the first coordinate system composed of XYZ coordinates and the first coordinate system are rotated by xθ, yθ, zθ around the X, Y, and Z axes, respectively, and the origin of the first coordinate system Is assumed to be a second coordinate system that is moved by a, b, and c in the X-axis direction, the Y-axis direction, and the Z-axis direction, respectively. Also in this case, if the coordinates of one point in the first coordinate system are (x, y, z) and the coordinates of the same point in the second coordinate system are (x ', y', z '), Similarly to the case, the following equation 4 is established, and the matrix M in the equation 4 is represented by the following equation 5.

Figure 0004491687
Figure 0004491687

Figure 0004491687
Figure 0004491687

このステップS32の第1座標変換関数の計算は、前記数4および数5中の行列値g11,g12,g13,g21,g22,g23,g31,g32,g33および行列値a,b,cを計算することを意味する。この場合、本実施形態のカメラ座標系が第1座標系に対応するとともに、アーム座標系が第2座標系に対応する。したがって、各測定位置ごとのカメラ座標系の基準球60の各中心座標(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)と、アーム座標系の基準球60の中心座標(x’1,y’1,z’1),(x’2,y’2,z’2),(x’3,y’3,z’3)とを前記数4に適用すると、下記数6〜8の関係が成立する。 The calculation of the first coordinate transformation function in step S32 is performed by calculating the matrix values g 11 , g 12 , g 13 , g 21 , g 22 , g 23 , g 31 , g 32 , g 33 in the equations 4 and 5. This means that matrix values a, b, and c are calculated. In this case, the camera coordinate system of the present embodiment corresponds to the first coordinate system, and the arm coordinate system corresponds to the second coordinate system. Accordingly, the center coordinates (x1, y1, z1), (x2, y2, z2), (x3, y3, z3) of the reference sphere 60 in the camera coordinate system for each measurement position, and the reference sphere 60 in the arm coordinate system. The center coordinates (x′1, y′1, z′1), (x′2, y′2, z′2), and (x′3, y′3, z′3) of When applied, the following relationships 6 to 8 are established.

Figure 0004491687
Figure 0004491687

Figure 0004491687
Figure 0004491687

Figure 0004491687
Figure 0004491687

前記数6を変形すると、下記数9の連立方程式が成立する。   When Equation 6 is transformed, the following Equation 9 is established.

Figure 0004491687
Figure 0004491687

ここで、定点座標(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)を含む平面の法線ベクトルを(α,β,γ)とし、定点座標(x’1,y’1,z’1),(x’2,y’2,z’2),(x’3,y’3,z’3)を含む平面の法線ベクトルを(α’,β’,γ’)とすると、2つの法線ベクトルの大きさが同じであれば下記数10が成立する。同数10中の行列Mは、前記数5によって表される。

Figure 0004491687
Here, the normal vector of the plane including the fixed point coordinates (x1, y1, z1), (x2, y2, z2), (x3, y3, z3) is (α, β, γ), and the fixed point coordinates (x ′ 1, y′1, z′1), (x′2, y′2, z′2), (x′3, y′3, z′3) and the normal vector of the plane including (α ′, Assuming that β ′ and γ ′), the following equation 10 holds if the two normal vectors have the same magnitude. The matrix M in the equation 10 is represented by the equation 5.
Figure 0004491687

定点座標(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)を含む平面の法線ベクトルを(x2,y2,z2)から(x1,y1,z1)に向かうベクトルと、(x3,y3,z3)から(x2,y2,z2)に向かうベクトルの外積により成立するベクトルとすると、前記法線ベクトル(α,β,γ)は下記数11によって表される。

Figure 0004491687
The normal vector of the plane including the fixed point coordinates (x1, y1, z1), (x2, y2, z2), (x3, y3, z3) is directed from (x2, y2, z2) to (x1, y1, z1) The normal vector (α, β, γ) is expressed by the following equation (11), assuming that the vector is formed by the outer product of the vector and the vector from (x3, y3, z3) to (x2, y2, z2).
Figure 0004491687

同様に、前記ベクトル(α’,β’,γ’)は下記数12によって表される。

Figure 0004491687
Similarly, the vector (α ′, β ′, γ ′) is represented by the following formula 12.
Figure 0004491687

前記数11および前記数12を前記数10に代入すると、下記数13が成立する。

Figure 0004491687
Substituting Equation 11 and Equation 12 into Equation 10 yields Equation 13 below.
Figure 0004491687

前記数13の1番目の式を前記数9に加えれば、下記数14の連立方程式となる。

Figure 0004491687
If the first equation of Equation 13 is added to Equation 9, the following simultaneous equations of Equation 14 are obtained.
Figure 0004491687

この数14の連立方程式を解くことにより、行列値g11,g12,g13を計算することができる。また、前記数7および数8に関しても、前記数9の連立方程式のように変形し、前記数13の2番目の式および3番目の式をそれぞれ加えた連立方程式を解くことにより行列値g21,g22,g23および行列値g31,g32,g33を計算できる。そして、これらの計算した行列値を前記数6〜8に代入すれば、行列値a,b,cを計算できる。これにより、カメラ座標系における座標値(x,y,z)を、アーム座標系における座標値(x’,y’,z’)に変換するための第1座標変換関数が計算される。 The matrix values g 11 , g 12 , and g 13 can be calculated by solving the simultaneous equations of Equation 14. Further, the equations 7 and 8 are also transformed into the simultaneous equations of the equation 9, and the matrix value g 21 is obtained by solving the simultaneous equations obtained by adding the second equation and the third equation of the equation 13, respectively. , G 22 , g 23 and matrix values g 31 , g 32 , g 33 can be calculated. Then, by substituting these calculated matrix values into the equations 6 to 8, matrix values a, b, and c can be calculated. Thereby, the first coordinate conversion function for converting the coordinate value (x, y, z) in the camera coordinate system into the coordinate value (x ′, y ′, z ′) in the arm coordinate system is calculated.

次に、ステップS34にて、前記計算した第1座標変換関数の行列値g11,g12,g13,g21,g22,g23,g31,g32,g33,a,b,cを3次元画像処理装置42のメモリ装置内に記憶する。そして、3次元画像処理装置42は、ステップS36にて、この座標変換関数計算プログラムの実行を終了する。 Next, in step S34, the calculated matrix values g 11 , g 12 , g 13 , g 21 , g 22 , g 23 , g 31 , g 32 , g 33 , a, b, c is stored in the memory device of the three-dimensional image processing device 42. Then, in step S36, the three-dimensional image processing device 42 ends the execution of the coordinate conversion function calculation program.

次に、作業者は、前記座標変換関数計算プログラムによって計算された第1座標変換関数を補正する。具体的には、作業者は、入力装置43を操作して第1座標変換関数の補正を3次元画像処理装置42に指示する。この指示に応答して、3次元画像処理装置42は、図5に示す座標変換関数補正プログラムの実行をステップS40にて開始して、ステップS42にて基準球60の3次元形状を表す測定情報の入力を待つ。   Next, the operator corrects the first coordinate conversion function calculated by the coordinate conversion function calculation program. Specifically, the operator operates the input device 43 to instruct the three-dimensional image processing device 42 to correct the first coordinate conversion function. In response to this instruction, the three-dimensional image processing device 42 starts execution of the coordinate transformation function correction program shown in FIG. 5 at step S40, and measurement information representing the three-dimensional shape of the reference sphere 60 at step S42. Wait for input.

次に、作業者は、3次元形状測定装置30の向きを調整して3次元形状測定装置30のカメラ座標系の各座標軸の向きを基準座標系の各座標軸の向きに略一致させる。そして、3次元形状測定装置30を手で持って、回転ロッド22、第1〜第3アーム25および3次元形状測定装置30の各連結部における回転変位を伴いながら、基準球60に対して3次元形状測定装置30を移動させて入力装置43から測定開始を指示することにより基準球60の3次元形状を測定する。この場合、作業者は、3次元形状測定装置30をカメラ座標系および基準座標系の両座標系の3つの座標軸のうち互いに対応する2つの座標軸にそれぞれ平行に移動させながら、各移動方向ごとに3つの位置で基準球60を測定する。本実施形態においては、図6に示すように、3次元形状測定装置30をY軸方向に移動させて3つの位置(図においてa,b,cの位置)で測定した後、Z軸方向に移動させて3つの位置(図においてd,b,c)で測定する。この場合、3次元形状測定装置30を十字状に移動させ、十字状の交点の位置(図においてbの位置)では1回測定すれば、同測定値を2つの移動方向における各測定値として用いることができ測定作業の効率がよい。   Next, the operator adjusts the direction of the three-dimensional shape measuring apparatus 30 so that the direction of each coordinate axis of the camera coordinate system of the three-dimensional shape measuring apparatus 30 substantially matches the direction of each coordinate axis of the reference coordinate system. Then, while holding the three-dimensional shape measuring device 30 by hand, the rotational distance at each connecting portion of the rotating rod 22, the first to third arms 25 and the three-dimensional shape measuring device 30 is 3 with respect to the reference sphere 60. The three-dimensional shape of the reference sphere 60 is measured by moving the dimension shape measuring device 30 and instructing the start of measurement from the input device 43. In this case, the operator moves the three-dimensional shape measuring device 30 in each movement direction while moving the three-dimensional shape measuring apparatus 30 in parallel to two coordinate axes corresponding to each other among the three coordinate axes of the camera coordinate system and the reference coordinate system. The reference sphere 60 is measured at three positions. In the present embodiment, as shown in FIG. 6, the three-dimensional shape measuring apparatus 30 is moved in the Y-axis direction and measured at three positions (positions a, b, and c in the figure), and then in the Z-axis direction. Move and measure at three positions (d, b, c in the figure). In this case, if the three-dimensional shape measuring device 30 is moved in a cross shape and measured once at the position of the cross-shaped intersection (position b in the figure), the measured value is used as each measured value in the two moving directions. The efficiency of the measurement work can be improved.

3次元形状測定装置30は、各測定位置ごとに測定対象空間内に位置する基準球60の3次元形状を表す情報を3次元画像処理装置42に出力する。すなわち、基準球60の表面を微小エリアずつに分割した各分割エリア位置を表すX−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)を3次元画像処理装置42に出力する。3次元画像処理装置42は、同ステップS42にて、前記ステップS24と同様にして、3次元形状測定装置30から出力されたX−Y−Z座標に関する情報に基づいて、各測定位置ごとにおける基準球60の3次元形状を表す立体形状データ群からなる3次元画像データをそれぞれ計算する。この場合、3次元画像データは、3次元形状測定装置30に関する座標系、すなわちカメラ座標系によって表されている。なお、前記3次元画像データ中に基準球60以外の物体(例えば、基台10など)に関する不要な3次元画像データが含まれている場合には、3次元画像処理装置42は、同ステップS42にて、前記ステップS24と同様にして同不要な3次元画像データを除去する処理を併せて実行する。これにより、カメラ座標系および基準座標系の各Y軸方向およびZ軸方向に沿ってそれぞれ3組の基準球60の3次元形状を表す3次元画像データが得られる。   The three-dimensional shape measurement apparatus 30 outputs information representing the three-dimensional shape of the reference sphere 60 located in the measurement target space to the three-dimensional image processing apparatus 42 for each measurement position. That is, information (specifically, inclinations θx, θy and distance Lz) regarding the XYZ coordinates representing the divided area positions obtained by dividing the surface of the reference sphere 60 into minute areas is given to the three-dimensional image processing device 42. Output. In step S42, the three-dimensional image processing device 42 performs a reference for each measurement position based on the information about the XYZ coordinates output from the three-dimensional shape measurement device 30, as in step S24. Three-dimensional image data composed of a three-dimensional shape data group representing the three-dimensional shape of the sphere 60 is calculated. In this case, the three-dimensional image data is represented by a coordinate system related to the three-dimensional shape measuring apparatus 30, that is, a camera coordinate system. When the 3D image data includes unnecessary 3D image data related to an object other than the reference sphere 60 (for example, the base 10 or the like), the 3D image processing apparatus 42 performs the same step S42. In the same manner as in step S24, a process for removing the unnecessary three-dimensional image data is also executed. As a result, three-dimensional image data representing the three-dimensional shapes of the three sets of reference spheres 60 can be obtained along each Y-axis direction and Z-axis direction of the camera coordinate system and the reference coordinate system.

次に、3次元画像処理装置42は、ステップS44にて、前記3組の3次元画像データをアーム座標系によって表された3次元画像データに座標変換する。具体的には、図4に示す座標変換関数計算プログラムによって計算された第1座標変換関数を用いて、カメラ座標系によって表された3次元画像データをアーム座標系によって表された3次元画像データに座標変換する。   Next, in step S44, the three-dimensional image processing device 42 performs coordinate conversion of the three sets of three-dimensional image data into three-dimensional image data represented by an arm coordinate system. Specifically, using the first coordinate transformation function calculated by the coordinate transformation function calculation program shown in FIG. 4, the three-dimensional image data represented by the arm coordinate system is converted from the three-dimensional image data represented by the camera coordinate system. Convert coordinates to.

次に、3次元画像処理装置42は、ステップS46にて、アーム座標系の座標値を基準座標系の座標値に座標変換するための第2座標変換関数を計算する。3次元画像処理装置42は、支持機構20内に設けた回転角センサ27a〜27eによる検出回転角をそれぞれ入力して、固定ポール21、回転ロッド22および第1〜第3アーム23〜25の動きに対応した座標変換関数を計算する。具体的には、3次元画像処理装置42は、入力した検出回転角と、固定ポール21、回転ロッド22および第1〜第3アーム23〜25のアームの長さとを用いて、アーム座標系から見た基準座標系の原点の座標、すなわちアーム座標系における基準座標系の原点の座標(xoa,yob,zoc)を前記数2における第2座標変換関数の行列値a,b,cとして計算するとともに、アーム座標系の各座標軸を基準にした基準座標系の各座標軸の回転角を前記数3における第2座標変換関数の角度α,β,γとして計算する。この第2座標変換関数は、3次元形状測定装置30による各測定位置ごとに計算される。なお、この第2座標変換関数と前記第1座標変換関数とにより、本発明に係る座標変換関数を構成する。   Next, in step S46, the three-dimensional image processing device 42 calculates a second coordinate conversion function for converting the coordinate value of the arm coordinate system to the coordinate value of the reference coordinate system. The three-dimensional image processing device 42 inputs the rotation angles detected by the rotation angle sensors 27a to 27e provided in the support mechanism 20, and moves the fixed pole 21, the rotation rod 22, and the first to third arms 23 to 25, respectively. The coordinate transformation function corresponding to is calculated. Specifically, the three-dimensional image processing device 42 uses an input detection rotation angle and the arm lengths of the fixed pole 21, the rotation rod 22, and the first to third arms 23 to 25 from the arm coordinate system. The coordinates of the origin of the seen reference coordinate system, that is, the coordinates (xoa, yob, zoc) of the origin of the reference coordinate system in the arm coordinate system are calculated as matrix values a, b, c of the second coordinate transformation function in the equation (2). At the same time, the rotation angle of each coordinate axis of the reference coordinate system with respect to each coordinate axis of the arm coordinate system is calculated as the angles α, β, γ of the second coordinate transformation function in the above equation 3. This second coordinate conversion function is calculated for each measurement position by the three-dimensional shape measuring apparatus 30. The second coordinate conversion function and the first coordinate conversion function constitute a coordinate conversion function according to the present invention.

次に、3次元画像処理装置42は、ステップS48にて、前記3組の3次元画像データを基準座標系によって表された3次元画像データに座標変換する。具体的には、前記ステップS44にてアーム座標系に座標変換された3次元画像データを、前記ステップS46にて計算された第2座標変換関数のα,β,γ,a,b,cを用いて基準座標系によって表された3次元画像データに座標変換する。これにより、各測定位置ごとの基準球60の3次元形状を表す情報が基準座標系によって表された3次元画像データに座標変換される。そして、3次元画像処理装置42は、座標変換した各測定位置ごとの3次元画像データをメモリ装置に記憶する。この場合、3次元画像処理装置42は、各測定位置ごとの3次元画像データに対応させて、各測定位置ごとの第2座標変換関数のα,β,γ,a,b,cもメモリ装置に記憶する。   Next, in step S48, the three-dimensional image processing device 42 converts the three sets of three-dimensional image data into three-dimensional image data represented by a reference coordinate system. Specifically, the three-dimensional image data coordinate-converted to the arm coordinate system in step S44 is converted into the second coordinate conversion function α, β, γ, a, b, c calculated in step S46. Used to convert coordinates to three-dimensional image data represented by the reference coordinate system. As a result, information representing the three-dimensional shape of the reference sphere 60 for each measurement position is coordinate-converted into three-dimensional image data represented by the reference coordinate system. Then, the three-dimensional image processing device 42 stores the three-dimensional image data for each measurement position subjected to coordinate conversion in the memory device. In this case, the three-dimensional image processing device 42 also associates the second coordinate transformation function α, β, γ, a, b, c for each measurement position with the memory device corresponding to the three-dimensional image data for each measurement position. To remember.

次に、3次元画像処理装置42は、ステップS50にて、各測定位置ごとの基準球60の中心座標を定点として計算する。具体的には、前記ステップS48にて基準座標系によって表された3次元画像データ(X,Y,Z座標値)を、球体を表す式である前記数1の左辺のX,Y,Zにそれぞれ代入し、最小2乗法を用いて未知数a,b,cを計算する。この場合、a,b,cは、3次元画像データにより表された球体中心のx,y,z座標値をそれぞれ表し、dは球体の半径を表す。そして、3次元画像処理装置42は、計算した球体中心のx,y,z座標値を定点としてメモリ装置に記憶する。これにより、各移動方向(Y軸,Z軸)ごとに3つの位置から測定した基準球60の基準座標系での各中心座標(xa”,ya”,za”),(xb”,yb”,zb”),(xc”,yc”,zc”),(xd”,yd”,zd”),(xe”,ye”,ze”)が定点を表す3次元データとしてそれぞれ計算される。   Next, in step S50, the three-dimensional image processing device 42 calculates the center coordinates of the reference sphere 60 for each measurement position as a fixed point. Specifically, the three-dimensional image data (X, Y, Z coordinate values) represented by the reference coordinate system in the step S48 is converted into X, Y, Z on the left side of the equation 1, which is an expression representing a sphere. Substituting each other, the unknowns a, b, and c are calculated using the least square method. In this case, a, b, and c represent the x, y, and z coordinate values of the sphere center represented by the three-dimensional image data, respectively, and d represents the radius of the sphere. Then, the three-dimensional image processing device 42 stores the calculated x, y, z coordinate values of the sphere center in the memory device as a fixed point. As a result, the center coordinates (xa ″, ya ″, za ″), (xb ″, yb ″) in the reference coordinate system of the reference sphere 60 measured from three positions for each movement direction (Y axis, Z axis). , zb ″), (xc ″, yc ″, zc ″), (xd ″, yd ″, zd ″), and (xe ″, ye ″, ze ″) are respectively calculated as three-dimensional data representing fixed points.

次に、3次元画像処理装置42は、第1座標変換関数の補正関数を計算する。この第1座標変換関数の補正関数は、各座標軸の傾きに関し座標軸の回転を表す座標回転関数と、座標系の原点ずれに関し座標軸の直線移動を表す座標移動関数とからなる。3次元画像処理装置42は、ステップS52にて、各座標軸の座標回転関数M’を計算する。座標回転関数M’は、第1座標変換関数における各座標軸の角度に関する関数、すなわち、前記数4および数5に示す関数Mの行列値g11,g12,g13,g21,g22,g23,g31,g32,g33の各値を補正するための関数であり、下記数15によって表される。すなわち、このステップS52の処理は、下記数15中のθx,θy,θzを計算することを意味する。θx,θy,θzは、各座標軸(X軸,Y軸,Z軸)の回転角度を表しており、カメラ座標系による座標軸のアーム座標系による座標軸への変換において、第1座標変換関数とアーム座標系による座標軸を基準に考えた場合のカメラ座標系の座標軸、換言すれば、アーム座標系による座標軸を第1座標変換関数の逆関数によりカメラ座標系の座標軸に変換した際のカメラ座標系(以下、仮のカメラ座標系という)の座標軸と、真のカメラ座標系の座標軸との角度のずれを表している。 Next, the three-dimensional image processing device 42 calculates a correction function for the first coordinate transformation function. The correction function of the first coordinate conversion function includes a coordinate rotation function that represents rotation of the coordinate axis with respect to the inclination of each coordinate axis, and a coordinate movement function that represents linear movement of the coordinate axis with respect to the origin deviation of the coordinate system. In step S52, the three-dimensional image processing apparatus 42 calculates a coordinate rotation function M ′ for each coordinate axis. The coordinate rotation function M ′ is a function related to the angle of each coordinate axis in the first coordinate transformation function, that is, the matrix values g 11 , g 12 , g 13 , g 21 , g 22 , of the function M shown in the equations 4 and 5. This is a function for correcting each value of g 23 , g 31 , g 32 , and g 33 and is represented by the following formula 15. That is, the process of step S52 means that θx, θy, and θz in the following formula 15 are calculated. θx, θy, θz represent the rotation angle of each coordinate axis (X axis, Y axis, Z axis), and in the conversion of the coordinate axis by the camera coordinate system to the coordinate axis by the arm coordinate system, the first coordinate conversion function and the arm The coordinate axis of the camera coordinate system when considered based on the coordinate axis based on the coordinate system, in other words, the camera coordinate system when the coordinate axis based on the arm coordinate system is converted to the coordinate axis of the camera coordinate system by the inverse function of the first coordinate conversion function ( Hereinafter, it represents a deviation in angle between the coordinate axis of the temporary camera coordinate system and the coordinate axis of the true camera coordinate system.

Figure 0004491687
Figure 0004491687

この回転角度θx,θy,θzの計算について詳しく説明する。回転角度θx,θy,θzは、仮のカメラ座標系の座標軸x,y,zと真のカメラ座標系の座標軸x’’’,y’’’,z’’’の各座標軸ごとの角度のずれを表している。この角度のずれは小さいので、各座標軸の角度のずれは各座標軸に直交する2つの座標軸からなる平面で考えることができる。具体的には、X軸の角度のずれθxをY−Z軸平面、Y軸の角度のずれθyをX−Z軸平面、Z軸の角度のずれθzをX−Y軸平面でそれぞれ考える。   The calculation of the rotation angles θx, θy, θz will be described in detail. The rotation angles θx, θy, θz are the angles of the coordinate axes x, y, z of the temporary camera coordinate system and the coordinate axes x ′ ″, y ′ ″, z ′ ″ of the true camera coordinate system. It represents a gap. Since this angle deviation is small, the angle deviation of each coordinate axis can be considered on a plane composed of two coordinate axes orthogonal to each coordinate axis. Specifically, the X-axis angle shift θx is considered on the YZ-axis plane, the Y-axis angle shift θy on the X-Z-axis plane, and the Z-axis angle shift θz on the XY-axis plane.

そして、カメラ座標系の各座標軸の向きと、同各座標軸に対応する基準座標系の各座標軸の向きとを同一とすれば、第1座標変換関数および第2座標変換関数による各座標変換において各座標軸の角度に関する座標変換を無視することができ、アーム座標系の各座標軸の向きもカメラ座標系および基準座標系の座標軸と同一と考えることができる。この場合、例えば、Z軸の角度のずれθzを計算するために、X−Y軸平面におけるカメラ座標系の座標値を(x,y)、アーム座標系の座標値を(x’,y’)、基準座標系の座標値を(x”,y”)、仮のカメラ座標系の座標値を(x’’’,y’’’)とすれば、各座標系間の座標変換は下記数16に示すようになる。下記数16中、(α1,β1)はアーム座標系の原点とカメラ座標系の原点とのずれ、(α2,β2)は基準座標系の原点とアーム座標系の原点とのずれ、(α3,β3)はアーム座標系の原点と仮のカメラ座標系の原点とのずれをそれぞれ表す。   If the direction of each coordinate axis of the camera coordinate system is the same as the direction of each coordinate axis of the reference coordinate system corresponding to each coordinate axis, each coordinate conversion by the first coordinate conversion function and the second coordinate conversion function Coordinate transformation relating to the angle of the coordinate axis can be ignored, and the orientation of each coordinate axis in the arm coordinate system can also be considered to be the same as the coordinate axes of the camera coordinate system and the reference coordinate system. In this case, for example, in order to calculate the angle deviation θz of the Z axis, the coordinate value of the camera coordinate system on the XY axis plane is (x, y), and the coordinate value of the arm coordinate system is (x ′, y ′). ) If the coordinate value of the reference coordinate system is (x ″, y ″) and the coordinate value of the temporary camera coordinate system is (x ′ ″, y ′ ″), the coordinate conversion between the coordinate systems is as follows: As shown in Equation 16. In the following equation 16, (α1, β1) is a deviation between the origin of the arm coordinate system and the origin of the camera coordinate system, (α2, β2) is a deviation between the origin of the reference coordinate system and the origin of the arm coordinate system, (α3, β3) represents the deviation between the origin of the arm coordinate system and the origin of the temporary camera coordinate system.

Figure 0004491687
Figure 0004491687

この場合、基準座標系における定点を表す座標を(x”0,y”0)とすると、各座標系では下記数17に示すように表される。   In this case, if the coordinates representing the fixed point in the reference coordinate system are (x ″ 0, y ″ 0), each coordinate system is expressed as shown in the following Expression 17.

Figure 0004491687
Figure 0004491687

カメラ座標系の座標をアーム座標系の座標に変換し、このアーム座標系の座標を基準座標系の座標に変換する場合、真のカメラ座標系の座標は仮のカメラ座標系の座標を見なされてアーム座標系の座標に変換され、このアーム座標系の座標が基準座標系の座標に変換される。すなわち、前記数17の2番目の座標が前記数16の3番目の式で変換された後、2番目の式で変換される。このため、カメラ座標系における定点を表す座標をカメラ座標系で測定し、アーム座標系の座標に変換した後、さらに基準座標系の座標値に変換すると、同座標は下記数18に示すように表される。

Figure 0004491687
When converting the coordinates of the camera coordinate system to the coordinates of the arm coordinate system and converting the coordinates of the arm coordinate system to the coordinates of the reference coordinate system, the coordinates of the true camera coordinate system are regarded as the coordinates of the temporary camera coordinate system. The coordinates of the arm coordinate system are converted to the coordinates of the arm coordinate system, and the coordinates of the arm coordinate system are converted to the coordinates of the reference coordinate system. That is, the second coordinate of the equation 17 is converted by the third equation of the equation 16, and then converted by the second equation. For this reason, when coordinates representing a fixed point in the camera coordinate system are measured in the camera coordinate system, converted into coordinates in the arm coordinate system, and further converted into coordinate values in the reference coordinate system, the coordinates are expressed as shown in Equation 18 below. expressed.
Figure 0004491687

そして、前記カメラ座標系をX軸方向にa、Y軸方向にbだけ移動させた場合、前記定点(x”0,y”0)の位置を各座標系ごとに表すと下記数19に示すようになる。   When the camera coordinate system is moved by a in the X-axis direction and by b in the Y-axis direction, the position of the fixed point (x ″ 0, y ″ 0) is expressed for each coordinate system as shown in Equation 19 below. It becomes like this.

Figure 0004491687
Figure 0004491687

この場合、基準座標系における定点を表す座標(x”0,y”0)をカメラ座標系で測定し、アーム座標系の座標に変換した後、さらに基準座標系の座標に変換すると、すなわち前記数19の2番目の座標が前記数16の3番目の式で変換された後、さらに前記数16の2番目の式の左辺に(a,b)を加えた式で変換されると、この座標値は下記数20に示すように表される。

Figure 0004491687
In this case, coordinates (x ″ 0, y ″ 0) representing a fixed point in the reference coordinate system are measured in the camera coordinate system, converted into coordinates in the arm coordinate system, and then converted into coordinates in the reference coordinate system. After the second coordinate of Equation 19 is transformed by the third equation of Equation 16, and further transformed by the equation obtained by adding (a, b) to the left side of the second equation of Equation 16, this The coordinate value is expressed as shown in Equation 20 below.
Figure 0004491687

そして、前記数18に示した定点と前記数20に示した定点とを通る直線の傾きKzは、下記数21によって表される。下記数21中、分母は基準座標系に変換した前記定点のX軸上の変化量を表し、分子は同定点のY軸上の変化量をそれぞれ表している。   The slope Kz of the straight line passing through the fixed point shown in the equation 18 and the fixed point shown in the equation 20 is expressed by the following equation 21. In the following equation 21, the denominator represents the amount of change on the X axis of the fixed point converted to the reference coordinate system, and the numerator represents the amount of change on the Y axis of the identification point.

Figure 0004491687
Figure 0004491687

この場合、前記カメラ座標系の各移動量のうち、X軸方向の移動量aがY軸方向の移動量bに比べて極めて大きい場合には、前記数21は下記数22に示すように表される。   In this case, when the movement amount “a” in the X-axis direction is extremely larger than the movement amount “b” in the Y-axis direction among the movement amounts of the camera coordinate system, the equation 21 is expressed as shown in the following equation 22. Is done.

Figure 0004491687
Figure 0004491687

この前記数22に三角関数の公式(1−COSθ=2SINθ/2)を適用すると下記数23に示すように変形される。 When the formula of trigonometric function (1-COSθ = 2SIN 2 θ / 2) is applied to the equation 22, the equation 22 is modified as shown in the following equation 23.

Figure 0004491687
Figure 0004491687

ここで、Z軸の角度のずれθzは極めて小さいことから前記数23は下記数24に示すように表される。   Here, since the angle deviation θz of the Z-axis is extremely small, the equation 23 is expressed as the following equation 24.

Figure 0004491687
Figure 0004491687

そして、前記数23において、移動方向をY軸方向とし移動方向に直交する方向をX軸方向とすれば、Z軸の角度のずれθzは下記数25に示すように表される。   In Equation 23, if the moving direction is the Y-axis direction and the direction orthogonal to the moving direction is the X-axis direction, the Z-axis angle deviation θz is expressed as shown in Equation 25 below.

Figure 0004491687
Figure 0004491687

前記数25によりZ軸の角度のずれθzは、Z軸に直交するX軸方向にカメラ座標系を移動させた場合における移動前の定点と移動後の定点とを通る直線の基準座標系での傾き角度を2倍することによって計算することができる。この場合、Z軸に直交するY軸方向にカメラ座標系を移動させた場合における前記2つの定点を通る直線の基準座標系での傾き角度を2倍しても同様にZ軸の角度のずれθzを計算することができる。すなわち、各座標軸の角度のずれθx,θy,θzは、角度のずれの計算対象となる座標軸に直交する2つの座標軸のうち、一方の座標軸に対応するカメラ座標系および基準座標系の座標軸の方向に平行にカメラ座標系を移動したときの基準座標系に変換した各定点座標から求めた直線の基準座標系の座標軸に対する傾きから計算することができる。この基準座標系に変換した各定点座標とは、各測定位置で測定したカメラ座標系における定点座標を第1座標変換関数および第2座標変換関数によって座標変換した座標である。   According to Equation 25, the Z-axis angle deviation θz is obtained when the camera coordinate system is moved in the X-axis direction orthogonal to the Z-axis in the reference coordinate system of a straight line that passes through the fixed point before the movement and the fixed point after the movement. It can be calculated by doubling the tilt angle. In this case, when the camera coordinate system is moved in the Y-axis direction orthogonal to the Z-axis, even if the inclination angle of the straight line passing through the two fixed points in the reference coordinate system is doubled, the Z-axis angle shift is similarly performed. θz can be calculated. In other words, the angle shifts θx, θy, θz of the coordinate axes are directions of the coordinate axes of the camera coordinate system and the reference coordinate system corresponding to one of the two coordinate axes orthogonal to the coordinate axes to be calculated for the angle shift. It is possible to calculate from the inclination of the straight line relative to the coordinate axis of the reference coordinate system obtained from each fixed point coordinate converted to the reference coordinate system when the camera coordinate system is moved in parallel with the camera coordinate system. Each fixed point coordinate converted into the reference coordinate system is a coordinate obtained by converting the fixed point coordinate in the camera coordinate system measured at each measurement position by the first coordinate conversion function and the second coordinate conversion function.

前記数25を図7を用いて視覚的に説明する。カメラ座標系(X−Y)の各座標軸の向きと基準座標系(X”−Y”)の各座標軸の向きとを一致させた状態で、カメラ座標系を同カメラ座標系のX軸およびY軸方向にそれぞれ平行に移動させて測定位置a,b,c,d,eの各位置で定点(x”0,y”0)をそれぞれ測定する。この場合、測定した各定点の位置を座標変換により基準座標系(X”−Y”)の座標に変換した場合の定点の位置はa’,b’,c’,d’,e’に示すようになる。すなわち、カメラ座標系の座標軸に対する仮のカメラ座標系の座標軸の角度のずれに対応して、カメラ座標系で測定した定点座標を基準座標系による定点座標に変換した場合の定点座標の位置もそれぞれずれて、同一の一点に定まらない。   Equation 25 will be described visually with reference to FIG. With the orientation of each coordinate axis of the camera coordinate system (XY) and the orientation of each coordinate axis of the reference coordinate system (X ″ -Y ″) matched, the camera coordinate system is set to the X axis and Y of the camera coordinate system. A fixed point (x "0, y" 0) is measured at each of the measurement positions a, b, c, d, e by moving in parallel in the axial direction. In this case, the positions of the fixed points when the positions of the measured fixed points are converted into the coordinates of the reference coordinate system (X ″ −Y ″) by coordinate conversion are indicated by a ′, b ′, c ′, d ′, and e ′. It becomes like this. That is, corresponding to the deviation of the angle of the coordinate axis of the temporary camera coordinate system from the coordinate axis of the camera coordinate system, the position of the fixed point coordinate when the fixed point coordinate measured by the camera coordinate system is converted to the fixed point coordinate by the reference coordinate system is also respectively It is not fixed to the same point.

そして、前記数25は、定点a’,b’,c’を通る直線の基準座標系のY”座標軸に対する傾きKzの角度を2倍した値を、仮のカメラ座標系のZ”座標軸の角度のずれθzとして計算することを意味する。この場合、定点d’,b’,e’を通る直線のX”座標軸に対する傾きKzの角度を2倍した値を、仮のカメラ座標系のZ”座標軸の角度のずれθzとして計算することもできる。なお、図7においては、仮のカメラ座標系の座標軸の基準座標系の座標軸に対する角度のずれを誇張して示しているので、同ずれが極めて小さいことを前提とする前記数25とは完全には一致しない。また、カメラ座標系の各座標軸の向きと、同各座標軸に対応する基準座標系の各座標軸の向きとを一致させているため、アーム座標系(X’−Y’)の各座標軸の向きもカメラ座標系および基準座標系と同一と考えることができる。   The above equation (25) is obtained by doubling the angle of the slope Kz with respect to the Y ″ coordinate axis of the straight reference coordinate system passing through the fixed points a ′, b ′, and c ′, and the angle of the Z ″ coordinate axis of the temporary camera coordinate system. It means that it calculates as deviation | shift (theta) z of. In this case, a value obtained by doubling the angle of the inclination Kz with respect to the X ″ coordinate axis of the straight line passing through the fixed points d ′, b ′, and e ′ may be calculated as the angle deviation θz of the Z ″ coordinate axis of the temporary camera coordinate system. it can. In FIG. 7, since the angle deviation of the coordinate axis of the temporary camera coordinate system with respect to the coordinate axis of the reference coordinate system is exaggerated, it is completely different from the above formula 25 assuming that the deviation is extremely small. Does not match. In addition, since the direction of each coordinate axis of the camera coordinate system is matched with the direction of each coordinate axis of the reference coordinate system corresponding to each coordinate axis, the direction of each coordinate axis of the arm coordinate system (X′−Y ′) is also the same. It can be considered the same as the camera coordinate system and the reference coordinate system.

前記Z軸の角度のずれθzと同様にして、X軸およびY軸の各座標軸の角度のずれθx,θyを表すと、下記数26に示すようになる。したがって、3次元画像処理装置42は、前記数25に加えて下記数26を用いて仮のカメラ座標系における各座標軸の角度のずれθx,θy,θzをそれぞれ計算する。下記数26中、Kx,Kyは、X軸およびY軸の角度のずれθx,θyをそれぞれ計算するための直線の傾きであり、各座標軸にそれぞれ直交する2つの座標軸のうち、一方の座標軸の方向に平行にカメラ座標系を移動したときのカメラ座標系の座標から基準座標系の座標に変換した各定点座標から定義される直線の基準座標系の座標軸に対する傾きである。   Similarly to the angle deviation θz of the Z axis, the angle deviations θx and θy of the coordinate axes of the X axis and the Y axis are expressed by the following equation (26). Therefore, the three-dimensional image processing device 42 calculates the angle shifts θx, θy, θz of the coordinate axes in the temporary camera coordinate system using the following equation 26 in addition to the equation 25. In the following equation (26), Kx and Ky are inclinations of straight lines for calculating the angle deviations θx and θy between the X axis and the Y axis, respectively, and one of the two coordinate axes orthogonal to each coordinate axis. This is the inclination of a straight line defined with respect to the coordinate axis of the reference coordinate system defined from the fixed point coordinates converted from the coordinates of the camera coordinate system to the coordinates of the reference coordinate system when the camera coordinate system is moved parallel to the direction.

Figure 0004491687
Figure 0004491687

なお、上記説明から分かるように、第1座標変換関数の補正関数は、仮のカメラ座標系の座標軸を真のカメラ座標系の座標軸に一致させるための関数である。   As can be seen from the above description, the correction function of the first coordinate transformation function is a function for making the coordinate axis of the temporary camera coordinate system coincide with the coordinate axis of the true camera coordinate system.

3次元画像処理装置42は、ステップS52にて、前記直線の傾きKx,Ky,Kzを基準球60の基準座標系での各中心座標である定点(xa”,ya”,za”),(xb”,yb”,zb”),(xc”,yc”,zc”),(xd”,yd”,zd”),(xe”,ye”,ze”)を用いて計算する。例えば、傾きKxについては、定点(ya”,za”),(yb”,zb”)、(yc”,zc”)または(yb”,zb”),(yd”,zd”),(ye”,ze”)の各3次元データを用いて最小2乗法により直線を計算して同直線の傾きKzを計算する。なお、各座標軸の角度のずれの方向、すなわち回転方向は前記数25および数26の各座標軸の角度のずれθx,θy,θzの符号により表される。本実施形態においては、各座標軸を原点方向から見て時計回りを「正」とする。   In step S52, the three-dimensional image processing device 42 determines the slopes Kx, Ky, Kz of the straight lines as fixed points (xa ″, ya ″, za ″), (center coordinates in the reference coordinate system of the reference sphere 60). xb ″, yb ″, zb ″), (xc ″, yc ″, zc ″), (xd ″, yd ″, zd ″), (xe ″, ye ″, ze ″). For the slope Kx, fixed points (ya ″, za ″), (yb ″, zb ″), (yc ″, zc ″) or (yb ″, zb ″), (yd ″, zd ″), (ye ″, A straight line is calculated by the least square method using each three-dimensional data of ze ″) and the inclination Kz of the straight line is calculated. In this embodiment, the clockwise rotation of each coordinate axis as viewed from the origin is defined as “positive”. .

3次元画像処理装置42は、前記数26を用いて計算された仮のカメラ座標系の各座標軸の角度のずれθx,θy,θzを前記数15に代入して座標回転関数M’の各行列値g’11,g’12,g’13,g’21,g’22,g’23,g’31,g’32,g’33を計算する。次に、3次元画像処理装置42は、ステップS54にて、前記座標回転関数M’を用いて第1座標変換関数を補正する。この座標回転関数M’を用いて補正した第1座標変換関数を下記数27に示す。 The three-dimensional image processing device 42 substitutes the angle shifts θx, θy, θz of the coordinate axes of the temporary camera coordinate system calculated using the equation 26 into the equation 15, and each matrix of the coordinate rotation function M ′. The values g ′ 11 , g ′ 12 , g ′ 13 , g ′ 21 , g ′ 22 , g ′ 23 , g ′ 31 , g ′ 32 , g ′ 33 are calculated. Next, in step S54, the three-dimensional image processing device 42 corrects the first coordinate conversion function using the coordinate rotation function M ′. The first coordinate transformation function corrected using this coordinate rotation function M ′ is shown in the following equation (27).

Figure 0004491687
Figure 0004491687

前記数27のg’11〜g’33の各行列値の行列式による座標変換をカメラ座標系の座標軸に行うと、図8に示すように仮のカメラ座標系の座標軸とカメラ座標系の座標軸の方向は一致する。この場合、a,b,c,d,eの各測定位置でカメラ座標系で測定した定点(x”0,y”0)の位置は、基準座標系における座標に変換するといずれも(xc0,yc0)の位置になる。すなわち、カメラ座標系の各測定位置ごとの定点座標を基準座標系における座標に変換した座標は、測定位置に関わらず一点に定まる。   When coordinate transformation by the determinant of the matrix values of g′11 to g′33 in Equation 27 is performed on the coordinate axes of the camera coordinate system, the coordinate axes of the temporary camera coordinate system and the coordinate axes of the camera coordinate system as shown in FIG. The direction of is the same. In this case, the positions of the fixed points (x ″ 0, y ″ 0) measured in the camera coordinate system at the respective measurement positions a, b, c, d, e are all converted to coordinates in the reference coordinate system (xc0, yc0). That is, the coordinate obtained by converting the fixed point coordinate for each measurement position in the camera coordinate system into the coordinate in the reference coordinate system is determined as one point regardless of the measurement position.

次に、3次元画像処理装置42は、第1座標変換関数の補正関数のうち座標移動関数を計算する。まず、3次元画像処理装置42は、ステップS56にて、カメラ座標系によって表された定点の3次元データを計算する。具体的には、3次元画像処理装置42は、メモリ装置内に記憶している基準球60の基準座標系での各中心座標である定点(xa”,ya”,za”),(xb”,yb”,zb”),(xc”,yc”,zc”),(xd”,yd”,zd”),(xe”,ye”,ze”)を、同各定点に対応させてそれぞれ記憶している第2座標変換関数の逆の座標変換関数、および前記座標回転関数M’によって補正される前の第1座標変換関数の逆の座標変換関数を用いてカメラ座標系での座標値にそれぞれ座標変換する。   Next, the three-dimensional image processing device 42 calculates a coordinate movement function among the correction functions of the first coordinate conversion function. First, in step S56, the three-dimensional image processing device 42 calculates three-dimensional data of a fixed point represented by the camera coordinate system. Specifically, the three-dimensional image processing device 42 has fixed points (xa ″, ya ″, za ″), (xb ″) that are the respective central coordinates in the reference coordinate system of the reference sphere 60 stored in the memory device. , yb ″, zb ″), (xc ″, yc ″, zc ″), (xd ″, yd ″, zd ″), (xe ″, ye ″, ze ″) corresponding to the fixed points, respectively. Coordinate values in the camera coordinate system using a coordinate conversion function opposite to the stored second coordinate conversion function and a coordinate conversion function opposite to the first coordinate conversion function before being corrected by the coordinate rotation function M ′. Respectively.

次に、3次元画像処理装置42は、ステップS58にて、補正した第1座標変換関数および第2座標変換関数により座標変換を行った場合の基準座標系によって表された定点の座標値を計算する。具体的には、3次元画像処理装置42は、前記ステップS56によってそれぞれ座標変換されたカメラ座標系での各定点を表す3次元データを、前記座標回転関数M’によって補正された第1座標変換関数および各定点ごとの前記第2座標変換関数を用いて再び基準座標系での各定点にそれぞれ座標変換する。この場合、座標回転関数M’によって仮のカメラ座標系の各座標軸の角度のずれθx,θy,θzが補正されているので、図8に示したように、座標変換された各定点の座標値はほぼ同じ値となる。   Next, in step S58, the three-dimensional image processing device 42 calculates the coordinate value of the fixed point represented by the reference coordinate system when coordinate transformation is performed using the corrected first coordinate transformation function and second coordinate transformation function. To do. Specifically, the three-dimensional image processing apparatus 42 performs first coordinate conversion in which three-dimensional data representing each fixed point in the camera coordinate system that has been coordinate-converted in step S56 is corrected by the coordinate rotation function M ′. Using the function and the second coordinate conversion function for each fixed point, the coordinates are converted again to each fixed point in the reference coordinate system. In this case, since the angle shifts θx, θy, θz of the respective coordinate axes of the temporary camera coordinate system are corrected by the coordinate rotation function M ′, as shown in FIG. Are almost the same value.

次に、3次元画像処理装置42は、ステップS60にて、基準座標系によって表された各定点の座標値を平均化して1つの定点の座標値を計算する。具体的には、前記ステップ58にて座標変換された基準座標系での各定点の座標値を、各座標軸ごとに合算するとともに、同合算値を定点の数で除して1つの定点の座標値を計算する。   Next, in step S60, the three-dimensional image processing apparatus 42 calculates the coordinate value of one fixed point by averaging the coordinate values of the fixed points represented by the reference coordinate system. Specifically, the coordinate values of each fixed point in the reference coordinate system transformed in step 58 are added together for each coordinate axis, and the coordinate value of one fixed point is divided by the number of fixed points. Calculate the value.

次に、3次元画像処理装置42は、ステップS62にて、座標移動関数を計算する。具体的には、前記ステップ58にて計算した基準座標系における1つの定点の座標値と、前記触針測定プログラムによって測定した基準座標系における1つの定点の座標値との各座標軸ごとのずれ量を表す行列値(a’,b’,c’)を座標移動関数として計算する。次に、3次元画像処理装置42は、ステップS64にて、前記座標移動関数(a’,b’,c’)を用いて第1座標変換関数を補正する。この座標移動関数(a’,b’,c’)を用いて補正した第1座標変換関数を下記数28に示す。   Next, in step S62, the three-dimensional image processing device 42 calculates a coordinate movement function. Specifically, the deviation amount for each coordinate axis between the coordinate value of one fixed point in the reference coordinate system calculated in step 58 and the coordinate value of one fixed point in the reference coordinate system measured by the stylus measurement program. A matrix value (a ′, b ′, c ′) representing is calculated as a coordinate movement function. Next, in step S64, the three-dimensional image processing device 42 corrects the first coordinate conversion function using the coordinate movement function (a ', b', c '). The first coordinate transformation function corrected using this coordinate movement function (a ′, b ′, c ′) is shown in the following equation (28).

Figure 0004491687
Figure 0004491687

なお、このステップS56〜62においては、メモリ装置内に記憶している基準球60の基準座標系での各中心座標である定点(xa”,ya”,za”)、(xb”,yb”,zb”)、(xc”,yc”,zc”)、(xd”,yd”,zd”)、(xe”,ye”,ze”)のすべての3次元データを用いて座標移動関数(a’,b’,c’)を計算したが、各定点(xa”,ya”,za”)、(xb”,yb”,zb”)、(xc”,yc”,zc”)、(xd”,yd”,zd”)、(xe”,ye”,ze”)のうちの1つ以上4つ以下の定点の3次元データを用いて同座標移動関数(a’,b’,c’)を計算するようにしてもよい。これによれば、座標移動関数(a’,b’,c’)を短時間に計算することができる。   In steps S56 to S62, fixed points (xa ″, ya ″, za ″), (xb ″, yb ″) which are the respective central coordinates in the reference coordinate system of the reference sphere 60 stored in the memory device. , zb ″), (xc ″, yc ″, zc ″), (xd ″, yd ″, zd ″), and (xe ″, ye ″, ze ″) using all three-dimensional data ( a ′, b ′, c ′), the fixed points (xa ″, ya ″, za ″), (xb ″, yb ″, zb ″), (xc ″, yc ″, zc ″), ( xd ″, yd ″, zd ″), (xe ″, ye ″, ze ″) using the same coordinate movement function (a ′, b ′, c) using three-dimensional data of one or more and four or less fixed points. ') May be calculated. According to this, the coordinate movement function (a ′, b ′, c ′) can be calculated in a short time.

なお、このステップS56〜62を省略して、第1座標変換関数の補正を座標回転関数M’による補正のみにしてもよい。この場合、カメラ座標系から基準座標系に変換された座標値は、基準座標系の座標値に対して座標移動関数分だけのずれがあるが、座標移動関数は一定の値であるので、座標値のずれはカメラ座標系の位置に関わらず常に一定である。したがって、測定対象物の立体形状を任意の方向から見て表示することに関して何ら支障はない。
Note that steps S56 to S62 may be omitted, and the correction of the first coordinate conversion function may be only the correction by the coordinate rotation function M ′. In this case, the coordinate value converted from the camera coordinate system to the reference coordinate system is shifted by the coordinate movement function with respect to the coordinate value of the reference coordinate system, but the coordinate movement function is a constant value. The value shift is always constant regardless of the position of the camera coordinate system. Therefore, there is no problem with displaying the three-dimensional shape of the measurement object when viewed from an arbitrary direction.

次に、3次元画像処理装置42は、ステップS66にて、この座標変換関数補正プログラムの実行を終了する。これにより、第1座標変換関数における各座標軸の角度のずれおよび座標系の原点のずれが補正されたことになる。すなわち、この補正された第1座標変換関数によって仮のカメラ座標系の座標軸は、真のカメラ座標系の座標軸に一致する。   Next, the three-dimensional image processing apparatus 42 ends the execution of the coordinate transformation function correction program in step S66. Thereby, the deviation of the angle of each coordinate axis and the deviation of the origin of the coordinate system in the first coordinate conversion function are corrected. That is, the coordinate axis of the temporary camera coordinate system coincides with the coordinate axis of the true camera coordinate system by the corrected first coordinate transformation function.

この座標変換関数補正プログラムの実行後、作業者は、基準球60を基台10から取り除いて、同基台10上に測定対象物(図示せず)を配置する。そして、入力装置43を操作して測定対象物の立体形状の表示を指示する。これに応答して、3次元画像処理装置42は、図9に示す3次元形状表示プログラムの実行をステップS70にて開始して、ステップS72にて測定対象物の3次元形状を表す測定情報の入力を待つ。一方、3次元形状測定装置30は、コントローラ41によって制御され、測定対象物の3次元形状の測定を開始する。   After the execution of the coordinate conversion function correction program, the operator removes the reference sphere 60 from the base 10 and places a measurement object (not shown) on the base 10. Then, the input device 43 is operated to instruct the display of the three-dimensional shape of the measurement object. In response to this, the three-dimensional image processing device 42 starts execution of the three-dimensional shape display program shown in FIG. 9 in step S70, and in step S72, the measurement information representing the three-dimensional shape of the measurement object is displayed. Wait for input. On the other hand, the three-dimensional shape measuring apparatus 30 is controlled by the controller 41 and starts measuring the three-dimensional shape of the measurement object.

作業者は、3次元形状測定装置30を手で持って、回転ロッド22、第1〜第3アーム25および3次元形状測定装置30の各連結部における回転変位を伴いながら、測定対象物に対して3次元形状測定装置30を移動させて3次元形状の測定を行う。この場合、作業者は、測定対象物に対して互いに異なる3つの位置から測定を行う。そして、3次元形状測定装置30は、測定対象物の測定を終了すると各測定位置ごとの3次元形状を表す情報を3次元画像処理装置42に出力する。なお、測定対象物の測定は、前記した3つの位置に限られず4つ以上の位置から測定を行うようにしてもよい。これによれば、より高精度の3次元形状の測定を行うことができる。   The operator holds the three-dimensional shape measuring device 30 with his hand and applies the rotational displacement at each connecting portion of the rotating rod 22, the first to third arms 25 and the three-dimensional shape measuring device 30 to the measurement object. Then, the three-dimensional shape measuring apparatus 30 is moved to measure the three-dimensional shape. In this case, the operator performs measurement from three different positions with respect to the measurement object. Then, when the measurement of the measurement object is completed, the three-dimensional shape measurement device 30 outputs information representing the three-dimensional shape for each measurement position to the three-dimensional image processing device 42. The measurement of the measurement object is not limited to the three positions described above, and may be performed from four or more positions. According to this, a highly accurate three-dimensional shape can be measured.

3次元画像データ処理装置42は、同ステップS72にて、測定対象物の3次元形状を表す情報を入力する。すなわち、測定対象物の表面を微小エリアずつに分割した各分割エリア位置を表すX−Y−Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)をそれぞれ入力する。次に、3次元画像処理装置42は、ステップS74にて、前述したステップS24およびステップS42の処理と同様にして前記入力した3次元形状測定装置30からのX−Y−Z座標に関する情報に基づいて、各測定位置ごとにおける測定対象物の3次元形状を表す立体形状データ群からなる3次元画像データをそれぞれ計算する。この場合の3次元画像データは、3次元形状測定装置30に関する座標系、すなわちカメラ座標系によって表されている。   In step S72, the three-dimensional image data processing device 42 inputs information representing the three-dimensional shape of the measurement object. That is, information (specifically, inclinations θx, θy and distance Lz) related to the XYZ coordinates representing the divided area positions obtained by dividing the surface of the measurement object into minute areas is input. Next, in step S74, the three-dimensional image processing apparatus 42 is based on the input information regarding the XYZ coordinates from the input three-dimensional shape measuring apparatus 30 in the same manner as the processes in steps S24 and S42 described above. Thus, three-dimensional image data composed of a three-dimensional shape data group representing the three-dimensional shape of the measurement object at each measurement position is calculated. The three-dimensional image data in this case is represented by a coordinate system related to the three-dimensional shape measuring apparatus 30, that is, a camera coordinate system.

次に、3次元画像処理装置42は、ステップS76にて、図5に示した座標変換関数補正プログラムの実行によって補正された第1座標変換関数(前記数28)と、第2座標変換関数とを用いて、各測定位置ごとのカメラ座標系によって表された3次元画像データを、基準座標系によって表された3次元画像データにそれぞれ座標変換する。この場合、第2座標変換関数は、前記ステップS46と同様にして各測定位置ごとに計算される。そして、3次元画像処理装置42は、ステップS78にて、各測定位置の基準座標系によって表された各3次元画像データを一組の3次元形状データ群に合成する。この合成においては、すべての測定位置における3次元画像データが同一座標系である基準座標系上の座標値で表されるので、各測定位置によって測定されない測定対象物の部分(各測定位置における3次元形状測定装置30に対して裏側に位置する測定対象物の外表面)を表す3次元画像データが互いに補われ、一組のデータ群とされる。   Next, in step S76, the three-dimensional image processing device 42 includes the first coordinate conversion function (the above equation 28) corrected by the execution of the coordinate conversion function correction program shown in FIG. Are used to convert the three-dimensional image data represented by the camera coordinate system for each measurement position into the three-dimensional image data represented by the reference coordinate system. In this case, the second coordinate conversion function is calculated for each measurement position in the same manner as in step S46. In step S78, the three-dimensional image processing device 42 combines the three-dimensional image data represented by the reference coordinate system of each measurement position into a set of three-dimensional shape data groups. In this synthesis, since the three-dimensional image data at all measurement positions is represented by coordinate values on the reference coordinate system that is the same coordinate system, the portion of the measurement object that is not measured at each measurement position (3 at each measurement position). The three-dimensional image data representing the outer surface of the measurement object positioned on the back side with respect to the three-dimensional shape measuring apparatus 30 are complemented to form a set of data.

次に、3次元画像処理装置42は、ステップS80にて、前記合成された3次元形状データ群を用いて測定対象物の3次元形状を表示装置44に表示させる。そして、3次元画像処理装置42は、ステップS82にて、3次元形状表示プログラムの実行を終了する。この測定対象物の3次元形状の表示においては、作業者は入力装置43を操作することにより測定対象物の表示方向を指示することができ、コントローラ41および3次元画像処理装置42は表示装置44にて表示される測定対象物の表示方向を変更する。これにより、測定対象物を任意の方向から見た立体形状を表示させることができる。   Next, in step S80, the three-dimensional image processing device 42 causes the display device 44 to display the three-dimensional shape of the measurement object using the synthesized three-dimensional shape data group. Then, the three-dimensional image processing device 42 ends the execution of the three-dimensional shape display program in step S82. In displaying the three-dimensional shape of the measurement object, the operator can instruct the display direction of the measurement object by operating the input device 43, and the controller 41 and the three-dimensional image processing device 42 are displayed on the display device 44. The display direction of the measurement object displayed at is changed. Thereby, the three-dimensional shape which looked at the measuring object from arbitrary directions can be displayed.

また、新たな測定対象物を基台10上に置いて、前述のように測定対象物の表示を指示すれば、前記3次元形状表示プログラムの実行により、前記と同一の第1座標変換関数および第2座標変換関数を用いて新たな測定対象物を任意の方向から見た立体形状を表示装置44に表示させることができる。したがって、基準球60を用いて基台10上の測定対象空間に関する第1座標変換関数および第2座標変換関数を一度だけ計算するとともに、前記図5に示す座標変換関数補正プログラムにより第1座標変換関数を補正しておけば、測定対象物を次々に換えて表示装置44にて立体形状を表示させることが可能である。   Further, when a new measurement object is placed on the base 10 and the display of the measurement object is instructed as described above, the same first coordinate transformation function as described above and A three-dimensional shape of a new measurement object viewed from an arbitrary direction can be displayed on the display device 44 using the second coordinate conversion function. Accordingly, the first coordinate transformation function and the second coordinate transformation function relating to the measurement target space on the base 10 are calculated only once using the reference sphere 60, and the first coordinate transformation is performed by the coordinate transformation function correction program shown in FIG. If the function is corrected, the three-dimensional shape can be displayed on the display device 44 by changing the measurement object one after another.

上記作動説明からも理解できるように、上記実施形態によれば、基準球60の3次元画像データに基づいて計算された第1座標変換関数を、各座標軸の角度のずれに関する座標回転関数M’と座標系の原点ずれに関する座標移動関数(a’,b’,c’)とを用いて補正している。座標回転関数M’は、角度のずれの計算対象となる座標軸に直交する2つの座標軸のうちの一方の座標軸であって、同座標軸に対応するカメラ座標系および基準座標系の各座標軸に平行に3次元形状測定装置30を移動させて測定し基準座標系の座標軸に変換した3つの定点の各座標値のうち、角度のずれの計算対象となる座標軸以外の2つの座標軸上の座標値を通る直線の基準座標系の座標軸に対する傾きに基づいて計算される。基準座標系における3つの定点の各座標値が異なるのは、第1座標変換関数の各座標軸の角度のずれによる。したがって、基準座標系における直線の傾き、すなわち第1座標変換関数によって座標変換された定点の座標値に基づいて計算された直線の傾きは、第1座標変換関数の各座標軸の角度のずれを表すことになる。   As can be understood from the above description of operation, according to the above embodiment, the first coordinate conversion function calculated based on the three-dimensional image data of the reference sphere 60 is converted into the coordinate rotation function M ′ related to the angle shift of each coordinate axis. And a coordinate movement function (a ′, b ′, c ′) relating to the origin deviation of the coordinate system. The coordinate rotation function M ′ is one of the two coordinate axes orthogonal to the coordinate axis that is the object of calculation of the angle deviation, and is parallel to each coordinate axis of the camera coordinate system and the reference coordinate system corresponding to the coordinate axis. Among the coordinate values of the three fixed points measured by moving the three-dimensional shape measuring apparatus 30 and converted into the coordinate axes of the reference coordinate system, the coordinate values on two coordinate axes other than the coordinate axes that are subject to calculation of the angular deviation are passed. It is calculated based on the inclination of the straight reference coordinate system with respect to the coordinate axis. The difference in the coordinate values of the three fixed points in the reference coordinate system is due to a shift in the angle of each coordinate axis of the first coordinate conversion function. Therefore, the inclination of the straight line in the reference coordinate system, that is, the inclination of the straight line calculated based on the coordinate value of the fixed point coordinate-converted by the first coordinate conversion function represents the deviation of the angle of each coordinate axis of the first coordinate conversion function. It will be.

また、座標移動関数(a’,b’,c’)は、前記座標回転関数M’により補正された第1座標変換関数と第2座標変換関数とによって座標変換された定点の各座標値と同定点の基準座標系での各座標値との差に基づいて計算される。この場合、座標回転関数M’により補正された第1座標変換関数と第2座標変換関数とによって座標変換された各測定位置ごとの定点は、基準座標系において同一の一点に定まっている。したがって、上記実施形態によれば、第1座標変換関数を計算するための3次元画像データに測定誤差が含まれている場合であっても、第1座標変換関数と第2座標変換関数とによって座標変換された座標値によって定義される直線の基準座標系の座標軸に対する角度に基づいて同第1座標変換関数が補正されるため、精度のよい座標変換関数を計算することができる。この結果、測定対象物の正確な3次元形状測定を行うことができる。   Further, the coordinate movement function (a ′, b ′, c ′) includes the coordinate values of the fixed points coordinate-transformed by the first coordinate transformation function and the second coordinate transformation function corrected by the coordinate rotation function M ′. It is calculated based on the difference between each coordinate value in the reference coordinate system of the identification point. In this case, the fixed point for each measurement position subjected to the coordinate conversion by the first coordinate conversion function and the second coordinate conversion function corrected by the coordinate rotation function M ′ is determined to be the same point in the reference coordinate system. Therefore, according to the above embodiment, even if the measurement error is included in the three-dimensional image data for calculating the first coordinate transformation function, the first coordinate transformation function and the second coordinate transformation function are used. Since the first coordinate conversion function is corrected based on the angle of the straight line defined by the coordinate values subjected to coordinate conversion with respect to the coordinate axis of the reference coordinate system, a highly accurate coordinate conversion function can be calculated. As a result, accurate three-dimensional shape measurement of the measurement object can be performed.

以上、本発明の一実施形態について説明したが、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変形が可能である。以下、変形例について説明する。   Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention. Hereinafter, modified examples will be described.

a.第1変形例
上記実施形態においては、各測定位置ごとの基準座標系での定点座標を用いて第1座標変換関数を補正する座標回転関数M’を計算したが、これに限定されるものではない。例えば、前記各測定位置ごとの基準座標系での定点座標に加えて、各測定位置間の距離、すなわち3次元形状測定装置30(カメラ座標系)の各測定位置間の移動量を用いて各座標軸の角度のずれθx,θy,θzを計算することも可能である。
a. First Modification In the above embodiment, the coordinate rotation function M ′ for correcting the first coordinate conversion function is calculated using the fixed point coordinates in the reference coordinate system for each measurement position. However, the present invention is not limited to this. Absent. For example, in addition to the fixed point coordinates in the reference coordinate system for each measurement position, the distance between the measurement positions, that is, the amount of movement between the measurement positions of the three-dimensional shape measuring apparatus 30 (camera coordinate system) is used. It is also possible to calculate the angle deviations θx, θy, θz of the coordinate axes.

具体的には、X軸方向およびY軸方向の2つの座標軸方向にそれぞれ3次元形状測定装置30(カメラ座標系)を移動させた場合における基準座標系での定点座標のY軸方向の座標値の変化量(前記数21の分子)と、基準座標系でのX軸方向の3次元形状測定装置30(カメラ座標系)の移動量aとによって定義される直線の傾きKzは、下記数29に示すように表される。下記数29中、a,bは、3次元形状測定装置30(カメラ座標系)の基準座標系でのX軸方向およびY軸方向の各移動量を表している。   Specifically, the coordinate value in the Y-axis direction of the fixed point coordinate in the reference coordinate system when the three-dimensional shape measuring device 30 (camera coordinate system) is moved in each of the two coordinate axis directions of the X-axis direction and the Y-axis direction. The slope Kz of the straight line defined by the amount of change (numerator of Equation 21) and the amount of movement a of the three-dimensional shape measuring device 30 (camera coordinate system) in the X-axis direction in the reference coordinate system is It is expressed as shown in In the following equation 29, a and b represent the movement amounts in the X-axis direction and the Y-axis direction in the reference coordinate system of the three-dimensional shape measuring apparatus 30 (camera coordinate system).

Figure 0004491687
Figure 0004491687

この場合、3次元形状測定装置30(カメラ座標系)の各移動量a,bのうち、X軸方向の移動量aがY軸方向の移動量bに比べて極めて大きく、Z軸の角度のずれθzが極めて小さいことから前記式29は、下記数30に示すように変形される。   In this case, of the movement amounts a and b of the three-dimensional shape measuring apparatus 30 (camera coordinate system), the movement amount a in the X-axis direction is extremely larger than the movement amount b in the Y-axis direction, and the angle of the Z-axis is Since the deviation θz is extremely small, the equation 29 is modified as shown in the following equation (30).

Figure 0004491687
Figure 0004491687

この場合、前記30に示すZ軸の角度のずれθzは、3次元形状測定装置30(カメラ座標系)のX軸方向の移動量aと、基準座標系に変換した定点座標のY軸方向の座標値の変化量とによって定義される直線の傾き角度である。この場合、Z軸に直交するY軸方向にカメラ座標系を移動させた場合におけるカメラ座標系のY軸方向の移動量bと、基準座標系に変換した定点座標のX軸方向の座標値の変化量とを用いて前記直線の傾き角度を計算しても同様にZ軸の角度のずれθzを計算することができる。すなわち、各座標軸の角度のずれは、角度のずれの計算対象となる座標軸に直交する2つの座標軸のうち、一方の座標軸に対応するカメラ座標系および基準座標系の各座標軸の方向における3次元形状測定装置30(カメラ座標系)の移動量と、他方の座標軸方向の基準座標系に変換した定点座標の座標値の変化量とによって定義される直線の傾き角度から計算することができる。   In this case, the Z-axis angle shift θz shown in 30 is the amount of movement a in the X-axis direction of the three-dimensional shape measuring apparatus 30 (camera coordinate system) and the fixed point coordinate converted to the reference coordinate system in the Y-axis direction. It is the inclination angle of a straight line defined by the amount of change in coordinate values. In this case, the movement amount b in the Y-axis direction of the camera coordinate system when the camera coordinate system is moved in the Y-axis direction orthogonal to the Z-axis, and the coordinate value in the X-axis direction of the fixed point coordinate converted into the reference coordinate system. Even if the inclination angle of the straight line is calculated using the amount of change, the Z axis angle deviation θz can be calculated in the same manner. That is, the deviation of the angle of each coordinate axis is a three-dimensional shape in the direction of each coordinate axis of the camera coordinate system and the reference coordinate system corresponding to one of the two coordinate axes orthogonal to the coordinate axis to be calculated for the angle deviation. It can be calculated from the inclination angle of a straight line defined by the amount of movement of the measuring device 30 (camera coordinate system) and the amount of change in the coordinate value of the fixed point coordinate converted into the reference coordinate system in the other coordinate axis direction.

前記Z軸の角度のずれθzと同様にして、X軸およびY軸の各座標軸の角度のずれθx,θyをそれぞれ表すと、下記数31に示すようになる。したがって、3次元画像処理装置42は、前記数30に加えて下記数31を用いて仮のカメラ座標系の各座標軸の角度のずれθx,θy,θzをそれぞれ計算することができる。下記数30中、Kx,Kyは、X軸およびY軸の角度のずれθx,θyをそれぞれ計算するための前記Kzに対応する直線の傾きであり、各座標軸にそれぞれ直交する2つの座標軸のうち、一方の座標軸に対応するカメラ座標系および基準座標系の各座標軸の方向における3次元形状測定装置30(カメラ座標系)の移動量と、他方の座標軸方向の基準座標系に変換した定点座標の座標値の変化量とによって計算される直線の傾きである。   Similarly to the angle deviation θz of the Z axis, the angle deviations θx and θy of the coordinate axes of the X axis and the Y axis are respectively expressed by the following equation (31). Therefore, the three-dimensional image processing device 42 can calculate the angle deviations θx, θy, θz of the coordinate axes of the temporary camera coordinate system using the following equation 31 in addition to the equation 30. In the following equation 30, Kx and Ky are inclinations of straight lines corresponding to the Kz for calculating the angular deviations θx and θy of the X axis and the Y axis, respectively. Of the two coordinate axes orthogonal to each coordinate axis, The movement amount of the three-dimensional shape measuring device 30 (camera coordinate system) in the direction of each coordinate axis of the camera coordinate system and the reference coordinate system corresponding to one coordinate axis, and the fixed point coordinate converted to the reference coordinate system in the other coordinate axis direction This is the slope of the straight line calculated by the change amount of the coordinate value.

Figure 0004491687
Figure 0004491687

これらの傾きKx,Ky,Kzは、基準球60の基準座標系での各中心座標である定点(xa”,ya”,za”)、(xb”,yb”,zb”)、(xc”,yc”,zc”)、(xd”,yd”,zd”)、(xe”,ye”,ze”)と、各測定位置間の3次元形状測定装置30の移動量とを用いて計算する。この場合、図5に示す座標変換関数補正プログラムにおけるステップS42の基準球の測定処理において、3次元形状測定装置30による基準球60の各測定位置ごとに、基準座標系によって表されたアーム座標系の原点位置をメモリ装置に記憶しておき、同記憶された各測定位置ごとのアーム座標系の原点位置に基づいて3次元形状測定装置30の移動量を計算することができる。   These inclinations Kx, Ky, Kz are fixed points (xa ″, ya ″, za ″), (xb ″, yb ″, zb ″), (xc ″) that are the respective central coordinates in the reference coordinate system of the reference sphere 60. , yc ″, zc ″), (xd ″, yd ″, zd ″), (xe ″, ye ″, ze ″) and the amount of movement of the three-dimensional shape measuring apparatus 30 between the measurement positions. In this case, in the measurement process of the reference sphere in step S42 in the coordinate transformation function correction program shown in Fig. 5, the arm represented by the reference coordinate system for each measurement position of the reference sphere 60 by the three-dimensional shape measuring apparatus 30. The origin position of the coordinate system is stored in the memory device, and the movement amount of the three-dimensional shape measuring apparatus 30 can be calculated based on the origin position of the arm coordinate system for each measurement position stored therein.

例えば、直線の傾きKxについては、座標値yd”,ye”およびZ軸方向の移動量bz、または座標値za”,zc”およびY軸方向の移動量ayを用いて計算する。ここで、Z軸方向の移動量bzは、図6に示すdの位置とeの位置との距離であり、Y軸方向の移動量ayは、図6に示すaの位置とcの位置との距離である。これにより、直線の傾きKxを計算することができるとともに、同直線の傾きKxを用いて座標軸の角度のずれθxを計算することができる。また、直線の傾きKxと同様にして直線の傾きKy,Kzも計算することができるとともに、同直線の傾きKy,Kzを用いて座標軸の角度のずれθy,θzも計算することができる。この結果、上記実施形態と同様に、座標回転関数M’を計算することができる。これにより、上記実施形態と同様の効果を期待できる。   For example, the straight line inclination Kx is calculated using the coordinate values yd ″, ye ″ and the movement amount bz in the Z-axis direction, or the coordinate values za ″, zc ″ and the movement amount ay in the Y-axis direction. Here, the movement amount bz in the Z-axis direction is the distance between the position d and the position e shown in FIG. 6, and the movement amount ay in the Y-axis direction is the position a and the position c shown in FIG. Is the distance. Thereby, the inclination Kx of the straight line can be calculated, and the angle deviation θx of the coordinate axes can be calculated using the inclination Kx of the straight line. Further, the straight line inclinations Ky and Kz can be calculated in the same manner as the straight line inclination Kx, and the angle deviations θy and θz of the coordinate axes can be calculated using the straight line inclinations Ky and Kz. As a result, the coordinate rotation function M ′ can be calculated as in the above embodiment. Thereby, the same effect as the above-mentioned embodiment can be expected.

b.第2変形例
上記実施形態においては、カメラ座標系の各座標軸の向きと基準座標系の各座標軸の向きとを一致させた後、3次元形状測定装置30を両座標系の2つの座標軸にそれぞれ平行に移動させて基準球60の測定を行ったが、同2つの座標軸の平面内であって互いに直交する2つの方向に移動させて測定するようにしてもよい。すなわち、カメラ座標系および基準座標系の両座標系における2つの座標軸に対してそれぞれ同一の角度だけずれた2つの方向に3次元形状測定装置30をそれぞれ移動させて基準球60の測定を行うことも可能である。
b. Second Modification In the above embodiment, after the direction of each coordinate axis of the camera coordinate system and the direction of each coordinate axis of the reference coordinate system are matched, the three-dimensional shape measuring apparatus 30 is set to two coordinate axes of both coordinate systems, respectively. Although the reference sphere 60 is measured while being moved in parallel, the measurement may be performed by moving the reference sphere 60 in two directions orthogonal to each other within the plane of the two coordinate axes. That is, the reference sphere 60 is measured by moving the three-dimensional shape measuring device 30 in two directions that are shifted by the same angle with respect to two coordinate axes in both the camera coordinate system and the reference coordinate system. Is also possible.

この場合、前記数25および数26に示される基準座標系での直線の傾きKx,Ky,Kzを、3次元形状測定装置30(カメラ座標系)の移動方向に対応する直線の基準座標系での傾きMx,My,Mzにより補正する。前記数25に示す直線の傾きKzについて具体的に説明すると、カメラ座標系の移動方向に対応する直線の傾きMzは、カメラ座標系のX軸方向の移動量aに対するY軸方向の移動bの比(Mz=a/b)によって計算される。この直線の傾きMzを用いて前記数21に示すY軸上の変化量およびX軸上の変化量を補正すると下記数32に示すようになる。   In this case, the straight line inclinations Kx, Ky, and Kz in the reference coordinate system expressed by the equations 25 and 26 are determined in the straight reference coordinate system corresponding to the moving direction of the three-dimensional shape measuring apparatus 30 (camera coordinate system). Is corrected by the slopes Mx, My, and Mz. The straight line inclination Kz shown in the equation 25 will be specifically described. The straight line inclination Mz corresponding to the movement direction of the camera coordinate system is the amount of movement b in the Y axis direction relative to the movement amount a in the X axis direction of the camera coordinate system. Calculated by the ratio (Mz = a / b). When the amount of change on the Y-axis and the amount of change on the X-axis shown in Equation 21 are corrected using the slope Mz of this straight line, the following Equation 32 is obtained.

Figure 0004491687
Figure 0004491687

この直線の傾きKzと同様にして直線の傾きKx,Kyをそれぞれ補正すると下記数33に示すようになる。   When the straight line inclinations Kx and Ky are corrected in the same manner as the straight line inclination Kz, the following equation 33 is obtained.

Figure 0004491687
Figure 0004491687

これらの傾きKx,Ky,Kzは、基準球60の基準座標系での各中心座標である定点(xa”,ya”,za”)、(xb”,yb”,zb”)、(xc”,yc”,zc”)、(xd”,yd”,zd”)、(xe”,ye”,ze”)と、カメラ座標系の移動方向に対応する直線の基準座標系での傾きMx,My,Mzとを用いて計算する。この場合、図5に示す座標変換関数補正プログラムにおけるステップS42の基準球の測定処理において、3次元形状測定装置30による基準球60の各測定位置ごとに、基準座標系によって表されたアーム座標系の原点位置をメモリ装置に記憶しておき、同記憶された各測定位置ごとのアーム座標系の原点位置に基づいて直線の傾きMx,My,Mzを計算することができる。   These inclinations Kx, Ky, Kz are fixed points (xa ″, ya ″, za ″), (xb ″, yb ″, zb ″), (xc ″) that are the respective central coordinates in the reference coordinate system of the reference sphere 60. , yc ″, zc ″), (xd ″, yd ″, zd ″), (xe ″, ye ″, ze ″), and the inclination Mx of the straight line in the reference coordinate system corresponding to the moving direction of the camera coordinate system, In this case, in the measurement process of the reference sphere in step S42 in the coordinate transformation function correction program shown in Fig. 5, for each measurement position of the reference sphere 60 by the three-dimensional shape measurement apparatus 30, The origin position of the arm coordinate system represented by the reference coordinate system is stored in the memory device, and the straight line inclinations Mx, My, Mz are calculated based on the origin position of the arm coordinate system for each measurement position stored in the memory device. can do.

例えば、直線の傾きKxは、定点(ya”,za”)、(yb”,zb”)、(yc”,yc”)を用いて最小2乗法により計算され、直線の傾きMxは、カメラ座標系のY軸方向の移動量ayに対するZ軸方向の移動量bzの比(Mx=ay/bz)によって計算される。ここで、Y軸方向の移動量ayは、図6に示すaの位置とcの位置との距離であり、Z軸方向の移動量bzは、図6に示すdの位置とeの位置との距離である。これにより、直線の傾きKxを計算することができるとともに、同直線の傾きKxを用いて座標軸の角度のずれθxを計算することができる。また、直線の傾きKxと同様にして直線の傾きKy,Kzも計算することができるとともに、同直線の傾きKy,Kzを用いて座標軸の角度のずれθy,θzも計算することができる。この結果、上記実施形態と同様に、座標回転関数M’を計算することができる。これにより、上記実施形態と同様の効果を期待できる。   For example, the straight line slope Kx is calculated by the least square method using the fixed points (ya ″, za ″), (yb ″, zb ″), (yc ″, yc ″), and the straight line slope Mx is the camera coordinate. It is calculated by the ratio of the movement amount bz in the Z-axis direction to the movement amount ay in the Y-axis direction of the system (Mx = ay / bz). Here, the movement amount ay in the Y-axis direction is the distance between the position a and the position c shown in FIG. 6, and the movement amount bz in the Z-axis direction is the position d and the position e shown in FIG. Is the distance. Thereby, the inclination Kx of the straight line can be calculated, and the angle deviation θx of the coordinate axes can be calculated using the inclination Kx of the straight line. Further, the straight line inclinations Ky and Kz can be calculated in the same manner as the straight line inclination Kx, and the angle deviations θy and θz of the coordinate axes can be calculated using the straight line inclinations Ky and Kz. As a result, the coordinate rotation function M ′ can be calculated as in the above embodiment. Thereby, the same effect as the above-mentioned embodiment can be expected.

また、前記メモリ装置に記憶された3次元形状測定装置30による基準球60の各測定位置ごとの基準座標系によって表されたアーム座標系の原点位置を用いて、上記数32および上記数33とは別の計算式によって各座標軸の傾き角度θx,θy,θzを計算することもできる。具体的には、図6に示すbの測定位置を原点(0,0)として他の測定位置a,c,d,eを前記アーム座標系の原点位置を用いて表す。例えば、aの測定位置を(a1,b1)、cの測定位置を(a3,b3)、dの測定位置を(a4,b4)、eの測定位置を(a5,b5)とし、これらの座標値を前記数29に代入して直線の傾きKx,Ky,Kzごとに表すと下記数27に示すようになる。下記数34中、直線の傾きKxは、(a1,z1),(0,z2),(a3,z3)から最小2乗法により計算され、直線の傾きKyは、(x4,b4),(x2,0),(x5,b5)から最小2乗法によりにより計算され、直線の傾きKzは、(a1,x1),(0,x2),(a3,x3)から最小2乗法によりにより計算される。この下記数34を用いても上記と同様に各座標軸の傾き角度θx,θy,θzを計算することができ、座標回転関数M’を計算することができる。   Further, using the origin position of the arm coordinate system represented by the reference coordinate system for each measurement position of the reference sphere 60 by the three-dimensional shape measuring apparatus 30 stored in the memory device, the above Equation 32 and Equation 33 are used. Can also calculate the inclination angles θx, θy, θz of each coordinate axis by another calculation formula. Specifically, with the measurement position b shown in FIG. 6 as the origin (0, 0), the other measurement positions a, c, d, e are represented using the origin position of the arm coordinate system. For example, the measurement position of a is (a1, b1), the measurement position of c is (a3, b3), the measurement position of d is (a4, b4), and the measurement position of e is (a5, b5). Substituting the value into the equation 29 and expressing it for each of the slopes Kx, Ky, Kz of the straight line, the following equation 27 is obtained. In the following equation 34, the slope Kx of the straight line is calculated from (a1, z1), (0, z2), (a3, z3) by the least square method, and the slope Ky of the straight line is (x4, b4), (x2 , 0), (x5, b5) by the least square method, and the slope Kz of the straight line is calculated by the least square method from (a1, x1), (0, x2), (a3, x3). . Even using the following equation 34, the tilt angles θx, θy, θz of the coordinate axes can be calculated in the same manner as described above, and the coordinate rotation function M ′ can be calculated.

Figure 0004491687
Figure 0004491687

c.第3変形例
上記実施形態においては、カメラ座標系の各座標軸の向きを基準座標系の各座標軸の向きに一致させた後、3次元形状測定装置30を両座標軸の2つの座標軸にそれぞれ平行に移動させて基準球60の測定を行ったが、カメラ座標系をカメラ座標系の各座標軸に対して平行に移動させた場合における各測定位置ごとの定点が計算できれば、カメラ座標系の各座標軸の向きと基準座標系の座標軸の向きとを一致させなくても第1座標変換関数を補正することができる。
c. Third Modification In the above embodiment, after the direction of each coordinate axis of the camera coordinate system is matched with the direction of each coordinate axis of the reference coordinate system, the three-dimensional shape measuring apparatus 30 is parallel to the two coordinate axes of both coordinate axes. The reference sphere 60 was measured by moving it, but if a fixed point for each measurement position can be calculated when the camera coordinate system is moved in parallel to each coordinate axis of the camera coordinate system, each coordinate axis of the camera coordinate system can be calculated. The first coordinate conversion function can be corrected without matching the direction and the direction of the coordinate axis of the reference coordinate system.

具体的には、作業者は、図3に示す触針測定プログラムおよび図4に示す座標変換関数計算プログラムの実行によって第1座標変換関数を計算した後、カメラ座標系の各座標軸の向きと基準座標系の各座標軸の向きとが一致していない状態で、基準球60の3次元形状の測定を行う。この基準球60の3次元形状の測定に際して作業者は、図5に示す座標変換関数補正プログラムを3次元画像処理装置42に実行させる。この基準球60の3次元形状の測定は、カメラ座標系の各座標軸の向きと基準座標系の各座標軸の向きとを一致させない状態で、3次元形状測定装置30をカメラ座標系の2つの座標軸にそれぞれ平行に移動させて行う。このほかの測定作業については、前記実施形態と同様である。また、座標変換関数補正プログラムにおける各処理もステップS42、ステップS45およびステップS50以外は、前記実施形態と同様であるので、前記実施形態と異なる処理内容について説明する。   Specifically, the operator calculates the first coordinate conversion function by executing the stylus measurement program shown in FIG. 3 and the coordinate conversion function calculation program shown in FIG. 4, and then the orientation and reference of each coordinate axis in the camera coordinate system. The three-dimensional shape of the reference sphere 60 is measured in a state where the directions of the coordinate axes of the coordinate system do not match. When measuring the three-dimensional shape of the reference sphere 60, the operator causes the three-dimensional image processing device 42 to execute the coordinate conversion function correction program shown in FIG. The measurement of the three-dimensional shape of the reference sphere 60 is performed in such a manner that the direction of each coordinate axis of the camera coordinate system does not coincide with the direction of each coordinate axis of the reference coordinate system. And move them in parallel. Other measurement operations are the same as in the above embodiment. Each process in the coordinate transformation function correction program is the same as that in the above embodiment except for step S42, step S45, and step S50, and therefore, processing contents different from those in the above embodiment will be described.

3次元画像処理装置42は、ステップS42にて、前記実施形態と同様にして各測定位置ごとの基準球60の3次元形状を表す3次元画像データをメモリ装置に記憶する。この場合、3次元形状測定装置30による基準球60の各測定位置ごとに、基準座標系によって表されたアーム座標系の原点位置をメモリ装置に記憶する。そして、3次元画像処理装置42は、図5において破線で示すステップS45にて、座標変換補正関数を計算する。この座標変換補正関数は、カメラ座標系の各座標軸の向きが基準座標系の各座標軸の向きに一致していない状態で第1座標変換関数および第2座標変換関数により座標変換された各座標値を、カメラ座標系の各座標軸と基準座標系の各座標軸との角度のずれに応じて補正する関数である。この座標変換補正関数の計算は、次のサブステップ1〜3の処理からなる。   In step S42, the three-dimensional image processing device 42 stores three-dimensional image data representing the three-dimensional shape of the reference sphere 60 for each measurement position in the memory device in the same manner as in the above embodiment. In this case, the origin position of the arm coordinate system represented by the reference coordinate system is stored in the memory device for each measurement position of the reference sphere 60 by the three-dimensional shape measuring apparatus 30. Then, the three-dimensional image processing device 42 calculates a coordinate transformation correction function in step S45 indicated by a broken line in FIG. This coordinate transformation correction function is a coordinate value obtained by performing coordinate transformation using the first coordinate transformation function and the second coordinate transformation function in a state where the orientation of each coordinate axis in the camera coordinate system does not match the orientation of each coordinate axis in the reference coordinate system. Is a function that corrects according to the angle deviation between each coordinate axis of the camera coordinate system and each coordinate axis of the reference coordinate system. The calculation of the coordinate transformation correction function includes the following sub-steps 1 to 3.

サブステップ1:3次元画像処理装置42は、3次元形状測定装置30の2つの移動方向にそれぞれ対応する2つのベクトルを計算する。具体的には、メモリ装置に記憶した各測定位置ごとのアーム座標系の原点を用いて、3次元形状測定装置30の各移動方向ごとの各原点を通る直線をベクトルとして計算する。すなわち、3次元形状測定装置30の2つの移動方向にそれぞれ対応するカメラ座標系の2つの座標軸に対してそれぞれ平行なベクトルを計算する。   Substep 1: The 3D image processing device 42 calculates two vectors respectively corresponding to the two movement directions of the 3D shape measuring device 30. Specifically, using the origin of the arm coordinate system for each measurement position stored in the memory device, a straight line passing through each origin for each movement direction of the three-dimensional shape measurement apparatus 30 is calculated as a vector. That is, vectors parallel to the two coordinate axes of the camera coordinate system respectively corresponding to the two movement directions of the three-dimensional shape measuring apparatus 30 are calculated.

サブステップ2:3次元画像処理装置42は、前記サブステップ1によって計算した2つのベクトルの単位ベクトルを計算するとともに、同単位ベクトルの外積を計算する。これにより、3次元形状測定装置30の各移動方向に対応する2つのベクトルの各単位ベクトルに直交する1つのベクトルが計算される。この2つの単位ベクトルおよび同2つの単位ベクトルの外積により計算された1つのベクトルは、互いに直交する3つの単位ベクトルであり、各ベクトルはそれぞれカメラ座標系の各座標軸に対して平行である。   Sub-step 2: The three-dimensional image processing device 42 calculates unit vectors of the two vectors calculated in the sub-step 1 and calculates an outer product of the unit vectors. Thereby, one vector orthogonal to each unit vector of two vectors corresponding to each moving direction of the three-dimensional shape measuring apparatus 30 is calculated. One vector calculated by the outer product of the two unit vectors and the two unit vectors is three unit vectors orthogonal to each other, and each vector is parallel to each coordinate axis of the camera coordinate system.

サブステップ3:3次元画像処理装置42は、前記サブステップ2にて計算された3つの単位ベクトルをそれぞれ基底ベクトル(1,0,0),(0,1,0),(0,0,1)に変換するための変換関数を計算し、同変換関数を座標補正変換関数としてメモリ装置に記憶する。この変換関数は、3つの各単位ベクトルを各基底ベクトルに変換するための各ベクトルの回転角度に基づいて計算される。すなわち、この変換関数は、基準座標系の各座標軸の向きをカメラ座標系の各座標軸の向きに一致させる座標変換関数に対応する。   Sub-step 3: The three-dimensional image processing device 42 uses the three unit vectors calculated in the sub-step 2 as basis vectors (1, 0, 0), (0, 1, 0), (0, 0, A conversion function for converting to 1) is calculated, and the conversion function is stored in the memory device as a coordinate correction conversion function. This conversion function is calculated based on the rotation angle of each vector for converting each of the three unit vectors into each base vector. That is, this conversion function corresponds to a coordinate conversion function that matches the direction of each coordinate axis of the reference coordinate system with the direction of each coordinate axis of the camera coordinate system.

次に、座標変換関数補正プログラムにおけるステップS50の処理を以下のように変更する。3次元画像処理装置42は、ステップS50にて、基準球60の球体中心として計算した各座標値を、前記ステップS45のサブステップ1〜3によって計算した座標変換補正関数を用いて補正する。これにより、第1座標変換関数によって座標変換された座標値が、カメラ座標系の各座標軸と基準座標系の各座標軸との角度のずれ量に応じて補正される。すなわち、座標変換補正関数によって補正された座標値と前記実施形態におけるステップS50によって計算された基準座標系における座標値とは等価である。そして、3次元画像処理装置42は、同補正された座標値を定点としてメモリ装置に記憶する。これ以降の処理は、前記実施形態と同様である。このように構成した第3変形例によれば、カメラ座標系の各座標軸の向きと基準座標系の座標軸の向きとを一致させる必要がないため、基準球60の測定作業を効率的に行うことができる。   Next, the process of step S50 in the coordinate conversion function correction program is changed as follows. In step S50, the three-dimensional image processing device 42 corrects each coordinate value calculated as the sphere center of the reference sphere 60 by using the coordinate transformation correction function calculated in the sub-steps 1 to 3 in step S45. As a result, the coordinate value transformed by the first coordinate transformation function is corrected according to the amount of angular deviation between each coordinate axis of the camera coordinate system and each coordinate axis of the reference coordinate system. That is, the coordinate value corrected by the coordinate conversion correction function is equivalent to the coordinate value in the reference coordinate system calculated in step S50 in the embodiment. Then, the three-dimensional image processing device 42 stores the corrected coordinate value in the memory device as a fixed point. The subsequent processing is the same as in the above embodiment. According to the third modified example configured as described above, since it is not necessary to match the direction of each coordinate axis of the camera coordinate system with the direction of the coordinate axis of the reference coordinate system, the measurement work of the reference sphere 60 can be performed efficiently. Can do.

d.その他の変形例
上記実施形態、第1変形例、第2変形例および第3変形例においては、第1座標変換関数を計算するために、互いに異なる3つの位置において基準球60の3次元形状の測定を行うようにしたが、互いに異なる3つの位置における基準球60の定点を計算できれば、これに限定されるものではない。例えば、前記図4に示す座標変換関数計算プログラムにおける基準球60の測定作業と前記図5に示す座標変換関数補正プログラムにおける基準球60の測定作業とを共通の作業としてもよい。
d. Other Modifications In the embodiment, the first modification, the second modification, and the third modification, the three-dimensional shape of the reference sphere 60 is calculated at three different positions in order to calculate the first coordinate conversion function. Although the measurement is performed, the present invention is not limited to this as long as the fixed points of the reference sphere 60 at three different positions can be calculated. For example, the measurement work of the reference sphere 60 in the coordinate transformation function calculation program shown in FIG. 4 and the measurement work of the reference sphere 60 in the coordinate transformation function correction program shown in FIG.

具体的には、作業者は、前記触針測定プログラムの実行後、支持機構20の第3アーム25の先端部に3次元形状測定装置30を第3アーム25の軸線回りに回転可能に組み付けるとともに、基準球60の3次元形状の測定を行う。この基準球60の3次元形状の測定に際して作業者は、図4に示す座標変換関数計算プログラムを3次元画像処理装置42に実行させる。この場合、基準球60の3次元形状の測定は、前記座標変換関数補正プログラムにおける測定作業と同様に、3次元形状測定装置30のカメラ座標系の各座標軸の向きと基準座標系の各座標軸の向きとを一致させた後、3次元形状測定装置30を2つの座標軸に対してそれぞれ平行に移動させて互いに異なる5つの位置で測定を行う。そして、3次元画像処理装置42は、ステップS32による第1座標変換関数の計算処理において、各測定位置ごとの5つの定点うち、3つの定点を用いて第1座標変換関数を計算する。この場合、3つの定点は、すべての定点が同一直線上にない3つの定点を用いるようにする。これにより、第1座標変換関数が計算される。   Specifically, after the execution of the stylus measurement program, the operator assembles the three-dimensional shape measuring device 30 at the tip of the third arm 25 of the support mechanism 20 so as to be rotatable around the axis of the third arm 25. Then, the three-dimensional shape of the reference sphere 60 is measured. When measuring the three-dimensional shape of the reference sphere 60, the operator causes the three-dimensional image processing device 42 to execute the coordinate conversion function calculation program shown in FIG. In this case, the measurement of the three-dimensional shape of the reference sphere 60 is performed in the same manner as the measurement operation in the coordinate conversion function correction program, with the orientation of each coordinate axis of the camera coordinate system and the coordinate axes of the reference coordinate system of the three-dimensional shape measurement apparatus 30. After matching the directions, the three-dimensional shape measuring apparatus 30 is moved in parallel with respect to the two coordinate axes, and measurement is performed at five different positions. The three-dimensional image processing device 42 calculates the first coordinate conversion function using three fixed points among the five fixed points for each measurement position in the calculation process of the first coordinate conversion function in step S32. In this case, as the three fixed points, three fixed points whose all fixed points are not on the same straight line are used. Thereby, the first coordinate conversion function is calculated.

次に、作業者は、図5に示す座標変換関数補正プログラムを3次元画像処理装置42に実行させる。この場合、座標変換関数補正プログラムは、前記座標変換関数計算プログラムにおいて測定した基準球60の3次元画像データを用いて、各ステップを実行して第1座標変換関数を補正する。すなわち、座標変換関数プログラムにおけるステップS42の基準球の測定処理はスキップされる。したがって、この変形例によれば、1回の基準球60の測定作業により得られた3次元画像データに基づき、各測定位置ごとの基準球60の中心座標を定点として計算し、同定点を第1座標変換関数および第1座標変換関数の補正関数の計算に用いている。このため、基準球60の測定作業の回数が減り、第1座標変換関数の計算および同第1座標変換関数の補正を効率的に行うができる。   Next, the worker causes the three-dimensional image processing device 42 to execute the coordinate conversion function correction program shown in FIG. In this case, the coordinate transformation function correction program corrects the first coordinate transformation function by executing each step using the three-dimensional image data of the reference sphere 60 measured in the coordinate transformation function calculation program. That is, the measurement process of the reference sphere in step S42 in the coordinate conversion function program is skipped. Therefore, according to this modification, based on the three-dimensional image data obtained by one measurement operation of the reference sphere 60, the center coordinate of the reference sphere 60 for each measurement position is calculated as a fixed point, and the identification point is determined as the first point. It is used to calculate the correction function of the one-coordinate conversion function and the first coordinate conversion function. For this reason, the frequency | count of the measurement operation | work of the reference | standard sphere 60 reduces, and the calculation of the 1st coordinate transformation function and the correction | amendment of the 1st coordinate transformation function can be performed efficiently.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、基準座標系によって表された複数の定点を計算するために、3次元形状測定装置30によって各測定位置ごとに測定された基準球60のカメラ座標系での3次元画像データを基準座標系での3次元画像データに座標変換した後、同3次元画像データを用いて定点を計算するように構成したが、これに限定されるものではない。例えば、3次元形状測定装置30によって各測定位置ごとに測定した基準球60を表す3次元画像データを用いて定点を計算した後、この計算された各測定位置ごとの定点を基準座標系に座標変換するようにしてもよい。これによっても、上記実施形態と同様の効果を期待できる。   In the embodiment, the first modification, the second modification, and the third modification, the three-dimensional shape measuring apparatus 30 calculates each fixed position for calculating a plurality of fixed points represented by the reference coordinate system. After the coordinate conversion of the three-dimensional image data in the camera coordinate system of the reference sphere 60 measured to the three-dimensional image data in the reference coordinate system, the fixed point is calculated using the three-dimensional image data. However, the present invention is not limited to this. For example, after calculating a fixed point using the three-dimensional image data representing the reference sphere 60 measured at each measurement position by the three-dimensional shape measurement apparatus 30, the calculated fixed point at each measurement position is coordinated with the reference coordinate system. You may make it convert. Also by this, the same effect as the above-mentioned embodiment can be expected.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、3次元形状測定装置30の各移動方向ごとにそれぞれ3つの位置で基準球60を測定し、各測定位置に対応する3つの定点を用いて各座標軸の角度のずれを計算するための直線を定義するようにしたが、同直線を定義できれば、これに限定されるものではない。すなわち、少なくとも2つの定点を得られればよく、例えば、各移動方向において4つ以上の定点を得るようにしてもよい。これによれば、より正確に直線を定義でき、高精度な座標回転関数M’を計算することができる。   In the embodiment, the first modified example, the second modified example, and the third modified example, the reference sphere 60 is measured at three positions for each moving direction of the three-dimensional shape measuring apparatus 30, and each measurement position is measured. A straight line for calculating the deviation of the angle of each coordinate axis is defined using the three fixed points corresponding to, but the present invention is not limited to this as long as the straight line can be defined. That is, it is only necessary to obtain at least two fixed points. For example, four or more fixed points may be obtained in each moving direction. According to this, a straight line can be defined more accurately, and a highly accurate coordinate rotation function M ′ can be calculated.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、3次元形状測定装置30をY軸方向およびZ軸方向に移動させて基準球60を測定するようにしたが、3つの座標軸に対応する3つの角度のずれθx,θy,θzが計算できれば、これに限定されるものではない。すなわち、前記Y軸方向およびZ軸方向のうちの一方をX軸方向に代えてもよい。これによっても、上記実施形態と同様の効果を期待できる。   In the embodiment, the first modified example, the second modified example, and the third modified example, the reference sphere 60 is measured by moving the three-dimensional shape measuring apparatus 30 in the Y-axis direction and the Z-axis direction. However, the present invention is not limited to this as long as the three angular deviations θx, θy, and θz corresponding to the three coordinate axes can be calculated. That is, one of the Y-axis direction and the Z-axis direction may be replaced with the X-axis direction. Also by this, the same effect as the above-mentioned embodiment can be expected.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、3次元形状測定装置30をY軸方向およびZ軸方向の2つの座標軸方向に移動させて基準球60を測定するようにしたが、3つの座標軸についてそれぞれ角度のずれθx,θy,θzが計算できれば、これに限定されるものではない。すなわち、前記Y軸方向およびZ軸方向に加えてX軸方向に3次元形状測定装置30を移動させて基準球60を測定してもよい。この場合、3つの座標軸に対応する3つの角度のずれθx,θy,θzが、それぞれ2つずつ計算されるが、同2つの計算値を平均化してそれぞれの角度のずれθx,θy,θzとしてもよい。これによれば、より正確な座標回転関数M’を計算でき、高精度な第1座標変換関数を計算することができる。   In the embodiment, the first modified example, the second modified example, and the third modified example, the reference sphere 60 is moved by moving the three-dimensional shape measuring apparatus 30 in the two coordinate axis directions of the Y-axis direction and the Z-axis direction. However, the present invention is not limited to this as long as the angle shifts θx, θy, and θz can be calculated for each of the three coordinate axes. That is, the reference sphere 60 may be measured by moving the three-dimensional shape measuring apparatus 30 in the X-axis direction in addition to the Y-axis direction and the Z-axis direction. In this case, two angular deviations θx, θy, and θz corresponding to the three coordinate axes are respectively calculated, but the two calculated values are averaged to obtain respective angular deviations θx, θy, and θz. Also good. According to this, a more accurate coordinate rotation function M ′ can be calculated, and a highly accurate first coordinate conversion function can be calculated.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、基準球60として球体を用いたが、触針50の接触によって定点などの基準物体の情報が特定でき、かつ3次元形状測定装置30による外形形状の測定によって物体が特定できるとともに同物体によって規定される定点の座標値が特定できるものであれば、球体の径および個数は限定されるものではない。また、球体以外の物体を基準物体として利用することもできる。例えば、立方体、直方体などの角柱、角錐、円柱または円錐体など、物体および定点を特定し易い物体を基準物体として利用できる。これによっても、上記実施形態と同様の効果を期待できる。   Moreover, in the said embodiment, the 1st modification, the 2nd modification, and the 3rd modification, although the spherical body was used as the reference | standard sphere 60, the information of reference | standard objects, such as a fixed point, can be pinpointed by the contact of the stylus 50, In addition, the diameter and the number of the spheres are not limited as long as the object can be specified by measuring the outer shape by the three-dimensional shape measuring apparatus 30 and the coordinate value of the fixed point defined by the object can be specified. An object other than a sphere can also be used as a reference object. For example, an object such as a cube such as a cube or a rectangular parallelepiped, a pyramid, a cylinder, or a cone can be used as the reference object. Also by this, the same effect as the above-mentioned embodiment can be expected.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、第1座標変換関数および第2座標変換関数を計算するために基台10上に1つの基準球60を用いたが、これに限定されるものではない。例えば、3つの基準球を基台10上に配置し、触針50および3次元形状測定装置30によってそれぞれ3つの基準球を測定して各中心座標を定点として第1座標変換関数および第2座標変換関数を計算するように構成してもよい。これによっても、上記実施形態と同様の効果を期待できる。   Moreover, in the said embodiment, a 1st modification, a 2nd modification, and a 3rd modification, in order to calculate a 1st coordinate transformation function and a 2nd coordinate transformation function, one reference sphere 60 is provided on the base 10. Although used, it is not limited to this. For example, three reference spheres are arranged on the base 10, the three reference spheres are measured by the stylus 50 and the three-dimensional shape measuring device 30, and the first coordinate conversion function and the second coordinate are set with the center coordinates as fixed points. You may comprise so that a conversion function may be calculated. Also by this, the same effect as the above-mentioned embodiment can be expected.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、基準座標系における基準となる点を特定するために、基台10上に基準球60を配置して同基準球60を支持機構20の先端部に取り付けた触針50を用いて測定したが、これに限定されるものではない。例えば、基準座標系における予め特定できる位置に基準球60を配置すれば、同基準球60を測定して基準となる点を特定する作業、すなわち図3に示す触針測定プログラムによる基準球60の測定作業は不要である。これによっても、上記実施形態と同様の効果を期待できる。   In the embodiment, the first modification, the second modification, and the third modification, the reference sphere 60 is arranged on the base 10 in order to specify the reference point in the reference coordinate system. Although the measurement was performed using the stylus 50 in which the reference sphere 60 was attached to the tip of the support mechanism 20, the measurement is not limited to this. For example, if the reference sphere 60 is arranged at a position that can be specified in advance in the reference coordinate system, an operation for measuring the reference sphere 60 and specifying a reference point, that is, the reference sphere 60 by the stylus measurement program shown in FIG. No measurement work is required. Also by this, the same effect as the above-mentioned embodiment can be expected.

また、上記実施形態、第1変形例、第2変形例および第3変形例においては、変形可能な支持機構によって支持された3次元形状測定装置30を用いてカメラ座標系の座標を基準座標系の座標に変換する座標変換関数の補正を行ったが、これに限定されるものではない。例えば、3次元形状測定装置30の位置および向きを別の測定手段によって測定しながら3次元形状測定装置30を独立して移動できる3次元画像生成システムにおいて、座標変換関数の補正を行ってもよい。この場合、3次元形状測定装置30周りに任意に定めた一点がアーム座標系の原点に相当し、アーム座標系に相当する座標を基準座標系の座標に変換する第2座標変換関数が3次元形状測定装置30の位置および向きのデータにより計算される。この他の構成については上記実施形態と同様の方法により座標変換関数の補正を行うことができる。   In the embodiment, the first modified example, the second modified example, and the third modified example, the coordinates of the camera coordinate system are converted into the reference coordinate system using the three-dimensional shape measuring apparatus 30 supported by the deformable support mechanism. Although the coordinate conversion function for converting to the coordinates of is corrected, the present invention is not limited to this. For example, the coordinate transformation function may be corrected in a three-dimensional image generation system that can move the three-dimensional shape measuring apparatus 30 independently while measuring the position and orientation of the three-dimensional shape measuring apparatus 30 by another measuring means. . In this case, one point arbitrarily determined around the three-dimensional shape measuring apparatus 30 corresponds to the origin of the arm coordinate system, and the second coordinate conversion function for converting the coordinates corresponding to the arm coordinate system into the coordinates of the reference coordinate system is three-dimensional. It is calculated from the position and orientation data of the shape measuring device 30. For other configurations, the coordinate transformation function can be corrected by the same method as in the above embodiment.

本発明の一実施形態に係る3次元画像生成システムの全体を示す概略図である。1 is a schematic diagram illustrating an entire three-dimensional image generation system according to an embodiment of the present invention. 図1の支持機構に触針を組み付けた状態を示す概略斜視図である。It is a schematic perspective view which shows the state which assembled | attached the stylus on the support mechanism of FIG. 図1の3次元画像処理装置によって実行される触針測定プログラムのフローチャートである。It is a flowchart of the stylus measurement program executed by the three-dimensional image processing apparatus of FIG. 図1の3次元画像処理装置によって実行される座標変換関数計算プログラムのフローチャートである。It is a flowchart of the coordinate transformation function calculation program performed by the three-dimensional image processing apparatus of FIG. 図1の3次元画像処理装置によって実行される座標変換関数補正プログラムのフローチャートである。It is a flowchart of the coordinate transformation function correction | amendment program performed by the three-dimensional image processing apparatus of FIG. 図1の3次元形状測定装置による基準球の測定の方法を示した説明図である。It is explanatory drawing which showed the method of the measurement of the reference | standard sphere by the three-dimensional shape measuring apparatus of FIG. 仮のカメラ座標系の各座標軸の向きが真のカメラ座標系の各座標軸に対してずれている場合におけるカメラ座標系の座標を基準座標系の座標に変換した座標の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the coordinate which converted the coordinate of the camera coordinate system into the coordinate of the reference | standard coordinate system in case the direction of each coordinate axis of a temporary camera coordinate system has shifted | deviated with respect to each coordinate axis of a true camera coordinate system. is there. 仮のカメラ座標系の各座標軸の向きが真のカメラ座標系の各座標軸に対して一致している場合におけるカメラ座標系の座標を基準座標系の座標に変換した座標の位置関係を示す説明図である。Explanatory drawing which shows the positional relationship of the coordinate which converted the coordinate of the camera coordinate system into the coordinate of the reference | standard coordinate system in case the direction of each coordinate axis of a temporary camera coordinate system corresponds with respect to each coordinate axis of a true camera coordinate system It is. 図1の3次元画像処理装置によって実行される3次元形状表示プログラムのフローチャートである。3 is a flowchart of a three-dimensional shape display program executed by the three-dimensional image processing apparatus in FIG. 1.

符号の説明Explanation of symbols

10…基台、20…支持機構、21…固定ポール、22…回転ロッド、23〜25…アーム、27a〜27e…回転角センサ、30…3次元形状測定装置、41…コントローラ、42…画像処理装置、43…入力装置、44…表示装置、50…触針、60…基準球。
DESCRIPTION OF SYMBOLS 10 ... Base, 20 ... Support mechanism, 21 ... Fixed pole, 22 ... Rotating rod, 23-25 ... Arm, 27a-27e ... Rotation angle sensor, 30 ... Three-dimensional shape measuring apparatus, 41 ... Controller, 42 ... Image processing Device, 43 ... input device, 44 ... display device, 50 ... stylus, 60 ... reference sphere.

Claims (4)

変形可能な支持機構(20)によって支持された3次元形状測定装置(30)に測定対象物の3次元形状を測定させ
コンピュータ装置によって構成した3次元画像処理装置(42)に、前記3次元形状測定装置による測定対象物の測定情報を入力させ(S72)、かつ前記入力させた測定情報を用いて前記3次元形状測定装置に関する座標系における前記測定した測定対象物の3次元形状を表す3次元画像データを生成させ(S74)
前記3次元画像処理装置に、前記生成させた3次元画像データを座標回転関数と座標移動関数とからなる第1座標変換関数を用いて前記変形可能な支持機構に関する座標系における3次元画像データに変換させ、かつ前記変換させた3次元画像データを前記支持機構の変形状態に応じて変化する第2座標変換関数を用いて予め決めた所定の座標系の3次元画像データに変換させ(S76)
前記測定対象物を任意の方向から見て表示可能な3次元画像生成システムに適用される第1座標変換関数を補正する座標変換関数の補正方法において、
前記3次元形状測定装置に関する座標系における座標軸の方向と、前記予め決めた所定の座標系の座標軸の方向とを一致させたうえで、前記支持機構を変形させて前記3次元形状測定装置を前記予め決めた所定の座標系の座標軸と平行に移動させ、少なくとも2つの位置で前記3次元形状測定装置に前記3次元形状測定装置の測定対象空間内に配置された基準物体の3次元形状を測定させ
前記3次元画像処理装置に、前記少なくとも2つの位置で測定した前記3次元形状測定装置による基準物体の測定情報を入力させ、かつ前記各測定位置ごとに前記3次元形状測定装置に関する座標系における前記基準物体の3次元形状を表す3次元画像データを生成させ(S42)
前記3次元画像処理装置に、前記第1座標変換関数、前記第2座標変換関数および前記生成された各測定位置ごとの3次元画像データを用いて、前記少なくとも2つの位置で測定した前記基準物体の定点を前記予め決めた所定の座標系で表す3次元データを計算させ(S44、S46,S48,S50)
前記3次元画像処理装置に、前記予め決めた所定の座標系の座標軸に対する前記定点の3次元データを用いて定義される直線の傾きに応じて前記第1座標変換関数における座標回転関数を補正させる(S52,S54)
ことを特徴とする座標変換関数の補正方法。
The three-dimensional shape measurement device which is supported by a deformable support mechanism (20) (30) to measure the three-dimensional shape of the measurement object,
The measurement information of the measurement object by the three-dimensional shape measuring device is input to a three-dimensional image processing device (42) configured by a computer device (S72), and the three-dimensional shape measurement is performed using the input measurement information. Generating three-dimensional image data representing the three-dimensional shape of the measured object in the coordinate system relating to the apparatus (S74) ;
The three-dimensional image processing apparatus converts the generated three-dimensional image data into three-dimensional image data in a coordinate system related to the deformable support mechanism using a first coordinate transformation function including a coordinate rotation function and a coordinate movement function. The converted three-dimensional image data is converted into three-dimensional image data of a predetermined coordinate system using a second coordinate conversion function that changes according to the deformation state of the support mechanism (S76). ) ,
In the correction method of the coordinate transformation function for correcting the first coordinate transformation function applied to the three-dimensional image generation system capable of displaying the measurement object as viewed from an arbitrary direction,
Wherein the direction of the coordinate axis in the coordinate system relating to the three-dimensional shape measuring apparatus, wherein after having matched the direction of the coordinate axes of the predetermined prescribed coordinate system, the support mechanism is deformed by the three-dimensional shape measurement device predetermined by parallel movement and coordinate axes of a predetermined coordinate system, measuring the three-dimensional shape of the measurement object placed reference objects in the space of the three-dimensional shape measuring apparatus in the three-dimensional shape measuring device in at least two positions Let
The measurement information of the reference object by the three-dimensional shape measurement device measured at the at least two positions is input to the three-dimensional image processing device, and the coordinate system in the coordinate system related to the three-dimensional shape measurement device is set for each measurement position. Generating three-dimensional image data representing the three-dimensional shape of the reference object (S42) ;
The three-dimensional image processing apparatus, the first coordinate conversion function, using a 3-dimensional image data for each measurement position which is the second coordinate transformation function and said generating, said reference object measured at least two locations Calculating three-dimensional data representing the fixed point in the predetermined coordinate system (S44, S46, S48, S50) ;
The 3-dimensional image processing apparatus, causes correct coordinate rotation function in the first coordinate transformation function according to the inclination of a straight line the defined using three-dimensional data of the fixed point relative to the coordinate axes of the predetermined given coordinate system (S52, S54)
A method of correcting a coordinate transformation function characterized by the above.
変形可能な支持機構(20)によって支持された3次元形状測定装置(30)に測定対象物の3次元形状を測定させ
コンピュータ装置によって構成した3次元画像処理装置(42)に、前記3次元形状測定装置による測定対象物の測定情報を入力させ(S72)、かつ前記入力させた測定情報を用いて前記3次元形状測定装置に関する座標系における前記測定した測定対象物の3次元形状を表す3次元画像データを生成させ(S74)
前記3次元画像処理装置に、前記生成させた3次元画像データを座標回転関数と座標移動関数とからなる第1座標変換関数を用いて前記変形可能な支持機構に関する座標系における3次元画像データに変換させ、かつ前記変換させた3次元画像データを前記支持機構の変形状態に応じて変化する第2座標変換関数を用いて予め決めた所定の座標系の3次元画像データに変換させて(S76)、
前記測定対象物を任意の方向から見て表示可能な3次元画像生成システムに適用される第1座標変換関数を補正する座標変換関数の補正方法において、
前記3次元形状測定装置に関する座標系における座標軸の方向と、前記予め決めた所定の座標系の座標軸の方向とを一致させたうえで、前記支持機構を変形させて前記3次元形状測定装置を前記予め決めた所定の座標系の座標軸と平行に移動させ、少なくとも2つの位置で前記3次元形状測定装置に前記3次元形状測定装置の測定対象空間内に配置された基準物体の3次元形状を測定させ、
前記3次元画像処理装置に、前記少なくとも2つの位置で測定した前記3次元形状測定装置による基準物体の測定情報を入力させ、かつ前記各測定位置ごとに前記3次元形状測定装置に関する座標系における前記基準物体の3次元形状を表す3次元画像データを生成させ(S42)、
前記3次元画像処理装置に、前記第1座標変換関数、前記第2座標変換関数および前記生成された各測定位置ごとの3次元画像データを用いて、前記少なくとも2つの位置で測定した前記基準物体の定点を前記予め決めた所定の座標系で表す3次元データを計算させ(S44、S46,S48,S50)、
前記3次元画像処理装置に、前記基準物体の3次元形状を測定させた位置間における前記3次元形状測定装置の移動量を前記支持機構の変形状態に応じて計算させ、かつ前記計算させた移動量と、前記予め決めた所定の座標系の座標軸方向のうちで前記3次元形状測定装置の移動方向と異なる座標軸方向の前記基準物体の定点の座標値の変化量とによって定義される直線の傾きに応じて前記第1座標変換関数における座標回転関数を補正させることを特徴とする座標変換関数の補正方法。
The three-dimensional shape measuring device (30) supported by the deformable support mechanism (20) measures the three-dimensional shape of the measurement object ,
The measurement information of the measurement object by the three-dimensional shape measuring device is input to a three-dimensional image processing device (42) configured by a computer device (S72), and the three-dimensional shape measurement is performed using the input measurement information. Generating three-dimensional image data representing the three-dimensional shape of the measured object in the coordinate system relating to the apparatus (S74) ;
The three-dimensional image processing apparatus converts the generated three-dimensional image data into three-dimensional image data in a coordinate system related to the deformable support mechanism using a first coordinate transformation function including a coordinate rotation function and a coordinate movement function. The converted three-dimensional image data is converted into three-dimensional image data of a predetermined coordinate system using a second coordinate conversion function that changes according to the deformation state of the support mechanism (S76). ),
In the correction method of the coordinate transformation function for correcting the first coordinate transformation function applied to the three-dimensional image generation system capable of displaying the measurement object as viewed from an arbitrary direction,
The direction of the coordinate axis in the coordinate system related to the three-dimensional shape measuring apparatus is matched with the direction of the coordinate axis of the predetermined coordinate system, and the support mechanism is deformed to change the three-dimensional shape measuring apparatus to the Move in parallel with the coordinate axis of a predetermined coordinate system determined in advance, and measure the three-dimensional shape of the reference object placed in the measurement target space of the three-dimensional shape measuring device in the three-dimensional shape measuring device at at least two positions. Let
The measurement information of the reference object by the three-dimensional shape measurement device measured at the at least two positions is input to the three-dimensional image processing device, and the coordinate system in the coordinate system related to the three-dimensional shape measurement device is set for each measurement position. Generating three-dimensional image data representing the three-dimensional shape of the reference object (S42);
The reference object measured at the at least two positions using the first coordinate transformation function, the second coordinate transformation function, and the generated three-dimensional image data for each measurement position in the three-dimensional image processing apparatus. The three-dimensional data representing the fixed point in the predetermined coordinate system is calculated (S44, S46, S48, S50),
The 3-dimensional image processing apparatus, an amount of movement of the three-dimensional shape measurement equipment between the three-dimensional shape was measured positions of the reference object is calculated according to the deformed state of the support mechanism, and was the calculated A straight line defined by the amount of movement and the amount of change in the coordinate value of the fixed point of the reference object in the coordinate axis direction different from the movement direction of the three-dimensional shape measuring device among the coordinate axis directions of the predetermined coordinate system. A method for correcting a coordinate transformation function, comprising correcting a coordinate rotation function in the first coordinate transformation function according to an inclination .
変形可能な支持機構(20)によって支持された3次元形状測定装置(30)に測定対象物の3次元形状を測定させ、
コンピュータ装置によって構成した3次元画像処理装置(42)に、前記3次元形状測定装置による測定対象物の測定情報を入力させ(S72)、かつ前記入力させた測定情報を用いて前記3次元形状測定装置に関する座標系における前記測定した測定対象物の3次元形状を表す3次元画像データを生成させ(S74)
前記3次元画像処理装置に、前記生成させた3次元画像データを座標回転関数と座標移動関数とからなる第1座標変換関数を用いて前記変形可能な支持機構に関する座標系における3次元画像データに変換させ、かつ前記変換させた3次元画像データを前記支持機構の変形状態に応じて変化する第2座標変換関数を用いて予め決めた所定の座標系の3次元画像データに変換させて(S76)、
前記測定対象物を任意の方向から見て表示可能な3次元画像生成システムに適用される第1座標変換関数を補正する座標変換関数の補正方法において、
前記3次元形状測定装置に関する座標系における座標軸の方向と、前記予め決めた所定の座標系の座標軸の方向とを一致させない状態で、前記支持機構を変形させて前記3次元形状測定装置を前記3次元形状測定装置に関する座標系における座標軸の方向と平行に移させ、少なくとも2つの位置で前記3次元形状測定装置に前記3次元形状測定装置の測定対象空間内に配置された基準物体の3次元形状を測定させ、
前記3次元画像処理装置に、前記少なくとも2つの位置で測定した前記3次元形状測定装置による基準物体の測定情報を入力させ、かつ前記各測定位置ごとに前記3次元形状測定装置に関する座標系における前記基準物体の3次元形状を表す3次元画像データを生成させ(S42)、
前記3次元画像処理装置に、前記支持機構の変形状態に応じて前記予め決めた所定の座標系の3次元データを前記移動させた3次元形状測定装置の座標系の3次元データに変換するための座標変換補正関数を計算させ(S42,S45)、
前記3次元画像処理装置に、前記第1座標変換関数、前記第2座標変換関数および前記生成された各測定位置ごとの3次元画像データを用いて、前記少なくとも2つの位置で測定した前記基準物体の定点を前記予め決めた所定の座標系で表す3次元データを計算させかつ前記計算させた予め決めた所定の座標系で表す3次元データを前記座標変換補正関数を用いて前記移動させた3次元形状測定装置の座標系の3次元データに変換させ(S44、S46,S48,S50)、
前記3次元画像処理装置に、前記移動させた3次元形状測定装置の座標系の座標軸に対する前記変換された定点の3次元データを用いて定義される直線の傾きに応じて前記第1座標変換関数における座標回転関数を補正させる(S52,S54)
ことを特徴とする座標変換関数の補正方法。
The three-dimensional shape measuring device (30) supported by the deformable support mechanism (20) measures the three-dimensional shape of the measurement object,
The measurement information of the measurement object by the three-dimensional shape measuring device is input to a three-dimensional image processing device (42) configured by a computer device (S72), and the three-dimensional shape measurement is performed using the input measurement information. Generating three-dimensional image data representing the three-dimensional shape of the measured object in the coordinate system relating to the apparatus (S74) ;
The three-dimensional image processing apparatus converts the generated three-dimensional image data into three-dimensional image data in a coordinate system related to the deformable support mechanism using a first coordinate transformation function including a coordinate rotation function and a coordinate movement function. The converted three-dimensional image data is converted into three-dimensional image data of a predetermined coordinate system using a second coordinate conversion function that changes according to the deformation state of the support mechanism (S76). ),
In the correction method of the coordinate transformation function for correcting the first coordinate transformation function applied to the three-dimensional image generation system capable of displaying the measurement object as viewed from an arbitrary direction,
The support mechanism is deformed so that the three-dimensional shape measuring apparatus is the three-dimensional shape measuring apparatus in a state where the direction of the coordinate axes in the coordinate system related to the three-dimensional shape measuring apparatus does not coincide with the direction of the coordinate axes of the predetermined coordinate system. parallel to move the direction of the coordinate axes in the coordinate system relating to dimensional shape measuring device, at least two three-dimensional measurement target placed reference objects in the space of the three-dimensional shape measuring apparatus in the three-dimensional shape measuring device at the location Let me measure the shape,
The measurement information of the reference object by the three-dimensional shape measurement device measured at the at least two positions is input to the three-dimensional image processing device, and the coordinate system in the coordinate system related to the three-dimensional shape measurement device is set for each measurement position. Generating three-dimensional image data representing the three-dimensional shape of the reference object (S42);
To convert the three-dimensional data of the predetermined coordinate system determined in advance according to the deformation state of the support mechanism into the three-dimensional data of the coordinate system of the moved three-dimensional shape measuring apparatus. The coordinate conversion correction function is calculated (S42, S45),
The reference object measured at the at least two positions using the first coordinate transformation function, the second coordinate transformation function, and the generated three-dimensional image data for each measurement position in the three-dimensional image processing apparatus. The three-dimensional data representing the fixed point in the predetermined coordinate system is calculated , and the calculated three-dimensional data expressed in the predetermined coordinate system is moved using the coordinate transformation correction function. Converted into the three-dimensional data of the coordinate system of the three-dimensional shape measuring apparatus (S44, S46, S48, S50),
In the three-dimensional image processing apparatus, the first coordinate conversion function is set in accordance with the inclination of a straight line defined using the three-dimensional data of the converted fixed point with respect to the coordinate axis of the coordinate system of the moved three-dimensional shape measuring apparatus. The coordinate rotation function at is corrected (S52, S54).
A method of correcting a coordinate transformation function characterized by the above .
請求項1ないし3のうちのいずれ一つに記載した座標変換関数の補正方法において、さらに、
前記支持機構に固定した触診を前記基準物体の複数個所に接触させ、
前記3次元画像処理装置に、前記触針を接触させた複数個所ごとの前記支持機構の変形状態に応じて前記基準物体の定点を前記予め決めた所定の座標系で表わす3次元データを、特定の定点を表わす3次元データとして計算させ(S12〜S16)、
前記3次元画像処理装置に、前記3次元形状測定装置によって測定した3次元画像データに基づいて前記基準物体の定点を前記3次元形状測定装置に関する座標系で表わす3次元データを計算させ、かつ前記計算させた3次元形状測定装置に関する座標系で表わす3次元データを、前記座標回転関数を補正した第1座標変換関数と、前記3次元形状測定装置による3次元画像データの測定時における前記支持機構の変形状態に応じた第2座標変換関数とを用いて、前記予め決めた所定の座標系で表す3次元データに変換させ(S56〜S60)、
前記3次元画像処理装置に、前記変換させて前記予め決めた所定の座標系で表された定点の3次元データと、前記計算させた特定定点の3次元データとの差に応じて、前記第1座標変換関数の座標移動関数を補正させる(S62,S64)
ことを特徴とする座標変換関数の補正方法。
The method for correcting a coordinate transformation function according to any one of claims 1 to 3, further comprising:
Touching palpation fixed to the support mechanism to a plurality of locations of the reference object,
Wherein the three-dimensional image processing apparatus, the three-dimensional data representing a fixed point of the reference object at the predetermined given coordinate system in accordance with the state of deformation of the support mechanism for each plurality of positions obtained by contacting the probe, the specific Calculated as three-dimensional data representing a fixed point (S12 to S16),
Causing the three-dimensional image processing device to calculate three-dimensional data representing a fixed point of the reference object in a coordinate system related to the three-dimensional shape measuring device based on the three-dimensional image data measured by the three-dimensional shape measuring device; and The three-dimensional data represented in the coordinate system relating to the calculated three-dimensional shape measuring apparatus, the first coordinate transformation function in which the coordinate rotation function is corrected, and the support mechanism when measuring the three-dimensional image data by the three-dimensional shape measuring apparatus Using the second coordinate conversion function according to the deformation state of the above, it is converted into three-dimensional data represented in the predetermined coordinate system (S56 to S60),
The 3-dimensional image processing apparatus, according to the difference between the previous SL advance and 3-dimensional data of the fixed point represented by a predetermined coordinate system decided, specific 3-dimensional data of a fixed point obtained by the calculation by the conversion, make correct coordinate movement function of the first coordinate transformation function number (S62, S64)
A method of correcting a coordinate transformation function characterized by the above.
JP2005123197A 2005-04-21 2005-04-21 Coordinate transformation function correction method Active JP4491687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005123197A JP4491687B2 (en) 2005-04-21 2005-04-21 Coordinate transformation function correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005123197A JP4491687B2 (en) 2005-04-21 2005-04-21 Coordinate transformation function correction method

Publications (2)

Publication Number Publication Date
JP2006301991A JP2006301991A (en) 2006-11-02
JP4491687B2 true JP4491687B2 (en) 2010-06-30

Family

ID=37470197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005123197A Active JP4491687B2 (en) 2005-04-21 2005-04-21 Coordinate transformation function correction method

Country Status (1)

Country Link
JP (1) JP4491687B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102692202A (en) * 2012-01-11 2012-09-26 河南科技大学 Reverse measurement method
CN103411574A (en) * 2013-08-14 2013-11-27 西北工业大学 Aviation engine blade profile three-coordinate measuring method

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006031580A1 (en) 2006-07-03 2008-01-17 Faro Technologies, Inc., Lake Mary Method and device for the three-dimensional detection of a spatial area
JP4834524B2 (en) * 2006-11-20 2011-12-14 ローランドディー.ジー.株式会社 Three-dimensional shape measuring method and apparatus
JP4863006B2 (en) * 2006-12-28 2012-01-25 パルステック工業株式会社 3D shape measurement method
ATE452379T1 (en) 2007-10-11 2010-01-15 Mvtec Software Gmbh SYSTEM AND METHOD FOR 3D OBJECT RECOGNITION
JP5319271B2 (en) * 2008-12-26 2013-10-16 川崎重工業株式会社 ROBOT TOOL POSITION DETECTING METHOD, ROBOT AND OBJECT RELATIVE POSITION DETECTING METHOD AND DEVICE
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (en) 2009-03-25 2014-11-20 Faro Technologies, Inc. Device for optically scanning and measuring an environment
KR101622659B1 (en) * 2009-10-29 2016-05-20 대우조선해양 주식회사 Calibration method of robot and laser vision system
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
DE102009057101A1 (en) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Device for optically scanning and measuring an environment
US8630314B2 (en) 2010-01-11 2014-01-14 Faro Technologies, Inc. Method and apparatus for synchronizing measurements taken by multiple metrology devices
US8615893B2 (en) 2010-01-20 2013-12-31 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine having integrated software controls
GB2490812A (en) 2010-01-20 2012-11-14 Faro Tech Inc Use of inclinometers to improve relocation of a portable articulated arm coordinate measuring machine
GB2489370B (en) 2010-01-20 2014-05-14 Faro Tech Inc Coordinate measuring machine having an illuminated probe end and method of operation
US8677643B2 (en) 2010-01-20 2014-03-25 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
CN102713776B (en) 2010-01-20 2015-04-22 法罗技术股份有限公司 Portable articulated arm coordinate measuring machine with multi-bus arm technology
US8898919B2 (en) 2010-01-20 2014-12-02 Faro Technologies, Inc. Coordinate measurement machine with distance meter used to establish frame of reference
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US8875409B2 (en) 2010-01-20 2014-11-04 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US8832954B2 (en) 2010-01-20 2014-09-16 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
CN101852593A (en) * 2010-05-06 2010-10-06 深南电路有限公司 Automatic optical inspection equipment, light measuring tool plate and light adjusting method thereof
EP2385483B1 (en) 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
DE102010020925B4 (en) 2010-05-10 2014-02-27 Faro Technologies, Inc. Method for optically scanning and measuring an environment
JP2013539541A (en) 2010-09-08 2013-10-24 ファロ テクノロジーズ インコーポレーテッド Laser scanner or laser tracking device having a projector
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
JP5693978B2 (en) * 2011-01-11 2015-04-01 株式会社ミツトヨ Image probe calibration method
DE102012100609A1 (en) 2012-01-25 2013-07-25 Faro Technologies, Inc. Device for optically scanning and measuring an environment
CN102645202B (en) * 2012-05-11 2014-09-10 厦门大学 Method for measuring contour of large-caliber aspheric-surface workpiece
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
CN102749060A (en) * 2012-07-23 2012-10-24 湘电集团有限公司 Test control method and system for large-aperture disc type parabolic surface mirror
CN102853779A (en) * 2012-08-24 2013-01-02 大连宏海新能源发展有限公司 Shape surface error detection method for lens unit of solar-powered disc type light-gathering system
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
DE102012109481A1 (en) 2012-10-05 2014-04-10 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
CN103486996B (en) * 2013-08-14 2016-01-20 西北工业大学 The blade of aviation engine profile measurement method of unknown cad model
CN104504197B (en) * 2014-12-21 2017-09-08 浙江省计量科学研究院 A kind of eccentric parameter modification method of spiral of Archimedes flat thread
DE102015122844A1 (en) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D measuring device with battery pack
CN106017319B (en) * 2016-05-24 2019-02-15 北京建筑大学 A kind of laser scanning data coordinate crossover tool and method based on high-precision Point Measurement
CN106441147B (en) * 2016-08-30 2019-02-12 中航动力股份有限公司 A kind of method for building up for essence casting moving turbine blade three dimensional optical measuring benchmark
CN107993530A (en) * 2018-01-19 2018-05-04 华北理工大学 A kind of coordinate conversion presentation teaching aid
CN112595280B (en) * 2020-12-21 2022-02-01 吉林大学 Method for measuring angled complex surface shape
CN117129956B (en) * 2023-10-27 2024-04-09 深圳绿米联创科技有限公司 Positioning correction method, device, detection equipment, computer equipment and storage medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2520660B2 (en) * 1987-09-22 1996-07-31 三菱電機株式会社 Remotely operated manipulator device
JP2678002B2 (en) * 1988-02-10 1997-11-17 株式会社日立製作所 Coordinate system calibration method for a robot with vision
JP2932445B2 (en) * 1990-07-11 1999-08-09 株式会社安川電機 Camera coordinate system deviation correction method
JPH06120304A (en) * 1992-10-02 1994-04-28 Nikon Corp Alignment method
JP2970835B2 (en) * 1995-08-14 1999-11-02 日本電気株式会社 3D coordinate measuring device
JPH11271033A (en) * 1998-03-25 1999-10-05 Sumitomo Metal Mining Co Ltd Imaging apparatus for three-dimensional shape object
JP2002328013A (en) * 2001-04-27 2002-11-15 Minolta Co Ltd System for measuring three-dimensional shape, data calibrating method and program of system for measuring three-dimensional shape
JP4423811B2 (en) * 2001-04-27 2010-03-03 コニカミノルタセンシング株式会社 Three-dimensional shape measurement system and three-dimensional shape measurement method
JP3944091B2 (en) * 2003-02-06 2007-07-11 パルステック工業株式会社 3D image data generation method
JP2004257927A (en) * 2003-02-27 2004-09-16 Pulstec Industrial Co Ltd Three-dimensional profile measuring system and method for measuring the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102692202A (en) * 2012-01-11 2012-09-26 河南科技大学 Reverse measurement method
CN103411574A (en) * 2013-08-14 2013-11-27 西北工业大学 Aviation engine blade profile three-coordinate measuring method
CN103411574B (en) * 2013-08-14 2016-01-20 西北工业大学 Blade of aviation engine profile three-coordinate measuring method

Also Published As

Publication number Publication date
JP2006301991A (en) 2006-11-02

Similar Documents

Publication Publication Date Title
JP4491687B2 (en) Coordinate transformation function correction method
JP2004257927A (en) Three-dimensional profile measuring system and method for measuring the same
JP5599524B2 (en) Automatic measurement of dimensional data by laser tracker
US10107618B2 (en) Coordinate measuring machine
JP5378374B2 (en) Method and system for grasping camera position and direction relative to real object
JP4443497B2 (en) Multi-degree-of-freedom robot positioning error correction apparatus and positioning error correction method
JP4015161B2 (en) Industrial robot controller
WO2018204112A1 (en) Triangulation scanner having flat geometry and projecting uncoded spots
JP4691581B2 (en) Underwater moving object position detection device
WO2014128299A1 (en) Projection system
JP2013228326A (en) Shape measuring method and shape measuring apparatus
JP7287793B2 (en) Target device and survey system
JP6973233B2 (en) Image processing system, image processing device and image processing program
JP2009058503A (en) Method and system for noncontact coordinate measurement on object surface
JP2004239747A (en) Three-dimensional image data generation method
JP6503278B2 (en) Shape measuring apparatus and shape measuring method
JP2009222568A (en) Method, device, and computer program of generating three-dimensional shape data
JP4291178B2 (en) 3D shape measuring system, measuring method, and 3D shape measuring stage device
JP4375710B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP7439410B2 (en) Image processing device, image processing method and program
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
JP4791568B2 (en) 3D measuring device
JP2010164532A (en) Surface property measuring device, its contactor model forming method, and program
JP2005172610A (en) Three-dimensional measurement apparatus
JP4443523B2 (en) Coordinate conversion function acquisition method and coordinate conversion function acquisition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100310

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100323

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250