JP2005164294A - Stripe image measurement data synthesis method using evaluation value - Google Patents

Stripe image measurement data synthesis method using evaluation value Download PDF

Info

Publication number
JP2005164294A
JP2005164294A JP2003400494A JP2003400494A JP2005164294A JP 2005164294 A JP2005164294 A JP 2005164294A JP 2003400494 A JP2003400494 A JP 2003400494A JP 2003400494 A JP2003400494 A JP 2003400494A JP 2005164294 A JP2005164294 A JP 2005164294A
Authority
JP
Japan
Prior art keywords
evaluation value
phase
measurement data
data
fringe image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003400494A
Other languages
Japanese (ja)
Other versions
JP3837565B2 (en
Inventor
Motoharu Fujigaki
元治 藤垣
Yoshiharu Morimoto
吉春 森本
Shien Ri
志遠 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wakayama University
Original Assignee
Wakayama University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wakayama University filed Critical Wakayama University
Priority to JP2003400494A priority Critical patent/JP3837565B2/en
Publication of JP2005164294A publication Critical patent/JP2005164294A/en
Application granted granted Critical
Publication of JP3837565B2 publication Critical patent/JP3837565B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Instruments For Measurement Of Length By Optical Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stripe image measurement data synthesis method which can obtain the result having high accuracy, by the synthesis using the data in which the measurement is performed at the best accuracy, from the plurality of measurement data pieces. <P>SOLUTION: The method includes: a step for obtaining a plurality of phase distribution data pieces by performing phase analysis of a plurality of phase shifted stripe image data pieces; a step for determining the evaluation value for each pixel, from the associated stripe image data with respect to each phase distribution data piece; and a step for the synthesis by selecting, for each pixel, one having the high evaluation value from the plurality of phase distribution data pieces. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、複数の縞画像計測データを合成する縞画像計測データ合成方法に関する。   The present invention relates to a fringe image measurement data combining method for combining a plurality of fringe image measurement data.

格子投影法による非接触形状計測装置、干渉縞解析による非接触応力・ひずみ計測装置や、ディジタルホログラフィによる変位計測装置等では、計測条件を変えて得られた複数の縞画像計測データを合成することによって、より良好な結果を得ることが期待される。   For non-contact shape measurement equipment using the grid projection method, non-contact stress / strain measurement equipment using interference fringe analysis, displacement measurement equipment using digital holography, etc., combining multiple fringe image measurement data obtained by changing measurement conditions Is expected to give better results.

しかしながら、従来の縞画像解析方法では、例えば計測条件を変えて得られた複数の縞画像計測データを合成する際に、これらのデータの平均値を結果としていたため、ノイズがある場所では大きな誤差が生じるといった問題や、精度よく計測できた点とノイズがある場所との判断を画素ごとに行うことができないといった問題があった。   However, in the conventional fringe image analysis method, for example, when combining a plurality of fringe image measurement data obtained by changing the measurement conditions, the average value of these data is the result. In other words, there is a problem in that it is impossible to determine for each pixel a point where measurement can be accurately performed and a place where there is noise.

この問題を解決する従来の技術として、特開平2001−241930号明細書「縞画像の解析方法」には、解析する領域を複数の領域にグループ分けして処理を行い、相互の境界部を計算して合成を行う方法が開示されている。しかしながら、この従来の解析方法では、画素ごとに合成することができないという問題があった。   As a conventional technique for solving this problem, Japanese Patent Application Laid-Open No. 2001-241930 “Method for analyzing fringe images” divides a region to be analyzed into a plurality of regions, and calculates the boundary between them. Thus, a synthesis method is disclosed. However, this conventional analysis method has a problem that it cannot be combined pixel by pixel.

単にデータを平均するだけでなく、画素ごとに評価値を決定して評価値が高いデータを採用することで良好な結果を得ることが可能になると思われる。画像を評価する従来技術として、特開平07−325922号明細書「画像評価方法」には、画像断面の濃淡分布を空間周波数に対する人間の目の感度を表す特性の帯域フィルタに通過させ、その帯域フィルタの出力の濃淡分布から画像品質を表す評価値を算出する方法が開示されている。この従来の画像評価方法では、ディジタル画像の画像品質を評価値で評価し表示できるといった特徴がある。しかしながら、この従来の画像評価方法は、カメラで撮影したディジタル画像の画像品質の評価にしか用いることが出来ず、縞画像計測において解析した位相データを評価することはできないという問題があった。   It seems that it is possible not only to simply average the data but also to obtain good results by determining the evaluation value for each pixel and adopting data with a high evaluation value. As a conventional technique for evaluating an image, Japanese Patent Application Laid-Open No. 07-325922 “Image Evaluation Method” passes a density distribution of a cross section of an image through a band filter having a characteristic representing the sensitivity of the human eye to a spatial frequency. A method for calculating an evaluation value representing image quality from a gray level distribution of the output of a filter is disclosed. This conventional image evaluation method is characterized in that the image quality of a digital image can be evaluated and displayed using an evaluation value. However, this conventional image evaluation method can be used only for the evaluation of the image quality of a digital image taken by a camera, and there is a problem that the phase data analyzed in the fringe image measurement cannot be evaluated.

上述したことを鑑み、本発明は、複数の計測データのうち最も精度良く計測できたデータを用いて合成することによって、精度の良い結果を得ることができる縞画像計測データ合成方法を提供することを目的とする。   In view of the above, the present invention provides a fringe image measurement data synthesis method capable of obtaining an accurate result by combining data that can be measured with the highest accuracy among a plurality of measurement data. With the goal.

本発明による縞画像計測データ合成方法は、各々複数の位相シフトされた縞画像データを位相解析して複数の位相分布データを得るステップと、前記複数の位相分布データの各々に関して関連する縞画像データから画素ごとに評価値を決定するステップと、前記複数の位相分布データを画素ごとに対応する評価値の高いものを選択することによって合成するステップとを含むことを特徴とする。   A fringe image measurement data synthesis method according to the present invention includes a step of obtaining a plurality of phase distribution data by phase analysis of a plurality of phase-shifted fringe image data, and fringe image data related to each of the plurality of phase distribution data. And determining the evaluation value for each pixel, and synthesizing the plurality of phase distribution data by selecting one having a high evaluation value corresponding to each pixel.

本発明による縞画像計測データ合成方法の他の実施例は、請求項1に記載の縞画像計測データ合成方法において、前記複数の位相分布データを合成するステップの前に、前記位相分布データ及び評価値を同じサンプリング点において再サンプリングするステップをさらに含むことを特徴とする。   According to another embodiment of the fringe image measurement data synthesis method of the present invention, in the fringe image measurement data synthesis method according to claim 1, the phase distribution data and the evaluation are performed before the step of synthesizing the plurality of phase distribution data. The method further includes resampling the value at the same sampling point.

本発明による縞画像計測データ合成方法のさらに他の実施例は、前記評価値を、関連する前記複数の位相シフトされた縞画像の当該画素の輝度が1つでも予め決められた最大輝度値より高いか最小輝度値より小さい場合0とし、そうでない場合、前記縞画像の縞の振幅に応じた値として決定することを特徴とする縞画像計測データ合成方法。   According to still another embodiment of the method for synthesizing fringe image measurement data according to the present invention, the evaluation value is determined from a predetermined maximum luminance value even if the luminance of the pixel of the plurality of related phase-shifted fringe images is one. A fringe image measurement data synthesizing method characterized in that it is set to 0 if it is higher or smaller than the minimum luminance value, and if not, it is determined as a value corresponding to the amplitude of the fringe of the fringe image.

本発明による縞画像計測データ合成方法の依然として他の実施例は、前記評価値を、関連する前記複数の位相シフトされた縞画像の当該画素の輝度をフーリエ変換することによって得られる1次の周波数成分と高周波数成分との比として決定することを特徴とする縞画像計測データ合成方法。   Still another embodiment of the method for synthesizing fringe image measurement data according to the present invention is that a first-order frequency obtained by Fourier-transforming the evaluation value and the luminance of the pixel of the plurality of related phase-shifted fringe images. A fringe image measurement data synthesizing method characterized in that the fringe image measurement data is determined as a ratio between a component and a high frequency component.

本発明による縞画像計測データ合成方法の依然として他の実施例は、前記複数の位相シフトされた縞画像データが、位相シフトさせることによって得られる複数枚の干渉縞画像を撮影することによって得られたものであることを特徴とする。   Still another embodiment of the fringe image measurement data synthesis method according to the present invention is obtained by photographing a plurality of interference fringe images obtained by phase-shifting the plurality of phase-shifted fringe image data. It is characterized by being.

本発明によれば、同じ位置に対して複数の計測データが存在する場合、画素ごとに最も精度よく出来たデータのみを用いて合成することができる。また、評価値は計測手法に合わせた方法で決定することができる。さらに、本発明によれば、計測条件を変えた場合の合成が簡単になる。   According to the present invention, when there are a plurality of measurement data at the same position, it is possible to synthesize using only the data that is most accurate for each pixel. Further, the evaluation value can be determined by a method according to the measurement method. Furthermore, according to the present invention, the composition when the measurement conditions are changed is simplified.

計測物体に正弦波の縞パターンを投影した場合、点xにおける縞の強度分布I(x)は以下の式(1)のように表される。

I(x)=a(x)cos[φ(x)+α]+b(x) (1)

ここでa(x)は縞のコントラスト分布、b(x)は縞の強度分布のバイアス成分、αは初期位相、φ(x)は位相である。この位相φ(x)を精度良く解析できれば、計測する物体の表面形状を正確に知ることが可能となる。この位相値を求めるのに、一般的には、位相シフト方法や、ノイズ影響に強いフーリエ変換位相シフトが用いられる。しかし、縞画像計測においては、縞のコントラストが低いと誤差が生じやすくなる。また、カメラが撮影できる明るさを超えた場合では、位相シフト法では誤差が大きくなる。各計測点で解析した位相に対して、精度良く計測できたかどうかを評価する必要がある。そこで、本発明による縞画像計測データの合成方法では、解析した位相分布に対して以下のような方法で評価値を与える。
When a sinusoidal fringe pattern is projected onto the measurement object, the fringe intensity distribution I (x) at the point x is expressed by the following equation (1).

I (x) = a (x) cos [φ (x) + α] + b (x) (1)

Here, a (x) is the stripe contrast distribution, b (x) is the bias component of the stripe intensity distribution, α is the initial phase, and φ (x) is the phase. If this phase φ (x) can be analyzed with high accuracy, the surface shape of the object to be measured can be accurately known. In order to obtain the phase value, generally, a phase shift method or a Fourier transform phase shift that is resistant to noise is used. However, in fringe image measurement, errors tend to occur if the fringe contrast is low. In addition, when the brightness exceeds that which can be photographed by the camera, the error becomes large in the phase shift method. It is necessary to evaluate whether or not the phase analyzed at each measurement point can be measured with high accuracy. Therefore, in the method for synthesizing the fringe image measurement data according to the present invention, an evaluation value is given to the analyzed phase distribution by the following method.

評価値を決定する方法について説明する。図1は、このような評価値決定方法を説明する流れ図である。位相シフトされた1周期分の輝度データから、画素ごとに評価値を決定する。n回位相シフトして連続的に得られる画像の輝度値をI,I,...,Iとすると、評価値は以下の式(2)のような評価関数によって定義できる。

E(i,j)=f{I(i,j),I(i,j),...,I(i,j)}
(2)

ここで、(i,j)は撮影するカメラの横i番目、縦j番目の画素を表している。E(i,j)は評価値である。
A method for determining the evaluation value will be described. FIG. 1 is a flowchart illustrating such an evaluation value determination method. An evaluation value is determined for each pixel from the phase-shifted luminance data for one period. The luminance values of images obtained continuously by shifting the phase n times are represented by I 1 , I 2 ,. . . , When I n, the evaluation value may be defined by the evaluation function as the following equation (2).

E (i, j) = f {I 1 (i, j), I 2 (i, j),. . . , I n (i, j)}
(2)

Here, (i, j) represents the horizontal i-th and vertical j-th pixels of the camera to be photographed. E (i, j) is an evaluation value.

縞の振幅で評価値を決める評価関数の第1例は以下のように定義する。

Figure 2005164294

ここで、a(i,j)は投影した格子の振幅、I(i,j)は投影した格子の明るさである。ImaxとIminは、それぞれカメラが撮影できる最高輝度値と最低輝度値とを表す。撮影されるn枚の輝度データのうち、1つでもIminより低い輝度値、又はImaxより高い輝度値がある場合、評価値を0とする。そうでない場合、評価値を縞の振幅とする。この例の場合、コントラストが良いと評価値が高くなる。合成する際には、評価値の高い方を選ぶ。 The first example of the evaluation function that determines the evaluation value by the amplitude of the fringes is defined as follows.
Figure 2005164294

Here, a (i, j) is the amplitude of the projected grating, and I n (i, j) is the brightness of the projected grating. I max and I min represent a maximum luminance value and a minimum luminance value that can be captured by the camera, respectively. If at least one of the n pieces of luminance data to be photographed has a luminance value lower than I min or a luminance value higher than I max , the evaluation value is set to 0. Otherwise, the evaluation value is the amplitude of the stripe. In this example, the evaluation value increases when the contrast is good. When combining, select the one with the highest evaluation value.

縞の一次周波数と高次周波数との比で評価値を決める評価関数の第2例は以下のように定義する。

Figure 2005164294

ここで、F(1)と
Figure 2005164294

は、それぞれ周波数1の成分と高次周波数成分である。この例の場合、評価値が高いものはノイズに強い(SN比が高い)ということになる。合成する際には、評価値の高い方を選ぶ。 The second example of the evaluation function that determines the evaluation value by the ratio between the primary frequency and the high-order frequency of the fringes is defined as follows.
Figure 2005164294

Where F (1) and
Figure 2005164294

Are a frequency 1 component and a higher-order frequency component, respectively. In this example, a high evaluation value is resistant to noise (high SN ratio). When combining, select the one with the highest evaluation value.

本発明の縞画像計測データ合成方法は、複数の縞画像計測データから得られた位相分布データを上述したような評価値に基づいて合成する。図2は、本発明による縞画像計測データ合成方法による評価値を用いた合成の手順の一例を説明する流れ図である。この例では2回計測を行うが、さらに多くの計測を行ってもよい。計測条件を変えて輝度データ(縞画像計測データ)1及び2を取得し、各々の輝度データに関して位相解析して位相分布データを得る。前記輝度データの各々において画素ごとに上述したような方法によって評価値を求める。画素ごとに前記2つの位相分布データのうちの対応する評価値の高い方を合成結果として選択する。   The fringe image measurement data synthesizing method of the present invention synthesizes phase distribution data obtained from a plurality of fringe image measurement data based on the evaluation values as described above. FIG. 2 is a flowchart for explaining an example of a synthesis procedure using evaluation values by the fringe image measurement data synthesis method according to the present invention. In this example, the measurement is performed twice, but more measurements may be performed. Luminance data (stripe image measurement data) 1 and 2 is acquired by changing measurement conditions, and phase analysis is performed on each luminance data to obtain phase distribution data. In each of the luminance data, an evaluation value is obtained for each pixel by the method described above. For each pixel, the higher of the corresponding evaluation values of the two phase distribution data is selected as a synthesis result.

互いに異なる方向において計測された計測データを合成する場合、合成前にxy座標が等間隔になるように再サンプリングを行うと合成しやすい。図3は、このような再サンプリングを行う場合の本発明による縞画像計測データ合成方法による合成の手順の他の例を説明する流れ図である。この例でも2回計測を行うが、さらに多くの計測を行ってもよい。計測条件を変えて輝度データ1及び2を取得し、各々の輝度データに関して位相解析して位相分布データを得る。前記輝度データの各々において画素ごとに上述したような方法によって評価値を求める。次に、各々の位相分布データと評価値を同じ等間隔に再サンプリングする。図4は、このような位相分布データの再サンプリングのアルゴリズムを説明する図である。aは再サンプリング前の位相分布データの計測点を示し、xy座標が等間隔になるように選択されたサンプリング点Psにxy平面上で最も近い3つの計測点Pa、Pb、Pcを見つけて、この3点を通る平面とサンプリング点Psのxy座標からz方向に垂直に伸ばした直線との交点をサンプリング点のz座標とする。図4のbは、このようにして再サンプリングした後の計測点を示す図である。評価値についても同様の再サンプリングを行う。図3に戻り、画素ごとに前記2つの位相分布データのうちの対応する再サンプリングした後の評価値の高い方を合成結果として選択する。   When combining measurement data measured in different directions, re-sampling is performed so that the xy coordinates are equidistant before combining. FIG. 3 is a flowchart for explaining another example of the synthesis procedure by the fringe image measurement data synthesis method according to the present invention when such re-sampling is performed. In this example, the measurement is performed twice, but more measurements may be performed. Luminance data 1 and 2 are acquired by changing the measurement conditions, and phase analysis is performed on each luminance data to obtain phase distribution data. In each of the luminance data, an evaluation value is obtained for each pixel by the method described above. Next, each phase distribution data and evaluation value are resampled at the same equal interval. FIG. 4 is a diagram for explaining an algorithm for resampling such phase distribution data. a shows the measurement points of the phase distribution data before re-sampling, finds the three measurement points Pa, Pb, Pc closest to the sampling point Ps selected so that the xy coordinates are equidistant on the xy plane, The intersection of the plane passing through these three points and the straight line extending perpendicularly in the z direction from the xy coordinates of the sampling point Ps is taken as the z coordinate of the sampling point. FIG. 4b is a diagram showing the measurement points after re-sampling in this way. Similar re-sampling is performed for the evaluation value. Returning to FIG. 3, for each pixel, the higher evaluation value after the corresponding re-sampling of the two phase distribution data is selected as a synthesis result.

上述したような本発明による縞画像計測データ合成方法を実際の物体計測に用いた例について説明する。例えば金属部品等を計測する際、鏡面反射による影響が存在する。本発明による縞画像計測データ合成方法によれば、2台のカメラを用いて異なる方向から計測し、これら2方向の計測データを合成する。これら2方向の計測データにおいては鏡面反射が起こる場所が各々変わるため、各画素について2方向の計測データのうち正確に計測できた方のデータを採用することで、結果的に鏡面反射による影響を避けることができる。図5は、このような計測を行う光学系を説明する図である。物体1にプロジェクタ2から光を投射し、カメラ3及び4によって物体1を各々異なった方向から撮影し、得られた各々の輝度データをコンピュータ5において位相解析して高さ分布(位相分布)を得て、前記輝度データから評価値を計算し、前記高さ分布と評価値を再サンプリングし、評価値に基づいて高さ分布を合成する。   An example in which the above-described fringe image measurement data synthesis method according to the present invention is used for actual object measurement will be described. For example, when measuring metal parts or the like, there is an influence due to specular reflection. According to the fringe image measurement data synthesis method according to the present invention, measurement is performed from two different directions using two cameras, and the measurement data in these two directions is synthesized. In these two-direction measurement data, the place where specular reflection occurs varies, so by adopting the data that can be measured accurately out of the two-direction measurement data for each pixel, the effect of specular reflection is consequently obtained. Can be avoided. FIG. 5 is a diagram illustrating an optical system that performs such measurement. Light is projected onto the object 1 from the projector 2, the object 1 is photographed from different directions by the cameras 3 and 4, and each luminance data obtained is subjected to phase analysis by the computer 5 to obtain a height distribution (phase distribution). An evaluation value is calculated from the luminance data, the height distribution and the evaluation value are resampled, and a height distribution is synthesized based on the evaluation value.

図6は、実際に計測した物体1を示し、aは物体1の写真、bは物体1の各部の寸法を示す斜視図である。このような物体1を図5に示すような構成において図4bを参照して説明したような手順で計測した。図7は、このようにして得られた結果を示し、a及びcはそれぞれカメラ3及び4によって撮影して得られた輝度データをコンピュータ5によって位相解析し、再サンプリングして得られた高さ分布であり、b及びdはそれぞれa及びbに対応する前記輝度データから得られた評価値分布であり、fは画素ごとに高い方の評価値を選択して得られた合成に用いる評価値分布であり、eはfの評価値分布に基づいてb及びdの高さ分布を合成して得られた高さ分布である。図8は、図7eのA−A’ラインに沿ってとった断面データを示すグラフである。a及びbはそれぞれカメラ3及び4から得られた高さ分布であり、cは合成した高さ分布である。a及びbでみられる鏡面反射や影の影響で測定されなかった部分が、cにおいてはみられない。したがって、本発明による縞画像計測データ合成方法によって、鏡面反射の影響を取り除くことができたことがわかる。   FIG. 6 shows the actually measured object 1, where a is a photograph of the object 1 and b is a perspective view showing the dimensions of each part of the object 1. Such an object 1 was measured according to the procedure described with reference to FIG. FIG. 7 shows the results obtained in this way. A and c are heights obtained by phase analysis of the luminance data obtained by photographing with the cameras 3 and 4 by the computer 5 and re-sampling, respectively. B and d are evaluation value distributions obtained from the luminance data corresponding to a and b, respectively, and f is an evaluation value used for composition obtained by selecting the higher evaluation value for each pixel. E is a height distribution obtained by combining the height distributions of b and d based on the evaluation value distribution of f. FIG. 8 is a graph showing cross-sectional data taken along the line A-A ′ of FIG. a and b are height distributions obtained from the cameras 3 and 4, respectively, and c is a combined height distribution. The part which was not measured by the influence of the specular reflection and shadow seen in a and b is not seen in c. Therefore, it can be seen that the effect of specular reflection could be removed by the fringe image measurement data synthesis method according to the present invention.

本発明による縞画像計測データ合成方法を実際の物体計測に用いた他の例について説明する。縞画像計測では、物体に投影した縞をカメラで撮影して解析するため、一般に物体の後ろの形状を計測することはできない。そこで、物体を回転させていくつかの方向から計測した結果を合成することによって、物体の全周の形状計測が可能になる。この際、同じ位置に対して複数のデータが存在する場合、本発明による縞画像計測データ合成方法を用いて合成することにより、精度よい全周の形状計測が可能になる。図9は、全周計測を行う光学系を説明する図である。物体11を回転ステージ12上に設置し、プロジェクタ13によって光を投射し、回転ステージ12を例えば60°ずつ回転させながら、カメラ14によって撮影し、得られた各々の輝度データをコンピュータ15において位相解析して高さ分布を得て、前記輝度データから評価値を計算し、前記高さ分布と評価値を再サンプリングし、評価値に基づいて高さ分布を合成する。   Another example in which the fringe image measurement data synthesis method according to the present invention is used for actual object measurement will be described. In the fringe image measurement, since the fringes projected on the object are photographed and analyzed by a camera, generally the shape behind the object cannot be measured. Therefore, the shape of the entire circumference of the object can be measured by combining the results obtained by rotating the object and measuring from several directions. At this time, when there are a plurality of data for the same position, it is possible to measure the shape of the entire circumference with high accuracy by combining them using the fringe image measurement data combining method according to the present invention. FIG. 9 is a diagram for explaining an optical system for measuring the entire circumference. An object 11 is placed on a rotary stage 12, light is projected by a projector 13, and the rotary stage 12 is rotated by 60 °, for example, and photographed by a camera 14, and the obtained luminance data is subjected to phase analysis by a computer 15. Then, a height distribution is obtained, an evaluation value is calculated from the luminance data, the height distribution and the evaluation value are resampled, and a height distribution is synthesized based on the evaluation value.

まず、図10に1方向から計測した結果を示す。aは計測する物体11の写真であり、bは格子を投影して撮影した画像であり、cは位相接続前の位相分布であり、dは位相接続後の位相分布であり、eは再サンプリングした高さ分布であり、fは評価値分布である。   First, FIG. 10 shows the result of measurement from one direction. a is a photograph of the object 11 to be measured, b is an image taken by projecting a grating, c is a phase distribution before phase connection, d is a phase distribution after phase connection, and e is resampling. F is an evaluation value distribution.

図11a〜fは、物体11を60°ずつ回転させて6方向から計測して得られた計測データを位相接続し、再サンプリングした高さ分布を示す図である。   FIGS. 11 a to 11 f are diagrams showing height distributions obtained by phase-connecting measurement data obtained by rotating the object 11 by 60 ° and measuring from six directions and re-sampling.

図12は、図11に示す6方向の計測データを合成した結果を示す。aは合成後の高さ分布(円筒座標系)であり、bは合成後の評価値分布である。本発明の縞画像計測データ合成方法を用いることにより、精度よく全周の形状を計測することができたことがわかる。   FIG. 12 shows the result of combining the measurement data in the six directions shown in FIG. a is a height distribution (cylindrical coordinate system) after synthesis, and b is an evaluation value distribution after synthesis. It can be seen that the shape of the entire circumference could be measured with high accuracy by using the fringe image measurement data synthesis method of the present invention.

評価値決定方法を説明する流れ図である。It is a flowchart explaining an evaluation value determination method. 本発明による縞画像計測データ合成方法による合成の手順の一例を説明する流れ図である。It is a flowchart explaining an example of the procedure of the synthesis | combination by the fringe image measurement data synthesis method by this invention. 本発明による縞画像計測データ合成方法による合成の手順の他の例を説明する流れ図である。It is a flowchart explaining the other example of the procedure of the synthesis | combination by the fringe image measurement data synthesis method by this invention. 位相分布データの再サンプリングのアルゴリズムを説明する図であり、aは再サンプリング前の位相分布データの計測点を示し、bは再サンプリングした後の計測点を示す図である。It is a figure explaining the resampling algorithm of phase distribution data, a shows the measurement point of the phase distribution data before resampling, and b shows the measurement point after resampling. 本発明による縞画像計測データ合成方法を実際の物体計測に用いた場合の光学系を説明する図である。It is a figure explaining the optical system at the time of using the fringe image measurement data synthesis method by this invention for actual object measurement. aは図5の物体1の写真、bは物体1の各部の寸法を示す斜視図である。a is a photograph of the object 1 in FIG. 5, and b is a perspective view showing dimensions of each part of the object 1. a及びcは高さ分布であり、b及びdは評価値分布であり、fは画素ごとに高い方の評価値を選択して得られた評価値分布であり、eは合成して得られた高さ分布である。a and c are height distributions, b and d are evaluation value distributions, f is an evaluation value distribution obtained by selecting a higher evaluation value for each pixel, and e is obtained by synthesis. Height distribution. 図7eのA−A’ラインに沿ってとった断面データを示すグラフである。It is a graph which shows the section data taken along the A-A 'line of Drawing 7e. 全周計測を行う光学系を説明する図である。It is a figure explaining the optical system which performs a perimeter measurement. aは計測する物体の写真であり、bは格子を投影して撮影した画像であり、cは位相接続前の位相分布であり、dは位相接続後の位相分布であり、eは再サンプリングした高さ分布であり、fは評価値分布である。a is a photograph of an object to be measured, b is an image taken by projecting a grating, c is a phase distribution before phase connection, d is a phase distribution after phase connection, and e is resampled It is a height distribution, and f is an evaluation value distribution. a〜fは、物体11を60°ずつ回転させて6方向から計測して得られた計測データを位相接続し、再サンプリングした高さ分布を示す図である。FIGS. 4A to 4F are diagrams showing height distributions obtained by re-sampling by phase-connecting measurement data obtained by rotating the object 11 by 60 ° and measuring from six directions. aは合成後の高さ分布(円筒座標系)であり、bは合成後の評価値分布である。a is a height distribution (cylindrical coordinate system) after synthesis, and b is an evaluation value distribution after synthesis.

符号の説明Explanation of symbols

1、11 物体
2、13 プロジェクタ
3、4、14 カメラ
5、15 コンピュータ
12 回転ステージ
DESCRIPTION OF SYMBOLS 1,11 Object 2,13 Projector 3,4,14 Camera 5,15 Computer 12 Rotary stage

Claims (5)

各々複数の位相シフトされた縞画像データを位相解析して複数の位相分布データを得るステップと、前記複数の位相分布データの各々に関して関連する縞画像データから画素ごとに評価値を決定するステップと、前記複数の位相分布データを画素ごとに対応する評価値の高いものを選択することによって合成するステップとを含むことを特徴とする縞画像計測データ合成方法。   Analyzing the phase of each of the plurality of phase-shifted fringe image data to obtain a plurality of phase distribution data; and determining an evaluation value for each pixel from the related fringe image data for each of the plurality of phase distribution data; And a step of synthesizing the plurality of phase distribution data by selecting one having a high evaluation value corresponding to each pixel. 請求項1に記載の縞画像計測データ合成方法において、前記複数の位相分布データを合成するステップの前に、前記位相分布データ及び評価値を同じサンプリング点において再サンプリングするステップをさらに含むことを特徴とする縞画像計測データ合成方法。   2. The fringe image measurement data synthesis method according to claim 1, further comprising the step of resampling the phase distribution data and the evaluation value at the same sampling point before the step of synthesizing the plurality of phase distribution data. The fringe image measurement data synthesis method. 請求項1又は2に記載の縞画像計測データ合成方法において、前記評価値を、関連する前記複数の位相シフトされた縞画像の当該画素の輝度が1つでも予め決められた最大輝度値より高いか最小輝度値より小さい場合0とし、そうでない場合、前記縞画像の縞の振幅に応じた値として決定することを特徴とする縞画像計測データ合成方法。   3. The fringe image measurement data synthesis method according to claim 1, wherein the evaluation value is higher than a predetermined maximum luminance value, even if the luminance of the pixel of the plurality of related phase-shifted fringe images is at least one. If it is smaller than the minimum luminance value, 0 is set, and if not, it is determined as a value corresponding to the stripe amplitude of the stripe image. 請求項1又は2に記載の縞画像計測データ合成方法において、前記評価値を、関連する前記複数の位相シフトされた縞画像の当該画素の輝度をフーリエ変換することによって得られる1次の周波数成分と高周波数成分との比として決定することを特徴とする縞画像計測データ合成方法。   3. The fringe image measurement data synthesis method according to claim 1, wherein the evaluation value is a first-order frequency component obtained by Fourier-transforming the luminance of the pixel of the plurality of related phase-shifted fringe images. And a fringe image measurement data synthesis method characterized in that it is determined as a ratio of a high frequency component. 請求項1から4のいずれか1項に記載の縞画像計測データ合成方法において、前記複数の位相シフトされた縞画像データが、位相シフトさせることによって得られる複数枚の干渉縞画像を撮影することによって得られたものであることを特徴とする縞画像計測データ合成方法。   5. The fringe image measurement data synthesis method according to claim 1, wherein a plurality of interference fringe images obtained by phase shifting the plurality of phase-shifted fringe image data are captured. 6. A fringe image measurement data synthesis method characterized by being obtained by the above.
JP2003400494A 2003-11-28 2003-11-28 Stripe image measurement data synthesis method using evaluation values Expired - Lifetime JP3837565B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003400494A JP3837565B2 (en) 2003-11-28 2003-11-28 Stripe image measurement data synthesis method using evaluation values

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003400494A JP3837565B2 (en) 2003-11-28 2003-11-28 Stripe image measurement data synthesis method using evaluation values

Publications (2)

Publication Number Publication Date
JP2005164294A true JP2005164294A (en) 2005-06-23
JP3837565B2 JP3837565B2 (en) 2006-10-25

Family

ID=34724753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003400494A Expired - Lifetime JP3837565B2 (en) 2003-11-28 2003-11-28 Stripe image measurement data synthesis method using evaluation values

Country Status (1)

Country Link
JP (1) JP3837565B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058036A (en) * 2006-08-29 2008-03-13 Sumitomo Metal Ind Ltd Flatness measuring method and flatness measuring apparatus of plate material
JP2008116293A (en) * 2006-11-02 2008-05-22 Olympus Corp Fringe scan interference pattern measurement method, and interferometer
JP2008281391A (en) * 2007-05-09 2008-11-20 Pulstec Industrial Co Ltd Apparatus and method for measuring three-dimensional shape
JP2009150773A (en) * 2007-12-20 2009-07-09 Nikon Corp Device and method for measuring three-dimensional shape, and program
JP2009180708A (en) * 2008-02-01 2009-08-13 Nikon Corp Method and apparatus for shape measurement
JP2011002378A (en) * 2009-06-19 2011-01-06 Wakayama Univ Memory board for measuring device employing whole-space tabulation method, photographing device for measuring device, measuring device and minute displacement measuring device
JP2012127704A (en) * 2010-12-13 2012-07-05 Wakayama Univ Shape measuring device and shape measuring method
CN111023996A (en) * 2019-11-18 2020-04-17 西安电子科技大学 Single-frame dynamic three-dimensional measurement method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011021970A (en) * 2009-07-15 2011-02-03 Nikon Corp Three-dimensional shape measuring device and three-dimensional shape measuring method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058036A (en) * 2006-08-29 2008-03-13 Sumitomo Metal Ind Ltd Flatness measuring method and flatness measuring apparatus of plate material
JP2008116293A (en) * 2006-11-02 2008-05-22 Olympus Corp Fringe scan interference pattern measurement method, and interferometer
JP2008281391A (en) * 2007-05-09 2008-11-20 Pulstec Industrial Co Ltd Apparatus and method for measuring three-dimensional shape
JP2009150773A (en) * 2007-12-20 2009-07-09 Nikon Corp Device and method for measuring three-dimensional shape, and program
JP2009180708A (en) * 2008-02-01 2009-08-13 Nikon Corp Method and apparatus for shape measurement
JP2011002378A (en) * 2009-06-19 2011-01-06 Wakayama Univ Memory board for measuring device employing whole-space tabulation method, photographing device for measuring device, measuring device and minute displacement measuring device
JP2012127704A (en) * 2010-12-13 2012-07-05 Wakayama Univ Shape measuring device and shape measuring method
TWI512263B (en) * 2010-12-13 2015-12-11 Yasunaga Kk Shape measuring device and shape measuring method
CN111023996A (en) * 2019-11-18 2020-04-17 西安电子科技大学 Single-frame dynamic three-dimensional measurement method
CN111023996B (en) * 2019-11-18 2021-05-14 西安电子科技大学 Single-frame dynamic three-dimensional measurement method

Also Published As

Publication number Publication date
JP3837565B2 (en) 2006-10-25

Similar Documents

Publication Publication Date Title
JP3525964B2 (en) 3D shape measurement method for objects
JP4112858B2 (en) Method and system for measuring unevenness of an object
JP5818218B2 (en) Method, apparatus, and program for analyzing phase distribution of fringe image using high-dimensional luminance information
Su et al. Dynamic 3-D shape measurement method based on FTP
JP5016520B2 (en) Three-dimensional shape measuring method and apparatus
JP5032943B2 (en) 3D shape measuring apparatus and 3D shape measuring method
US20040130730A1 (en) Fast 3D height measurement method and system
EP3594617B1 (en) Three-dimensional-shape measurement device, three-dimensional-shape measurement method, and program
JP5818341B2 (en) Shape measuring apparatus and shape measuring method
WO2017175341A1 (en) Measurement method, measurement device, measurement program, and computer-readable recording medium having measurement program recorded thereon
JP3837565B2 (en) Stripe image measurement data synthesis method using evaluation values
JP2006527372A (en) 3D and 2D measurement system and method with increased sensitivity and dynamic range
KR20110046222A (en) Depth measurement method of 3D object using multi-spatial frequency and its device
JPWO2009113528A1 (en) Shape measuring device
JP2008082869A (en) Phase unwrapping method in interference fringe analysis
JP2913021B2 (en) Shape measuring method and device
JP2012514192A (en) 3D measurement method of object surface especially for dentistry
Marrugo et al. Fourier transform profilometry in LabVIEW
JP2017006468A (en) Radiation imaging apparatus and differential direction estimation method
JP6486010B2 (en) Shape measuring apparatus and shape measuring method
JP7011093B1 (en) Displacement measuring device and displacement measuring method
JP4062581B2 (en) Region extraction method for fringe analysis
JPH03222102A (en) Method for measuring displacement of track and device for measuring displacement
JP3178436B2 (en) Phase connection method and apparatus, and recording medium
JP3870269B2 (en) Interference fringe phase analysis method using aliasing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060414

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

R150 Certificate of patent or registration of utility model

Ref document number: 3837565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term