JP3107628B2 - Optical shape recognition device - Google Patents

Optical shape recognition device

Info

Publication number
JP3107628B2
JP3107628B2 JP04010219A JP1021992A JP3107628B2 JP 3107628 B2 JP3107628 B2 JP 3107628B2 JP 04010219 A JP04010219 A JP 04010219A JP 1021992 A JP1021992 A JP 1021992A JP 3107628 B2 JP3107628 B2 JP 3107628B2
Authority
JP
Japan
Prior art keywords
value
work
pixel
height information
gray level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04010219A
Other languages
Japanese (ja)
Other versions
JPH05205051A (en
Inventor
孔明 中野
幸彦 宇佐美
基之 鈴木
喜久 谷口
晃 村田
誠二 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP04010219A priority Critical patent/JP3107628B2/en
Publication of JPH05205051A publication Critical patent/JPH05205051A/en
Application granted granted Critical
Publication of JP3107628B2 publication Critical patent/JP3107628B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、被検体(以後、ワーク
と呼ぶ)表面の凹凸情報を認識する装置に関する。特
に、光学的手法を用いてワークの表面の凹凸を識別でき
る装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for recognizing unevenness information on a surface of a subject (hereinafter referred to as a work). In particular, the present invention relates to an apparatus that can identify irregularities on the surface of a work using an optical method.

【0002】[0002]

【従来の技術】従来、ワークの表面を観察する手段とし
て、光源とCCDカメラを用いた表面検査装置が提案さ
れている。このような検査装置においてCCDカメラに
よって得られるグレーレベル画像は明るさのみの輝度情
報であるのが一般的であり、2次元的な領域の定義や、
ワーク表面の穴の位置・径などの計算に使用されてい
る。
2. Description of the Related Art Conventionally, as a means for observing the surface of a work, a surface inspection apparatus using a light source and a CCD camera has been proposed. In such an inspection apparatus, a gray level image obtained by a CCD camera is generally luminance information of only brightness, and a two-dimensional area definition,
It is used to calculate the position and diameter of holes on the work surface.

【0003】図7は、従来の表面検査装置の第一例の構
成・作用を示す説明図である。図7(a)に示されてい
るように光源10によって照らされたワーク12は、C
CDカメラ14によって撮影され、ワーク12表面のグ
レーレベル画像が得られる。図7(a)には、ワーク1
2表面に穴15が開いている場合の例が示されている。
このようにして得られたグレーレベル画像の各画像デー
タは図7(b)に示されているようにあるしきい値を境
にして「0」値と「1」値とに2値化される。すなわ
ち、いわゆる2値化処置が行われ、その2値化データを
基にして穴の直径等が求められる。
FIG. 7 is an explanatory view showing the structure and operation of a first example of a conventional surface inspection apparatus. The work 12 illuminated by the light source 10 as shown in FIG.
Photographed by the CD camera 14, a gray level image of the surface of the work 12 is obtained. FIG. 7A shows the work 1
An example in which a hole 15 is formed on two surfaces is shown.
Each image data of the gray level image obtained in this way is binarized into “0” value and “1” value at a certain threshold as shown in FIG. 7B. You. That is, a so-called binarization process is performed, and the diameter of the hole or the like is obtained based on the binarization data.

【0004】図8は、従来の表面検査装置の第二例の構
成を示す構成図である。図7に示された例と異なる点
は、光源20がワーク22に対して所定の仰角で斜めに
光を照射し、その反射光をCCDカメラ24が同様の仰
角で斜め方向から観察するという点である。すなわち、
この仰角はワーク22に対する光の入射角と反射角とに
相当する。このように、斜めから光を照射することによ
って、ワーク22表面の傾きの様子が、撮影された画像
の明るさの変化として認識されうる。この様子を示した
説明図が図9に示されている。図9には、図8のワーク
22のB−B断面が(a)に示され、その断面に沿った
画像の明るさを示すグラフが(b)に示されている。こ
のグラフは横軸が断面に沿った位置であり、縦軸が画像
の明るさを表す。このように第二例によれば、ワーク2
2表面の傾きにほぼ比例した濃淡を有するグレーレベル
画像が検出される。このように、光源を斜めからワーク
に照射した場合、得られる画像の濃淡が、ワーク表面の
傾き、すなわち照射する光線ベクトルのワーク22表面
に対する正射影の方向にワーク表面の凹凸を微分した1
次微分量、に比例することは経験的に良く知られている
ことであり、理論的にも説明が容易である。
FIG. 8 is a configuration diagram showing a configuration of a second example of a conventional surface inspection apparatus. The difference from the example shown in FIG. 7 is that the light source 20 irradiates the work 22 with light obliquely at a predetermined elevation angle, and the CCD camera 24 observes the reflected light obliquely at the same elevation angle. It is. That is,
This elevation angle corresponds to the incident angle and the reflection angle of light with respect to the work 22. Thus, by irradiating the light obliquely, the state of the inclination of the surface of the work 22 can be recognized as a change in the brightness of the captured image. An explanatory diagram showing this state is shown in FIG. FIG. 9 shows a BB cross section of the work 22 of FIG. 8 in (a), and a graph showing the brightness of an image along the cross section is shown in (b). In this graph, the horizontal axis indicates the position along the cross section, and the vertical axis indicates the brightness of the image. Thus, according to the second example, the work 2
A gray level image having a gray level approximately proportional to the inclination of the two surfaces is detected. As described above, when the work is illuminated with the light source obliquely, the shading of the obtained image depends on the inclination of the work surface, that is, 1
The fact that it is proportional to the second derivative is well known empirically, and is theoretically easy to explain.

【0005】しかしながら、例えば、自動車のボディ表
面等の歪みを検査する場合には、補正の参考とするため
実際の歪みの大きさ(凹凸)を知る必要があるが、上記
第二例では、ワーク表面の傾きがグレーレベル画像の濃
淡の差として認識できるだけであり、実際の歪みの大き
さの値は不明であった。そのため、実際の凹凸の程度を
数値で認識するためには、通常肉眼による(すなわち経
験則に基づく)検査が行われている。熟練した技術者に
よれば、10ミクロン程度の凹凸が判断できる。
[0005] However, for example, when inspecting the distortion of the body surface of an automobile or the like, it is necessary to know the actual magnitude (irregularity) of the distortion for reference of correction. The inclination of the surface can only be recognized as a difference in density of the gray level image, and the actual value of the magnitude of the distortion is unknown. Therefore, in order to recognize the actual degree of unevenness by a numerical value, an inspection with the naked eye (that is, based on an empirical rule) is usually performed. A skilled technician will be able to determine irregularities on the order of 10 microns.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上述し
た従来の第一例の表面検査装置は原理的にワーク12表
面が平面であることを仮定している。したがって、例え
ば図10に示されているように、ワーク16表面が曲率
を有しているときには、正確な表面形状を求めることは
できないという問題があった。正確な表面形状を求める
ためには、CCDカメラから得られた画像情報に補正を
加えなければならなかった。
However, the above-described surface inspection apparatus of the first example of the prior art presupposes that the surface of the work 12 is flat in principle. Therefore, as shown in FIG. 10, for example, when the surface of the work 16 has a curvature, there is a problem that an accurate surface shape cannot be obtained. In order to obtain an accurate surface shape, it was necessary to correct image information obtained from a CCD camera.

【0007】また、補正を加える場合においても、CC
Dカメラからの奥行き測定ができないため、対象となる
ワーク16の形状は極めて限定されたものとなる問題も
あった。もし、正確な3次元形状を得る必要があるとき
には、赤外線レーザなどを用いた形状測定器によって別
途スキャニングを行う必要があった。
[0007] In addition, even when correction is made, CC
Since the depth measurement from the D camera cannot be performed, there is also a problem that the shape of the target work 16 is extremely limited. If it is necessary to obtain an accurate three-dimensional shape, it is necessary to separately perform scanning by a shape measuring device using an infrared laser or the like.

【0008】上述した従来の第二例の表面検査装置はグ
レーレベル画像情報の濃淡差を出力するだけであったの
で、表面形状の具体的な数値が算出されるわけではなか
った。また、肉眼による検査で実際の歪みの大きさを知
る場合には、高度の熟練が必要であるという問題があっ
た。
[0008] The surface inspection apparatus of the second conventional example described above only outputs the gray level difference of the gray level image information, so that a specific numerical value of the surface shape is not calculated. In addition, there is a problem that a high degree of skill is required to know the actual magnitude of distortion by inspection with the naked eye.

【0009】本発明はこのような課題に鑑みなされたも
ので、その目的は、CCDカメラによって得られた2次
元グレーレベル画像情報から、ワーク表面の凹凸の実際
の値を算出することができる変換処置装置を得ることで
ある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and has as its object to convert a two-dimensional gray level image information obtained by a CCD camera into an actual value of an unevenness on a work surface. Is to get a treatment device.

【0010】[0010]

【課題を解決するための手段】本発明は、上述の課題を
解決するために、被検体(ワーク)表面の測定ライン
射する光源と、前記測定ラインから反射された反射光
を検出し、その測定ラインに対応するグレーレベル画像
情報を出力する光検出器と、を備えている。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a measuring line on the surface of a subject (work).
It comprises a light source for morphism irradiation, detecting the reflected light reflected from the measurement line, a photodetector for outputting a gray-level image information corresponding to the measurement line, the.

【0011】そして、前記グレーレベル画像情報を構成
する各画素データの一測定ライン分の輝度平均値を求め
る平均値算出手段と、前記それぞれの画素データの輝度
値と前記輝度平均値との差分を累積加算して前記測定
ラインに対応する位置の高低情報を算出する高低情報算
出手段と、を備えており、グレーレベル画像からワーク
表面の高低情報を得ることが可能である。さらに、前記
高低情報と変換係数とを用いて実寸法値に変換する実寸
法化手段と、を備えることにより、ワーク表面の凹凸の
実際の値を求めることを特徴とする光学式形状認識装置
である。
An average value calculating means for obtaining an average luminance value of one measurement line of each pixel data constituting the gray level image information; and a difference between the luminance value of each pixel data and the average luminance value. Level information calculating means for calculating the level information of the position corresponding to the one measurement line by cumulative addition, so that the level information of the work surface can be obtained from the gray level image. Further, an actual shape dimensioning means for converting the height information and the conversion coefficient into an actual dimension value, and an optical shape recognition device characterized by obtaining an actual value of the unevenness on the work surface, is there.

【0012】[0012]

【作用】本発明における高低情報算出手段は、グレーレ
ベル画像を構成する各画素データの値、すなわち輝度値
と、グレーレベル画像を構成する画素データの一測定ラ
イン分の輝度平均値との差分を積分(累積的に加算)す
る。前述したようにグレーレベル画像の濃淡はワーク表
面の傾き(一次微分量)に比例しているので、それらを
積分することにより、ワーク表面の高低に比例した高低
情報を算出することが可能である。
According to the present invention, the height information calculating means calculates the value of each pixel data constituting the gray level image, that is, the luminance value, and the measurement data of the pixel data constituting the gray level image.
Integrate (accumulatively add) the difference from the average luminance value for the IN . As described above, since the shading of the gray level image is proportional to the inclination (first-order differential amount) of the work surface, it is possible to calculate height information proportional to the height of the work surface by integrating them. .

【0013】さらに、実寸法化手段は、この高低情報
、ワークの反射率や色などにより定まる変換係数とを
用いて実寸法値の変換計算を行う。したがって、ワーク
表面の実際の凹凸の値を求めることが可能である。
[0013] Further, the actual sizing means provides the height information.
When, a conversion coefficient determined by such reflectance and color of the work
Is used to calculate the conversion of the actual dimension value. Therefore, it is possible to determine the actual value of the unevenness on the work surface.

【0014】[0014]

【実施例】以下、本発明の好適な実施例を図面に基づい
て説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0015】図1に本実施例による光学式形状認識装置
の構成ブロック図を示す。拡散スクリーン30を備えた
光源34からの散乱光はワーク32の表面で反射され、
その反射光がCCDカメラ36に入射する。CCDカメ
ラ36から出力されるグレーレベル画像は、画像処理ユ
ニット38に入力する。この画像処理ユニット38に
は、CCDカメラ36からのグレーレベル画像を表示す
るモニタ40が接続されており、さらにモニタ40には
そのハードコピーをとるハードコピー装置42が接続さ
れている。また画像処理ユニット38には、CCDカメ
ラ36からのグレーレベル画像の画像データに対し演算
処理を行うCPU44が接続されており、さらにCPU
44にはその演算結果を表示するCRT46と描出する
プロッタ48とが接続されている。
FIG. 1 is a block diagram showing the configuration of an optical shape recognition apparatus according to this embodiment. The scattered light from the light source 34 having the diffusion screen 30 is reflected on the surface of the work 32,
The reflected light enters the CCD camera 36. The gray level image output from the CCD camera 36 is input to an image processing unit 38. A monitor 40 for displaying a gray level image from the CCD camera 36 is connected to the image processing unit 38, and a hard copy device 42 for taking a hard copy of the monitor 40 is connected to the monitor 40. The image processing unit 38 is connected to a CPU 44 for performing arithmetic processing on image data of a gray level image from the CCD camera 36.
A CRT 46 for displaying the calculation result and a plotter 48 for drawing are connected to 44.

【0016】本実施例の動作をフローチャートを用いて
説明する。図2には、本実施例による光学式形状認識装
置の主フローチャートが示されている。
The operation of this embodiment will be described with reference to a flowchart. FIG. 2 is a main flowchart of the optical shape recognition apparatus according to the present embodiment.

【0017】図2中、ステップS1において、CCDカ
メラ36によって撮影されたグレーレベル画像は、画像
処理ユニット38へ転送される。転送されたグレーレベ
ル画像は、モニタ40に表示され、必要に応じてハード
コピー装置42によってモニタ40のハードコピーがと
られる。
In FIG. 2, in step S1, the gray level image photographed by the CCD camera 36 is transferred to the image processing unit 38. The transferred gray level image is displayed on the monitor 40, and a hard copy of the monitor 40 is taken by the hard copy device 42 as necessary.

【0018】ステップS2においては、必要に応じて、
ワーク32以外の部分の背景などの画像が削除(グレー
レベルが「0」に)される。背景とワーク32との区別
は通常その明るさによって行われる。光源34からの比
較的強い光が照射されているため、ワーク32は一般に
背景などより輝度が高い。つまり、CPU44の指令に
よりあるしきい値以下の画素データを一律「0」値にす
ることにより、ワーク32以外の部分の背景などの画像
を削除することができる。このようなマスク処理の後、
ステップS3−1に移行する。もしマスク処理が必要で
はなくその処理が行われない場合には、ステップS3−
2に移行する。
In step S2, if necessary,
The image such as the background of the portion other than the work 32 is deleted (the gray level is set to “0”). The distinction between the background and the work 32 is usually made based on the brightness. Since relatively intense light from the light source 34 is emitted, the work 32 generally has higher luminance than the background or the like. That is, by setting pixel data below a certain threshold value to a uniform “0” value according to a command from the CPU 44, an image such as a background of a portion other than the work 32 can be deleted. After such masking,
It moves to step S3-1. If mask processing is not required and the processing is not performed, step S3-
Move to 2.

【0019】ステップS3−1においては、マスクフラ
グCHKが「1」に設定され、ステップS3−2におい
ては、マスクフラグCHKが「0」に設定される。この
マスクフラグCHKは、本実施例においては使用されな
いが、マスク処理が行われたかどうかを後で知る必要が
生じたときに参照される。ステップS3−1もS3−2
も引き続いてステップS4に移行する。
In step S3-1, the mask flag CHK is set to "1", and in step S3-2, the mask flag CHK is set to "0". This mask flag CHK is not used in the present embodiment, but is referred to when it is necessary to know later whether or not the mask processing has been performed. Step S3-1 is also S3-2.
Then, the process proceeds to step S4.

【0020】ステップS4においては、出力形式の選択
を行う。すなわち、後述する図4に示されているよう
一本の測定ライン(光源34からの散乱光の照射方
向に沿ったライン)に沿った高低情報のみを得る場合の
出力形式か、もしくは図5に示されているように一定の
範囲に対して高低情報を得る場合の出力形式かのいずれ
かを選択する。本実施例においては、図4に示されてい
るような出力形式を第一出力形式、図5に示されている
ような出力形式を第二出力形式と呼ぶ。このステップS
4において第一出力形式を選択した場合にはステップS
5に移行し、第二出力形式を選択した場合にはステップ
S6に移行する。ステップS5においては、第二出力形
式を選択した場合に何本の画素列に対する高低情報を算
出するかを決定し、ステップS6に移行する。
In step S4, an output format is selected. That is, as shown in FIG. 4 described later , one measurement line (a method of irradiating scattered light from the light source 34) is used.
Output form when only height information along the direction (line along the direction) is obtained, or output form when height information is obtained for a certain range as shown in FIG. I do. In the present embodiment, the output format as shown in FIG. 4 is called a first output format, and the output format as shown in FIG. 5 is called a second output format. This step S
If the first output format is selected in step 4, step S
The process proceeds to step S5, and if the second output format is selected, the process proceeds to step S6. In step S5, when the second output format is selected, it is determined how many heights of the pixel rows are to be calculated, and the process proceeds to step S6.

【0021】ステップS6においては、画像データの高
低情報を算出する。このステップS6の詳細な動作が、
図3の高低情報算出フローチャートに示されている。
In step S6, height information of the image data is calculated. The detailed operation of step S6 is as follows.
This is shown in the height information calculation flowchart of FIG.

【0022】図3中、ステップS7において、モニタ4
0の画像を参照しながら、測定範囲の設定を行う。例え
ば横方向の座標(光源34の散乱光の照射方向に対して
垂直方向)をx座標、縦方向の座標(光源34からの散
乱光の照射方向に沿った方向)をy座標とすると、x1
≦x≦x2、y1≦y≦y2、というように、各座標での
範囲を設定することにより矩形の測定範囲が決定され
る。なお、ステップS4において第一出力形式を選択
し、一つの画素列に対する高低情報のみを得る場合にお
いては前記 1 2 とは等しい値に選ばれる。
In FIG. 3, in step S7, the monitor 4
The measurement range is set with reference to the 0 image. For example, the coordinates in the horizontal direction (with respect to the irradiation direction of the scattered light of the light source 34)
The vertical coordinate ( vertical direction) is the x coordinate, and the vertical coordinate (scatter from the light source 34 )
If the direction along the direction of irradiation of the irregular light) is the y coordinate, x 1
The rectangular measurement range is determined by setting the range at each coordinate, such as ≦ x ≦ x 2 and y 1 ≦ y ≦ y 2 . Incidentally, it selects the first output form in step S4, in the case of obtaining only the height information of a pixel row is selected to a value equal to the the x 1 and x 2.

【0023】ステップS8においては、ステップS7に
て設定された範囲の画素データKD(x,y)が画像処
理ユニット38からCPU44に転送される。一画素列
の転送される画素データの一例が図6(a)に示されて
いる。図6(a)に示されている例は、それぞれの画素
データの輝度値を結んだグラフとして表示されている例
である。すなわち横軸は各画素の位置を表し、縦軸は画
素データの値つまり濃淡を表す。
In step S8, the pixel data KD (x, y) in the range set in step S7 is transferred from the image processing unit 38 to the CPU 44. FIG. 6A shows an example of pixel data to be transferred in one pixel column. The example shown in FIG. 6A is an example displayed as a graph connecting the luminance values of the respective pixel data. That is, the horizontal axis represents the position of each pixel, and the vertical axis represents the value of the pixel data, that is, the density.

【0024】ステップS9においては、転送された各画
素データの縦方向毎の輝度平均値(以下、単に平均値と
いう)がCPU44にて算出される。その平均値Ave
(xn)は次式で示される。
In step S9, the average luminance value (hereinafter, simply referred to as the average value)
Say) is calculated by the CPU44. The average value Ave
(X n ) is represented by the following equation.

【0025】 y 2 Ave(xn)= ( Σ KD(xn,y))/del(xn) y=y1 ・・・(1) ここで、Ave(xn)はx成分にxn座標成分をもつ一
画素列の平均値、del(xn)はx成分にxn座標成分
をもつ一画素列に含まれる画素数、KD(xn,y)は
モニタ40上の座標(x,y)における画素の輝度であ
る。上記(1)式による平均値の計算は測定範囲の各画
素列ごとに行われる。さらに必要に応じて、各画素列ご
とにその画素データに対し各種のフィルタ処理を行う。
この各種フィルタ処理後の画像データの例が図6(b)
に示されている。
Y 2 Ave (x n ) = (ΣKD (x n , y)) / del (x n ) y = y 1 (1) where Ave (x n ) is x for the x component. The average value of one pixel row having n coordinate components, del (x n ) is the number of pixels included in one pixel row having x n coordinate components in x component, and KD (x n , y) is the coordinates ( x, y). The calculation of the average value by the above equation (1) is performed for each pixel column in the measurement range. Further, if necessary, various filtering processes are performed on the pixel data for each pixel column.
FIG. 6B shows an example of image data after the various filter processes.
Is shown in

【0026】ステップS10においては、ステップS9
にて各画素列毎に求められた平均値を用いて高低情報を
各画素列ごとそれぞれ算出する。すなわち、平均値と各
画素データ(輝度データ)との差分を、その画素列の光
源方向の端部から積分(累積的に加算)してゆくことに
より、その画素列に含まれる各画素の高低情報が逐次求
められる。その計算式を次式に示す。
In step S10, step S9
The height information is calculated for each pixel column using the average value obtained for each pixel column. That is, by integrating (accumulatively adding) the difference between the average value and each pixel data (luminance data) from the end of the pixel row in the light source direction, the height of each pixel included in the pixel row is increased. Information is sought sequentially. The calculation formula is shown below.

【0027】 SEKI(xn)=∫{KD(xn,y)−Ave(xn)}dy ・・・(2) つまり、画素列中の所定の画素の高低情報は、差分の値
をその画素列の光源方向の端部から所定の画素まで積分
して得られるSEKI(x n )の軌跡に基づいて求めら
れる。したがって、本実施例においては、各画素データ
の差分を積分してゆく途中結果として各画素に対する高
低情報が得られる。この各画素に対する高低情報の値の
例が図6(c)に示されている。
SEKI (x n ) = {KD (x n , y) −Ave (x n )} dy (2) That is, the height information of a predetermined pixel in the pixel row is obtained by calculating the difference value. Integrate from the end of the pixel row in the light source direction to the specified pixel
Is obtained based on the trajectory of SEKI (x n ) obtained as follows . Therefore, in the present embodiment, the level information for each pixel is obtained as an intermediate result of integrating the differences between the pixel data. FIG. 6C shows an example of the value of the height information for each pixel.

【0028】ステップS11においては、前ステップS
10にて算出されたSEKI(xn)にキャリブレーシ
ョン値(補正値)Bi を乗ずることにより補正を行う。
このキャリブレーション値Bi は、例えばワークの色、
反射率などによって決定される補正値である。これによ
って、実際の高低寸法値DK(xn )が求められる。こ
れは次式で表される。
In step S11, the previous step S
Calibration values to SEKI (x n) calculated at 10 corrects by multiplying the (correction value) B i.
The calibration value B i is, for example,
This is a correction value determined by the reflectance or the like. Thereby, the actual height dimension value DK ( xn ) is obtained. This is represented by the following equation.

【0029】 DK(xn )=Bi ×SEKI(xn ) ・・・(3) すなわち、DK(xn )は、x成分としてxn を有する
画素列の高低寸法値である。この各画素の高低寸法値の
例が図6(d)に示されている。
DK (x n ) = B i × SEKI (x n ) (3) That is, DK (x n ) is a height value of a pixel column having x n as an x component. An example of the height dimension value of each pixel is shown in FIG.

【0030】再び、図2の主フローチャートに動作が移
り、ステップS12においては、ステップS11にて求
めた高低寸法値をCRT46やプロッタ48に出力す
る。出力例を図4と図5とに示す。図4に示されている
例は、ワーク32の表面の一本の測定ラインに沿った高
低情報及びその実寸法値を得た場合の出力例であり、前
述したステップS4においてその旨が選択された場合の
例である。図4(a)には、横軸が一画素列中の位置を
表し、縦軸に輝度を表したグラフの一例が示されてお
り、(b)には、横軸が同様の位置を表し、縦軸が実寸
法値を表したグラフの一例が示されている。
The operation again shifts to the main flowchart of FIG. 2. In step S12, the height dimension value obtained in step S11 is output to the CRT 46 or the plotter 48. An output example is shown in FIG. 4 and FIG. The example shown in FIG. 4 is an output example when height information and its actual dimension value along one measurement line on the surface of the work 32 are obtained, and the fact is selected in step S4 described above. This is an example of the case. FIG. 4A shows an example of a graph in which the horizontal axis represents a position in one pixel column and the vertical axis represents luminance, and FIG. 4B shows the same position on the horizontal axis. An example of a graph in which the vertical axis represents actual dimension values is shown.

【0031】一方、図5に示されている例は、ワーク3
2の表面の所定の測定範囲に対してその高低情報及びそ
の実寸法値を得た場合の出力例であり、図4と同様に前
述したステップS4においてその旨が選択された場合の
例である。図5には、図4と同様に、横軸が一画素列中
の位置を表し、縦軸が実寸法値を表しているグラフが示
されており、さらに複数の測定ラインに対するグラフが
縦方向に重畳して描画されている。
On the other hand, the example shown in FIG.
This is an example of output when height information and its actual dimension value are obtained for a predetermined measurement range on the surface of No. 2 and is an example where this is selected in step S4 described above, as in FIG. FIG. 5 shows a graph in which the horizontal axis represents the position in one pixel column and the vertical axis represents the actual dimension value, as in FIG. Are drawn so as to overlap.

【0032】以上述べたように本実施例においては、ワ
ーク32表面の測定ラインに対応する一画素列の各画素
データの平均値と、各画素データとの差分とを積分する
ことによって、前記一画素列の各画素の高低情報を算出
した。この積分は、各画素データに対する差分を、光源
方向の端部から、逐次累積的に加算することにより行わ
れる。したがって、一画素列に含まれる各画素に対する
高低情報を逐次算出することが可能である。
As described above, in this embodiment, by integrating the average value of each pixel data of one pixel row corresponding to the measurement line on the surface of the work 32 and the difference between each pixel data, Height information of each pixel in the pixel column was calculated. This integration is performed by sequentially and cumulatively adding the difference for each pixel data from the end in the light source direction. Therefore, it is possible to sequentially calculate the height information for each pixel included in one pixel column.

【0033】さらに、ワークの色や反射率などの条件に
よって定まる補正値を用いて、上記高低情報を補正した
ので、実際のワーク表面の対応する測定ラインの高低の
値が得られる。したがって、自動車のボディ等の表面検
査装置に適用すれば、ボディの凹凸を補正する量が具体
的に数値として求められるため、補正が適格に行えると
いう効果を有する。
Further, since the height information is corrected using a correction value determined by conditions such as the color and reflectance of the work, the height value of the corresponding measurement line on the actual work surface can be obtained. Therefore, if the present invention is applied to a surface inspection apparatus for an automobile body or the like, the amount for correcting the unevenness of the body can be specifically obtained as a numerical value, so that there is an effect that the correction can be performed appropriately.

【0034】[0034]

【発明の効果】以上述べたように本発明によれば、グレ
ーレベルの濃淡画像から、被検体表面の高低情報を実寸
法値として算出できる。そのため、従来濃淡でのみ定性
的に表現されていた被検体の凹凸を具体的な数値として
具体的に表現可能である。
As described above, according to the present invention, it is possible to calculate the height information on the surface of the object as the actual dimension value from the gray-level image. Therefore, the unevenness of the subject, which has been qualitatively expressed only in the conventional shading, can be specifically expressed as specific numerical values.

【0035】したがって、本発明を自動車のボディの凹
凸検査などに用いれば、従来の肉眼による検査に比べて
高精度に凹凸を判断することができる。さらに実寸法値
が算出されるので、凹凸の補正をする際、その補正量を
具体的に数値で指定することが可能となるので、より効
率的な修正が行えるという効果を有する。
Therefore, when the present invention is used for the inspection of the unevenness of the body of an automobile or the like, it is possible to judge the unevenness with higher accuracy than the conventional inspection by the naked eye. Furthermore, since the actual dimension value is calculated, the amount of correction can be specifically specified by a numerical value when correcting unevenness, so that there is an effect that more efficient correction can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例である光学式形状認識装置の
構成ブロック図である。
FIG. 1 is a configuration block diagram of an optical shape recognition device according to an embodiment of the present invention.

【図2】図1に示される光学式形状認識装置の動作を説
明する主フローチャートである。
FIG. 2 is a main flowchart for explaining the operation of the optical shape recognition device shown in FIG.

【図3】図2におけるフローチャートのステップS6、
すなわち高低情報算出の詳細な動作を説明するフローチ
ャートである。
FIG. 3 is a flowchart showing step S6 of the flowchart in FIG. 2;
That is, it is a flowchart for explaining the detailed operation of the height information calculation.

【図4】ワーク32表面の1ラインに沿った高低情報の
みを得る場合の出力例であり、(a)には、横軸が一画
素列中の位置を表し、縦軸に輝度を表したグラフの一例
が示されており、(b)には、横軸が同様の位置を表
し、縦軸が実寸法値を表したグラフの一例が示されてい
る。
FIG. 4 is an output example when only height information along one line on the surface of a work 32 is obtained. In FIG. 4A, a horizontal axis represents a position in one pixel column, and a vertical axis represents luminance. An example of a graph is shown, and in (b), an example of a graph is shown in which the horizontal axis represents the same position and the vertical axis represents the actual dimension value.

【図5】ワーク32の表面の所定の測定範囲に対してそ
の高低情報及びその実寸法値を得た場合の出力例であ
り、横軸が一画素列中の位置を表し、縦軸が実寸法値を
表しているグラフが示されており、さらに複数の画素列
に対するグラフが縦方向に重畳して描画され、所定の測
定範囲に対する凹凸の様子が表されている。
FIG. 5 is an output example in a case where height information and actual size values thereof are obtained for a predetermined measurement range on the surface of a work 32, the horizontal axis represents a position in one pixel column, and the vertical axis represents actual size. A graph showing values is shown, and a graph for a plurality of pixel columns is drawn so as to be overlapped in the vertical direction, and a state of unevenness in a predetermined measurement range is shown.

【図6】本実施例の各処理段階での種々のデータの様子
を示したグラフであり、(a)には、図3のフローチャ
ートのステップS8において、CPU44に転送される
一画素列の画素データの一例が示されており、(b)に
は、ステップS9において、各画素列ごとに行われたフ
ィルタ処理後の画像データの一例が示されており、
(c)には、ステップS10において得られた各画素に
対する高低情報の値の一例が示されており、(d)に
は、ステップS11における補正の結果得られた各画素
の高低寸法値の一例が示されている。
6A and 6B are graphs showing various data states at respective processing stages according to the present embodiment. FIG. 6A shows pixels in one pixel column transferred to the CPU 44 in step S8 of the flowchart in FIG. An example of the data is shown, and (b) shows an example of the image data after the filtering process performed for each pixel column in step S9.
(C) shows an example of the height information value for each pixel obtained in step S10, and (d) shows an example of the height dimension value of each pixel obtained as a result of the correction in step S11. It is shown.

【図7】従来の表面検査装置の第一例の構成・作用を示
す説明図であり、(a)にはその構成が、(b)にはそ
の作用が示されている。
FIGS. 7A and 7B are explanatory views showing the configuration and operation of a first example of a conventional surface inspection apparatus, wherein FIG. 7A shows the configuration and FIG. 7B shows the operation.

【図8】従来の表面検査装置の第二例の構成を示す構成
図である。
FIG. 8 is a configuration diagram showing a configuration of a second example of a conventional surface inspection apparatus.

【図9】(a)には、図8のワーク22のB−B断面図
が示されており、(b)にはその断面に沿った画像の明
るさを示すグラフが示されており、その横軸が断面に沿
った位置を表し、縦軸が画像の明るさを表す。
9A is a sectional view taken along line BB of the work 22 shown in FIG. 8, and FIG. 9B is a graph showing the brightness of an image along the section. The horizontal axis represents the position along the cross section, and the vertical axis represents the brightness of the image.

【図10】曲率を有するワーク16を、図7の従来例に
適用した場合の問題点を説明する説明図である。
FIG. 10 is an explanatory diagram illustrating a problem when the work 16 having a curvature is applied to the conventional example of FIG. 7;

【符号の説明】[Explanation of symbols]

30 拡散スクリーン 32 ワーク 34 光源 36 CCDカメラ 38 画像処理ユニット 40 モニタ 42 ハードコピー装置 44 CPU 46 CRT 48 プロッタ Reference Signs List 30 diffusion screen 32 work 34 light source 36 CCD camera 38 image processing unit 40 monitor 42 hard copy device 44 CPU 46 CRT 48 plotter

───────────────────────────────────────────────────── フロントページの続き (72)発明者 宇佐美 幸彦 愛知県豊田市トヨタ町1番地 トヨタ自 動車株式会社内 (72)発明者 鈴木 基之 愛知県豊田市トヨタ町1番地 トヨタ自 動車株式会社内 (72)発明者 谷口 喜久 愛知県名古屋市中村区名駅四丁目27番23 号 テービーテック株式会社内 (72)発明者 村田 晃 愛知県名古屋市中村区名駅四丁目27番23 号 テービーテック株式会社内 (72)発明者 山中 誠二 東京都中央区日本橋兜町7番3号 東京 貿易株式会社内 審査官 松浦 功 (56)参考文献 特開 昭62−206408(JP,A) 特開 昭55−136943(JP,A) 宇佐美他「自動車パネルの面歪定量解 析装置の開発」型技術,平成4年7月, Vol.8,No.8,p.118−119 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G01B 11/00 - 11/30 G06T 1/00 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Yukihiko Usami 1 Toyota Town, Toyota City, Aichi Prefecture Inside Toyota Motor Corporation (72) Inventor Motoyuki Suzuki 1 Toyota Town, Toyota City, Aichi Prefecture Inside Toyota Motor Corporation (72) Inventor Yoshihisa Taniguchi 4-27-23 Meiji Station, Nakamura-ku, Nagoya City, Aichi Prefecture Inside TB Tech Co., Ltd. In-company (72) Inventor Seiji Yamanaka 7-3 Nihonbashi Kabutocho, Chuo-ku, Tokyo Examiner, Tokyo Trading Co., Ltd. Isao Matsuura (56) References JP-A-62-206408 (JP, A) JP-A-55- 136943 (JP, A) Usami et al. "Development of quantitative analysis system for surface distortion of automobile panel" type technology, July 1992, Vol. 8, No. 8, p. 118-119 (58) Field surveyed (Int. Cl. 7 , DB name) G06T 7 /00-7/60 G01B 11/00-11/30 G06T 1/00 JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】被検体表面の測定ラインを照射する光源
と、 前記測定ラインから反射された反射光を検出し、グレー
レベル画像情報を出力する光検出器と、 前記グレーレベル画像情報を構成する各画素データの
測定ライン分の輝度平均値を求める平均値算出手段と、 前記それぞれの画素データの輝度値と前記輝度平均値と
の差分を累積加算して前記測定ラインに対応する位置
の高低情報を算出する高低情報算出手段と、 前記高低情報と変換係数とを用いて実寸法値に変換する
実寸法化手段と、 を備えることを特徴とする光学式形状認識装置。
1. A light source for irradiating a measurement line on a surface of a subject, a light detector for detecting reflected light reflected from the measurement line and outputting gray level image information, and constituting the gray level image information. one of each pixel data
Average value calculating means for calculating a luminance average value for the measurement line; and cumulatively adding a difference between the luminance value of each of the pixel data and the luminance average value to calculate height information of a position corresponding to the one measurement line. An optical shape recognition device comprising: height information calculation means; and actual dimensioning means for converting the height information and a conversion coefficient into actual dimension values.
JP04010219A 1992-01-23 1992-01-23 Optical shape recognition device Expired - Fee Related JP3107628B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04010219A JP3107628B2 (en) 1992-01-23 1992-01-23 Optical shape recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04010219A JP3107628B2 (en) 1992-01-23 1992-01-23 Optical shape recognition device

Publications (2)

Publication Number Publication Date
JPH05205051A JPH05205051A (en) 1993-08-13
JP3107628B2 true JP3107628B2 (en) 2000-11-13

Family

ID=11744168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04010219A Expired - Fee Related JP3107628B2 (en) 1992-01-23 1992-01-23 Optical shape recognition device

Country Status (1)

Country Link
JP (1) JP3107628B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4894628B2 (en) * 2007-05-28 2012-03-14 パナソニック電工株式会社 Appearance inspection method and appearance inspection apparatus
EP3256916B1 (en) 2015-02-12 2023-10-11 Glowforge Inc. Moving material during laser fabrication
US10509390B2 (en) 2015-02-12 2019-12-17 Glowforge Inc. Safety and reliability guarantees for laser fabrication
JP6455990B2 (en) * 2016-03-17 2019-01-23 三菱マテリアルテクノ株式会社 Blasting evaluation method and blasting evaluation system
WO2018098398A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Preset optical components in a computer numerically controlled machine
WO2018098394A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Fabrication with image tracing
WO2018098397A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Calibration of computer-numerically-controlled machine
WO2018098393A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Housing for computer-numerically-controlled machine
WO2018098399A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Controlled deceleration of moveable components in a computer numerically controlled machine
KR102090332B1 (en) * 2018-04-18 2020-04-23 옥타코 주식회사 biometric processing method using light environment compensation by multi-video analysis of multiple camera videos
US11698622B2 (en) 2021-03-09 2023-07-11 Glowforge Inc. Previews for computer numerically controlled fabrication

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宇佐美他「自動車パネルの面歪定量解析装置の開発」型技術,平成4年7月,Vol.8,No.8,p.118−119

Also Published As

Publication number Publication date
JPH05205051A (en) 1993-08-13

Similar Documents

Publication Publication Date Title
JP3115573B2 (en) Method for determining the optical quality of a glazing or glazing product and apparatus for performing the method
JP3107628B2 (en) Optical shape recognition device
JP4150390B2 (en) Appearance inspection method and appearance inspection apparatus
JP3411829B2 (en) Method and apparatus for evaluating surface shape
JPH0886634A (en) Surface defect inspecting device
CN1411046A (en) Pattern evaluating apparatus, pattern evaluating method and program
JP3189588B2 (en) Surface defect inspection equipment
JP2013213733A (en) Apparatus and method for inspecting object to be inspected
JP2002148195A (en) Surface inspection apparatus and surface inspection method
CN115575416A (en) Flexible circuit board pad detection method and system
JP3899915B2 (en) Optical strain evaluation method and evaluation apparatus
JP2900425B2 (en) Image quality inspection equipment
JP2974223B2 (en) Optical shape recognition device
KR19990037109A (en) Bending angle detection device
JPS61290312A (en) Sectional shape measuring apparatus
JP4108829B2 (en) Thickness defect inspection apparatus and inspection method thereof
JPH06123608A (en) Wheel measuring device
JP2008281493A (en) Surface defect inspection system, method, and program
JPH0629705B2 (en) Plate inspection method
JPH11237216A (en) Evaluation method for optical distortion and evaluation device
JP3020429B2 (en) Surface distortion calculation method
JP2715897B2 (en) IC foreign matter inspection apparatus and method
JP3372839B2 (en) Image quality measuring method and apparatus, and display device manufacturing method using the same
JP2965370B2 (en) Defect detection device
JPH11211425A (en) Method and device for evaluating distortion of transparent plate body

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000801

LAPS Cancellation because of no payment of annual fees