JP2012103110A - Edge detection method and edge detector - Google Patents
Edge detection method and edge detector Download PDFInfo
- Publication number
- JP2012103110A JP2012103110A JP2010251968A JP2010251968A JP2012103110A JP 2012103110 A JP2012103110 A JP 2012103110A JP 2010251968 A JP2010251968 A JP 2010251968A JP 2010251968 A JP2010251968 A JP 2010251968A JP 2012103110 A JP2012103110 A JP 2012103110A
- Authority
- JP
- Japan
- Prior art keywords
- convex lens
- image
- edge detection
- unit
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Testing Of Optical Devices Or Fibers (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、レンズの周縁の形状を検出する方法およびその装置に関する。 The present invention relates to a method and apparatus for detecting the shape of the periphery of a lens.
従来、光透過性が高い透明フィルムやガラスなど(以下、「透明体」という。)に対して、透明体の周縁(エッジ)の位置や形状などを検出するための装置が知られている。
たとえば、特許文献1には、透明体のエッジ位置を検出するエッジ検出装置が記載されている。特許文献1に記載のエッジ検出装置は、投光レンズにより平行光とされた単色光を測定光として用い、この測定光をラインセンサへ向けて照射するようになっている。このエッジ検出装置の使用時には、位置を検出する対象となる透明体を投光レンズとラインセンサとの間に配置し、透明体の周縁における測定光のフレネル回折の光量分布をラインセンサによって検出するようになっている。
2. Description of the Related Art Conventionally, there are known devices for detecting the position and shape of the peripheral edge (edge) of a transparent body, such as a transparent film or glass having high light transmittance (hereinafter referred to as “transparent body”).
For example,
しかしながら、特許文献1に記載のエッジ検出装置では、透明体の周縁に測定光を照射することによって生じるフレネル回折の光量分布を検出しているので、ラインセンサに対して垂直に入射する単色光を測定光として用いる必要があった。このため、測定光を発する光源の構成が複雑となるおそれがあり、また、光源とラインセンサとの位置調整が複雑となるおそれもある。
However, since the edge detection device described in
本発明は、上述した事情に鑑みてなされたものであって、その目的は、凸レンズの周縁の形状を簡易な構成で精度良く検出することができるエッジ検出方法およびエッジ検出装置を提供することである。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an edge detection method and an edge detection device that can accurately detect the shape of the peripheral edge of a convex lens with a simple configuration. is there.
上記課題を解決するために、この発明は以下の手段を提案している。
本発明のエッジ検出方法は、凸レンズを撮像する撮像部を用いて前記凸レンズの周縁の形状を検出させるためのエッジ検出方法であって、出射開口が形成されたマスクの前記出射開口を通じて前記撮像部へ向けて拡散光を発し、前記出射開口と前記撮像部との間の前記撮像部の光学系の被写界深度内に前記凸レンズを配置し、前記撮像部の撮像面に、前記拡散光が前記凸レンズを透過して前記撮像部へ入射した第一拡散光と、前記拡散光が前記凸レンズの外部を通って前記撮像部へ入射した第二拡散光とによって前記マスクの像を投影させ、前記第二拡散光による明部と前記マスクの像による暗部との境界の形状に基づいて前記凸レンズの周縁の形状を検出することを特徴とするエッジ検出方法である。
In order to solve the above problems, the present invention proposes the following means.
The edge detection method of the present invention is an edge detection method for detecting the shape of the peripheral edge of the convex lens using an imaging unit that images a convex lens, and the imaging unit passes through the emission aperture of a mask in which an emission aperture is formed. The convex lens is disposed within the depth of field of the optical system of the imaging unit between the exit aperture and the imaging unit, and the diffused light is projected on the imaging surface of the imaging unit. The image of the mask is projected by the first diffused light that has passed through the convex lens and entered the imaging unit, and the second diffused light that has entered the imaging unit through the outside of the convex lens, and The edge detection method is characterized in that the shape of the peripheral edge of the convex lens is detected based on the shape of the boundary between the bright part due to the second diffused light and the dark part due to the image of the mask.
また、前記マスクの像を前記撮像面に投影させた後に、前記第二拡散光による明部と前記マスクの像による暗部とのコントラストを算出し、前記コントラストが最大となるように前記拡散光の光源と前記凸レンズとの距離を前記光源を移動させて調整し、前記コントラストが最大となったときに前記境界の形状に基づいて前記凸レンズの周縁の形状を検出することが好ましい。 In addition, after projecting the image of the mask onto the imaging surface, the contrast between the bright part due to the second diffused light and the dark part due to the mask image is calculated, and the diffused light is controlled so that the contrast becomes maximum. It is preferable that the distance between the light source and the convex lens is adjusted by moving the light source, and the shape of the periphery of the convex lens is detected based on the shape of the boundary when the contrast reaches a maximum.
また、前記光源と前記凸レンズとの距離を調整する工程において、以下の(a)、(b)、(c)をこの順に繰り返し、前記コントラストが最大となる距離における前記境界の形状に基づいて前記凸レンズの周縁の形状を検出することが好ましい。
(a)前記マスクの像を前記撮像面に投影させる。
(b)前記コントラストを算出する。
(c)前記光源と前記凸レンズとの距離を前記(a)における距離とは異なる距離に変化させる。
Further, in the step of adjusting the distance between the light source and the convex lens, the following (a), (b), and (c) are repeated in this order, and based on the shape of the boundary at the distance where the contrast is maximum. It is preferable to detect the shape of the periphery of the convex lens.
(A) The image of the mask is projected onto the imaging surface.
(B) The contrast is calculated.
(C) The distance between the light source and the convex lens is changed to a distance different from the distance in (a).
本発明のエッジ検出装置は、凸レンズの周縁の形状を検出するエッジ検出装置であって、前記凸レンズを撮像する撮像部と、出射開口が形成されたマスクを有し前記出射開口を通じて前記撮像部へ向けて拡散光を発する照明部と、前記照明部と前記撮像部との間で前記撮像部の光軸上に前記凸レンズを保持する保持部と、前記撮像部の撮像面に投影した前記マスクの像の形状を検出し、前記マスクの像の形状に基づいて前記凸レンズの周縁の形状を検出する画像解析部と、を備えるエッジ検出装置である。 The edge detection device of the present invention is an edge detection device that detects the shape of the periphery of a convex lens, and includes an imaging unit that images the convex lens and a mask in which an exit aperture is formed. An illumination unit that emits diffused light, a holding unit that holds the convex lens on the optical axis of the imaging unit between the illumination unit and the imaging unit, and a mask that is projected onto the imaging surface of the imaging unit. And an image analysis unit that detects the shape of the image and detects the shape of the peripheral edge of the convex lens based on the shape of the image of the mask.
また、前記照明部を前記撮像部の光軸方向に移動させる駆動ステージをさらに備えることが好ましい。 Moreover, it is preferable to further include a drive stage that moves the illumination unit in the optical axis direction of the imaging unit.
本発明のエッジ検出方法およびエッジ検出装置によれば、凸レンズの周縁の形状を簡易な構成で精度良く検出することができる。 According to the edge detection method and the edge detection apparatus of the present invention, it is possible to accurately detect the shape of the periphery of the convex lens with a simple configuration.
本発明の一実施形態のエッジ検出装置およびエッジ検出方法について説明する。
まず、本実施形態のエッジ検出装置1の構成について説明する。図1は、エッジ検出装置1を示す斜視図である。図2は、エッジ検出装置1の光路図である。図3は、エッジ検出装置1のブロック図である。
An edge detection apparatus and an edge detection method according to an embodiment of the present invention will be described.
First, the configuration of the
エッジ検出装置1は、凸レンズ100の周縁の形状を検出するための装置であり、凸レンズ100を被組立体に取り付ける組立装置(不図示)に組み込まれて使用される。図1に示すように、エッジ検出装置1は、撮像部2と、照明部7と、保持部15と、画像解析部16とを備える。
撮像部2は、凸レンズ100を撮像するためのものであり、撮像光学系3と、撮像素子4と、信号処理部5と、画像記憶部6とを備える。
The
The
図2に示すように、撮像光学系3は、被写体となる凸レンズ100の像を撮像素子4の撮像面4aに投影させるための光学系であり、たとえばテレセントリックレンズと絞りとを有している。
撮像素子4は、光が入射することによって電荷が蓄積される複数の電荷結合素子(CCD: Charge Coupled Device)を有するエリアイメージセンサである。
信号処理部5は、撮像素子4の各CCDに蓄積された電荷に基づいて画像データを生成するものである。信号処理部5は、撮像素子4に蓄積された電荷を読み出すとともに増幅し、各CCDに蓄積された電荷の量に応じた明度情報を算出し、図示しない画像エンコーダによって画像データを構成して画像記憶部6へ出力するようになっている。本実施形態では、画像データはモノクロあるいはグレースケールのデータとしてエンコードされる。
As shown in FIG. 2, the imaging
The
The
画像記憶部6は、揮発メモリや書き換え可能な不揮発メモリ、あるいは磁気ディスク装置などによって構成されており、信号処理部5から出力された画像データを記憶するようになっている。画像記憶部6は、図3に示すように後述する画像解析部16に電気的に接続されており、記憶された画像データを、画像解析部16によって読み出すことができるようになっている。
The
図1および図2に示すように、照明部7は、拡散照明光源8と、マスク11と、駆動ステージ12とを有する。
拡散照明光源8は、白熱電球や蛍光灯、あるいはLEDなどからなる光源9と、表面をフロスト加工したガラス板や乳白色の樹脂板などからなる拡散板10とを有する。
As shown in FIGS. 1 and 2, the
The diffuse
マスク11は、遮光性を有する板状部材であり、その表面には出射開口11aが形成されている。出射開口11aの形状は、凸レンズ100の周縁の形状と異なる形状であることが好ましく、たとえば凸レンズ100の周縁が円形に形成されている場合には、出射開口11aの形状は、正方形や多角形などとすることができる。
照明部7は、マスク11の出射開口11aを通じて撮像部2へ向けて拡散光を発するようにその向きが設定されている。また、照明部7は、マスク11の板厚方向が撮像部2の光軸Oと平行となるように配置されており、マスク11に形成された出射開口11aの略中央を撮像部2の光軸Oが通るように位置決めされている。
The
The direction of the
図1および図3に示すように、駆動ステージ12は、照明部7を撮像部2の光軸O方向に移動させるものである。駆動ステージ12は、照明部7を光軸O方向に進退移動させるためのモータ13と、光軸O方向における照明部7の位置を検出するためのリニアエンコーダ14とを有している。駆動ステージ12のモータ13およびリニアエンコーダ14は、後述する画像解析部16と電気的に接続されている。駆動ステージ12は、後述する画像解析部16からの駆動信号に基づいてモータ13が駆動されることにより光軸O方向に進退可能である。また、リニアエンコーダ14が発する位置信号が画像解析部16に入力されることにより、その位置を画像解析部16が検出できるようになっている。なお、駆動ステージ12は、リニアエンコーダ14によって位置信号を出力できる範囲内で自在に進退できるようになっている。駆動ステージ12は、撮像部2から離れる方向に向かって移動したときにリニアエンコーダ14の検出範囲の限界に達したら、それ以上離れる方向へは移動できず。この位置が照明部7の制限位置となっている。
As shown in FIGS. 1 and 3, the
図1に示すように、保持部15は、照明部7と撮像部2との間に配置されており、凸レンズ100を撮像光学系3の被写界深度内において保持するためのメカチャック15a,15bを有する。メカチャック15a,15bは、凸レンズ100の周縁において対向する二箇所に爪を接触させて凸レンズ100を把持し、凸レンズ100の光軸が撮像部2の光軸Oと平行となるように凸レンズ100の向きを定めて凸レンズ100を保持するようになっている。本実施形態では、保持部15は、図示しない保持部制御部によって、保持部制御部が規定する座標系に従ってその位置および動作が制御されている。これにより、保持部15は、エッジ検出の対象となる凸レンズ100を図示しないレンズ置き場から1つ取り出し、撮像部2の光軸O上に保持するようになっている。また、保持部15は、凸レンズ100に対するエッジ検出が終了したら、エッジ検出の結果に基づいて凸レンズ100を被組立体に組み付けるようになっている。
As shown in FIG. 1, the holding
画像解析部16は、画像記憶部6に記憶された画像データを読み出し、画像データにおいて明度が不連続に変化している部分を境界として特定する。さらに、画像解析部16は、画像データにおいて境界が凸レンズ100の周縁の形状と同形状となっている部分を凸レンズ100の周縁(エッジ)として検出する。たとえば凸レンズ100の周縁が円形となっている場合には画像解析部16は境界のうち円形の部分を凸レンズ100の周縁として認識する。
さらに、画像解析部16は、画像データにおける境界のうち円形の部分を凸レンズ100の周縁として認識したあと、この円の中心位置を検出し、凸レンズ100の光軸として認識する。
The
Further, the
画像解析部16には、精度良くエッジ検出をするために必要な最低限のコントラストを示す閾値C0が予め記憶されている。画像解析部16は、画像データにおける凸レンズ100の内側と外側とのそれぞれの明度からコントラストを算出して閾値C0と比較し、算出されたコントラストが閾値C0以上であれば有効データであると判定する。また、コントラストが閾値C0以下であれば、無効データであると判定し、上述の駆動ステージ12へ駆動信号を出力して駆動ステージ12を移動させることができるようになっている。さらに、画像解析部16は、駆動ステージ12のリニアエンコーダ14が発する位置信号が入力され、位置信号に基づいて、駆動ステージ12の初期位置からの移動量を検出するようになっている。
The
次に、エッジ検出装置1の動作について、画像解析部16における制御動作を中心に詳述する。図4は、エッジ検出装置1を用いた本発明のエッジ検出方法を説明するためのフローチャートである。図5ないし図7は、エッジ検出装置1の使用時における取得画像の一例を示す模式図である。図8は、エッジ検出装置1の動作を説明するための図である。
Next, the operation of the
まず、図1に示すエッジ検出装置1を立ち上げると、撮像部2、照明部7、保持部15、および画像解析部16に駆動電力が供給される。すると、照明部7の光源9(図2参照)は発光し、マスク11の出射開口11aを通じて撮像部2へ向けて拡散光が発せられる(図4に示すステップS101)。
ステップS101が終了したら、ステップS102へ進む。
First, when the
When step S101 ends, the process proceeds to step S102.
ステップS102は、凸レンズ100をエッジ検出装置1にセットし、凸レンズ100および照明部7を初期位置に位置決めするステップである。
ステップS102では、図1に示す保持部15のメカチャック15a,15bにより、出射開口11aと撮像部2との間に凸レンズ100が配置される。保持部15は、撮像部2の光軸O方向における凸レンズ100の位置を調整し、撮像光学系3の被写界深度内で凸レンズ100を保持する。
また、駆動ステージ12は、凸レンズ100の設計上の焦点位置に照明部7の拡散板10が位置するように照明部7を移動させる。拡散板10が焦点位置に到達したら、位置信号が0(初期位置)となるようにリニアエンコーダ14(図3参照)をリセットする。
これでステップS102は終了し、ステップS103へ進む。
Step S102 is a step in which the
In step S102, the
Further, the
Step S102 is ended now and it progresses to Step S103.
ステップS103は、マスク11の像を撮像面4aに投影させ、マスク11の像を撮像するステップである。
ステップS103では、撮像部2が凸レンズ100を撮像し、画像データが画像記憶部6に記憶される。このとき、撮像素子4の撮像面4aに投影される像は、図2に示すように、出射開口11aから出射された拡散光が凸レンズ100を透過して撮像部2へ入射した第一拡散光L1と、出射開口11aから出射された拡散光が凸レンズ100の外部を通って撮像部2へ入射した第二拡散光L2とによって形成される像である。
Step S103 is a step of projecting the image of the
In step S <b> 103, the
撮像面4aに投影される像の形状は、凸レンズ100と照明部7との距離によって変化する。すなわち、照明部7と凸レンズ100との距離が遠くなるにしたがって、撮像面4aに投影される像においてはマスク11の出射開口11aの輪郭形状が漸次小さくなる。たとえば、図5に示すように、凸レンズ100の周縁の内側に出射開口11aの輪郭形状がある像において、出射開口11aの輪郭の内側は第一拡散光L1による明部BR1であり、凸レンズ100の周縁より外側は第二拡散光L2による明部BR2である。また、凸レンズ100の周縁の内側且つ出射開口11aの輪郭の外側はマスク11による暗部DRである。このように、凸レンズ100の周縁の内側に出射開口11aの輪郭形状が写った像は、撮像面4aにマスク11の像が投影された像である。
The shape of the image projected on the
図6に示すように、凸レンズ100と照明部7とが極端に近い場合には、出射開口11aの輪郭が凸レンズ100の周縁よりも外側に位置するので、上記暗部DRはなく、略一様に明るい像となる。また、図7に示すように、凸レンズ100と照明部7とが極端に離れている場合には、第一拡散光L1および第二拡散光L2による明部BR2が暗く、明部BR2と暗部DRとのコントラストが低い。また、出射開口11aの輪郭の一部が凸レンズ100の周縁と重なる場合には、凸レンズ100の周縁が連続した円形とならない。これらの画像は、何れもエッジ検出が好適に行えない画像である。
As shown in FIG. 6, when the
なお、エッジ検出装置1において精度良くエッジ検出を行うためには、明部BR2と暗部DRとのコントラストが高く、且つ、凸レンズ100の周縁の像が第一拡散光L1による明部BR1によって分断されないような位置において撮像された画像データを用いることが好ましい。
これでステップS103は終了し、ステップS104へ進む。
In order to accurately detect the edge in the
Step S103 is ended now and it progresses to Step S104.
ステップS104は、画像データにおける明部BR2と暗部DRとのコントラストを算出するステップである。
ステップS104では、画像解析部16は、画像記憶部6に記憶された画像データを読み出し、明部BR2と暗部DRとのコントラストの値C1を算出する。明部BR2と暗部DRとのコントラストの算出手法としては、たとえば、明部BR2と暗部DRとにおいてそれぞれ複数点における明度を検出し、明部BR2の平均明度と暗部DRの平均明度とを用いて算出する手法を採用することができる。
これでステップS104は終了し、ステップS105へ進む。
Step S104 is a step of calculating the contrast between the bright part BR2 and the dark part DR in the image data.
In step S104, the
Step S104 is ended now and it progresses to Step S105.
ステップS105は、エッジ検出のために必要なコントラストが得られているか否かを判定するステップである。
ステップS105では、明部BR2と暗部DRとのコントラストの値C1と閾値C0とを比較する。コントラストの値C1が閾値C0以下であった場合には、当該画像データはエッジ検出をするのに不適切な無効データであると画像解析部16が判定してステップS106へ進む。また、明部BR2と暗部DRとのコントラストの値C1が閾値C0以上であった場合には、当該画像データはエッジ検出をするのに適切なコントラストを有する有効データであると画像解析部16が判定してステップS108へ進む。
Step S105 is a step of determining whether or not the contrast necessary for edge detection is obtained.
In step S105, the contrast value C1 between the bright part BR2 and the dark part DR is compared with the threshold value C0. If the contrast value C1 is equal to or less than the threshold value C0, the
ステップS106は、現在の照明部7の位置と、照明部7の制限位置とを比較して処理を分岐するステップである。
ステップS106では、駆動ステージ12のリニアエンコーダ14から出力された位置信号に基づいて、現在の照明部7の位置を検出する。現在の照明部7の位置が制限位置よりも初期位置側であればステップS107へ進み、現在の照明部7の位置が制限位置であればエッジ検出不能であることを図示しない外部機器等へ出力(ステップS109)して処理を終了する。
Step S <b> 106 is a step for branching the process by comparing the current position of the
In step S106, based on the position signal output from the
ステップS107は、光源9と凸レンズ100との距離を調整するステップである。
ステップS107では、画像解析部16は、駆動ステージ12に対して駆動信号を出力し、図8に示すように、照明部7が凸レンズ100から遠ざかる方向に、照明部7を一定量だけ移動させる。これにより、照明部7の光源9と凸レンズ100とは初期位置における距離よりも離れた距離となる。
これでステップS107は終了し、ステップS103へ進む。
Step S <b> 107 is a step of adjusting the distance between the
In step S107, the
Step S107 is ended now and it progresses to Step S103.
本実施形態では、コントラストが閾値C0を超える画像データが得られるまでステップS103からステップS107までのステップを繰り返す。ステップS103からステップS107までを繰り返すことにより、照明部7は漸次凸レンズ100から遠ざかり、撮像部2によって撮像される像が変化する。このとき、上述のステップS105において、画像解析部16は、コントラストが閾値C0を超える画像データが得られた場合にはステップS108へ進む。
In the present embodiment, the steps from Step S103 to Step S107 are repeated until image data whose contrast exceeds the threshold value C0 is obtained. By repeating steps S103 to S107, the
ステップS108は、凸レンズ100のエッジ検出を行うステップである。
ステップS108では、画像解析部16は、画像データにおける第二拡散光L2による明部BR2とマスク11の像による暗部DRとの境界の形状に基づいて、凸レンズ100の周縁の形状を検出する。
これでステップS108は終了し、一連の処理は終了する。
Step S <b> 108 is a step of performing edge detection of the
In step S <b> 108, the
Step S108 is complete | finished now and a series of processes are complete | finished.
ステップS108が終了したあとで、本実施形態のエッジ検出装置1は、エッジ検出が行われた画像データに基づいて、画像解析部16によって凸レンズ100の中心位置の認識を行う。画像解析部16は、認識した中心位置を外部の機器等へ出力する。たとえば、画像解析部16は、凸レンズ100の中心位置を、保持部15の座標系内における位置として、保持部15の動作を制御する保持部制御部へと出力する。これにより、保持部15は、凸レンズ100の光軸を被組立体に対して位置決めし、凸レンズ100を被組立体に取り付けることができる。
After step S108 ends, the
以上説明したように、本実施形態のエッジ検出方法およびエッジ検出装置1によれば、第二拡散光L2による明部BR2とマスク11の像による暗部DRとによって、凸レンズ100の周縁を境界とする明暗が生じるので、凸レンズ100の周縁の形状を簡易な構成で精度良く検出することができる。
また、拡散照明光源8から発せられる拡散光を用いているので、照明部7と撮像部2との光軸合わせを厳密に行う必要がない。このため、エッジ検出装置1の構成を簡易なものとすることができる。
As described above, according to the edge detection method and the
Further, since the diffused light emitted from the diffuse
次に、本実施形態のエッジ検出装置1およびエッジ検出方法の変形例について説明する。
図1に示すように、本変形例のエッジ検出装置1Aは、画像解析部16に代えて画像解析部16Aを有する点のみ異なっている。本変形例の画像解析部16Aは、上述のエッジ検出装置1の画像解析部16とは異なる動作をするように構成されている。以下、本変形例のエッジ検出装置1Aについて、上述のエッジ検出装置1とは異なる点を中心に、図9を参照して説明する。図9は、本変形例のエッジ検出装置1Aの使用時の動作を説明するためのフローチャートである。
Next, a modified example of the
As shown in FIG. 1, the
本変形例のエッジ検出装置1Aは、明部BR2と暗部DRとのコントラストが最大となったときに撮像された画像データにおける明部BR2と暗部DRとの境界の形状に基づいて、凸レンズ100の周縁の形状を検出することを特徴としている。
The
エッジ検出装置1Aを立ち上げると、撮像部2、照明部7、保持部15、および画像解析部16Aに駆動電力が供給される(図1参照)。すると、照明部7の光源9は発光し、マスク11の出射開口11aを通じて撮像部2へ向けて拡散光が発せられる(図9に示すステップS201)。
ステップS201が終了したら、ステップS202へ進む。
When the
When step S201 ends, the process proceeds to step S202.
ステップS202は、凸レンズ100をエッジ検出装置1Aにセットし、凸レンズ100を初期位置に位置決めするステップである。
ステップS202では、上述のステップS102と同様に照明部7を移動させ、拡散板10が凸レンズ100の焦点位置に到達したら、位置信号が0(初期位置)となるようにリニアエンコーダ14をリセットする。さらに、明部BR2と暗部DRとのコントラストの比較対照となる記憶値C2に0を代入する。これにより、明部BR2と暗部DRとのコントラストがない状態が初期の記憶値C2となる。
これでステップS202は終了し、ステップS203へ進む。
Step S202 is a step in which the
In step S202, the
Step S202 is ended now and it progresses to Step S203.
ステップS203は、マスク11の像を撮像面4aに投影させ、マスク11の像を撮像するステップである。ステップS203では、上述のステップS103と同様に撮像部2は凸レンズ100を撮像し、画像データを画像記憶部6に記憶させる。
これでステップS203は終了し、ステップS204へ進む。
Step S203 is a step of projecting the image of the
Step S203 is ended now and it progresses to Step S204.
ステップS204は、画像データに基づいてエッジ検出を行うステップである。
ステップS204では、画像解析部16Aは画像記憶部6から画像データを読み出し、画像データに基づいてエッジ検出を実行する。エッジ検出が成功した場合には、ステップS204は終了し、ステップS205へ進む。
また、明部BR2と暗部DRとのコントラストが極端に低い場合などには明部BR2と暗部DRとの境界が不明瞭となる場合がある。このような場合などにおいて、画像解析部16Aがエッジ検出に失敗したときには、ステップS204を終了してステップS208へ進む。
Step S204 is a step of performing edge detection based on the image data.
In step S204, the
In addition, when the contrast between the bright part BR2 and the dark part DR is extremely low, the boundary between the bright part BR2 and the dark part DR may be unclear. In such a case, when the
ステップS205は、画像データにおける明部BR2と暗部DRとのコントラストを算出するステップである。
ステップS205では、画像解析部16Aは、画像データにおける明部BR2と暗部DRとのコントラストを算出し、コントラストの値C1を一時記憶する。
これでステップS205は終了し、ステップS206へ進む。
Step S205 is a step of calculating the contrast between the bright part BR2 and the dark part DR in the image data.
In step S205, the
Step S205 is ended now and it progresses to Step S206.
ステップS206は、画像解析部16Aにおいて一時記憶されたコントラストの値C1と上述の記憶値C2とを比較して処理を分岐させるステップである。
ステップS206では、コントラストの値C1が記憶値C2よりも大きい場合には、ステップS206は終了しステップS207へ進む。コントラストの値が記憶値C2以下である場合には、ステップS206は終了しステップS208へ進む。
Step S206 is a step for branching the process by comparing the contrast value C1 temporarily stored in the
If the contrast value C1 is greater than the stored value C2 in step S206, step S206 ends and the process proceeds to step S207. If the contrast value is less than or equal to the stored value C2, step S206 ends and proceeds to step S208.
ステップS207は、記憶値C2と記憶位置Sとを更新するステップである。
ステップS207では、画像解析部16Aは、ステップS205で一時記憶されたコントラストの値C1を記憶値C2に代入し、リニアエンコーダ14から出力された位置信号に基づいて照明部7の位置を記憶位置Sに代入する。
これでステップS207は終了し、ステップS208へ進む。
Step S207 is a step of updating the stored value C2 and the storage position S.
In step S207, the
Step S207 is ended now and it progresses to Step S208.
ステップS208は、光源9と凸レンズ100との距離を調整するステップである。
ステップでは、画像解析部16Aは、駆動ステージ12に対して駆動信号を出力し、照明部7が凸レンズ100から離れる方向へ照明部7を一定量だけ移動させる。これにより、照明部7の光源9と凸レンズ100とは初期位置における距離よりも離れた距離となる。
これでステップS208は終了し、ステップS209へ進む。
Step S208 is a step of adjusting the distance between the
In step, the
Step S208 is ended now and it progresses to Step S209.
ステップS209は、照明部7の位置と制限位置とを比較して処理を分岐させるステップである。
ステップS209では、駆動ステージ12のリニアエンコーダ14から出力された位置信号と、画像解析部16Aに記憶された制限位置とを比較し、照明部7の位置が制限位置よりも初期位置側である場合にはステップS209は終了してステップS203へ進む。また、照明部7の位置が制限位置であるときにはステップS209は終了してステップS210へ進む。
Step S209 is a step in which the process is branched by comparing the position of the
In step S209, the position signal output from the
ステップS210はコントラストの記憶値C2が0であるか否かによって処理を分岐させるステップである。
ステップS210では、記憶値C2が0以外の値である場合にはステップS210は終了してステップS211へ進む。また、ステップS210では、記憶値C2が0である場合には、ステップS210は終了してステップS212へ進む。
Step S210 is a step in which the process is branched depending on whether or not the stored value C2 of contrast is zero.
In step S210, if the stored value C2 is a value other than 0, step S210 ends and the process proceeds to step S211. In step S210, if the stored value C2 is 0, step S210 ends and the process proceeds to step S212.
ステップS211は、明部BR2と暗部DRとのコントラストが最も高い照明部7の位置を最適位置Pとして決定するステップである。
ステップS211では、ステップS203からステップS209までの繰り返しが終了したあとに記憶されている記憶位置Sを最適位置Pとする。これにより、コントラストが最も高い条件で撮像することができたときの照明部7の位置を最適位置Pとして決定することができる。画像解析部16Aは、最適位置Pを決定した後、最適位置Pを一時記憶する。
これでステップS211は終了し、一連の工程を終了する。
Step S211 is a step of determining the position of the
In step S211, the storage position S stored after the repetition from step S203 to step S209 is set as the optimum position P. Thereby, the position of the
This ends step S211 and ends a series of steps.
ステップS212は、コントラストが0であり明部BR2と暗部DRとの境界の判定ができないことによってエッジ検出ができないことをエッジ検出装置1の操作者あるいはエッジ検出装置1が組み込まれた組立装置の図示しない制御部などへ通知し、エラー処理を実行させるためのステップである。
ステップS212においてエッジ検出ができないことを通知したらステップS212は終了し、一連の工程を終了する。
In step S212, the operator of the
If it is notified in step S212 that edge detection cannot be performed, step S212 is terminated, and a series of steps is terminated.
本変形例では、照明部7の初期位置から制限位置までの全範囲に亘って撮像部2は1枚ずつ画像データを取得し、明部BR2と暗部DRとのコントラストが最も高い最適位置Pを画像解析部16Aが一時記憶している。画像解析部16Aは、全ての画像データが取得された後、最適位置Pにおいて取得された画像データを読み出してこの画像データに基づいて中心位置を認識する。
In this modification, the
本変形例のエッジ検出装置1Aおよびエッジ検出方法によれば、明部BR2と暗部DRとのコントラストが最大となる位置関係で撮像された画像データを用いてエッジ検出を行うので、精度良くエッジ検出をすることができる。
なお、本変形例では、コントラストが最大となる位置を画像解析部16Aが記憶しているので、コントラストが最大となる位置に照明部7を容易に位置決めすることができる。これにより、同様の構造を有する凸レンズ100に対してエッジ検出をする場合に、照明部7の位置を最適位置Pに直ちに移動させて複数の凸レンズ100のエッジ検出を効率よく行うこともできる。
According to the
In this modification, the
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
たとえば、撮像素子4としてはCMOSイメージセンサを採用してもよい。
また、撮像素子4としてはリニアイメージセンサを採用しても構わない。
また、本発明のエッジ検出方法は、上述の実施形態で説明したエッジ検出装置1、1Aのみに適用されるものではない。
As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
For example, a CMOS image sensor may be employed as the
Further, a linear image sensor may be adopted as the
Further, the edge detection method of the present invention is not applied only to the
1、1A エッジ検出装置
2 撮像部
4a 撮像面
7 照明部
11 マスク
11a 出射開口
12 駆動ステージ
15 保持部
16、16A 画像解析部
DR 暗部
L1 第一拡散光
L2 第二拡散光
100 凸レンズ
BR1、BR2 明部
DESCRIPTION OF
Claims (5)
出射開口が形成されたマスクの前記出射開口を通じて前記撮像部へ向けて拡散光を発し、
前記出射開口と前記撮像部との間の前記撮像部の光学系の被写界深度内に前記凸レンズを配置し、
前記撮像部の撮像面に、前記拡散光が前記凸レンズを透過して前記撮像部へ入射した第一拡散光と、前記拡散光が前記凸レンズの外部を通って前記撮像部へ入射した第二拡散光とによって前記マスクの像を投影させ、
前記第二拡散光による明部と前記マスクの像による暗部との境界の形状に基づいて前記凸レンズの周縁の形状を検出する
ことを特徴とするエッジ検出方法。 An edge detection method for detecting the shape of the periphery of the convex lens using an imaging unit that images the convex lens,
The diffused light is emitted toward the imaging unit through the exit aperture of the mask in which the exit aperture is formed,
Placing the convex lens within the depth of field of the optical system of the imaging unit between the exit aperture and the imaging unit;
The first diffused light that has entered the imaging unit through which the diffused light has passed through the convex lens on the imaging surface of the imaging unit, and the second diffused light that has entered the imaging unit through the outside of the convex lens. Project the image of the mask with light,
An edge detection method, comprising: detecting a shape of a peripheral edge of the convex lens based on a shape of a boundary between a bright portion by the second diffused light and a dark portion by an image of the mask.
(a)前記マスクの像を前記撮像面に投影させる。
(b)前記コントラストを算出する。
(c)前記光源と前記凸レンズとの距離を前記(a)における距離とは異なる距離に変化させる。 In the step of adjusting the distance between the light source and the convex lens, the following (a), (b), and (c) are repeated in this order, and the convex lens is determined based on the shape of the boundary at the distance at which the contrast is maximum. The edge detection method according to claim 2, wherein the shape of the periphery is detected.
(A) The image of the mask is projected onto the imaging surface.
(B) The contrast is calculated.
(C) The distance between the light source and the convex lens is changed to a distance different from the distance in (a).
前記凸レンズを撮像する撮像部と、
出射開口が形成されたマスクを有し前記出射開口を通じて前記撮像部へ向けて拡散光を発する照明部と、
前記照明部と前記撮像部との間で前記撮像部の光軸上に前記凸レンズを保持する保持部と、
前記撮像部の撮像面に投影した前記マスクの像の形状を検出し、前記マスクの像の形状に基づいて前記凸レンズの周縁の形状を検出する画像解析部と、
を備えるエッジ検出装置。 An edge detection device for detecting the shape of the periphery of a convex lens,
An imaging unit for imaging the convex lens;
An illumination unit that has a mask having an exit aperture and emits diffused light toward the imaging unit through the exit aperture;
A holding unit that holds the convex lens on the optical axis of the imaging unit between the illumination unit and the imaging unit;
An image analysis unit that detects the shape of the image of the mask projected on the imaging surface of the imaging unit and detects the shape of the periphery of the convex lens based on the shape of the image of the mask;
An edge detection device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010251968A JP5566266B2 (en) | 2010-11-10 | 2010-11-10 | Edge detection method and edge detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010251968A JP5566266B2 (en) | 2010-11-10 | 2010-11-10 | Edge detection method and edge detection apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012103110A true JP2012103110A (en) | 2012-05-31 |
JP5566266B2 JP5566266B2 (en) | 2014-08-06 |
Family
ID=46393689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010251968A Expired - Fee Related JP5566266B2 (en) | 2010-11-10 | 2010-11-10 | Edge detection method and edge detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5566266B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08213436A (en) * | 1995-02-01 | 1996-08-20 | Tokyo Electron Ltd | Optical height detector and prober |
JPH09269276A (en) * | 1996-04-01 | 1997-10-14 | Asahi Optical Co Ltd | Device and method for inspecting optical members |
JPH09304223A (en) * | 1996-05-10 | 1997-11-28 | Asahi Optical Co Ltd | Inspection apparatus for optical member |
JPH10197453A (en) * | 1997-01-16 | 1998-07-31 | Dainippon Screen Mfg Co Ltd | Device and method for inspecting optical unevenness |
JP2001289618A (en) * | 2000-04-05 | 2001-10-19 | Seiko Epson Corp | Method and device for recognizing shape of peripheral edge of plastic lens |
JP2005009865A (en) * | 2003-06-16 | 2005-01-13 | Seiko Epson Corp | Shape recognition device for optical member |
JP2005331272A (en) * | 2004-05-18 | 2005-12-02 | Pentax Corp | Optical member inspection device |
JP2006023199A (en) * | 2004-07-08 | 2006-01-26 | Yamatake Corp | Edge detection method and detector |
-
2010
- 2010-11-10 JP JP2010251968A patent/JP5566266B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08213436A (en) * | 1995-02-01 | 1996-08-20 | Tokyo Electron Ltd | Optical height detector and prober |
JPH09269276A (en) * | 1996-04-01 | 1997-10-14 | Asahi Optical Co Ltd | Device and method for inspecting optical members |
JPH09304223A (en) * | 1996-05-10 | 1997-11-28 | Asahi Optical Co Ltd | Inspection apparatus for optical member |
JPH10197453A (en) * | 1997-01-16 | 1998-07-31 | Dainippon Screen Mfg Co Ltd | Device and method for inspecting optical unevenness |
JP2001289618A (en) * | 2000-04-05 | 2001-10-19 | Seiko Epson Corp | Method and device for recognizing shape of peripheral edge of plastic lens |
JP2005009865A (en) * | 2003-06-16 | 2005-01-13 | Seiko Epson Corp | Shape recognition device for optical member |
JP2005331272A (en) * | 2004-05-18 | 2005-12-02 | Pentax Corp | Optical member inspection device |
JP2006023199A (en) * | 2004-07-08 | 2006-01-26 | Yamatake Corp | Edge detection method and detector |
Also Published As
Publication number | Publication date |
---|---|
JP5566266B2 (en) | 2014-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108291854B (en) | Optical inspection device, lens, and optical inspection method | |
EP3009886B1 (en) | Handling system | |
KR20070080591A (en) | Apparatus and method for detecting defects in wafer using line sensor camera | |
JP6522181B2 (en) | Image measuring instrument | |
KR102537558B1 (en) | Method and apparatus for inspecting defects on a transparent substrate | |
CN105467554A (en) | Autofocus apparatus and autofocus method | |
WO2019159427A1 (en) | Camera module adjustment device and camera module adjustment method | |
CN107782732B (en) | Automatic focusing system, method and image detection instrument | |
KR20170133113A (en) | Method and apparatus of detecting particles on upper surface of glass, and method of irradiating incident light | |
JP6290651B2 (en) | Image measuring instrument | |
KR20150118073A (en) | System for measuring vignetting caused by camera lenz | |
JP2008026255A (en) | Flaw inspection system, and flaw inspection method | |
CN112912794A (en) | Lighting device | |
JP5566266B2 (en) | Edge detection method and edge detection apparatus | |
KR101447857B1 (en) | Particle inspectiing apparatus for lens module | |
KR101333161B1 (en) | Apparatus of processing image based on confocal and method thereof | |
KR102250085B1 (en) | Optical inspection apparatus | |
JP4894365B2 (en) | Surrounding obstacle detection device | |
JP6845562B2 (en) | Lighting system | |
KR100946378B1 (en) | Moire measurement apparatus using cylinder lens | |
WO2020059674A3 (en) | Method for measuring distance of image displayed on television camera | |
JP2008139126A (en) | Flaw detector and flaw detection method | |
JP5019507B2 (en) | Laser processing apparatus and position detection method of workpiece | |
JP2014089257A (en) | Lens tilt detection device, lens tilt detection method, and camera module assembly method using lens tilt detection device | |
US11940610B2 (en) | Autofocus system and autofocus method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140325 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140430 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140617 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |