JP2012103110A - Edge detection method and edge detector - Google Patents

Edge detection method and edge detector Download PDF

Info

Publication number
JP2012103110A
JP2012103110A JP2010251968A JP2010251968A JP2012103110A JP 2012103110 A JP2012103110 A JP 2012103110A JP 2010251968 A JP2010251968 A JP 2010251968A JP 2010251968 A JP2010251968 A JP 2010251968A JP 2012103110 A JP2012103110 A JP 2012103110A
Authority
JP
Japan
Prior art keywords
convex lens
image
edge detection
unit
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010251968A
Other languages
Japanese (ja)
Other versions
JP5566266B2 (en
Inventor
Akio Otsubo
明央 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010251968A priority Critical patent/JP5566266B2/en
Publication of JP2012103110A publication Critical patent/JP2012103110A/en
Application granted granted Critical
Publication of JP5566266B2 publication Critical patent/JP5566266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Of Optical Devices Or Fibers (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an edge detection method and an edge detector capable of accurately detecting a peripheral edge shape of a convex lens by a simple configuration.SOLUTION: An edge detection method for detecting a peripheral edge shape of a convex lens 100 using an image part 2 for imaging the convex lens 100 comprises: emitting diffusion light to the image part 2 through an emission opening 11a of a mask 11 in which the emission opening 11a is formed; disposing the convex lens 100 in the depth of field of an imaging optical system 3 between the emission opening 11a and the image part 2; projecting an image of the mask 11 on an imaging surface 4a of the image part 2 by first diffusion light L1 being diffusion light incident on the image part 2 through the convex lens 100, and second diffusion light L2 being diffusion light incident on the image part 2 through the outside of the convex lens 100; and detecting the peripheral edge shape of the convex lens 100 based on a boundary shape between a bright part by the second diffusion light L2, and a dark part by the image of the mask 11.

Description

本発明は、レンズの周縁の形状を検出する方法およびその装置に関する。   The present invention relates to a method and apparatus for detecting the shape of the periphery of a lens.

従来、光透過性が高い透明フィルムやガラスなど(以下、「透明体」という。)に対して、透明体の周縁(エッジ)の位置や形状などを検出するための装置が知られている。
たとえば、特許文献1には、透明体のエッジ位置を検出するエッジ検出装置が記載されている。特許文献1に記載のエッジ検出装置は、投光レンズにより平行光とされた単色光を測定光として用い、この測定光をラインセンサへ向けて照射するようになっている。このエッジ検出装置の使用時には、位置を検出する対象となる透明体を投光レンズとラインセンサとの間に配置し、透明体の周縁における測定光のフレネル回折の光量分布をラインセンサによって検出するようになっている。
2. Description of the Related Art Conventionally, there are known devices for detecting the position and shape of the peripheral edge (edge) of a transparent body, such as a transparent film or glass having high light transmittance (hereinafter referred to as “transparent body”).
For example, Patent Document 1 describes an edge detection device that detects the edge position of a transparent body. The edge detection apparatus described in Patent Document 1 uses monochromatic light that has been converted into parallel light by a light projection lens as measurement light, and irradiates the measurement light toward a line sensor. When using this edge detection device, a transparent body whose position is to be detected is placed between the light projection lens and the line sensor, and the light distribution of the Fresnel diffraction of the measurement light at the periphery of the transparent body is detected by the line sensor. It is like that.

特開2009−85679号公報JP 2009-85679 A

しかしながら、特許文献1に記載のエッジ検出装置では、透明体の周縁に測定光を照射することによって生じるフレネル回折の光量分布を検出しているので、ラインセンサに対して垂直に入射する単色光を測定光として用いる必要があった。このため、測定光を発する光源の構成が複雑となるおそれがあり、また、光源とラインセンサとの位置調整が複雑となるおそれもある。   However, since the edge detection device described in Patent Document 1 detects the light amount distribution of Fresnel diffraction generated by irradiating the periphery of the transparent body with measurement light, the monochromatic light incident perpendicularly to the line sensor is detected. It was necessary to use it as measurement light. Therefore, the configuration of the light source that emits the measurement light may be complicated, and the position adjustment between the light source and the line sensor may be complicated.

本発明は、上述した事情に鑑みてなされたものであって、その目的は、凸レンズの周縁の形状を簡易な構成で精度良く検出することができるエッジ検出方法およびエッジ検出装置を提供することである。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an edge detection method and an edge detection device that can accurately detect the shape of the peripheral edge of a convex lens with a simple configuration. is there.

上記課題を解決するために、この発明は以下の手段を提案している。
本発明のエッジ検出方法は、凸レンズを撮像する撮像部を用いて前記凸レンズの周縁の形状を検出させるためのエッジ検出方法であって、出射開口が形成されたマスクの前記出射開口を通じて前記撮像部へ向けて拡散光を発し、前記出射開口と前記撮像部との間の前記撮像部の光学系の被写界深度内に前記凸レンズを配置し、前記撮像部の撮像面に、前記拡散光が前記凸レンズを透過して前記撮像部へ入射した第一拡散光と、前記拡散光が前記凸レンズの外部を通って前記撮像部へ入射した第二拡散光とによって前記マスクの像を投影させ、前記第二拡散光による明部と前記マスクの像による暗部との境界の形状に基づいて前記凸レンズの周縁の形状を検出することを特徴とするエッジ検出方法である。
In order to solve the above problems, the present invention proposes the following means.
The edge detection method of the present invention is an edge detection method for detecting the shape of the peripheral edge of the convex lens using an imaging unit that images a convex lens, and the imaging unit passes through the emission aperture of a mask in which an emission aperture is formed. The convex lens is disposed within the depth of field of the optical system of the imaging unit between the exit aperture and the imaging unit, and the diffused light is projected on the imaging surface of the imaging unit. The image of the mask is projected by the first diffused light that has passed through the convex lens and entered the imaging unit, and the second diffused light that has entered the imaging unit through the outside of the convex lens, and The edge detection method is characterized in that the shape of the peripheral edge of the convex lens is detected based on the shape of the boundary between the bright part due to the second diffused light and the dark part due to the image of the mask.

また、前記マスクの像を前記撮像面に投影させた後に、前記第二拡散光による明部と前記マスクの像による暗部とのコントラストを算出し、前記コントラストが最大となるように前記拡散光の光源と前記凸レンズとの距離を前記光源を移動させて調整し、前記コントラストが最大となったときに前記境界の形状に基づいて前記凸レンズの周縁の形状を検出することが好ましい。   In addition, after projecting the image of the mask onto the imaging surface, the contrast between the bright part due to the second diffused light and the dark part due to the mask image is calculated, and the diffused light is controlled so that the contrast becomes maximum. It is preferable that the distance between the light source and the convex lens is adjusted by moving the light source, and the shape of the periphery of the convex lens is detected based on the shape of the boundary when the contrast reaches a maximum.

また、前記光源と前記凸レンズとの距離を調整する工程において、以下の(a)、(b)、(c)をこの順に繰り返し、前記コントラストが最大となる距離における前記境界の形状に基づいて前記凸レンズの周縁の形状を検出することが好ましい。
(a)前記マスクの像を前記撮像面に投影させる。
(b)前記コントラストを算出する。
(c)前記光源と前記凸レンズとの距離を前記(a)における距離とは異なる距離に変化させる。
Further, in the step of adjusting the distance between the light source and the convex lens, the following (a), (b), and (c) are repeated in this order, and based on the shape of the boundary at the distance where the contrast is maximum. It is preferable to detect the shape of the periphery of the convex lens.
(A) The image of the mask is projected onto the imaging surface.
(B) The contrast is calculated.
(C) The distance between the light source and the convex lens is changed to a distance different from the distance in (a).

本発明のエッジ検出装置は、凸レンズの周縁の形状を検出するエッジ検出装置であって、前記凸レンズを撮像する撮像部と、出射開口が形成されたマスクを有し前記出射開口を通じて前記撮像部へ向けて拡散光を発する照明部と、前記照明部と前記撮像部との間で前記撮像部の光軸上に前記凸レンズを保持する保持部と、前記撮像部の撮像面に投影した前記マスクの像の形状を検出し、前記マスクの像の形状に基づいて前記凸レンズの周縁の形状を検出する画像解析部と、を備えるエッジ検出装置である。   The edge detection device of the present invention is an edge detection device that detects the shape of the periphery of a convex lens, and includes an imaging unit that images the convex lens and a mask in which an exit aperture is formed. An illumination unit that emits diffused light, a holding unit that holds the convex lens on the optical axis of the imaging unit between the illumination unit and the imaging unit, and a mask that is projected onto the imaging surface of the imaging unit. And an image analysis unit that detects the shape of the image and detects the shape of the peripheral edge of the convex lens based on the shape of the image of the mask.

また、前記照明部を前記撮像部の光軸方向に移動させる駆動ステージをさらに備えることが好ましい。   Moreover, it is preferable to further include a drive stage that moves the illumination unit in the optical axis direction of the imaging unit.

本発明のエッジ検出方法およびエッジ検出装置によれば、凸レンズの周縁の形状を簡易な構成で精度良く検出することができる。   According to the edge detection method and the edge detection apparatus of the present invention, it is possible to accurately detect the shape of the periphery of the convex lens with a simple configuration.

本発明の一実施形態のエッジ検出装置を示す斜視図である。It is a perspective view which shows the edge detection apparatus of one Embodiment of this invention. 同エッジ検出装置の光路図である。It is an optical path figure of the edge detection apparatus. 同エッジ検出装置のブロック図である。It is a block diagram of the edge detection apparatus. 同エッジ検出装置を用いたエッジ検出方法を説明するためのフローチャートである。It is a flowchart for demonstrating the edge detection method using the edge detection apparatus. 同エッジ検出装置の使用時における取得画像の一例を示す模式図である。It is a schematic diagram which shows an example of the acquired image at the time of use of the edge detection apparatus. 同エッジ検出装置の使用時における取得画像の一例を示す模式図である。It is a schematic diagram which shows an example of the acquired image at the time of use of the edge detection apparatus. 同エッジ検出装置の使用時における取得画像の一例を示す模式図である。It is a schematic diagram which shows an example of the acquired image at the time of use of the edge detection apparatus. 同エッジ検出装置の動作を説明するための図である。It is a figure for demonstrating operation | movement of the edge detection apparatus. 同エッジ検出装置および同エッジ検出方法の変形例を説明するためのフローチャートである。It is a flowchart for demonstrating the modification of the edge detection apparatus and the edge detection method.

本発明の一実施形態のエッジ検出装置およびエッジ検出方法について説明する。
まず、本実施形態のエッジ検出装置1の構成について説明する。図1は、エッジ検出装置1を示す斜視図である。図2は、エッジ検出装置1の光路図である。図3は、エッジ検出装置1のブロック図である。
An edge detection apparatus and an edge detection method according to an embodiment of the present invention will be described.
First, the configuration of the edge detection apparatus 1 of the present embodiment will be described. FIG. 1 is a perspective view showing the edge detection apparatus 1. FIG. 2 is an optical path diagram of the edge detection apparatus 1. FIG. 3 is a block diagram of the edge detection apparatus 1.

エッジ検出装置1は、凸レンズ100の周縁の形状を検出するための装置であり、凸レンズ100を被組立体に取り付ける組立装置(不図示)に組み込まれて使用される。図1に示すように、エッジ検出装置1は、撮像部2と、照明部7と、保持部15と、画像解析部16とを備える。
撮像部2は、凸レンズ100を撮像するためのものであり、撮像光学系3と、撮像素子4と、信号処理部5と、画像記憶部6とを備える。
The edge detection device 1 is a device for detecting the shape of the peripheral edge of the convex lens 100, and is used by being incorporated in an assembly device (not shown) for attaching the convex lens 100 to an assembly. As shown in FIG. 1, the edge detection apparatus 1 includes an imaging unit 2, an illumination unit 7, a holding unit 15, and an image analysis unit 16.
The imaging unit 2 is for imaging the convex lens 100, and includes an imaging optical system 3, an imaging element 4, a signal processing unit 5, and an image storage unit 6.

図2に示すように、撮像光学系3は、被写体となる凸レンズ100の像を撮像素子4の撮像面4aに投影させるための光学系であり、たとえばテレセントリックレンズと絞りとを有している。
撮像素子4は、光が入射することによって電荷が蓄積される複数の電荷結合素子(CCD: Charge Coupled Device)を有するエリアイメージセンサである。
信号処理部5は、撮像素子4の各CCDに蓄積された電荷に基づいて画像データを生成するものである。信号処理部5は、撮像素子4に蓄積された電荷を読み出すとともに増幅し、各CCDに蓄積された電荷の量に応じた明度情報を算出し、図示しない画像エンコーダによって画像データを構成して画像記憶部6へ出力するようになっている。本実施形態では、画像データはモノクロあるいはグレースケールのデータとしてエンコードされる。
As shown in FIG. 2, the imaging optical system 3 is an optical system for projecting an image of the convex lens 100 serving as a subject onto the imaging surface 4a of the imaging element 4, and includes, for example, a telecentric lens and a diaphragm.
The image sensor 4 is an area image sensor having a plurality of charge coupled devices (CCDs) that accumulate charges when light enters.
The signal processing unit 5 generates image data based on the charges accumulated in each CCD of the image sensor 4. The signal processing unit 5 reads out and amplifies the charge accumulated in the image sensor 4, calculates brightness information according to the amount of charge accumulated in each CCD, and constructs image data by an image encoder (not shown) to form an image. The data is output to the storage unit 6. In this embodiment, the image data is encoded as monochrome or grayscale data.

画像記憶部6は、揮発メモリや書き換え可能な不揮発メモリ、あるいは磁気ディスク装置などによって構成されており、信号処理部5から出力された画像データを記憶するようになっている。画像記憶部6は、図3に示すように後述する画像解析部16に電気的に接続されており、記憶された画像データを、画像解析部16によって読み出すことができるようになっている。   The image storage unit 6 is configured by a volatile memory, a rewritable nonvolatile memory, a magnetic disk device, or the like, and stores the image data output from the signal processing unit 5. As shown in FIG. 3, the image storage unit 6 is electrically connected to an image analysis unit 16 to be described later, and stored image data can be read out by the image analysis unit 16.

図1および図2に示すように、照明部7は、拡散照明光源8と、マスク11と、駆動ステージ12とを有する。
拡散照明光源8は、白熱電球や蛍光灯、あるいはLEDなどからなる光源9と、表面をフロスト加工したガラス板や乳白色の樹脂板などからなる拡散板10とを有する。
As shown in FIGS. 1 and 2, the illumination unit 7 includes a diffuse illumination light source 8, a mask 11, and a drive stage 12.
The diffuse illumination light source 8 includes a light source 9 made of an incandescent bulb, a fluorescent lamp, or an LED, and a diffuser plate 10 made of a glass plate or milky white resin plate having a frosted surface.

マスク11は、遮光性を有する板状部材であり、その表面には出射開口11aが形成されている。出射開口11aの形状は、凸レンズ100の周縁の形状と異なる形状であることが好ましく、たとえば凸レンズ100の周縁が円形に形成されている場合には、出射開口11aの形状は、正方形や多角形などとすることができる。
照明部7は、マスク11の出射開口11aを通じて撮像部2へ向けて拡散光を発するようにその向きが設定されている。また、照明部7は、マスク11の板厚方向が撮像部2の光軸Oと平行となるように配置されており、マスク11に形成された出射開口11aの略中央を撮像部2の光軸Oが通るように位置決めされている。
The mask 11 is a plate-like member having a light shielding property, and an emission opening 11a is formed on the surface thereof. The shape of the exit opening 11a is preferably different from the shape of the periphery of the convex lens 100. For example, when the periphery of the convex lens 100 is formed in a circular shape, the shape of the exit opening 11a is a square or a polygon. It can be.
The direction of the illumination unit 7 is set so as to emit diffused light toward the imaging unit 2 through the emission opening 11a of the mask 11. The illumination unit 7 is disposed so that the plate thickness direction of the mask 11 is parallel to the optical axis O of the imaging unit 2, and the light of the imaging unit 2 is arranged at the approximate center of the emission opening 11 a formed in the mask 11. Positioned so that axis O passes.

図1および図3に示すように、駆動ステージ12は、照明部7を撮像部2の光軸O方向に移動させるものである。駆動ステージ12は、照明部7を光軸O方向に進退移動させるためのモータ13と、光軸O方向における照明部7の位置を検出するためのリニアエンコーダ14とを有している。駆動ステージ12のモータ13およびリニアエンコーダ14は、後述する画像解析部16と電気的に接続されている。駆動ステージ12は、後述する画像解析部16からの駆動信号に基づいてモータ13が駆動されることにより光軸O方向に進退可能である。また、リニアエンコーダ14が発する位置信号が画像解析部16に入力されることにより、その位置を画像解析部16が検出できるようになっている。なお、駆動ステージ12は、リニアエンコーダ14によって位置信号を出力できる範囲内で自在に進退できるようになっている。駆動ステージ12は、撮像部2から離れる方向に向かって移動したときにリニアエンコーダ14の検出範囲の限界に達したら、それ以上離れる方向へは移動できず。この位置が照明部7の制限位置となっている。   As shown in FIGS. 1 and 3, the drive stage 12 moves the illumination unit 7 in the direction of the optical axis O of the imaging unit 2. The drive stage 12 has a motor 13 for moving the illumination unit 7 forward and backward in the optical axis O direction, and a linear encoder 14 for detecting the position of the illumination unit 7 in the optical axis O direction. The motor 13 and the linear encoder 14 of the drive stage 12 are electrically connected to an image analysis unit 16 described later. The drive stage 12 can advance and retreat in the direction of the optical axis O when the motor 13 is driven based on a drive signal from an image analysis unit 16 described later. Further, when the position signal generated by the linear encoder 14 is input to the image analysis unit 16, the position can be detected by the image analysis unit 16. The drive stage 12 can freely advance and retract within a range in which a position signal can be output by the linear encoder 14. When the drive stage 12 moves in the direction away from the imaging unit 2 and reaches the limit of the detection range of the linear encoder 14, the drive stage 12 cannot move further away. This position is the limit position of the illumination unit 7.

図1に示すように、保持部15は、照明部7と撮像部2との間に配置されており、凸レンズ100を撮像光学系3の被写界深度内において保持するためのメカチャック15a,15bを有する。メカチャック15a,15bは、凸レンズ100の周縁において対向する二箇所に爪を接触させて凸レンズ100を把持し、凸レンズ100の光軸が撮像部2の光軸Oと平行となるように凸レンズ100の向きを定めて凸レンズ100を保持するようになっている。本実施形態では、保持部15は、図示しない保持部制御部によって、保持部制御部が規定する座標系に従ってその位置および動作が制御されている。これにより、保持部15は、エッジ検出の対象となる凸レンズ100を図示しないレンズ置き場から1つ取り出し、撮像部2の光軸O上に保持するようになっている。また、保持部15は、凸レンズ100に対するエッジ検出が終了したら、エッジ検出の結果に基づいて凸レンズ100を被組立体に組み付けるようになっている。   As shown in FIG. 1, the holding unit 15 is disposed between the illumination unit 7 and the imaging unit 2, and a mechanical chuck 15 a for holding the convex lens 100 within the depth of field of the imaging optical system 3. 15b. The mechanical chucks 15 a and 15 b hold the convex lens 100 by bringing the claws into contact with two opposing positions on the periphery of the convex lens 100, and the convex lens 100 has an optical axis parallel to the optical axis O of the imaging unit 2. The direction is determined and the convex lens 100 is held. In the present embodiment, the position and operation of the holding unit 15 are controlled by a holding unit control unit (not shown) according to a coordinate system defined by the holding unit control unit. Thereby, the holding unit 15 takes out one convex lens 100 as an edge detection target from a lens storage (not shown) and holds it on the optical axis O of the imaging unit 2. In addition, when the edge detection for the convex lens 100 is completed, the holding unit 15 is configured to assemble the convex lens 100 to the assembly target based on the result of the edge detection.

画像解析部16は、画像記憶部6に記憶された画像データを読み出し、画像データにおいて明度が不連続に変化している部分を境界として特定する。さらに、画像解析部16は、画像データにおいて境界が凸レンズ100の周縁の形状と同形状となっている部分を凸レンズ100の周縁(エッジ)として検出する。たとえば凸レンズ100の周縁が円形となっている場合には画像解析部16は境界のうち円形の部分を凸レンズ100の周縁として認識する。
さらに、画像解析部16は、画像データにおける境界のうち円形の部分を凸レンズ100の周縁として認識したあと、この円の中心位置を検出し、凸レンズ100の光軸として認識する。
The image analysis unit 16 reads the image data stored in the image storage unit 6 and specifies a portion where the brightness changes discontinuously in the image data as a boundary. Further, the image analysis unit 16 detects, as the peripheral edge (edge) of the convex lens 100, a portion where the boundary in the image data is the same shape as the peripheral edge of the convex lens 100. For example, when the peripheral edge of the convex lens 100 is circular, the image analysis unit 16 recognizes a circular portion of the boundary as the peripheral edge of the convex lens 100.
Further, the image analysis unit 16 recognizes a circular portion of the boundary in the image data as the peripheral edge of the convex lens 100, and then detects the center position of this circle and recognizes it as the optical axis of the convex lens 100.

画像解析部16には、精度良くエッジ検出をするために必要な最低限のコントラストを示す閾値C0が予め記憶されている。画像解析部16は、画像データにおける凸レンズ100の内側と外側とのそれぞれの明度からコントラストを算出して閾値C0と比較し、算出されたコントラストが閾値C0以上であれば有効データであると判定する。また、コントラストが閾値C0以下であれば、無効データであると判定し、上述の駆動ステージ12へ駆動信号を出力して駆動ステージ12を移動させることができるようになっている。さらに、画像解析部16は、駆動ステージ12のリニアエンコーダ14が発する位置信号が入力され、位置信号に基づいて、駆動ステージ12の初期位置からの移動量を検出するようになっている。   The image analysis unit 16 stores in advance a threshold value C0 indicating the minimum contrast necessary for accurate edge detection. The image analysis unit 16 calculates the contrast from the brightness of the inside and the outside of the convex lens 100 in the image data, compares the contrast with the threshold value C0, and determines that the calculated data is valid data if the calculated contrast is equal to or greater than the threshold value C0. . If the contrast is equal to or less than the threshold value C0, it is determined that the data is invalid, and the drive stage 12 can be moved by outputting a drive signal to the drive stage 12 described above. Further, the image analysis unit 16 receives a position signal generated by the linear encoder 14 of the drive stage 12 and detects the amount of movement of the drive stage 12 from the initial position based on the position signal.

次に、エッジ検出装置1の動作について、画像解析部16における制御動作を中心に詳述する。図4は、エッジ検出装置1を用いた本発明のエッジ検出方法を説明するためのフローチャートである。図5ないし図7は、エッジ検出装置1の使用時における取得画像の一例を示す模式図である。図8は、エッジ検出装置1の動作を説明するための図である。   Next, the operation of the edge detection apparatus 1 will be described in detail focusing on the control operation in the image analysis unit 16. FIG. 4 is a flowchart for explaining the edge detection method of the present invention using the edge detection apparatus 1. 5 to 7 are schematic diagrams illustrating examples of acquired images when the edge detection apparatus 1 is used. FIG. 8 is a diagram for explaining the operation of the edge detection apparatus 1.

まず、図1に示すエッジ検出装置1を立ち上げると、撮像部2、照明部7、保持部15、および画像解析部16に駆動電力が供給される。すると、照明部7の光源9(図2参照)は発光し、マスク11の出射開口11aを通じて撮像部2へ向けて拡散光が発せられる(図4に示すステップS101)。
ステップS101が終了したら、ステップS102へ進む。
First, when the edge detection apparatus 1 shown in FIG. 1 is started, drive power is supplied to the imaging unit 2, the illumination unit 7, the holding unit 15, and the image analysis unit 16. Then, the light source 9 (see FIG. 2) of the illumination unit 7 emits light, and diffused light is emitted toward the imaging unit 2 through the emission opening 11a of the mask 11 (step S101 shown in FIG. 4).
When step S101 ends, the process proceeds to step S102.

ステップS102は、凸レンズ100をエッジ検出装置1にセットし、凸レンズ100および照明部7を初期位置に位置決めするステップである。
ステップS102では、図1に示す保持部15のメカチャック15a,15bにより、出射開口11aと撮像部2との間に凸レンズ100が配置される。保持部15は、撮像部2の光軸O方向における凸レンズ100の位置を調整し、撮像光学系3の被写界深度内で凸レンズ100を保持する。
また、駆動ステージ12は、凸レンズ100の設計上の焦点位置に照明部7の拡散板10が位置するように照明部7を移動させる。拡散板10が焦点位置に到達したら、位置信号が0(初期位置)となるようにリニアエンコーダ14(図3参照)をリセットする。
これでステップS102は終了し、ステップS103へ進む。
Step S102 is a step in which the convex lens 100 is set in the edge detection device 1 and the convex lens 100 and the illumination unit 7 are positioned at the initial positions.
In step S102, the convex lens 100 is disposed between the emission opening 11a and the imaging unit 2 by the mechanical chucks 15a and 15b of the holding unit 15 shown in FIG. The holding unit 15 adjusts the position of the convex lens 100 in the optical axis O direction of the imaging unit 2 and holds the convex lens 100 within the depth of field of the imaging optical system 3.
Further, the drive stage 12 moves the illumination unit 7 so that the diffusion plate 10 of the illumination unit 7 is positioned at the design focal position of the convex lens 100. When the diffusing plate 10 reaches the focal position, the linear encoder 14 (see FIG. 3) is reset so that the position signal becomes 0 (initial position).
Step S102 is ended now and it progresses to Step S103.

ステップS103は、マスク11の像を撮像面4aに投影させ、マスク11の像を撮像するステップである。
ステップS103では、撮像部2が凸レンズ100を撮像し、画像データが画像記憶部6に記憶される。このとき、撮像素子4の撮像面4aに投影される像は、図2に示すように、出射開口11aから出射された拡散光が凸レンズ100を透過して撮像部2へ入射した第一拡散光L1と、出射開口11aから出射された拡散光が凸レンズ100の外部を通って撮像部2へ入射した第二拡散光L2とによって形成される像である。
Step S103 is a step of projecting the image of the mask 11 onto the imaging surface 4a and capturing the image of the mask 11.
In step S <b> 103, the imaging unit 2 images the convex lens 100 and the image data is stored in the image storage unit 6. At this time, as shown in FIG. 2, the image projected on the imaging surface 4 a of the imaging device 4 is the first diffused light in which the diffused light emitted from the emission opening 11 a passes through the convex lens 100 and enters the imaging unit 2. This is an image formed by L1 and the second diffused light L2 that the diffused light emitted from the exit aperture 11a enters the imaging unit 2 through the outside of the convex lens 100.

撮像面4aに投影される像の形状は、凸レンズ100と照明部7との距離によって変化する。すなわち、照明部7と凸レンズ100との距離が遠くなるにしたがって、撮像面4aに投影される像においてはマスク11の出射開口11aの輪郭形状が漸次小さくなる。たとえば、図5に示すように、凸レンズ100の周縁の内側に出射開口11aの輪郭形状がある像において、出射開口11aの輪郭の内側は第一拡散光L1による明部BR1であり、凸レンズ100の周縁より外側は第二拡散光L2による明部BR2である。また、凸レンズ100の周縁の内側且つ出射開口11aの輪郭の外側はマスク11による暗部DRである。このように、凸レンズ100の周縁の内側に出射開口11aの輪郭形状が写った像は、撮像面4aにマスク11の像が投影された像である。   The shape of the image projected on the imaging surface 4 a varies depending on the distance between the convex lens 100 and the illumination unit 7. That is, as the distance between the illumination unit 7 and the convex lens 100 increases, the contour shape of the exit opening 11a of the mask 11 gradually decreases in the image projected on the imaging surface 4a. For example, as shown in FIG. 5, in the image having the contour shape of the exit aperture 11 a inside the periphery of the convex lens 100, the inside of the contour of the exit aperture 11 a is the bright portion BR <b> 1 by the first diffused light L <b> 1. Outside the periphery is the bright portion BR2 by the second diffused light L2. Further, the inside of the periphery of the convex lens 100 and the outside of the outline of the exit opening 11 a is a dark portion DR by the mask 11. Thus, the image in which the contour shape of the emission opening 11a appears inside the periphery of the convex lens 100 is an image in which the image of the mask 11 is projected on the imaging surface 4a.

図6に示すように、凸レンズ100と照明部7とが極端に近い場合には、出射開口11aの輪郭が凸レンズ100の周縁よりも外側に位置するので、上記暗部DRはなく、略一様に明るい像となる。また、図7に示すように、凸レンズ100と照明部7とが極端に離れている場合には、第一拡散光L1および第二拡散光L2による明部BR2が暗く、明部BR2と暗部DRとのコントラストが低い。また、出射開口11aの輪郭の一部が凸レンズ100の周縁と重なる場合には、凸レンズ100の周縁が連続した円形とならない。これらの画像は、何れもエッジ検出が好適に行えない画像である。   As shown in FIG. 6, when the convex lens 100 and the illuminating unit 7 are extremely close, the contour of the exit aperture 11a is located outside the peripheral edge of the convex lens 100, so there is no dark portion DR and is substantially uniform. A bright image. Further, as shown in FIG. 7, when the convex lens 100 and the illumination unit 7 are extremely separated from each other, the bright part BR2 due to the first diffused light L1 and the second diffused light L2 is dark, and the bright part BR2 and the dark part DR. The contrast with is low. In addition, when a part of the outline of the exit aperture 11a overlaps the periphery of the convex lens 100, the periphery of the convex lens 100 does not form a continuous circle. None of these images are suitable for edge detection.

なお、エッジ検出装置1において精度良くエッジ検出を行うためには、明部BR2と暗部DRとのコントラストが高く、且つ、凸レンズ100の周縁の像が第一拡散光L1による明部BR1によって分断されないような位置において撮像された画像データを用いることが好ましい。
これでステップS103は終了し、ステップS104へ進む。
In order to accurately detect the edge in the edge detection device 1, the contrast between the bright part BR2 and the dark part DR is high, and the peripheral image of the convex lens 100 is not divided by the bright part BR1 by the first diffused light L1. It is preferable to use image data captured at such a position.
Step S103 is ended now and it progresses to Step S104.

ステップS104は、画像データにおける明部BR2と暗部DRとのコントラストを算出するステップである。
ステップS104では、画像解析部16は、画像記憶部6に記憶された画像データを読み出し、明部BR2と暗部DRとのコントラストの値C1を算出する。明部BR2と暗部DRとのコントラストの算出手法としては、たとえば、明部BR2と暗部DRとにおいてそれぞれ複数点における明度を検出し、明部BR2の平均明度と暗部DRの平均明度とを用いて算出する手法を採用することができる。
これでステップS104は終了し、ステップS105へ進む。
Step S104 is a step of calculating the contrast between the bright part BR2 and the dark part DR in the image data.
In step S104, the image analysis unit 16 reads the image data stored in the image storage unit 6, and calculates the contrast value C1 between the bright part BR2 and the dark part DR. As a method for calculating the contrast between the bright part BR2 and the dark part DR, for example, the lightness at a plurality of points is detected in each of the bright part BR2 and the dark part DR, and the average brightness of the bright part BR2 and the average brightness of the dark part DR are used. A calculation method can be employed.
Step S104 is ended now and it progresses to Step S105.

ステップS105は、エッジ検出のために必要なコントラストが得られているか否かを判定するステップである。
ステップS105では、明部BR2と暗部DRとのコントラストの値C1と閾値C0とを比較する。コントラストの値C1が閾値C0以下であった場合には、当該画像データはエッジ検出をするのに不適切な無効データであると画像解析部16が判定してステップS106へ進む。また、明部BR2と暗部DRとのコントラストの値C1が閾値C0以上であった場合には、当該画像データはエッジ検出をするのに適切なコントラストを有する有効データであると画像解析部16が判定してステップS108へ進む。
Step S105 is a step of determining whether or not the contrast necessary for edge detection is obtained.
In step S105, the contrast value C1 between the bright part BR2 and the dark part DR is compared with the threshold value C0. If the contrast value C1 is equal to or less than the threshold value C0, the image analysis unit 16 determines that the image data is invalid data inappropriate for edge detection, and the process proceeds to step S106. When the contrast value C1 between the bright part BR2 and the dark part DR is equal to or greater than the threshold value C0, the image analysis unit 16 determines that the image data is valid data having an appropriate contrast for edge detection. Determine and proceed to step S108.

ステップS106は、現在の照明部7の位置と、照明部7の制限位置とを比較して処理を分岐するステップである。
ステップS106では、駆動ステージ12のリニアエンコーダ14から出力された位置信号に基づいて、現在の照明部7の位置を検出する。現在の照明部7の位置が制限位置よりも初期位置側であればステップS107へ進み、現在の照明部7の位置が制限位置であればエッジ検出不能であることを図示しない外部機器等へ出力(ステップS109)して処理を終了する。
Step S <b> 106 is a step for branching the process by comparing the current position of the illumination unit 7 and the limit position of the illumination unit 7.
In step S106, based on the position signal output from the linear encoder 14 of the drive stage 12, the current position of the illumination unit 7 is detected. If the current position of the illumination unit 7 is closer to the initial position than the limit position, the process proceeds to step S107, and if the current position of the illumination unit 7 is the limit position, the fact that edge detection is impossible is output to an external device (not shown). (Step S109) and the process ends.

ステップS107は、光源9と凸レンズ100との距離を調整するステップである。
ステップS107では、画像解析部16は、駆動ステージ12に対して駆動信号を出力し、図8に示すように、照明部7が凸レンズ100から遠ざかる方向に、照明部7を一定量だけ移動させる。これにより、照明部7の光源9と凸レンズ100とは初期位置における距離よりも離れた距離となる。
これでステップS107は終了し、ステップS103へ進む。
Step S <b> 107 is a step of adjusting the distance between the light source 9 and the convex lens 100.
In step S107, the image analysis unit 16 outputs a drive signal to the drive stage 12, and moves the illumination unit 7 by a certain amount in the direction in which the illumination unit 7 moves away from the convex lens 100 as shown in FIG. Thereby, the light source 9 of the illumination part 7 and the convex lens 100 become a distance away from the distance in an initial position.
Step S107 is ended now and it progresses to Step S103.

本実施形態では、コントラストが閾値C0を超える画像データが得られるまでステップS103からステップS107までのステップを繰り返す。ステップS103からステップS107までを繰り返すことにより、照明部7は漸次凸レンズ100から遠ざかり、撮像部2によって撮像される像が変化する。このとき、上述のステップS105において、画像解析部16は、コントラストが閾値C0を超える画像データが得られた場合にはステップS108へ進む。   In the present embodiment, the steps from Step S103 to Step S107 are repeated until image data whose contrast exceeds the threshold value C0 is obtained. By repeating steps S103 to S107, the illumination unit 7 gradually moves away from the convex lens 100, and the image captured by the imaging unit 2 changes. At this time, in step S105 described above, the image analysis unit 16 proceeds to step S108 when image data having a contrast exceeding the threshold value C0 is obtained.

ステップS108は、凸レンズ100のエッジ検出を行うステップである。
ステップS108では、画像解析部16は、画像データにおける第二拡散光L2による明部BR2とマスク11の像による暗部DRとの境界の形状に基づいて、凸レンズ100の周縁の形状を検出する。
これでステップS108は終了し、一連の処理は終了する。
Step S <b> 108 is a step of performing edge detection of the convex lens 100.
In step S <b> 108, the image analysis unit 16 detects the shape of the peripheral edge of the convex lens 100 based on the shape of the boundary between the bright part BR <b> 2 by the second diffused light L <b> 2 and the dark part DR by the image of the mask 11 in the image data.
Step S108 is complete | finished now and a series of processes are complete | finished.

ステップS108が終了したあとで、本実施形態のエッジ検出装置1は、エッジ検出が行われた画像データに基づいて、画像解析部16によって凸レンズ100の中心位置の認識を行う。画像解析部16は、認識した中心位置を外部の機器等へ出力する。たとえば、画像解析部16は、凸レンズ100の中心位置を、保持部15の座標系内における位置として、保持部15の動作を制御する保持部制御部へと出力する。これにより、保持部15は、凸レンズ100の光軸を被組立体に対して位置決めし、凸レンズ100を被組立体に取り付けることができる。   After step S108 ends, the edge detection apparatus 1 according to the present embodiment recognizes the center position of the convex lens 100 by the image analysis unit 16 based on the image data on which the edge detection is performed. The image analysis unit 16 outputs the recognized center position to an external device or the like. For example, the image analysis unit 16 outputs the center position of the convex lens 100 as a position in the coordinate system of the holding unit 15 to the holding unit control unit that controls the operation of the holding unit 15. Thereby, the holding | maintenance part 15 positions the optical axis of the convex lens 100 with respect to a to-be-assembled body, and can attach the convex lens 100 to a to-be-assembled body.

以上説明したように、本実施形態のエッジ検出方法およびエッジ検出装置1によれば、第二拡散光L2による明部BR2とマスク11の像による暗部DRとによって、凸レンズ100の周縁を境界とする明暗が生じるので、凸レンズ100の周縁の形状を簡易な構成で精度良く検出することができる。
また、拡散照明光源8から発せられる拡散光を用いているので、照明部7と撮像部2との光軸合わせを厳密に行う必要がない。このため、エッジ検出装置1の構成を簡易なものとすることができる。
As described above, according to the edge detection method and the edge detection apparatus 1 of the present embodiment, the periphery of the convex lens 100 is defined as the boundary by the bright part BR2 by the second diffused light L2 and the dark part DR by the image of the mask 11. Since light and dark occur, the shape of the periphery of the convex lens 100 can be detected with a simple configuration with high accuracy.
Further, since the diffused light emitted from the diffuse illumination light source 8 is used, it is not necessary to strictly align the optical axes of the illumination unit 7 and the imaging unit 2. For this reason, the configuration of the edge detection apparatus 1 can be simplified.

次に、本実施形態のエッジ検出装置1およびエッジ検出方法の変形例について説明する。
図1に示すように、本変形例のエッジ検出装置1Aは、画像解析部16に代えて画像解析部16Aを有する点のみ異なっている。本変形例の画像解析部16Aは、上述のエッジ検出装置1の画像解析部16とは異なる動作をするように構成されている。以下、本変形例のエッジ検出装置1Aについて、上述のエッジ検出装置1とは異なる点を中心に、図9を参照して説明する。図9は、本変形例のエッジ検出装置1Aの使用時の動作を説明するためのフローチャートである。
Next, a modified example of the edge detection device 1 and the edge detection method of the present embodiment will be described.
As shown in FIG. 1, the edge detection apparatus 1 </ b> A of the present modification is different only in that an image analysis unit 16 </ b> A is provided instead of the image analysis unit 16. The image analysis unit 16A of the present modification is configured to perform an operation different from that of the image analysis unit 16 of the edge detection device 1 described above. Hereinafter, the edge detection device 1A of the present modification will be described with reference to FIG. 9, focusing on differences from the edge detection device 1 described above. FIG. 9 is a flowchart for explaining the operation when the edge detection apparatus 1A of the present modification is used.

本変形例のエッジ検出装置1Aは、明部BR2と暗部DRとのコントラストが最大となったときに撮像された画像データにおける明部BR2と暗部DRとの境界の形状に基づいて、凸レンズ100の周縁の形状を検出することを特徴としている。   The edge detection device 1A according to the present modification is based on the shape of the boundary between the bright part BR2 and the dark part DR in the image data captured when the contrast between the bright part BR2 and the dark part DR becomes maximum. It is characterized by detecting the shape of the periphery.

エッジ検出装置1Aを立ち上げると、撮像部2、照明部7、保持部15、および画像解析部16Aに駆動電力が供給される(図1参照)。すると、照明部7の光源9は発光し、マスク11の出射開口11aを通じて撮像部2へ向けて拡散光が発せられる(図9に示すステップS201)。
ステップS201が終了したら、ステップS202へ進む。
When the edge detection device 1A is activated, driving power is supplied to the imaging unit 2, the illumination unit 7, the holding unit 15, and the image analysis unit 16A (see FIG. 1). Then, the light source 9 of the illumination unit 7 emits light, and diffused light is emitted toward the imaging unit 2 through the emission opening 11a of the mask 11 (step S201 shown in FIG. 9).
When step S201 ends, the process proceeds to step S202.

ステップS202は、凸レンズ100をエッジ検出装置1Aにセットし、凸レンズ100を初期位置に位置決めするステップである。
ステップS202では、上述のステップS102と同様に照明部7を移動させ、拡散板10が凸レンズ100の焦点位置に到達したら、位置信号が0(初期位置)となるようにリニアエンコーダ14をリセットする。さらに、明部BR2と暗部DRとのコントラストの比較対照となる記憶値C2に0を代入する。これにより、明部BR2と暗部DRとのコントラストがない状態が初期の記憶値C2となる。
これでステップS202は終了し、ステップS203へ進む。
Step S202 is a step in which the convex lens 100 is set in the edge detection device 1A and the convex lens 100 is positioned at the initial position.
In step S202, the illumination unit 7 is moved in the same manner as in step S102 described above, and when the diffusing plate 10 reaches the focal position of the convex lens 100, the linear encoder 14 is reset so that the position signal becomes 0 (initial position). Further, 0 is substituted into a stored value C2 that is a contrast comparison between the bright part BR2 and the dark part DR. As a result, a state where there is no contrast between the bright part BR2 and the dark part DR becomes the initial stored value C2.
Step S202 is ended now and it progresses to Step S203.

ステップS203は、マスク11の像を撮像面4aに投影させ、マスク11の像を撮像するステップである。ステップS203では、上述のステップS103と同様に撮像部2は凸レンズ100を撮像し、画像データを画像記憶部6に記憶させる。
これでステップS203は終了し、ステップS204へ進む。
Step S203 is a step of projecting the image of the mask 11 onto the imaging surface 4a and capturing the image of the mask 11. In step S203, the imaging unit 2 images the convex lens 100 and stores the image data in the image storage unit 6 in the same manner as in step S103 described above.
Step S203 is ended now and it progresses to Step S204.

ステップS204は、画像データに基づいてエッジ検出を行うステップである。
ステップS204では、画像解析部16Aは画像記憶部6から画像データを読み出し、画像データに基づいてエッジ検出を実行する。エッジ検出が成功した場合には、ステップS204は終了し、ステップS205へ進む。
また、明部BR2と暗部DRとのコントラストが極端に低い場合などには明部BR2と暗部DRとの境界が不明瞭となる場合がある。このような場合などにおいて、画像解析部16Aがエッジ検出に失敗したときには、ステップS204を終了してステップS208へ進む。
Step S204 is a step of performing edge detection based on the image data.
In step S204, the image analysis unit 16A reads the image data from the image storage unit 6, and executes edge detection based on the image data. If the edge detection is successful, step S204 ends and the process proceeds to step S205.
In addition, when the contrast between the bright part BR2 and the dark part DR is extremely low, the boundary between the bright part BR2 and the dark part DR may be unclear. In such a case, when the image analysis unit 16A fails to detect the edge, step S204 is ended and the process proceeds to step S208.

ステップS205は、画像データにおける明部BR2と暗部DRとのコントラストを算出するステップである。
ステップS205では、画像解析部16Aは、画像データにおける明部BR2と暗部DRとのコントラストを算出し、コントラストの値C1を一時記憶する。
これでステップS205は終了し、ステップS206へ進む。
Step S205 is a step of calculating the contrast between the bright part BR2 and the dark part DR in the image data.
In step S205, the image analysis unit 16A calculates the contrast between the bright part BR2 and the dark part DR in the image data, and temporarily stores the contrast value C1.
Step S205 is ended now and it progresses to Step S206.

ステップS206は、画像解析部16Aにおいて一時記憶されたコントラストの値C1と上述の記憶値C2とを比較して処理を分岐させるステップである。
ステップS206では、コントラストの値C1が記憶値C2よりも大きい場合には、ステップS206は終了しステップS207へ進む。コントラストの値が記憶値C2以下である場合には、ステップS206は終了しステップS208へ進む。
Step S206 is a step for branching the process by comparing the contrast value C1 temporarily stored in the image analysis unit 16A with the stored value C2.
If the contrast value C1 is greater than the stored value C2 in step S206, step S206 ends and the process proceeds to step S207. If the contrast value is less than or equal to the stored value C2, step S206 ends and proceeds to step S208.

ステップS207は、記憶値C2と記憶位置Sとを更新するステップである。
ステップS207では、画像解析部16Aは、ステップS205で一時記憶されたコントラストの値C1を記憶値C2に代入し、リニアエンコーダ14から出力された位置信号に基づいて照明部7の位置を記憶位置Sに代入する。
これでステップS207は終了し、ステップS208へ進む。
Step S207 is a step of updating the stored value C2 and the storage position S.
In step S207, the image analysis unit 16A substitutes the contrast value C1 temporarily stored in step S205 for the storage value C2, and stores the position of the illumination unit 7 based on the position signal output from the linear encoder 14 in the storage position S. Assign to.
Step S207 is ended now and it progresses to Step S208.

ステップS208は、光源9と凸レンズ100との距離を調整するステップである。
ステップでは、画像解析部16Aは、駆動ステージ12に対して駆動信号を出力し、照明部7が凸レンズ100から離れる方向へ照明部7を一定量だけ移動させる。これにより、照明部7の光源9と凸レンズ100とは初期位置における距離よりも離れた距離となる。
これでステップS208は終了し、ステップS209へ進む。
Step S208 is a step of adjusting the distance between the light source 9 and the convex lens 100.
In step, the image analysis unit 16 </ b> A outputs a drive signal to the drive stage 12, and moves the illumination unit 7 by a certain amount in a direction in which the illumination unit 7 moves away from the convex lens 100. Thereby, the light source 9 of the illumination part 7 and the convex lens 100 become a distance away from the distance in an initial position.
Step S208 is ended now and it progresses to Step S209.

ステップS209は、照明部7の位置と制限位置とを比較して処理を分岐させるステップである。
ステップS209では、駆動ステージ12のリニアエンコーダ14から出力された位置信号と、画像解析部16Aに記憶された制限位置とを比較し、照明部7の位置が制限位置よりも初期位置側である場合にはステップS209は終了してステップS203へ進む。また、照明部7の位置が制限位置であるときにはステップS209は終了してステップS210へ進む。
Step S209 is a step in which the process is branched by comparing the position of the illumination unit 7 with the limit position.
In step S209, the position signal output from the linear encoder 14 of the drive stage 12 is compared with the limit position stored in the image analysis unit 16A, and the position of the illumination unit 7 is closer to the initial position than the limit position. In step S209, the process ends and proceeds to step S203. If the position of the illumination unit 7 is the limit position, step S209 ends and the process proceeds to step S210.

ステップS210はコントラストの記憶値C2が0であるか否かによって処理を分岐させるステップである。
ステップS210では、記憶値C2が0以外の値である場合にはステップS210は終了してステップS211へ進む。また、ステップS210では、記憶値C2が0である場合には、ステップS210は終了してステップS212へ進む。
Step S210 is a step in which the process is branched depending on whether or not the stored value C2 of contrast is zero.
In step S210, if the stored value C2 is a value other than 0, step S210 ends and the process proceeds to step S211. In step S210, if the stored value C2 is 0, step S210 ends and the process proceeds to step S212.

ステップS211は、明部BR2と暗部DRとのコントラストが最も高い照明部7の位置を最適位置Pとして決定するステップである。
ステップS211では、ステップS203からステップS209までの繰り返しが終了したあとに記憶されている記憶位置Sを最適位置Pとする。これにより、コントラストが最も高い条件で撮像することができたときの照明部7の位置を最適位置Pとして決定することができる。画像解析部16Aは、最適位置Pを決定した後、最適位置Pを一時記憶する。
これでステップS211は終了し、一連の工程を終了する。
Step S211 is a step of determining the position of the illumination unit 7 having the highest contrast between the bright part BR2 and the dark part DR as the optimum position P.
In step S211, the storage position S stored after the repetition from step S203 to step S209 is set as the optimum position P. Thereby, the position of the illumination part 7 when it can image on conditions with the highest contrast can be determined as the optimal position P. After determining the optimum position P, the image analysis unit 16A temporarily stores the optimum position P.
This ends step S211 and ends a series of steps.

ステップS212は、コントラストが0であり明部BR2と暗部DRとの境界の判定ができないことによってエッジ検出ができないことをエッジ検出装置1の操作者あるいはエッジ検出装置1が組み込まれた組立装置の図示しない制御部などへ通知し、エラー処理を実行させるためのステップである。
ステップS212においてエッジ検出ができないことを通知したらステップS212は終了し、一連の工程を終了する。
In step S212, the operator of the edge detection device 1 or the assembly device incorporating the edge detection device 1 indicates that the edge cannot be detected because the contrast is 0 and the boundary between the bright part BR2 and the dark part DR cannot be determined. This is a step for notifying the control unit or the like not to execute error processing.
If it is notified in step S212 that edge detection cannot be performed, step S212 is terminated, and a series of steps is terminated.

本変形例では、照明部7の初期位置から制限位置までの全範囲に亘って撮像部2は1枚ずつ画像データを取得し、明部BR2と暗部DRとのコントラストが最も高い最適位置Pを画像解析部16Aが一時記憶している。画像解析部16Aは、全ての画像データが取得された後、最適位置Pにおいて取得された画像データを読み出してこの画像データに基づいて中心位置を認識する。   In this modification, the imaging unit 2 acquires image data one by one over the entire range from the initial position of the illuminating unit 7 to the limit position, and selects the optimum position P with the highest contrast between the bright part BR2 and the dark part DR. The image analysis unit 16A temporarily stores it. After all the image data is acquired, the image analysis unit 16A reads out the image data acquired at the optimum position P and recognizes the center position based on the image data.

本変形例のエッジ検出装置1Aおよびエッジ検出方法によれば、明部BR2と暗部DRとのコントラストが最大となる位置関係で撮像された画像データを用いてエッジ検出を行うので、精度良くエッジ検出をすることができる。
なお、本変形例では、コントラストが最大となる位置を画像解析部16Aが記憶しているので、コントラストが最大となる位置に照明部7を容易に位置決めすることができる。これにより、同様の構造を有する凸レンズ100に対してエッジ検出をする場合に、照明部7の位置を最適位置Pに直ちに移動させて複数の凸レンズ100のエッジ検出を効率よく行うこともできる。
According to the edge detection device 1A and the edge detection method of the present modification, the edge detection is performed using the image data picked up in the positional relationship in which the contrast between the bright part BR2 and the dark part DR is maximized. Can do.
In this modification, the image analysis unit 16A stores the position where the contrast is maximized, so that the illumination unit 7 can be easily positioned at the position where the contrast is maximized. Thus, when edge detection is performed on the convex lens 100 having the same structure, the edge of the plurality of convex lenses 100 can be efficiently detected by immediately moving the position of the illumination unit 7 to the optimum position P.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
たとえば、撮像素子4としてはCMOSイメージセンサを採用してもよい。
また、撮像素子4としてはリニアイメージセンサを採用しても構わない。
また、本発明のエッジ検出方法は、上述の実施形態で説明したエッジ検出装置1、1Aのみに適用されるものではない。
As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
For example, a CMOS image sensor may be employed as the image sensor 4.
Further, a linear image sensor may be adopted as the image sensor 4.
Further, the edge detection method of the present invention is not applied only to the edge detection apparatuses 1 and 1A described in the above embodiment.

1、1A エッジ検出装置
2 撮像部
4a 撮像面
7 照明部
11 マスク
11a 出射開口
12 駆動ステージ
15 保持部
16、16A 画像解析部
DR 暗部
L1 第一拡散光
L2 第二拡散光
100 凸レンズ
BR1、BR2 明部
DESCRIPTION OF SYMBOLS 1, 1A Edge detection apparatus 2 Imaging part 4a Imaging surface 7 Illumination part 11 Mask 11a Outgoing opening 12 Drive stage 15 Holding part 16, 16A Image analysis part DR Dark part L1 First diffused light L2 Second diffused light 100 Convex lens BR1, BR2 Bright Part

Claims (5)

凸レンズを撮像する撮像部を用いて前記凸レンズの周縁の形状を検出させるためのエッジ検出方法であって、
出射開口が形成されたマスクの前記出射開口を通じて前記撮像部へ向けて拡散光を発し、
前記出射開口と前記撮像部との間の前記撮像部の光学系の被写界深度内に前記凸レンズを配置し、
前記撮像部の撮像面に、前記拡散光が前記凸レンズを透過して前記撮像部へ入射した第一拡散光と、前記拡散光が前記凸レンズの外部を通って前記撮像部へ入射した第二拡散光とによって前記マスクの像を投影させ、
前記第二拡散光による明部と前記マスクの像による暗部との境界の形状に基づいて前記凸レンズの周縁の形状を検出する
ことを特徴とするエッジ検出方法。
An edge detection method for detecting the shape of the periphery of the convex lens using an imaging unit that images the convex lens,
The diffused light is emitted toward the imaging unit through the exit aperture of the mask in which the exit aperture is formed,
Placing the convex lens within the depth of field of the optical system of the imaging unit between the exit aperture and the imaging unit;
The first diffused light that has entered the imaging unit through which the diffused light has passed through the convex lens on the imaging surface of the imaging unit, and the second diffused light that has entered the imaging unit through the outside of the convex lens. Project the image of the mask with light,
An edge detection method, comprising: detecting a shape of a peripheral edge of the convex lens based on a shape of a boundary between a bright portion by the second diffused light and a dark portion by an image of the mask.
前記マスクの像を前記撮像面に投影させた後に、前記第二拡散光による明部と前記マスクの像による暗部とのコントラストを算出し、前記コントラストが最大となるように前記拡散光の光源と前記凸レンズとの距離を調整し、前記コントラストが最大となったときに前記境界の形状に基づいて前記凸レンズの周縁の形状を検出することを特徴とする請求項1に記載のエッジ検出方法。   After projecting the image of the mask onto the imaging surface, the contrast between the bright part due to the second diffused light and the dark part due to the mask image is calculated, and the diffused light source and the light source so as to maximize the contrast. The edge detection method according to claim 1, wherein the edge shape of the convex lens is detected based on the shape of the boundary when the distance from the convex lens is adjusted and the contrast becomes maximum. 前記光源と前記凸レンズとの距離を調整する工程において、以下の(a)、(b)、(c)をこの順に繰り返し、前記コントラストが最大となる距離における前記境界の形状に基づいて前記凸レンズの周縁の形状を検出することを特徴とする請求項2に記載のエッジ検出方法。
(a)前記マスクの像を前記撮像面に投影させる。
(b)前記コントラストを算出する。
(c)前記光源と前記凸レンズとの距離を前記(a)における距離とは異なる距離に変化させる。
In the step of adjusting the distance between the light source and the convex lens, the following (a), (b), and (c) are repeated in this order, and the convex lens is determined based on the shape of the boundary at the distance at which the contrast is maximum. The edge detection method according to claim 2, wherein the shape of the periphery is detected.
(A) The image of the mask is projected onto the imaging surface.
(B) The contrast is calculated.
(C) The distance between the light source and the convex lens is changed to a distance different from the distance in (a).
凸レンズの周縁の形状を検出するエッジ検出装置であって、
前記凸レンズを撮像する撮像部と、
出射開口が形成されたマスクを有し前記出射開口を通じて前記撮像部へ向けて拡散光を発する照明部と、
前記照明部と前記撮像部との間で前記撮像部の光軸上に前記凸レンズを保持する保持部と、
前記撮像部の撮像面に投影した前記マスクの像の形状を検出し、前記マスクの像の形状に基づいて前記凸レンズの周縁の形状を検出する画像解析部と、
を備えるエッジ検出装置。
An edge detection device for detecting the shape of the periphery of a convex lens,
An imaging unit for imaging the convex lens;
An illumination unit that has a mask having an exit aperture and emits diffused light toward the imaging unit through the exit aperture;
A holding unit that holds the convex lens on the optical axis of the imaging unit between the illumination unit and the imaging unit;
An image analysis unit that detects the shape of the image of the mask projected on the imaging surface of the imaging unit and detects the shape of the periphery of the convex lens based on the shape of the image of the mask;
An edge detection device comprising:
前記照明部を前記撮像部の光軸方向に移動させる駆動ステージをさらに備える請求項4に記載のエッジ検出装置。   The edge detection apparatus according to claim 4, further comprising a drive stage that moves the illumination unit in an optical axis direction of the imaging unit.
JP2010251968A 2010-11-10 2010-11-10 Edge detection method and edge detection apparatus Expired - Fee Related JP5566266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010251968A JP5566266B2 (en) 2010-11-10 2010-11-10 Edge detection method and edge detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010251968A JP5566266B2 (en) 2010-11-10 2010-11-10 Edge detection method and edge detection apparatus

Publications (2)

Publication Number Publication Date
JP2012103110A true JP2012103110A (en) 2012-05-31
JP5566266B2 JP5566266B2 (en) 2014-08-06

Family

ID=46393689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010251968A Expired - Fee Related JP5566266B2 (en) 2010-11-10 2010-11-10 Edge detection method and edge detection apparatus

Country Status (1)

Country Link
JP (1) JP5566266B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08213436A (en) * 1995-02-01 1996-08-20 Tokyo Electron Ltd Optical height detector and prober
JPH09269276A (en) * 1996-04-01 1997-10-14 Asahi Optical Co Ltd Device and method for inspecting optical members
JPH09304223A (en) * 1996-05-10 1997-11-28 Asahi Optical Co Ltd Inspection apparatus for optical member
JPH10197453A (en) * 1997-01-16 1998-07-31 Dainippon Screen Mfg Co Ltd Device and method for inspecting optical unevenness
JP2001289618A (en) * 2000-04-05 2001-10-19 Seiko Epson Corp Method and device for recognizing shape of peripheral edge of plastic lens
JP2005009865A (en) * 2003-06-16 2005-01-13 Seiko Epson Corp Shape recognition device for optical member
JP2005331272A (en) * 2004-05-18 2005-12-02 Pentax Corp Optical member inspection device
JP2006023199A (en) * 2004-07-08 2006-01-26 Yamatake Corp Edge detection method and detector

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08213436A (en) * 1995-02-01 1996-08-20 Tokyo Electron Ltd Optical height detector and prober
JPH09269276A (en) * 1996-04-01 1997-10-14 Asahi Optical Co Ltd Device and method for inspecting optical members
JPH09304223A (en) * 1996-05-10 1997-11-28 Asahi Optical Co Ltd Inspection apparatus for optical member
JPH10197453A (en) * 1997-01-16 1998-07-31 Dainippon Screen Mfg Co Ltd Device and method for inspecting optical unevenness
JP2001289618A (en) * 2000-04-05 2001-10-19 Seiko Epson Corp Method and device for recognizing shape of peripheral edge of plastic lens
JP2005009865A (en) * 2003-06-16 2005-01-13 Seiko Epson Corp Shape recognition device for optical member
JP2005331272A (en) * 2004-05-18 2005-12-02 Pentax Corp Optical member inspection device
JP2006023199A (en) * 2004-07-08 2006-01-26 Yamatake Corp Edge detection method and detector

Also Published As

Publication number Publication date
JP5566266B2 (en) 2014-08-06

Similar Documents

Publication Publication Date Title
CN108291854B (en) Optical inspection device, lens, and optical inspection method
EP3009886B1 (en) Handling system
KR20070080591A (en) Apparatus and method for detecting defects in wafer using line sensor camera
JP6522181B2 (en) Image measuring instrument
KR102537558B1 (en) Method and apparatus for inspecting defects on a transparent substrate
CN105467554A (en) Autofocus apparatus and autofocus method
WO2019159427A1 (en) Camera module adjustment device and camera module adjustment method
CN107782732B (en) Automatic focusing system, method and image detection instrument
KR20170133113A (en) Method and apparatus of detecting particles on upper surface of glass, and method of irradiating incident light
JP6290651B2 (en) Image measuring instrument
KR20150118073A (en) System for measuring vignetting caused by camera lenz
JP2008026255A (en) Flaw inspection system, and flaw inspection method
CN112912794A (en) Lighting device
JP5566266B2 (en) Edge detection method and edge detection apparatus
KR101447857B1 (en) Particle inspectiing apparatus for lens module
KR101333161B1 (en) Apparatus of processing image based on confocal and method thereof
KR102250085B1 (en) Optical inspection apparatus
JP4894365B2 (en) Surrounding obstacle detection device
JP6845562B2 (en) Lighting system
KR100946378B1 (en) Moire measurement apparatus using cylinder lens
WO2020059674A3 (en) Method for measuring distance of image displayed on television camera
JP2008139126A (en) Flaw detector and flaw detection method
JP5019507B2 (en) Laser processing apparatus and position detection method of workpiece
JP2014089257A (en) Lens tilt detection device, lens tilt detection method, and camera module assembly method using lens tilt detection device
US11940610B2 (en) Autofocus system and autofocus method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140430

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140617

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees