JPH0589224A - Detecting method for micro target scattered in wide target area - Google Patents

Detecting method for micro target scattered in wide target area

Info

Publication number
JPH0589224A
JPH0589224A JP3246096A JP24609691A JPH0589224A JP H0589224 A JPH0589224 A JP H0589224A JP 3246096 A JP3246096 A JP 3246096A JP 24609691 A JP24609691 A JP 24609691A JP H0589224 A JPH0589224 A JP H0589224A
Authority
JP
Japan
Prior art keywords
visual field
area
target
field
effective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3246096A
Other languages
Japanese (ja)
Inventor
Masahisa Hosoi
正久 細井
Shinichi Yoshimura
真一 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP3246096A priority Critical patent/JPH0589224A/en
Publication of JPH0589224A publication Critical patent/JPH0589224A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To accurately and quickly detect a micro target scattering in a compar atively wide area. CONSTITUTION:A target included in a target field 10 can be accurately detected by dividing the target field 10 into plural block fields 12 in full, setting effective fields 14 including the block fields 12 on the block fields, detecting the target included in the effective field 14, and removing the target included in a neighboring block field 12 from a detected target.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば画像処理に適用
して好適な、広い対象領域に散在する微小対象物を検出
する方法に関わる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting minute objects scattered in a wide object area, which is suitable for application to image processing, for example.

【0002】[0002]

【従来の技術】例えば、多層セラミック基板の製造に使
用されるグリーンシート(商品名)では、一辺が約15
0mmの正方形の中に内径が数100ミクロンの孔即ち
スルーホールが数個から数万個散在する。
2. Description of the Related Art For example, in a green sheet (trade name) used for manufacturing a multilayer ceramic substrate, one side has about 15
There are several to tens of thousands of holes or through holes having an inner diameter of several hundreds of microns in a 0 mm square.

【0003】このように比較的広い領域に微小対象物が
散在する場合、対象物の個数と各対象物の特徴量を正確
にしかも迅速に計測することは困難である。
When minute objects are scattered in a relatively wide area as described above, it is difficult to accurately and quickly measure the number of objects and the characteristic amount of each object.

【0004】比較的広い領域に散在する微小対象物の個
数と各微小対象物の特徴量を求める場合、その領域を一
視野として捉え視野内の微小対象物を一つ一つ検出して
その個数と各対象物の特徴量を求める方法がある。
When the number of minute objects scattered in a relatively wide area and the feature amount of each minute object are obtained, the area is regarded as one field of view and each minute object in the field of view is detected and the number thereof is determined. There is a method of obtaining the feature amount of each target.

【0005】この方法では、領域の大きさに比較してそ
こに含まれる対象物の寸法が小さいときには領域全体と
各対象物を同時に高い精度で認識することは困難であ
り、対象領域を一視野で捉えると対象物は分解能以下の
精度でしか検出できないことがある。
With this method, it is difficult to recognize the entire area and each object at the same time with high accuracy when the size of the object contained therein is smaller than the size of the area. In some cases, the target object may be detected only with a precision less than the resolution.

【0006】[0006]

【発明が解決しようとする課題】一方、対象領域を複数
の視野によって捉え各視野毎に微小対象物の個数と各微
小対象物の特徴量を求める方法がある。この方法では、
各視野毎に対象物を正確に認識できるが、各視野の境界
に存在する対象物の処理が困難であり、斯かる境界に跨
がる対象物の特徴量の検出ができなかったり、同じ対象
物を複数の視野にて重複して検出することがある。
On the other hand, there is a method in which a target area is captured from a plurality of visual fields and the number of minute objects and the characteristic amount of each minute object are obtained for each visual field. in this way,
Although the object can be accurately recognized for each field of view, it is difficult to process the object existing at the boundary of each field of view, and it is not possible to detect the feature amount of the object crossing the boundary, or the same object Objects may be detected in duplicate in multiple fields of view.

【0007】本発明はかかる点に鑑み比較的広い領域に
散在する多数の微小対象物の個数と各微小対象物の特徴
量を求める方法を提供することを目的とする。
An object of the present invention is to provide a method for obtaining the number of a large number of minute objects scattered in a relatively wide area and the feature amount of each minute object in view of the above point.

【0008】[0008]

【課題を解決するための手段】本発明による広い対象領
域に散在する微小対象物を検出する方法は、対象領域を
複数の小領域に分割することと、小領域に対してその小
領域を含む有効領域を設定し有効領域に含まれる対象物
を検出することと、有効領域に含まれる対象物とその有
効領域に対応する小領域に隣接する小領域に含まれる対
象物とを比較することと、を含む。
A method for detecting minute objects scattered over a wide target area according to the present invention includes dividing the target area into a plurality of small areas and including the small areas with respect to the small areas. Setting an effective area and detecting an object included in the effective area; and comparing an object included in the effective area and an object included in a small area adjacent to a small area corresponding to the effective area, ,including.

【0009】本発明の方法によると、有効領域に含まれ
る対象物はディジタル画像として検出される。
According to the method of the present invention, the object contained in the effective area is detected as a digital image.

【0010】本発明の方法によると、有効領域に含まれ
る対象物の検出はディジタル画像の画素を2値化するこ
とによってなされる。
According to the method of the present invention, the detection of the object contained in the effective area is performed by binarizing the pixels of the digital image.

【0011】[0011]

【作用】本発明に依れば図1〜図4に示すように、対象
領域例えば対象視野10を複数の区画視野12に漏れな
く分割し、各区画視野12に対してその区画視野12を
含みその区画視野12より大きい有効視野14を設定し
斯かる有効視野14によって対象物16を検出し、かく
して検出された対象物16のうち隣接する区画視野12
により既に検出された対象物16を除去するように構成
されているため、区画視野12の境界に跨がる対象物1
6を正確に検出することができる。
According to the present invention, as shown in FIGS. 1 to 4, the target area, for example, the target visual field 10 is divided into a plurality of divided visual fields 12 without omission, and each divided visual field 12 includes the divided visual field 12. An effective visual field 14 larger than the divided visual field 12 is set, and an object 16 is detected by the effective visual field 14, and the adjacent divided visual field 12 among the detected object 16 is detected.
Is configured to remove the object 16 already detected by, the object 1 straddling the boundary of the partitioned visual field 12
6 can be detected accurately.

【0012】[0012]

【実施例】以下、図1〜図5を参照して本発明の実施例
について説明する。本発明による方法の概要を図2に示
す。
Embodiments of the present invention will be described below with reference to FIGS. An overview of the method according to the invention is shown in FIG.

【0013】ステップ101に於いて、検出すべき対象
物16が散在する対象領域例えば対象視野10をN個の
区画視野12に漏れなく分割する。区画視野12は、一
視野として視野内に散在する対象物16を検出すること
ができるように設定する。
In step 101, a target area in which the objects 16 to be detected are scattered, for example, the target visual field 10, is divided into N divided visual fields 12 without omission. The partitioned visual field 12 is set so that the objects 16 scattered in the visual field can be detected as one visual field.

【0014】従って区画視野12の寸法は、検出すべき
対象物16を正確に認識することができるように充分小
さいことが必要であるが、逆に小さ過ぎると区画視野1
2の個数Nが大きくなり、対象視野10全体の処理に時
間がかかる。
Therefore, it is necessary that the size of the compartmental field of view 12 is sufficiently small so that the object 16 to be detected can be accurately recognized.
The number N of 2 becomes large, and it takes time to process the entire target visual field 10.

【0015】図1は対象視野10が12個の区画視野1
2に分割された場合を示している。この例では各区画視
野12は長方形をなしているが、区画視野12の形状は
長方形に限定されるものでなく他の任意の形状であって
よい。また各区画視野12は同一形状且つ同一面積であ
る必要はない。
FIG. 1 shows a sectional field of view 1 having 12 target fields of view 10.
The figure shows the case of being divided into two. In this example, each partitioned visual field 12 has a rectangular shape, but the shape of the partitioned visual field 12 is not limited to a rectangular shape and may be any other shape. Further, the divided visual fields 12 do not have to have the same shape and the same area.

【0016】図1に示すように、N個の区画視野12に
対象視野10の端から順番に0、1、2、・・の符号を
付す。この順番は、区画視野12を処理する順番、例え
ば視野の走査順に一致させる。
As shown in FIG. 1, the N divisional visual fields 12 are numbered 0, 1, 2, ... In order from the end of the target visual field 10. This order is matched with the order of processing the divided visual field 12, for example, the scanning order of the visual field.

【0017】ステップ102では、N=0とし、最初に
処理すべき区画視野12を設定する。ステップ103で
は、第N番の区画視野12を処理することができるよう
にセンサを配置する。
In step 102, N = 0 is set and the partitioned field 12 to be processed first is set. In step 103, the sensor is arranged so that the Nth compartment view 12 can be processed.

【0018】センサは、CCDカメラを有し視野をディ
ジタル画像として取り込むことができるイメージセンサ
であってよく、例えば、ビデオ信号をA/Dコンバータ
によってディジタル信号に変換し512ピクセル×48
0ピクセル×7ビットのディジタル画像を得ることがで
きるものであってよい。
The sensor may be an image sensor having a CCD camera and capable of capturing a field of view as a digital image. For example, a video signal is converted into a digital signal by an A / D converter and 512 pixels × 48.
It may be capable of obtaining a digital image of 0 pixels × 7 bits.

【0019】ステップ104では、第N番の区画視野1
2の画像処理をする。このステップ104では、後に詳
細に説明するように、処理すべき区画視野12と隣接す
る区画視野12との境界に跨がる対象物16を処理する
ことが含まれる。
In step 104, the Nth section visual field 1
2. Image processing of 2. This step 104 includes processing the object 16 that straddles the boundary between the partitioned field of view 12 to be processed and the adjacent partitioned field of view 12, as will be described in detail later.

【0020】こうして第N番の区画視野12に含まれる
対象物16が検出されると、ステップ105ではかかる
対象物16についてのデータ、例えば対象物16の個数
と各対象物16の特徴量が記憶装置に記憶される。
When the objects 16 included in the Nth section visual field 12 are detected in this way, in step 105, data about the objects 16, for example, the number of objects 16 and the feature amount of each object 16 are stored. Stored in the device.

【0021】ステップ106では、処理した区画視野1
2が最後のものであるか否かが判定される。ステップ1
06に於いて、もし最後の区画視野12でなければ、ス
テップ107に進んでNが1だけ増加され、ステップ1
03にて次の区画視野12の処理がなされる。
In step 106, the processed section view 1
It is determined whether 2 is the last one. Step 1
At 06, if it is not the final section view 12, proceed to step 107 to increase N by 1 and step 1
At 03, the next section visual field 12 is processed.

【0022】次の区画視野12に移動する場合、センサ
を区画視野12に対して移動してもよいがセンサに対し
て対象視野10を移動してもよい。センサを区画視野1
2に対して移動する場合、1台のカメラを区画視野12
に対して移動してもよいが区画視野12の個数だけカメ
ラを配置してカメラを順次作動するように構成してもよ
い。
When moving to the next section visual field 12, the sensor may be moved with respect to the section visual field 12, or the target visual field 10 may be moved with respect to the sensor. Sensor field of view 1
When moving with respect to 2, one camera is used to divide the field of view 12
Although the cameras may be moved with respect to each other, the cameras may be arranged by the number of the division visual fields 12 and the cameras may be sequentially operated.

【0023】ステップ106に於いて、もし処理した区
画視野12が最後の区画視野12であれば作業は終了す
る。
At step 106, if the processed field of view 12 is the last field of view 12, the operation ends.

【0024】図3は、ステップ104の内容を詳細に説
明する流れ図である。ステップ103で第N番の区画視
野12に対してセンサが配置され、次にステップ200
で第N番の区画視野12に対して有効視野14が設定さ
れる。
FIG. 3 is a flow chart for explaining the details of step 104. In step 103, the sensor is arranged for the Nth section visual field 12, and then in step 200
Thus, the effective visual field 14 is set for the Nth partitioned visual field 12.

【0025】有効視野14は、図1及び図5Aに示すよ
うに、区画視野12を含み区画視野12より大きい視野
として設定される。区画視野12の外形線と有効視野1
4の外形線との間の環状帯の幅は、対象視野10に含ま
れる対象物16の大きさに依存して設定される。斯かる
環状帯の幅Dは、次の数1の式により求めてよい。
As shown in FIGS. 1 and 5A, the effective visual field 14 is set as a visual field that includes the sectional visual field 12 and is larger than the sectional visual field 12. Outline of section field of view 12 and effective field of view 1
The width of the annular band between the contour line of No. 4 and the contour line of No. 4 is set depending on the size of the target object 16 included in the target visual field 10. The width D of such an annular band may be obtained by the following equation (1).

【0026】[0026]

【数1】 [Equation 1]

【0027】ここに、Fmax は対象物16のフェレ径の
最大値であり、αは定数である。定数αは誤差の総和に
相当し、演算による誤差と機器の誤差が含まれる。環状
帯の幅Dは、一般には水平部分と垂直部分とでは又はX
方向とY方向とでは異なる値としてよい。
Here, F max is the maximum value of the Feret diameter of the object 16, and α is a constant. The constant α corresponds to the sum of the errors, and includes the error due to the calculation and the device error. The width D of the annulus is generally between the horizontal and vertical portions or X
Different values may be set for the direction and the Y direction.

【0028】図5Aは、区画視野12に対して有効視野
14が設定された状態を示しており、黒丸A、B、C、
D、E、F、Gは視野に含まれる対象物16を示す。有
効視野14は枠18の内側線として構成されてよい。
FIG. 5A shows a state in which the effective visual field 14 is set for the partitioned visual field 12, and the black circles A, B, C, and
D, E, F, and G show the object 16 included in the visual field. The effective field of view 14 may be configured as an inner line of the frame 18.

【0029】対象物16のうち、CDEは区画視野12
内に存在し、ABは区画視野12と有効視野14との境
界に跨がって存在し、FGは枠18に接続し且つ区画視
野12の外側に存在する。
Of the object 16, the CDE is the section field of view 12.
Inside, AB exists across the boundary between the partitioned visual field 12 and the effective visual field 14, and the FG is connected to the frame 18 and exists outside the partitioned visual field 12.

【0030】こうして有効視野14が設定されるとこの
有効視野14を含む視野の画像の読み取りがおこなわれ
る。画像は上述のように例えば7ビットのディジタル画
像として読み取られ8ビット(符号付)の画像メモリに
記憶される。
When the effective visual field 14 is set in this manner, the image of the visual field including the effective visual field 14 is read. The image is read as a 7-bit digital image, for example, as described above, and stored in an 8-bit (signed) image memory.

【0031】512ピクセル×480ピクセルの画素の
各々は、そのグレー値が0($00)〜127($7
F)の数値として即ち多値として読み取られる。尚、記
号$は16進数表記を表わす。
Each of the 512 pixel × 480 pixel pixels has a gray value of 0 ($ 00) to 127 ($ 7).
It is read as a numerical value of F), that is, as a multivalue. The symbol $ represents hexadecimal notation.

【0032】明るい画素は大きなグレー値に対応し暗い
画素は小さなグレー値に対応する。対象物16は背景よ
り暗いため、対象物16を取り込んだ画像を構成する画
素は比較的小さなグレー値となる。
Bright pixels correspond to large gray values and dark pixels correspond to small gray values. Since the target 16 is darker than the background, the pixels forming the image in which the target 16 is captured have a relatively small gray value.

【0033】次のステップ201ではこうして得られた
ディジタル画像に枠画像のディジタル画像を合成する。
枠画像は例えば、枠18部分が−1($FF)で枠18
以外の部分が0($00)のグレー値が付与されたもの
である。二つのディジタル画像の合成は、対応する画素
の各々についてそのグレー値をビットOR演算すること
によりおこなわれる。
In the next step 201, the digital image of the frame image is combined with the digital image thus obtained.
In the frame image, for example, the frame 18 part is -1 ($ FF) and the frame 18 is
The gray value of 0 ($ 00) is added to the other parts. The synthesis of the two digital images is done by bitwise ORing the gray values of each corresponding pixel.

【0034】図5Bは有効視野14を含む視野のディジ
タル画像に枠画像のディジタル画像を合成して得られた
合成画像の左上の一部分を示す。各画素は格子の一枠に
対応し、格子の枠内の数値は画素のグレー値を16進数
にて表示したものである。枠画像に対応する画素には記
号FFが付されており、記号FFは−1に対応する。
FIG. 5B shows a part of the upper left part of the combined image obtained by combining the digital image of the visual field including the effective visual field 14 with the digital image of the frame image. Each pixel corresponds to one frame of the grid, and the numerical value in the frame of the grid represents the gray value of the pixel in hexadecimal. The pixel corresponding to the frame image is assigned the symbol FF, and the symbol FF corresponds to -1.

【0035】ステップ202では、ステップ201で得
られた合成画像の画素が二値化される。二値化は、各画
素のグレー値を所定の閾値によって二分することによっ
ておこなう。
In step 202, the pixels of the composite image obtained in step 201 are binarized. Binarization is performed by dividing the gray value of each pixel by a predetermined threshold value.

【0036】閾値より大きいグレー値に0を付し閾値に
等しいか又は閾値より小さいグレー値に1を付する。閾
値は好ましくは1〜127の間の数値であり、こうする
と枠画像の画素は二値化によって常に1となる。
Gray values greater than the threshold are assigned 0 and gray values equal to or less than the threshold are assigned 1. The threshold value is preferably a numerical value between 1 and 127, so that the pixel of the frame image is always 1 by binarization.

【0037】図6Aは、図5Bに示す合成画像を二値化
して得られたディジタル画像を示す。多値が付与された
各画素は閾値$38によって1又は0のいずれかの値が
付与されている。こうして多値化画像を二値化すること
によって画像は1が付された画素と0が付された画素と
の二つの領域に分けられる。
FIG. 6A shows a digital image obtained by binarizing the composite image shown in FIG. 5B. A value of 1 or 0 is given to each pixel to which a multi-value is given by the threshold value $ 38. By binarizing the multi-valued image in this way, the image is divided into two regions, that is, pixels to which 1 is added and pixels to which 0 is added.

【0038】枠18に接続する対象物16が画像として
取り込まれると、斯かる対象物16に対応する画像は、
二値化されたディジタル画像に於いては枠画像に連結さ
れた一つの連結領域を形成する。
When the object 16 connected to the frame 18 is captured as an image, the image corresponding to the object 16 is
In the binarized digital image, one connected region connected to the frame image is formed.

【0039】ここで連結領域を、同一の数値が付された
画素の集合であって、任意の二つの画素は領域内の画素
を連接してできる連続の画素曲線によって繋げることが
できるものとして定義する。連結領域は枠画像ばかりで
なく、枠画像の内部にも生成される。
Here, the connected area is defined as a set of pixels having the same numerical value, and any two arbitrary pixels can be connected by a continuous pixel curve formed by connecting the pixels in the area. To do. The connected area is generated not only in the frame image but also inside the frame image.

【0040】ステップ203では、ステップ202によ
って生成された連結領域がラベリングされる。ラベリン
グは、各連結領域に順次ラベル番号を付することによっ
てなされる。枠画像を含む連結領域に番号1を付し、枠
画像内に存在し且つ枠画像に接続しない連結領域に番号
2以下を付するようにしてもよい。
In step 203, the connected area generated in step 202 is labeled. Labeling is performed by sequentially attaching a label number to each connected region. The connected area including the frame image may be numbered 1, and the connected area existing in the frame image and not connected to the frame image may be numbered 2 or less.

【0041】図6Bには、図6Aに示す如き連結領域を
含むディジタル画像がラベリングされたものが示されて
いる。
FIG. 6B shows a labeled digital image including the connected area as shown in FIG. 6A.

【0042】ステップ204では第N番の有効視野に含
まれる対象物16の個数と各対象物16の特徴量が計測
される。ステップ203に於いて枠画像を含む連結領域
にラベル番号1を付したなら、ラベル番号2が付された
連結領域より処理される。
In step 204, the number of objects 16 included in the Nth effective field of view and the characteristic amount of each object 16 are measured. When the label area 1 is attached to the connected area including the frame image in step 203, the connection area attached with the label number 2 is processed.

【0043】こうして、枠画像を含む連結領域を除去す
ることによって有効視野14内の対象物16が計測され
る。特徴量としては0次モーメント(画素数)、一次モ
ーメント、二次モーメント、フェレ径等その用途に応じ
たものがある。
In this way, the object 16 in the effective visual field 14 is measured by removing the connected area including the frame image. The feature amount includes 0th moment (number of pixels), 1st moment, 2nd moment, Feret's diameter, and the like depending on its application.

【0044】ステップ205では、各対象物16の位置
即ち座標が計算される。各対象物16の位置は一次モー
メントより求めた重心位置を用いて表されてよく、各有
効視野14に対する座標と対象視野10に対する座標と
が求められる。
In step 205, the position or coordinate of each object 16 is calculated. The position of each object 16 may be represented by using the position of the center of gravity obtained from the first moment, and the coordinates for each effective visual field 14 and the coordinates for the target visual field 10 are obtained.

【0045】図4はステップ105の内容を詳細に示す
流れ図である。ステップ104に続いてステップ300
では、画像処理した区画視野12が最初のものであるか
どうかが判定される。
FIG. 4 is a flow chart showing the details of step 105. Following Step 104, Step 300
Then, it is determined whether or not the image-processed section visual field 12 is the first one.

【0046】もし最初の区画視野12であれば即ちN=
0ならステップ303に進み、ステップ104で得られ
た有効視野14のデータがそのまま記憶装置に記憶され
る。もし最初の区画視野12でなければ即ちN≠0なら
ステップ301に進む。
If it is the first partitioned field of view 12, ie N =
If it is 0, the process proceeds to step 303, and the data of the effective visual field 14 obtained in step 104 is stored in the storage device as it is. If it is not the first section visual field 12, that is, if N ≠ 0, the process proceeds to step 301.

【0047】ステップ301では、画像処理した第N番
の有効視野14のデータが隣接する区画視野12のデー
タと比較される。第N番の区画視野12を画像処理して
いる場合には、その区画視野12に隣接している全ての
区画視野12のデータと比較するのでなくその中の既に
画像処理がなされた区画視野12と比較される。
In step 301, the image-processed data of the Nth effective visual field 14 is compared with the data of the adjacent partitioned visual field 12. When the N-th section visual field 12 is being image-processed, it is not compared with the data of all the section visual fields 12 adjacent to the section visual field 12, but the section visual field 12 in which the image processing has already been performed therein. Compared to.

【0048】例えば図1に於いて第7番の区画視野12
を処理する場合、それに隣接する五つの区画視野12の
中、第0番、第1番及び第6番の区画視野12の画像処
理は終了しそのデータが記憶装置に記憶されているが、
第8番と第9番の区画視野12の画像処理は未だされて
いない。従って、第7番の有効視野14のデータと比較
されるのは、第0番、第1番及び第6番の区画視野12
のデータである。
For example, in FIG. 1, the 7th section visual field 12
, The image processing of the 0th, 1st and 6th partitioned fields of view 12 among the 5 partitioned fields of view 12 adjacent thereto is completed and the data is stored in the storage device.
Image processing of the eighth and ninth partitioned fields of view 12 has not yet been performed. Therefore, the data of the 7th effective visual field 14 is compared with that of the 0th, 1st and 6th partitioned visual fields 12.
Data.

【0049】ステップ302では、第N番の有効視野1
4に存在する対象物16の中、それに隣接し且つ既に画
像処理された区画視野12に含まれる対象物16は除外
される。
In step 302, the Nth effective field of view 1
4 are excluded, the objects 16 adjacent to it and included in the already image-processed compartmental field of view 12 are excluded.

【0050】ステップ303では、第N番の有効視野1
4に存在する対象物16よりステップ302で除外され
た残りの対象物16についてのデータのみが記憶装置に
記憶される。こうして各区画視野12に含まれる対象物
16の中、隣接する区画視野12との境界に跨がる対象
物16を重複して計測したり逆に計測漏れをすることが
回避される。
In step 303, the Nth effective field of view 1
Only the data of the remaining objects 16 excluded in step 302 from the objects 16 existing in No. 4 are stored in the storage device. In this way, among the objects 16 included in each partitioned visual field 12, it is possible to avoid overlapping measurement of the object 16 that straddles the boundary with the adjacent partitioned visual field 12 or conversely miss measurement.

【0051】以上本発明の実施例について詳細に説明し
てきたが、本発明は上述の実施例に限ることなく本発明
の要旨を逸脱することなく他の種々の構成が採り得るこ
とは当業者にとって容易に理解されよう。
Although the embodiments of the present invention have been described in detail above, those skilled in the art will understand that the present invention is not limited to the above-mentioned embodiments and various other configurations can be adopted without departing from the gist of the present invention. Easy to understand.

【0052】[0052]

【発明の効果】本発明に依れば、対象領域に散在する微
小対象物16を漏れなく正確に検出することができると
いう利益がある。
According to the present invention, there is an advantage that the minute objects 16 scattered in the object area can be accurately detected without omission.

【0053】一視野で対象領域を処理する場合には検出
することができない微小な対象物16が含まれる場合で
あっても、本発明に依れば、区画視野12の分解能を高
くすることによって微小対象物16を検出することがで
きるという利益がある。
According to the present invention, even if the minute object 16 which cannot be detected when the target area is processed in one visual field is included, according to the present invention, the resolution of the partitioned visual field 12 is increased. There is an advantage that the minute object 16 can be detected.

【図面の簡単な説明】[Brief description of drawings]

【図1】対象視野を複数の区画視野に分割し、区画視野
に対して有効視野を設定した状態を示す説明図である。
FIG. 1 is an explanatory diagram showing a state in which a target visual field is divided into a plurality of divided visual fields and an effective visual field is set for the divided visual field.

【図2】本発明の処理方法の全体の工程を示す流れ図で
ある。
FIG. 2 is a flowchart showing the overall steps of the processing method of the present invention.

【図3】ステップ104の内容の詳細を示す流れ図であ
る。
FIG. 3 is a flowchart showing details of the contents of step 104.

【図4】ステップ105の内容の詳細を示す流れ図であ
る。
FIG. 4 is a flowchart showing details of the contents of step 105.

【図5】区画視野に対して有効視野を設定した状態を示
す説明図と多値化された画素からなるディジタル画像を
示す説明図である。
5A and 5B are an explanatory diagram showing a state in which an effective visual field is set for a partitioned visual field and an explanatory diagram showing a digital image composed of multi-valued pixels.

【図6】二値化された画素からなるディジタル画像を示
す説明図とラベリングされた状態を示す説明図である。
6A and 6B are an explanatory diagram showing a digital image composed of binarized pixels and an explanatory diagram showing a labeled state.

【符号の説明】[Explanation of symbols]

10 対象視野 12 区画視野 14 有効視野 16 対象物 18 枠 10 Target Field of View 12 Compartmental Field of View 14 Effective Field of View 16 Target Object 18 Frame

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 対象領域を複数の小領域に分割すること
と、上記小領域に対して上記小領域を含む有効領域を設
定し該有効領域に含まれる対象物を検出することと、上
記有効領域に含まれる対象物とその有効領域に対応する
小領域に隣接する小領域に含まれる対象物とを比較する
ことと、を含む広い対象領域に散在する微小対象物を検
出する方法。
1. An object area is divided into a plurality of small areas, an effective area including the small area is set for the small area, and an object included in the effective area is detected. Comparing an object included in an area with an object included in a small area adjacent to a small area corresponding to the effective area, and detecting minute objects scattered in a wide object area.
【請求項2】 上記有効領域に含まれる対象物の検出は
ディジタル画像として検出されることを特徴とする請求
項1の広い対象領域に散在する微小対象物を検出する方
法。
2. The method for detecting minute objects scattered in a wide target area according to claim 1, wherein the detection of the objects included in the effective area is detected as a digital image.
【請求項3】 上記有効領域に含まれる対象物の検出は
ディジタル画像の画素を2値化することを含むことを特
徴とする請求項2の広い対象領域に散在する微小対象物
を検出する方法。
3. The method for detecting microscopic objects scattered in a wide target area according to claim 2, wherein the detection of an object included in the effective area includes binarizing pixels of a digital image. ..
JP3246096A 1991-09-25 1991-09-25 Detecting method for micro target scattered in wide target area Pending JPH0589224A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3246096A JPH0589224A (en) 1991-09-25 1991-09-25 Detecting method for micro target scattered in wide target area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3246096A JPH0589224A (en) 1991-09-25 1991-09-25 Detecting method for micro target scattered in wide target area

Publications (1)

Publication Number Publication Date
JPH0589224A true JPH0589224A (en) 1993-04-09

Family

ID=17143433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3246096A Pending JPH0589224A (en) 1991-09-25 1991-09-25 Detecting method for micro target scattered in wide target area

Country Status (1)

Country Link
JP (1) JPH0589224A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997038283A1 (en) * 1996-04-05 1997-10-16 Komatsu Ltd. Optical measuring instrument
JP2012042483A (en) * 2011-10-31 2012-03-01 Hitachi High-Technologies Corp Image generation device
JP2020128981A (en) * 2019-02-07 2020-08-27 日本製鉄株式会社 Temperature measuring method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997038283A1 (en) * 1996-04-05 1997-10-16 Komatsu Ltd. Optical measuring instrument
JP2012042483A (en) * 2011-10-31 2012-03-01 Hitachi High-Technologies Corp Image generation device
JP2020128981A (en) * 2019-02-07 2020-08-27 日本製鉄株式会社 Temperature measuring method

Similar Documents

Publication Publication Date Title
JP2007304065A (en) Foreign substance detector, foreign substance detecting method, foreign substance detecting program, and recording medium with the program stored
JP2003244521A (en) Information processing method and apparatus, and recording medium
JP5303405B2 (en) Vehicle inspection device
JP2001264257A (en) Image defect detecting device and method, and storage medium storing procedure for image defect detecting method
JP4230880B2 (en) Defect inspection method
JPH11337498A (en) Apparatus and method for inspecting printed circuit board
KR20010098460A (en) Appearance inspection method and appearance inspection apparatus having high inspection processing speed
JPH0589224A (en) Detecting method for micro target scattered in wide target area
JP2005241471A (en) Method of measuring microfine crack width
JP4257720B2 (en) Method and apparatus for measuring outer shape of honeycomb structure
JP2002310937A (en) Method and apparatus for inspection of defect
JP2007208050A (en) External-appearance inspecting method
JP2710527B2 (en) Inspection equipment for periodic patterns
JP4165115B2 (en) Pattern erasing method and defect inspection method
JP3836988B2 (en) Pattern inspection method and pattern inspection apparatus
JPH08161508A (en) Pattern detecting method
JP4229325B2 (en) Peak detection image processing method, program, and apparatus
JPH0829357A (en) Appearance inspection device for automation line
JPH0224323B2 (en)
JP4538135B2 (en) Defect inspection equipment
JP3629493B2 (en) Method and apparatus for measuring stretching behavior of paper
JP3048896B2 (en) Noise removal filter device for binary image
JP4457194B2 (en) Defect inspection equipment
JP3119375B2 (en) Printing evaluation method and printing evaluation device
JPH0436643A (en) Tablet inspection device