JPH04157577A - Positioning device - Google Patents

Positioning device

Info

Publication number
JPH04157577A
JPH04157577A JP2283838A JP28383890A JPH04157577A JP H04157577 A JPH04157577 A JP H04157577A JP 2283838 A JP2283838 A JP 2283838A JP 28383890 A JP28383890 A JP 28383890A JP H04157577 A JPH04157577 A JP H04157577A
Authority
JP
Japan
Prior art keywords
matching
circuit
image
edge
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2283838A
Other languages
Japanese (ja)
Other versions
JP2988994B2 (en
Inventor
Takashi Hirai
隆史 平位
Koichi Sasagawa
耕一 笹川
Shinichi Kuroda
伸一 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2283838A priority Critical patent/JP2988994B2/en
Publication of JPH04157577A publication Critical patent/JPH04157577A/en
Application granted granted Critical
Publication of JP2988994B2 publication Critical patent/JP2988994B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To easily obtain feature point even for an image having a smooth change in gradation and to improve processing speed by obtaining matching candidate point by means of rough positioning and obtaining a matching point by means of the matching around the matching candidates with the use of original image data. CONSTITUTION:The number of density level is reduced by a gradation conversion circuit 3, and the matching candidate points are obtained by means of the rough positioning by an edge point matching circuit 6 with the use of edge image data for each reference image and object image extracted by an edge point extraction circuit 5. The matching point is obtained by means of the matching of the original image data around the matching candidate points by an original image matching circuit 7. Thus, the positioning can be executed at enough high speed compared with the conventional two stage search, and this method can be used also for an image which has no feature points such as clear edge points in the image.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

この発明は、位置ずれのある2枚の画像間の位置合わセ
を行う位置合わせ装置に関するものである。
The present invention relates to an alignment device that aligns two images that are misaligned.

【従来の技術】[Conventional technology]

第7図は従来の位置合わせ装置にて用いられている相関
法を説明するための説明図である。図において、1はあ
らかじめ入力されている、大きさがMXMの基準画像で
あり、2は新たに入力されてこの基準画像1との間で位
置合わせが行われる、大きさがLXLの対象画像である
。 次に動作について説明する。相関法においては、2枚の
画像間のマツチング度を測る指標として、が用いられる
。ここで、W(i、j)は基準画像1、S(i、j)は
対象画像である。また、R(m、n)は対象画像1上の
点(m、n)における2枚の画像間の相関を表しており
、第7図に示すように、1≦m≦L−M+1.1≦n≦
L−M+1の範囲において対象画像2上で基準画像1を
動かし、各点(m、  n)における相関R(m、n)
を計算する。この相関R(m、n)の値が大きいほど1
11度が高いことを示すので、相関R(m。 n)が最大値をとる点(m、n)がマツチング点となる
。しかしこの方法は計算コストが大きく、またノイズが
あるとマツチング点が不鮮明になるという欠点を持つ。 この相関法の欠点を補うものとして残差逐次検定法(以
下5SDAという)が知られている。この5SDAにお
けるマツチング度の指標は、e(sl、 n)・’:E
−2:I S(i十g+、 j+n)−W(i、 j)
 I51m−1 で与えられる。e (m、n)は残差と呼ばれ、相関法
と同様に1≦m≦L−M+1.1≦n≦L−M+1の範
囲において対象画像上で基準画像を動かして各点(m、
n)での残差e (m、n)の値を計算する。残差e 
(m、n)は2枚の画像間のミスマツチの度合いを表す
ので、残差e (m、n)を最小にする点(m、n)が
マツチング点である。 この方法では画像を適当にスキャンして各点での残差e
 (m、n)を計算し、残差e (m、n)がある閾値
を越えた時点で計算を打ち切ることにより高速化を図っ
ている。しかし、基準画像や対象画像のサイズが太き(
なると高速化は達成できない。 これを解決するために、基準画像の一部を部分テンプレ
ートとして用いる方法や、間引き処理等により画像を縮
小して解像度を落とした画像上で位置合わせをしてから
正確な位置合わせをする2段階サーチの方法などが考え
られている。また、画像上のエツジ点等の特徴点に着目
して位置合わせを行う手法も提案されている。さらに、
画像中のエツジ点等の特徴点に着目し、2枚の画像間で
の対応付けにより位置合わせをする方法なども提案され
ている。 このような2枚の画像の位置合わせをさらに高速化する
ため、第8図に示す2段階サーチの手法も提案されてい
る。この2段階サーチにおいては、基準画像のサイズを
MXM、サーチ範囲を(2M+1)X (2M+1)と
すると、全画素によるサーチ回数は(M+1)”である
のに対し、第8図に1次元の信号で示すように、n行毎
に間引き処理をして粗サーチを行い、粗サーチで残差を
最小にする点の周りで精サーチをすると、2次元画像に
おけるサーチ回数は、 となる、サーチ回数を最小にするnは、たとえばM−1
6のとき、n=3、M−32のときn−4、M−64の
ときn=−6となる。この結果、全画素を用いて位置合
わせをする場合と比較してサーチ回数はM−16のとき
で約12%、M−320ときで約10%、M=64のと
きで約5%となる。 なお、このような従来の位置合わせ装置における相関法
、5SDAについては、例えば、画像処理ハンドブック
(1987年昭晃堂発行)の第303頁などにも示され
ている。
FIG. 7 is an explanatory diagram for explaining a correlation method used in a conventional alignment device. In the figure, 1 is a reference image of size MXM that has been input in advance, and 2 is a target image of size LXL that is newly input and is aligned with this reference image 1. be. Next, the operation will be explained. In the correlation method, is used as an index to measure the degree of matching between two images. Here, W (i, j) is the reference image 1 and S (i, j) is the target image. Furthermore, R(m, n) represents the correlation between the two images at the point (m, n) on the target image 1, and as shown in FIG. 7, 1≦m≦LM+1.1 ≦n≦
Move the reference image 1 on the target image 2 in the range L-M+1, and calculate the correlation R(m, n) at each point (m, n).
Calculate. The larger the value of this correlation R(m, n), the more
Since 11 degrees indicates a high degree, the point (m, n) where the correlation R(m. n) takes the maximum value is the matching point. However, this method has the disadvantage that the calculation cost is high and the matching points become unclear if there is noise. Residual sequential testing method (hereinafter referred to as 5SDA) is known as a method that compensates for the drawbacks of this correlation method. The index of matching degree in this 5SDA is e(sl, n)・':E
-2: IS (i + g +, j + n) - W (i, j)
It is given by I51m-1. e (m, n) is called a residual, and similarly to the correlation method, each point (m,
Calculate the value of the residual e (m, n) at n). Residual e
Since (m, n) represents the degree of mismatch between the two images, the point (m, n) that minimizes the residual e (m, n) is the matching point. In this method, the image is scanned appropriately and the residual e at each point is
(m, n) is calculated, and the calculation is stopped when the residual e (m, n) exceeds a certain threshold to speed up the calculation. However, the size of the reference image and target image is large (
In this case, speeding up cannot be achieved. To solve this problem, there are two methods: using a part of the reference image as a partial template, or performing alignment on an image whose resolution has been reduced by reducing the image through thinning processing, etc., and then performing accurate alignment. Search methods are being considered. Additionally, a method has been proposed in which alignment is performed by focusing on feature points such as edge points on an image. moreover,
A method has also been proposed that focuses on feature points such as edge points in an image and aligns two images by associating them. In order to further speed up the alignment of two images, a two-step search method shown in FIG. 8 has also been proposed. In this two-step search, if the size of the reference image is MXM and the search range is (2M+1) As shown in the signal, if a coarse search is performed by thinning out every n rows, and a fine search is performed around the point that minimizes the residual in the coarse search, the number of searches in the two-dimensional image will be: The n that minimizes the number of times is, for example, M-1
6, n=3, M-32, n-4, and M-64, n=-6. As a result, compared to the case where alignment is performed using all pixels, the number of searches is approximately 12% for M-16, approximately 10% for M-320, and approximately 5% for M=64. . The correlation method, 5SDA, in such a conventional positioning apparatus is also described, for example, on page 303 of the Image Processing Handbook (published by Shokodo in 1987).

【発明が解決しようとする課ill 従来の位置合わせ装置は以上のように構成されているの
で、位置合わせは2枚の画像は原画像データレベルにて
行われるものであり、この原画像データレベルで行える
位置合わせの高速化としては前記2段階サーチによる程
度の高速化が限界となり、またエツジ点等の特徴に基づ
いて位置合わせを行う方法も、濃淡変化の滑らかな画像
に対してはエツジ点そのものを得ることが困難であるた
め有効であるとは言えないなどの課題があった。 この発明は上記のような課題を解消するためになされた
もので、濃淡変化の滑らかな画像に対しても特徴点が容
易に得られ、またマツチングの速度も従来の2段階サー
チなどと比較しても十分に速い位置合わせ装置を得るこ
とを目的とする。 【課題を解決するための手段】 この発明に係る位置合わせ装置は、基準画像と対象画像
の各々の濃度レベル数を削減する階調変換回路、階調変
換された各画像データ中の粒状ノイズを除去するノイズ
除去回路、ノイズ除去された各画像データの濃度レベル
境界点をエツジとして抽出するエツジ点抽出回路、各エ
ツジ画像データのマツチング候補点を求めるエツジ点マ
ツチング回路、およびそのマツチング候補点の近傍で基
準画像と対象画像の原画像データによるマツチングを行
ってマツチング点を検出する原画像マツチング回路を備
えたものである。 (作用] この発明におけるエツジ点マツチング回路は、階調変換
回路にて濃度レベル数が削減され、エツジ点抽出回路に
てエツジが抽出された基準画像、対象画像それぞれのエ
ツジ画像データを用いて粗い位置合わせを行ってマツチ
ング候補点を求め、原画像マツチング回路は、このマツ
チング候補点の近傍において原画像データによるマツチ
ングを行ってマツチング点を求めることにより、濃淡変
化の滑らかな画像に対しても特徴点を容易に得られ、処
理速度も十分に速い位置合わせ装置を実現する。 に実施例】 以下、この発明の一実施例を図について説明する。第1
図において、1は基準となる基準画像であり、2は位置
合わせをする対象画像である。3は基準画像1と対象画
像2の画像の濃度レベル数をより少ない濃度レベル数に
変換する階調変換回路であり、4はこの階調変換回路3
から出力される各画像データ中の粒状ノイズを取り除く
ノイズ除去回路である。5はこのノイズ除去回路4から
出力される各画像データ中における濃度変化の境界点を
エツジとして抽出するエツジ点抽出回路である。6はこ
のエツジ点抽出回路5から得られる基準画像1のエツジ
画像データと対象画像2のエツジ画像データのマツチン
グを行ってマツチング候補点を探索するエツジ点マツチ
ング回路である。 7はエツジ点マツチング回路6で得られたマツチング候
補点の近傍で基準画像1および対象画像2それぞれの原
画像データを用いてマツチングを行い、マツチング点を
求める原画像マツチング回路である。 次に動作について説明する。第2図は階調変換回路3に
おける入力画像と出力画像の関係を示す説明図であり、
この例では256レベルの入力画像が4レベルの出力画
像となって出力されている。 濃度レベルが4レベルになるということは出力画像が2
ビツトで表現できることになり、この階調変換回路3は
データ圧縮器としての働きもする。 またこの階調変換回路3は、ハードウェア的にはルック
アップテーブルを用いることにより容易に実現すること
ができる。 第3図は粒状ノイズ除去の過程を示す説明図であり、同
図(a)に1次元の信号10で示すような濃度変化が局
所的に変動するような画像の場合、階調変換回路3の出
力する画像データ11には第3図(b)に示すように濃
度変化の境界部分に粒状ノイズが現れる。この粒状ノイ
ズは偽のエツジとなってエツジ点マツチングを行う際に
マツチングの精度を落とす原因になる。それ故、ノイズ
除去回路4によってこの粒状ノイズを取り除く、このノ
イズ除去回路4としては、例えば5×5の25画素のう
ち真中13番目の濃度レベルを出力する5×5のメデイ
アンフィルタなどで実現できる。その結果、ノイズ除去
回路4の出力画像データ12は第3図(C)のように粒
状ノイズが除去されたものとなる。 第4図はエツジの抽出過程を示す説明図である。 エツジ点抽出回路5では第4図(b)に13で示すよう
に、第4図(a)に示すノイズ除去回路4より出力され
た画像データ12中の濃度レベルに変化のある点をエツ
ジとして出力する。これは2次元画像においては第5図
に示すように、ノイズ除去回路4の出力する画像データ
中のある画素とその画素の上下左右各1画素の5画素に
おいて、1つでも濃度の異なる画素があればその画素を
“1″、すべて同じであればその画素を0″として出力
し、その結果第6図に14で示すようなエツジ点が1″
、それ以外の点が″0” (この場合″0″は図示を省
略している)である1ビツトのエツジ画像60を出力す
る。 以上のように、階調変換回路3、ノイズ除去回路4、お
よびエツジ点検出回路5を構成することにより、濃淡変
化が滑らかでエツジ点の得にくい、第3図(a)に10
で示すような信号からでの第4図(ロ)に13で示すよ
うに明確なエツジを得ることができる。 エツジ点マツチング回路6では5SDAの考え方を取り
入れ、エツジ点抽出回路5より前述のようにして出力さ
れた対象画像のエツジ画像データ上で基準画像のエツジ
画像データを動かし、基準画像でエツジが存在する点に
対象画像のエツジがなければlを加算し、あれば何もし
ないという操作を行う、これにより5SDAにおける残
差に相当するミスマツチ度を求め、得られたミスマツチ
度が最小となる点を探す、このミスマツチ度が最小の点
をマツチング候補点として出力する。 位置合わせをするための計算量としては、通常の5SD
Aの場合が(M+1)”M”であるのに対し、この場合
では(M+1)”Noとなる。ここでMは基準画像の大
きさ、N、はエツジ点の個数であり、対象画像の大きさ
は2M+1であるとする。 したがって、計算量はN、7M”に減少する。例えばM
=64の場合、全画素数は4096点であるがエツジ点
として100点が得られたとすると約2.5%の計算量
で位置合わせができることになる。。さらに、通常の5
SDAを行うためには基準画像と対象画像間の演算回路
は8ビツトの減算回路、絶対値出力回路、加算回路で構
成されるが、エツジ点マツチング回路に入力されるエツ
ジ点画像は1ビツトの2値画像であるため、基準画像と
対象画像間の演算回路は1ビツトの比較回路と加算回路
のみであり、ハードウェア量が大幅に削減される。 原画像マツチング回路7では、エツジ点マツチング回路
6で得られたマツチング候補点の5×5の近傍において
、基準画像1と対象画像2の原画像間で5SDAによる
マツチングを行い、残差が最小となる点をマツチング点
として出力する。 なお、上記実施例では階調変換回路3の出力は4レベル
としたがこのレベル数は別の数でもよい。 例えば、レベル数が2レベルの場合は1ビツト、8レベ
ルであれば3ビツトの出力となる。また、ノイズ除去回
路4は5×5のメデイアンフィルタで構成したが、3×
3あるいは7×7のフィルタを用いることもできる。さ
らに原画像マツチング回路7も5×5近傍に限定するも
のでないことも明らかである。
Problems to be Solved by the Invention Since the conventional alignment device is configured as described above, alignment of two images is performed at the original image data level; The speed-up of alignment that can be achieved with the above-mentioned two-step search is at its limit, and the method of aligning based on features such as edge points is not suitable for images with smooth changes in shading. There were problems such as the fact that it was difficult to obtain the desired product, so it could not be said to be effective. This invention was made to solve the above-mentioned problems. Feature points can be easily obtained even from images with smooth shading changes, and the matching speed is also faster than conventional two-step search. The objective is to obtain a positioning device that is sufficiently fast even when the [Means for Solving the Problems] An alignment device according to the present invention includes a gradation conversion circuit that reduces the number of density levels of each of a reference image and a target image, and a granular noise in each gradation-converted image data. A noise removal circuit for removing noise, an edge point extraction circuit for extracting density level boundary points of each image data from which noise has been removed as edges, an edge point matching circuit for obtaining matching candidate points for each edge image data, and the vicinity of the matching candidate points. The apparatus is equipped with an original image matching circuit that performs matching using original image data of a reference image and a target image to detect matching points. (Function) The edge point matching circuit of the present invention reduces the number of density levels in the gradation conversion circuit, and uses the edge image data of the reference image and the target image, from which edges are extracted in the edge point extraction circuit, to perform coarse matching. The original image matching circuit performs alignment to find matching candidate points, and the original image matching circuit performs matching using original image data in the vicinity of this matching candidate point to find matching points. An embodiment of the present invention will be described below with reference to the drawings.
In the figure, 1 is a reference image that serves as a reference, and 2 is a target image for alignment. 3 is a gradation conversion circuit that converts the number of density levels of the reference image 1 and target image 2 into a smaller number of density levels; 4 is this gradation conversion circuit 3;
This is a noise removal circuit that removes granular noise from each image data output from the . Reference numeral 5 denotes an edge point extraction circuit for extracting boundary points of density changes in each image data outputted from the noise removal circuit 4 as edges. An edge point matching circuit 6 searches for matching candidate points by matching the edge image data of the reference image 1 and the edge image data of the target image 2 obtained from the edge point extraction circuit 5. Reference numeral 7 denotes an original image matching circuit that performs matching using the original image data of the reference image 1 and the target image 2 in the vicinity of the matching candidate points obtained by the edge point matching circuit 6 to find matching points. Next, the operation will be explained. FIG. 2 is an explanatory diagram showing the relationship between the input image and the output image in the gradation conversion circuit 3,
In this example, a 256-level input image is output as a 4-level output image. 4 density levels means that the output image is 2
Since it can be expressed in bits, this gradation conversion circuit 3 also functions as a data compressor. Further, this gradation conversion circuit 3 can be easily realized in terms of hardware by using a lookup table. FIG. 3 is an explanatory diagram showing the process of removing granular noise. In the case of an image in which the density changes locally as shown by the one-dimensional signal 10 in FIG. 3(a), the gradation conversion circuit 3 As shown in FIG. 3(b), granular noise appears in the image data 11 outputted from the image data 11 at the boundaries of density changes. This granular noise becomes a false edge and causes a drop in matching accuracy when edge point matching is performed. Therefore, this granular noise is removed by the noise removal circuit 4. This noise removal circuit 4 is realized by, for example, a 5 x 5 median filter that outputs the density level of the 13th center of 25 pixels of 5 x 5. can. As a result, the output image data 12 of the noise removal circuit 4 has granular noise removed, as shown in FIG. 3(C). FIG. 4 is an explanatory diagram showing the edge extraction process. In the edge point extraction circuit 5, as shown at 13 in FIG. 4(b), points where the density level changes in the image data 12 output from the noise removal circuit 4 shown in FIG. 4(a) are identified as edges. Output. In a two-dimensional image, as shown in FIG. 5, this means that at least one pixel in the image data output by the noise removal circuit 4 has a different density among five pixels, one pixel each on the top, bottom, left, and right of that pixel. If so, that pixel is output as "1", and if they are all the same, that pixel is output as 0", and as a result, the edge point as shown by 14 in Figure 6 is 1".
, a 1-bit edge image 60 is output in which all other points are "0" (in this case, "0" is omitted from illustration). As described above, by configuring the gradation conversion circuit 3, the noise removal circuit 4, and the edge point detection circuit 5, the gradation conversion circuit 3, the noise removal circuit 4, and the edge point detection circuit 5 are configured so that the density change is smooth and it is difficult to obtain the edge points.
A clear edge as shown at 13 in FIG. 4(b) can be obtained from the signal shown in FIG. The edge point matching circuit 6 incorporates the idea of 5SDA, moves the edge image data of the reference image on the edge image data of the target image outputted from the edge point extraction circuit 5 as described above, and detects the presence of edges in the reference image. If there is no edge of the target image at the point, add l, and if there is, do nothing. By this, calculate the degree of mismatch corresponding to the residual in 5SDA, and find the point where the obtained degree of mismatch is the minimum. , the point with the minimum degree of mismatch is output as a matching candidate point. The amount of calculation required for alignment is the usual 5SD.
In case of A, it is (M+1)"M", but in this case, it is (M+1)"No. Here, M is the size of the reference image, N is the number of edge points, and Assume that the size is 2M+1. Therefore, the amount of calculation is reduced to N,7M''. For example, M
=64, the total number of pixels is 4096 points, but if 100 points are obtained as edge points, alignment can be performed with about 2.5% of the amount of calculation. . In addition, the usual 5
To perform SDA, the calculation circuit between the reference image and the target image consists of an 8-bit subtraction circuit, an absolute value output circuit, and an addition circuit, but the edge point image input to the edge point matching circuit is a 1-bit Since it is a binary image, the only arithmetic circuits between the reference image and the target image are a 1-bit comparison circuit and an addition circuit, which greatly reduces the amount of hardware. The original image matching circuit 7 performs 5SDA matching between the original images of the reference image 1 and the target image 2 in the 5×5 vicinity of the matching candidate points obtained by the edge point matching circuit 6, and matches the original images with the minimum residual error. Output the points as matching points. In the above embodiment, the output of the gradation conversion circuit 3 has four levels, but the number of levels may be different. For example, if the number of levels is 2, the output will be 1 bit, and if the number of levels is 8, the output will be 3 bits. In addition, although the noise removal circuit 4 was configured with a 5×5 median filter,
3 or 7×7 filters can also be used. Furthermore, it is clear that the original image matching circuit 7 is not limited to the vicinity of 5×5.

【発明の効果】【Effect of the invention】

以上のように、この発明によれば、階調変換回路で濃度
レベル数が削減され、エツジ点抽出回路でエツジが抽出
された基準画像、対象画像それぞれのエツジ画像データ
を用いたエツジ点マツチング回路による粗い位置合わせ
によってマツチング候補点を求め、原画像マツチング回
路でこのマツチング候補点の近傍における原画像データ
のマ・ンチングを行うことによってマツチング点を求め
るように構成したので、従来の2段階サーチなどと比較
しても十分速い位置合わせを行うことができ、また、画
像中に明確なエツジ点などの特徴点がない画像に対して
も適用可能となるばかりか、ハードウェア量も削減でき
る位置合わせ装置が得られる効果がある。
As described above, according to the present invention, the edge point matching circuit uses the edge image data of the reference image and the target image, in which the number of density levels is reduced in the gradation conversion circuit and the edges are extracted in the edge point extraction circuit. A matching candidate point is determined by rough positioning using , and an original image matching circuit performs matching of the original image data in the vicinity of this matching candidate point to determine the matching point. It is possible to perform positioning that is sufficiently fast compared to , and can be applied even to images that do not have distinct feature points such as edge points, and can also reduce the amount of hardware required. There is an effect that the device can obtain.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の一実施例による位置合わせ装置を示
すブロック図、第2図はその階調変換回路における入力
画像と出力画像の関係を示す説明図、第3図は粒状ノイ
ズの除去過程を示す説明図、第4図はエツジの抽出過程
を示す説明図、第5図はそれを2次元画像で示す説明図
、第6図はそのエツジ画像データの概念を示す説明図、
第7図は従来の位置合わせ装置における相関法を説明す
るための説明図、第8図は同じ(2段階サーチの概念を
示す説明図である。 lは基準画像、2は対象画像、3は階調変換回路、4は
ノイズ除去回路、5はエツジ点抽出回路、6はエツジ点
マツチング回路、7は原画像マツチング回路。 なお、図中、同一符号は同一、又は相当部分を示す。
FIG. 1 is a block diagram showing a positioning device according to an embodiment of the present invention, FIG. 2 is an explanatory diagram showing the relationship between an input image and an output image in the tone conversion circuit, and FIG. 3 is a process of removing granular noise. FIG. 4 is an explanatory diagram showing the edge extraction process; FIG. 5 is an explanatory diagram showing it as a two-dimensional image; FIG. 6 is an explanatory diagram showing the concept of edge image data;
FIG. 7 is an explanatory diagram for explaining the correlation method in a conventional alignment device, and FIG. 8 is an explanatory diagram showing the same (two-step search concept). l is a reference image, 2 is a target image, and 3 is an explanatory diagram 4 is a gradation conversion circuit, 4 is a noise removal circuit, 5 is an edge point extraction circuit, 6 is an edge point matching circuit, and 7 is an original image matching circuit. In the drawings, the same reference numerals indicate the same or corresponding parts.

Claims (1)

【特許請求の範囲】[Claims] あらかじめ入力されている基準画像、および新たに入力
されて前記基準画像との間で位置合わせが行われる対象
画像の各々の濃度レベル数を、より少ない濃度レベル数
に変換する階調変換回路と、前記階調変換回路から出力
される各画像データ中の粒状ノイズを除去するノイズ除
去回路と、前記ノイズ除去回路から出力される各画像デ
ータの濃度レベルの境界点をエッジとして抽出するエッ
ジ点抽出回路と、前記エッジ点抽出回路から出力される
各エッジ画像データのマッチング候補点を探索するエッ
ジ点マッチング回路と、前記エッジ点マッチング回路に
て得られた前記マッチング候補点の近傍で前記基準画像
と対象画像の原画像データによるマッチングを行い、マ
ッチング点を検出する原画像マッチング回路とを備えた
位置合わせ装置。
a gradation conversion circuit that converts the number of density levels of each of a reference image that has been input in advance and a target image that is newly input and is aligned with the reference image to a smaller number of density levels; a noise removal circuit that removes granular noise in each image data output from the gradation conversion circuit; and an edge point extraction circuit that extracts, as an edge, a boundary point between density levels of each image data output from the noise removal circuit. an edge point matching circuit that searches for matching candidate points for each edge image data output from the edge point extraction circuit; and an edge point matching circuit that searches for matching candidate points in each edge image data output from the edge point extraction circuit; An alignment device that includes an original image matching circuit that performs matching using original image data of images and detects matching points.
JP2283838A 1990-10-22 1990-10-22 Positioning device Expired - Fee Related JP2988994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2283838A JP2988994B2 (en) 1990-10-22 1990-10-22 Positioning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2283838A JP2988994B2 (en) 1990-10-22 1990-10-22 Positioning device

Publications (2)

Publication Number Publication Date
JPH04157577A true JPH04157577A (en) 1992-05-29
JP2988994B2 JP2988994B2 (en) 1999-12-13

Family

ID=17670818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2283838A Expired - Fee Related JP2988994B2 (en) 1990-10-22 1990-10-22 Positioning device

Country Status (1)

Country Link
JP (1) JP2988994B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6272246B1 (en) 1997-02-05 2001-08-07 Sharp Kabushiki Kaisha Positioning device
JP2006172457A (en) * 2004-12-10 2006-06-29 Radiological Imaging Technology Inc Optimizing image arrangement
JP2010050805A (en) * 2008-08-22 2010-03-04 Mitsubishi Electric Corp Image correcting apparatus
JP2013171425A (en) * 2012-02-21 2013-09-02 Mitsutoyo Corp Image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6272246B1 (en) 1997-02-05 2001-08-07 Sharp Kabushiki Kaisha Positioning device
JP2006172457A (en) * 2004-12-10 2006-06-29 Radiological Imaging Technology Inc Optimizing image arrangement
JP2010050805A (en) * 2008-08-22 2010-03-04 Mitsubishi Electric Corp Image correcting apparatus
JP2013171425A (en) * 2012-02-21 2013-09-02 Mitsutoyo Corp Image processing device
US9390324B1 (en) 2012-02-21 2016-07-12 Mitutoyo Corporation Image processing device and method of image processing

Also Published As

Publication number Publication date
JP2988994B2 (en) 1999-12-13

Similar Documents

Publication Publication Date Title
Chudasama et al. Image segmentation using morphological operations
CN109543665B (en) Image positioning method and device
CN115205223A (en) Visual detection method and device for transparent object, computer equipment and medium
CN112215079A (en) Global multistage target tracking method
JPH04157577A (en) Positioning device
JP2005293334A (en) Template matching device
JP2004240909A (en) Image processor and image processing method
CN112364835A (en) Video information frame taking method, device, equipment and storage medium
JPH03201454A (en) Aligning method for semiconductor device
JP3016687B2 (en) Image processing device
JP2712803B2 (en) Wiring pattern inspection equipment
CN113382134B (en) Focusing debugging method of linear array industrial camera
JPS5830645A (en) Pattern inspecting system
JPH1069542A (en) Template matching method
JP2676990B2 (en) Wiring pattern inspection equipment
JPH04350776A (en) Pattern feature extractor and pattern inspector
JPS63170789A (en) Pattern resemblance degree detection circuit
JPH08167029A (en) Image processor
Chen et al. A New Objective Evaluation Method on Image Edge Detection
JPS595945B2 (en) Pattern recognition method
Mony et al. A Novel Edge Detection Method on the Effect of Illumination for Reducing Noise on a Color Image
CN117253033A (en) Equipment instrument parameter detection method based on deep learning and watershed segmentation
JP3010588B2 (en) Pattern positioning device and pattern classification device
JPH05336512A (en) Motion detecting device
WO2023191757A1 (en) Detection of objects in digital images using a hybridized resnet and dense block architecture

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees