JP2988994B2 - Positioning device - Google Patents

Positioning device

Info

Publication number
JP2988994B2
JP2988994B2 JP2283838A JP28383890A JP2988994B2 JP 2988994 B2 JP2988994 B2 JP 2988994B2 JP 2283838 A JP2283838 A JP 2283838A JP 28383890 A JP28383890 A JP 28383890A JP 2988994 B2 JP2988994 B2 JP 2988994B2
Authority
JP
Japan
Prior art keywords
circuit
image
matching
edge
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2283838A
Other languages
Japanese (ja)
Other versions
JPH04157577A (en
Inventor
隆史 平位
耕一 笹川
伸一 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2283838A priority Critical patent/JP2988994B2/en
Publication of JPH04157577A publication Critical patent/JPH04157577A/en
Application granted granted Critical
Publication of JP2988994B2 publication Critical patent/JP2988994B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION 【産業上の利用分野】[Industrial applications]

この発明は、位置ずれのある2枚の画像間の位置合わ
せを行う位置合わせ装置に関するものである。
The present invention relates to a positioning device for performing positioning between two images having positional deviations.

【従来の技術】[Prior art]

第7図は従来の位置合わせ装置にて用いられている相
関法を説明するための説明図である。図において、1は
あらかじめ入力されている、大きさがM×Mの基準画像
であり、2は新たに入力されてこの基準画像1との間で
位置合わせが行われる、大きさがL×Lの対象画像であ
る。 次に動作について説明する。相関法においては、2枚
の画像間のマッチング度を測る指標として、 が用いられる。ここで、W(i,j)は基準画像1、S
(i,j)は対象画像2である。また、R(m,n)は対象画
像2上の点(m,n)における2枚の画像間の相関を表し
ており、第7図に示すように、1≦m≦L−M+1,1≦
n≦L−M+1の範囲において対象画像2上で基準画像
1を動かし、各点(m,n)における相関R(m,n)を計算
する。この相関R(m,n)の値が大きいほど類似度が高
いことを示すので、相関R(m,n)が最大値をとる点
(m,n)がマッチング点となる。しかしこの方法は計算
コストが大きく、またノイズがあるとマッチング点が不
鮮明になるという欠点を持つ。 この相関法の欠点を補うものとして残差逐次検出法
(以下SSDAという)が知られている。このSSDAにおける
マッチング度の指標は、 で与えられる。e(m,n)は残差と呼ばれ、相関法と同
様に1≦m≦L−M+1,1≦n≦L−M+1の範囲にお
いて対象画像上で基準画像を動かして各点(m,n)での
残差e(m,n)の値を計算する。残差e(m,n)は2枚の
画像間のミスマッチの度合いを表すので、残差e(m,
n)を最小にする点(m,n)がマッチング点である。この
方法では画像を適当にスキャンして各点での残差e(m,
n)を計算し、残差e(m,n)がある閾値を越えた時点で
計算を打ち切ることにより高速化を図っている。しか
し、基準画像や対象画像のサイズが大きくなると高速化
は達成できない。 これを解決するために、基準画像の一部を部分テンプ
レートとして用いる方法や、間引き処理等により画像を
縮小して解像度を落とした画像上で位置合わせをしてか
ら正確な位置合わせをする2段階サーチの方法などが考
えられている。また、画像上のエッジ点等の特徴点に着
目して位置合わせを行う手法も提案されている。 このような2枚の画像の位置合わせをさらに高速化す
るための2段階サーチの手法について説明する。この2
段階サーチにおいては、基準画像のサイズをM×M、サ
ーチ範囲を(2M+1)×(2M+1)とすると、全画素に
よるサーチ回数は(M+1)であるのに対し、第8図
に1次元の信号で示すように、n行毎に間引き処理をし
て粗サーチを行い、粗サーチで残差を最小にする点の周
りで精サーチをすると、2次元画像におけるサーチ回数
は、 となる。サーチ回数を最小にするnは、たとえばM=16
のとき、n=3、M=32のときn=、M=64のときn=
6となる。この結果、全画素を用いて位置合わせをする
場合と比較してサーチ回数はM=16のときで約12%、M
=32のときで約10%、M=64のときで約5%となる。 なお、このような従来の位置合わせ装置における相関
法、SSDAについては、例えば、画像処理ハンドブック
(1987年昭晃堂発行)の第303頁などにも示されてい
る。
FIG. 7 is an explanatory diagram for explaining a correlation method used in a conventional positioning device. In the figure, reference numeral 1 denotes a previously input reference image having a size of M × M, reference numeral 2 denotes a newly input reference image to be aligned with the reference image 1, and a size of L × L. Is the target image. Next, the operation will be described. In the correlation method, as an index for measuring the degree of matching between two images, Is used. Here, W (i, j) is the reference image 1, S
(I, j) is the target image 2. R (m, n) represents the correlation between the two images at the point (m, n) on the target image 2, and as shown in FIG. 7, 1 ≦ m ≦ LM−1,1 ≤
The reference image 1 is moved on the target image 2 in the range of n ≦ LM−1, and the correlation R (m, n) at each point (m, n) is calculated. Since the larger the value of the correlation R (m, n) is, the higher the similarity is, the point (m, n) where the correlation R (m, n) takes the maximum value is the matching point. However, this method has the drawback that the calculation cost is large and the matching point becomes unclear in the presence of noise. As a method for compensating for the disadvantage of the correlation method, a residual sequential detection method (hereinafter referred to as SSDA) is known. The index of the matching degree in this SSDA is Given by e (m, n) is called a residual, and similarly to the correlation method, the reference image is moved on the target image in the range of 1 ≦ m ≦ LM + 1, 1 ≦ n ≦ LM + 1 to obtain each point (m, n). Calculate the value of the residual e (m, n) in n). Since the residual e (m, n) indicates the degree of mismatch between the two images, the residual e (m, n)
The point (m, n) that minimizes n) is the matching point. In this method, the image is appropriately scanned and the residual e (m,
n) is calculated, and the calculation is terminated when the residual e (m, n) exceeds a certain threshold, thereby achieving high speed. However, if the size of the reference image or the target image increases, the speed cannot be increased. In order to solve this, a method using a part of the reference image as a partial template or a two-stage method in which the image is reduced by a thinning-out process and the position is adjusted on an image with reduced resolution, and then the accurate position is adjusted Search methods are being considered. In addition, a method of performing alignment by focusing on a feature point such as an edge point on an image has been proposed. A method of a two-stage search for further speeding up the positioning of such two images will be described. This 2
In the step search, assuming that the size of the reference image is M × M and the search range is (2M + 1) × (2M + 1), the number of searches for all pixels is (M + 1) 2 , whereas the one-dimensional search shown in FIG. As shown by the signal, a coarse search is performed by thinning out every n rows, and a fine search is performed around a point where the residual is minimized in the coarse search. Becomes N that minimizes the number of searches is, for example, M = 16
, N = 3, M = 32 when n =, M = 64 when n =
It becomes 6. As a result, the number of searches is about 12% when M = 16, and M
When M = 64, it is about 10%, and when M = 64, it is about 5%. The correlation method and SSDA in such a conventional positioning apparatus are described in, for example, page 303 of an image processing handbook (published by Shokodo in 1987).

【発明が解決しようとする課題】[Problems to be solved by the invention]

従来の位置合わせ装置は以上のように構成されている
ので、位置合わせは2枚の画像は原画像データレベルに
て行われるものであり、この原画像データレベルで行え
る位置合わせの高速化としては前記2段階サーチによる
程度の高速化が限界となり、またエッジ点等の特徴に基
づいて位置合わせを行う方法も、濃淡変化の滑らかな画
像に対してはエッジ点そのものを得ることが困難である
ため有効であるとは言えないなどの課題があった。 この発明は上記のような課題を解消するためになされ
たもので、濃淡変化の滑らかな画像に対しても特徴点が
容易に得られ、またマッチングの速度も従来の2段階サ
ーチなどと比較しても十分に速い位置合わせ装置を得る
ことを目的とする。
Since the conventional positioning apparatus is configured as described above, the positioning is performed on two images at the original image data level. To speed up the positioning at the original image data level, The speedup by the two-step search is limited, and it is difficult to obtain the edge points per se for an image having a smooth change in shading even in the method of performing the alignment based on the features such as the edge points. There were issues such as not being effective. SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and a feature point can be easily obtained even for an image having a smooth gradation, and the matching speed is compared with that of a conventional two-step search. It is an object of the present invention to obtain a sufficiently fast positioning device.

【課題を解決するための手段】[Means for Solving the Problems]

この発明に係る位置合わせ装置は、基準画像と対象画
像の各々の濃度レベル数を削減する階調変換回路、階調
変換された各画像データ中の粒状ノイズを除去するノイ
ズ除去回路、ノイズ除去された各画像データの濃度レベ
ル境界点をエッジとして抽出するエッジ点抽出回路、各
エッジ画像データのマッチング候補点を求めるエッジ点
マッチング回路、およびそのマッチング候補点の近傍で
基準画像と対象画像の原画像データによるマッチングを
行ってマッチング点を検出する原画像マッチング回路を
備えたものである。
According to one embodiment of the present invention, there is provided a positioning apparatus for reducing a number of density levels of a reference image and a target image, a noise removing circuit for removing granular noise in each of the gradation-converted image data, and a noise removing circuit. Edge point extraction circuit for extracting a density level boundary point of each image data as an edge, an edge point matching circuit for finding a matching candidate point of each edge image data, and an original image of a reference image and a target image near the matching candidate point It has an original image matching circuit that performs matching by data and detects a matching point.

【作用】 この発明におけるエッジ点マッチング回路は、階調変
換回路にて濃度レベル数が削減され、エッジ点抽出回路
にてエッジが抽出された基準画像、対象画像それぞれの
エッジ画像データを用いて粗い位置合わせを行ってマッ
チング候補点を求め、原画像マッチング回路は、このマ
ッチング候補点の近傍において原画像データによるマッ
チングを行ってマッチング点を求めることにより、濃淡
変化の滑らかな画像に対しても特徴点を容易に得られ、
処理速度も十分に速い位置合わせ装置を実現する。
According to the edge point matching circuit of the present invention, the number of density levels is reduced by the gradation conversion circuit, and the edge point extraction circuit coarsely uses the edge image data of the reference image and the target image from which the edges are extracted. Matching candidate points are obtained by performing position matching, and the original image matching circuit performs matching with the original image data in the vicinity of the matching candidate points to obtain matching points. Get points easily,
It realizes an alignment device with a sufficiently high processing speed.

【実施例】【Example】

以下、この発明の一実施例を図について説明する。第
1図において、1は基準となる基準画像であり、2は位
置合わせをする対象画像である。3は基準画像1と対象
画像2の画像の濃度レベル数をより少ない濃度レベル数
に変換する階調変換回路であり、4はこの階調変換回路
3から出力される各画像データ中の粒状ノイズを取り除
くノイズ除去回路である。5はこのノイズ除去回路4か
ら出力される各画像データ中における濃度変化の境界点
をエッジとして抽出するエッジ点抽出回路である。6は
このエッジ点抽出回路5から得られる基準画像1のエッ
ジ画像データと対象画像2のエッジ画像データのマッチ
ングを行ってマッチング候補点を探索するエッジ点マッ
チング回路である。7はエッジ点マッチング回路6で得
られたマッチング候補点の近傍で基準画像1および対象
画像2それぞれの原画像データを用いてマッチングを行
い、マッチング点を求める原画像マッチング回路であ
る。 次に動作について説明する。第2図は階調変換回路3
における入力画像と出力画像の関係を示す説明図であ
り、この例では256レベルの入力画像が4レベルの出力
画像となって出力されている。濃度レベルが4レベルに
なるということは出力画像が2ビットで表現できること
になり、この階調変換回路3はデータ圧縮器としての働
きもする。またこの階調変換回路3は、ハードウェア的
にはルックアップテーブルを用いることにより容易に実
現することができる。 第3図は粒状ノイズ除去の過程を示す説明図であり、
同図(a)に1次元の信号10で示すような濃度変化が局
所的に変動するような画像の場合、階調変換回路3の出
力する画像データ11には第3図(b)に示すように濃度
変化の境界部分に粒状ノイズが現れる。この粒状ノイズ
は偽のエッジとなってエッジ点マッチングを行う際にマ
ッチングの精度を落とす原因になる。それ故、ノイズ除
去回路4によってこの粒状ノイズを取り除く。このノイ
ズ除去回路4としては、例えば5×5の25画素のうち真
中13番目の濃度レベルを出力する5×5のメディアンフ
ィルタなどで実現できる。その結果、ノイズ除去回路4
の出力画像データ12は第3図(c)のように粒状ノイズ
が除去されたものとなる。 第4図はエッジの抽出過程を示す説明図である。エッ
ジ点抽出回路5では第4図(b)に13で示すように、第
4図(a)に示すノイズ除去回路4より出力された画像
データ12中の濃度レベルに変化のある点をエッジとして
出力する。これは2次元画像においては第5図に示すよ
うに、ノイズ除去回路4の出力する画像データ中のある
画素とその画素の上下左右各1画素の5画素において、
1つでも濃度の異なる画素があればその画素を“1"、す
べて同じであればその画素を“0"として出力し、その結
果第6図に14で示すようなエッジ点が“1"、それ以外の
点が“0"(この場合“0"は図示を省略している)である
1ビットのエッジ画像60を出力する。 以上のように、階調変換回路3、ノイズ除去回路4、
およびエッジ点検出回路5を構成することにより、濃淡
変化が滑らかでエッジ点の得にくい、第3図(a)に10
で示すような信号から第4図(b)に13で示すように明
確なエッジを得ることができる。 エッジ点マッチング回路6ではSSDAの考え方を取り入
れ、エッジ点抽出回路5より前述のようにして出力され
た対象画像のエッジ画像データ上で基準画像のエッジ画
像データを動かし、基準画像でエッジが存在する点に対
象画像のエッジがなければ1を加算し、あれば何もしな
いという操作を行う。これによりSSDAにおける残差に相
当するミスマッチ度を求め、得られたミスマッチ度が最
小となる点を探す。このミスマッチ度が最小の点をマッ
チング候補点として出力する。 位置合わせをするための計算量としては、通常のSSDA
の場合が(M+1)2M2であるのに対し、この場合では
(M+1)2Neとなる。ここでMは基準画像の大きさ、N
eはエッジ点の個数であり、対象画像の大きさは2M+1
であるとする。したがって、計算量はNe/M2に減少す
る。例えばM=64の場合、全画素数は4096点であるがエ
ッジ点として100点が得られたとすると約2.5%の計算量
で位置合わせができることになる。さらに、通常のSSDA
を行うためには基準画像と対象画像間の演算回路は8ビ
ットの減算回路、絶対値出力回路、加算回路で構成され
るが、エッジ点マッチング回路に入力されるエッジ点画
像は1ビットの2値画像であるため、基準画像と対象画
像間の演算回路は1ビットの比較回路と加算回路のみで
あり、ハードウェア量が大幅に削減される。 原画像マッチング回路7では、エッジ点マッチング回
路6で得られたマッチング候補点の5×5の近傍におい
て、基準画像1と対象画像2の原画像間でSSDAによるマ
ッチングを行い、残差が最小となる点をマッチング点と
して出力する。 なお、上記実施例では階調変換回路3の出力は4レベ
ルとしたがこのレベル数は別の数でもよい。例えば、レ
ベル数が2レベルの場合は1ビット、8レベルであれば
3ビットの出力となる。また、ノイズ除去回路4は5×
5のメディアンフィルタで構成したが、3×3あるいは
7×7のフィルタを用いることもできる。さらに原画像
マッチング回路7も5×5近傍に限定するものでないこ
とも明らかである。
An embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, reference numeral 1 denotes a reference image serving as a reference, and reference numeral 2 denotes a target image to be aligned. Reference numeral 3 denotes a gradation conversion circuit for converting the number of density levels of the images of the reference image 1 and the target image 2 to a smaller number of density levels. Reference numeral 4 denotes a granular noise in each image data output from the gradation conversion circuit 3. This is a noise elimination circuit for removing the noise. Reference numeral 5 denotes an edge point extraction circuit for extracting a boundary point of a density change in each image data output from the noise removal circuit 4 as an edge. Reference numeral 6 denotes an edge point matching circuit that matches the edge image data of the reference image 1 obtained from the edge point extraction circuit 5 and the edge image data of the target image 2 to search for a matching candidate point. Reference numeral 7 denotes an original image matching circuit that performs matching using the original image data of each of the reference image 1 and the target image 2 near the matching candidate point obtained by the edge point matching circuit 6 to obtain a matching point. Next, the operation will be described. FIG. 2 shows the gradation conversion circuit 3.
FIG. 4 is an explanatory diagram showing a relationship between an input image and an output image in the example. In this example, a 256-level input image is output as a 4-level output image. The fact that the density level becomes 4 levels means that the output image can be represented by 2 bits, and this gradation conversion circuit 3 also functions as a data compressor. The gradation conversion circuit 3 can be easily realized by using a look-up table in hardware. FIG. 3 is an explanatory diagram showing a process of removing granular noise.
In the case of an image in which the density change varies locally as shown by a one-dimensional signal 10 in FIG. 3A, the image data 11 output from the gradation conversion circuit 3 is shown in FIG. Thus, granular noise appears at the boundary of the density change. This granular noise becomes a false edge and causes a drop in matching accuracy when performing edge point matching. Therefore, this noise is removed by the noise removing circuit 4. The noise removing circuit 4 can be realized by, for example, a 5 × 5 median filter that outputs the 13th middle density level among 5 × 5 25 pixels. As a result, the noise removal circuit 4
The output image data 12 is obtained by removing granular noise as shown in FIG. 3 (c). FIG. 4 is an explanatory diagram showing an edge extraction process. In the edge point extraction circuit 5, as shown by 13 in FIG. 4B, a point where the density level in the image data 12 output from the noise removal circuit 4 shown in FIG. Output. In a two-dimensional image, as shown in FIG. 5, a certain pixel in the image data output from the noise removal circuit 4 and one pixel above, below, left, and right of the pixel are:
If there is even one pixel having a different density, the pixel is output as "1", and if all pixels are the same, the pixel is output as "0". As a result, the edge point as shown in FIG. A 1-bit edge image 60 whose other points are “0” (in this case, “0” is not shown) is output. As described above, the gradation conversion circuit 3, the noise removal circuit 4,
By configuring the edge point detection circuit 5, the gradation change is smooth and it is difficult to obtain an edge point.
A clear edge can be obtained from the signal as shown by (13) in FIG. 4 (b). The edge point matching circuit 6 adopts the SSDA concept, moves the edge image data of the reference image on the edge image data of the target image output as described above from the edge point extraction circuit 5, and the edge exists in the reference image. If there is no edge of the target image at the point, 1 is added, and if there is no edge, no operation is performed. Thus, the degree of mismatch corresponding to the residual in SSDA is obtained, and a point where the obtained degree of mismatch is minimized is searched. The point having the minimum degree of mismatch is output as a matching candidate point. The amount of calculation for alignment is the usual SSDA
Contrast If that is (M + 1) 2 M 2 of in this case is (M + 1) 2 N e . Where M is the size of the reference image, N
e is the number of edge points, and the size of the target image is 2M + 1
And Therefore, the calculation amount is reduced to N e / M 2. For example, in the case of M = 64, the total number of pixels is 4096, but if 100 points are obtained as edge points, alignment can be performed with a calculation amount of about 2.5%. In addition, normal SSDA
In order to perform the above operation, the arithmetic circuit between the reference image and the target image is composed of an 8-bit subtraction circuit, an absolute value output circuit, and an addition circuit. Since it is a value image, the only operation circuit between the reference image and the target image is a 1-bit comparison circuit and an addition circuit, and the amount of hardware is greatly reduced. The original image matching circuit 7 performs matching by SSDA between the original image of the reference image 1 and the original image of the target image 2 in the vicinity of 5 × 5 of the matching candidate points obtained by the edge point matching circuit 6 so that the residual is minimized. Are output as matching points. In the above embodiment, the output of the gradation conversion circuit 3 has four levels, but the number of levels may be different. For example, when the number of levels is two, the output is one bit, and when the number is eight, the output is three bits. The noise removal circuit 4 is 5 ×
Although a median filter of 5 is used, a 3 × 3 or 7 × 7 filter may be used. Further, it is apparent that the original image matching circuit 7 is not limited to the vicinity of 5 × 5.

【発明の効果】【The invention's effect】

以上のように、この発明によれば、階調変換回路で濃
度レベル数が削減され、エッジ点抽出回路でエッジが抽
出された基準画像、対象画像それぞれのエッジ画像デー
タを用いたエッジ点マッチング回路による粗い位置合わ
せによってマッチング候補点を求め、原画像マッチング
回路でこのマッチング候補点の近傍における原画像デー
タのマッチングを行うことによってマッチング点を求め
るように構成したので、従来の2段階サーチなどと比較
しても十分速い位置合わせを行うことができ、また、画
像中に明確なエッジ点などの特徴点がない画像に対して
も適用可能となるばかりか、ハードウェア量も削減でき
る位置合わせ装置が得られる効果がある。
As described above, according to the present invention, the number of density levels is reduced by the gradation conversion circuit, and the edge point matching circuit using the edge image data of each of the reference image and the target image whose edges are extracted by the edge point extraction circuit A matching candidate point is obtained by coarse positioning by using the method described above, and a matching point is obtained by performing matching of the original image data in the vicinity of the matching candidate point by the original image matching circuit. However, a positioning device that can perform positioning quickly enough and can be applied to images without feature points such as clear edge points in the image as well as reduce the amount of hardware is available. There is an effect that can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明の一実施例による位置合わせ装置を示
すブロック図、第2図はその階調変換回路における入力
画像と出力画像の関係を示す説明図、第3図は粒状ノイ
ズの除去過程を示す説明図、第4図はエッジの抽出過程
を示す説明図、第5図はそれを2次元画像で示す説明
図、第6図はそのエッジ画像データの概念を示す説明
図、第7図は従来の位置合わせ装置における相関法を説
明するための説明図、第8図は同じく2段階サーチの概
念を示す説明図である。 1は基準画像、2は対象画像、3は階調変換回路、4は
ノイズ除去回路、5はエッジ点抽出回路、6はエッジ点
マッチング回路、7は原画像マッチング回路。 なお、図中、同一符号は同一、又は相当部分を示す。
FIG. 1 is a block diagram showing a positioning device according to an embodiment of the present invention, FIG. 2 is an explanatory diagram showing a relationship between an input image and an output image in the gradation conversion circuit, and FIG. 3 is a process of removing granular noise. FIG. 4 is an explanatory diagram showing an edge extraction process, FIG. 5 is an explanatory diagram showing it as a two-dimensional image, FIG. 6 is an explanatory diagram showing the concept of the edge image data, FIG. FIG. 8 is an explanatory diagram for explaining a correlation method in a conventional positioning device, and FIG. 8 is an explanatory diagram showing the concept of a two-step search. 1 is a reference image, 2 is a target image, 3 is a gradation conversion circuit, 4 is a noise removal circuit, 5 is an edge point extraction circuit, 6 is an edge point matching circuit, and 7 is an original image matching circuit. In the drawings, the same reference numerals indicate the same or corresponding parts.

フロントページの続き (56)参考文献 特開 平1−175083(JP,A) 特開 昭61−40683(JP,A) 特開 昭63−244182(JP,A) 特開 平1−231188(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 G06T 7/00 Continuation of the front page (56) References JP-A-1-175083 (JP, A) JP-A-61-40683 (JP, A) JP-A-63-244182 (JP, A) JP-A-1-231188 (JP) , A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 1/00 G06T 7/00

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】あらかじめ入力されている基準画像、およ
び新たに入力されて前記基準画像との間で位置合わせが
行われる対象画像の各々の濃度レベル数を、より少ない
濃度レベル数に変換する階調変換回路と、前記階調変換
回路から出力される各画像データ中の粒状ノイズを除去
するノイズ除去回路と、前記ノイズ除去回路から出力さ
れる各画像データの濃度レベルの境界点をエッジとして
抽出するエッジ点抽出回路と、前記エッジ点抽出回路か
ら出力される各エッジ画像データのマッチング候補点を
探索するエッジ点マッチング回路と、前記エッジ点マッ
チング回路にて得られた前記マッチング候補点の近傍で
前記基準画像と対象画像の原画像データによるマッチン
グを行い、マッチング点を検出する原画像マッチング回
路とを備えた位置合わせ装置。
1. A floor for converting the number of density levels of each of a reference image input in advance and a target image newly registered to be registered with the reference image into a smaller number of density levels. Tone conversion circuit, a noise removal circuit for removing granular noise in each image data output from the tone conversion circuit, and a boundary point of a density level of each image data output from the noise removal circuit is extracted as an edge. An edge point extraction circuit, an edge point matching circuit that searches for a matching candidate point of each edge image data output from the edge point extraction circuit, and an edge point matching circuit obtained in the vicinity of the matching candidate point obtained by the edge point matching circuit. An original image matching circuit for performing matching based on original image data of the reference image and the target image and detecting a matching point Align equipment.
JP2283838A 1990-10-22 1990-10-22 Positioning device Expired - Fee Related JP2988994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2283838A JP2988994B2 (en) 1990-10-22 1990-10-22 Positioning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2283838A JP2988994B2 (en) 1990-10-22 1990-10-22 Positioning device

Publications (2)

Publication Number Publication Date
JPH04157577A JPH04157577A (en) 1992-05-29
JP2988994B2 true JP2988994B2 (en) 1999-12-13

Family

ID=17670818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2283838A Expired - Fee Related JP2988994B2 (en) 1990-10-22 1990-10-22 Positioning device

Country Status (1)

Country Link
JP (1) JP2988994B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3506200B2 (en) 1997-02-05 2004-03-15 シャープ株式会社 Positioning device
US7327902B2 (en) * 2004-12-10 2008-02-05 Radiological Imaging Technology, Inc. Optimizing image alignment
JP4986957B2 (en) * 2008-08-22 2012-07-25 三菱電機株式会社 Image correction device
JP5923824B2 (en) 2012-02-21 2016-05-25 株式会社ミツトヨ Image processing device

Also Published As

Publication number Publication date
JPH04157577A (en) 1992-05-29

Similar Documents

Publication Publication Date Title
CN109035276B (en) Image edge extraction method and device and automatic driving system
Ahmed Comparative study among Sobel, Prewitt and Canny edge detection operators used in image processing
CN110599486A (en) Method and system for detecting video plagiarism
JPH1023452A (en) Picture extracting device and its method
JPH0944670A (en) Method and device for extracting specified image area
JP3506200B2 (en) Positioning device
JP2996657B2 (en) Motion detection apparatus and method using gradation pattern matching
TWI394097B (en) Detecting method and system for moving object
KR100439697B1 (en) Color image processing method and apparatus thereof
JP2988994B2 (en) Positioning device
JPH10271326A (en) Image processor
US7702176B2 (en) One dimensional feature enhancement
CN112364835B (en) Video information frame taking method, device, equipment and storage medium
JP4133246B2 (en) Image deformation information generation apparatus, image deformation information generation method, and image deformation information generation program
JP3331095B2 (en) In-vehicle image processing device
JP3517518B2 (en) Object detection device
JP3679958B2 (en) License plate recognition device
JPH0991429A (en) Face area extraction method
JPH1069542A (en) Template matching method
JP2003150934A (en) Image processor and image processing method
JP3058951B2 (en) Image pattern recognition device
CN116912526A (en) Multi-source image template matching method and system
CN111209835A (en) Improved SURF mobile robot image matching method
JP2021026311A (en) Image processing apparatus, image processing method and program
Radvanyi et al. A CNN solution for depth estimation from binocular stereo imagery

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees