JP2689688B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2689688B2
JP2689688B2 JP12185290A JP12185290A JP2689688B2 JP 2689688 B2 JP2689688 B2 JP 2689688B2 JP 12185290 A JP12185290 A JP 12185290A JP 12185290 A JP12185290 A JP 12185290A JP 2689688 B2 JP2689688 B2 JP 2689688B2
Authority
JP
Japan
Prior art keywords
image
edge
similarity
point sequence
contents
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP12185290A
Other languages
Japanese (ja)
Other versions
JPH0418685A (en
Inventor
橋本  学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP12185290A priority Critical patent/JP2689688B2/en
Publication of JPH0418685A publication Critical patent/JPH0418685A/en
Application granted granted Critical
Publication of JP2689688B2 publication Critical patent/JP2689688B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、例えば2枚の画像を位置合わせする目的
で、画像の輪郭点列を用いてテンプレートマッチングを
行なう場合に、高速に処理を行なう画像処理方式に関す
るものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial application] The present invention performs high-speed processing when template matching is performed using a sequence of contour points of images for the purpose of aligning two images, for example. The present invention relates to an image processing method.

[従来の技術] 従来技術について、文献(「電子情報通信学会春季全
国大会予稿集(1990年3月)第7分冊」)記載の「エッ
ジ点列を用いたテンプレートマッチング法」の内容をも
とに説明する。第6図は、従来のエッジ点列を用いるテ
ンプレートマッチング法の構成図である。基準画像(6
1)はエッジ部分が抽出され、テンプレートとしてのエ
ッジ点列バッファ(62)に格納される。一方対象画像
(63)の方は、エッジが抽出され、対象エッジ画像(6
4)としてメモリに一旦格納されたのちに膨張処理が施
されて膨張エッジ画像(65)としてメモリに格納され
る。エッジ点列バッファ(62)と膨張エッジ画像(65)
との類似度が探索範囲全域にわたって評価されて、マッ
チングスコアマップ(66)が生成され、その最大値を示
すアドレスとして基準画像と対象画像との相対的な位置
ずれ量が求められるというものである。
[Prior Art] Based on the content of "template matching method using edge point sequence" in the literature ("The Institute of Electronics, Information and Communication Engineers Spring National Convention Proceedings (March 1990) 7th volume") Explained. FIG. 6 is a block diagram of a conventional template matching method using a sequence of edge points. Reference image (6
In 1), the edge part is extracted and stored in the edge point sequence buffer (62) as a template. On the other hand, in the target image (63), edges are extracted and the target edge image (6
After being temporarily stored in the memory as 4), the image is expanded and stored in the memory as an expanded edge image (65). Edge point sequence buffer (62) and dilated edge image (65)
Is evaluated over the entire search range, a matching score map (66) is generated, and the relative displacement amount between the reference image and the target image is obtained as the address indicating the maximum value. .

[発明が解決しようとする課題] 従来の手法では、処理時間がエッジ点列バッファ(テ
ンプレート)の長さに比例するため、基準画像のサイズ
が大きい場合や、基準画像中に細かいパターンが多く存
在する場合には処理速度が遅いという問題点があった。
[Problems to be Solved by the Invention] In the conventional method, since the processing time is proportional to the length of the edge point sequence buffer (template), the size of the reference image is large or there are many fine patterns in the reference image. However, there is a problem that the processing speed is slow.

この発明はかかる問題点を解決するためになされたも
ので、処理の高速化を図ることを目的とする。
The present invention has been made to solve the above problems, and an object thereof is to speed up the processing.

[課題を解決するための手段] 本発明の第1の発明に係わる画像処理方式は、基準画
像に対するエッジ抽出部の出力から予め設定された条件
を満たす点列のみを選択するエッジ点選択手段を設け
て、基準画像中の一部の点列のみを類似評価に用いるも
のである。
[Means for Solving the Problem] The image processing method according to the first aspect of the present invention is an edge point selection means for selecting only a point sequence satisfying a preset condition from the output of the edge extraction unit for a reference image. It is provided and only a part of the point sequence in the reference image is used for the similarity evaluation.

また、本発明の第2の発明に係わる画像処理方式は、
類似度を計算する過程で予め設定したしきい値関数と計
算途中の類似度とを逐次比較して計算途中の類似度がし
きい値以下であればその段階で類似度計算を打ち切るよ
うにしたものである。
The image processing method according to the second aspect of the present invention is
In the process of calculating the similarity, the preset threshold function and the similarity in the middle of the calculation are sequentially compared, and if the similarity in the middle of the calculation is less than the threshold value, the similarity calculation is terminated at that stage. It is a thing.

[作用] 第1の発明では、エッジ点選択手段により基準画像中
の一部の点列のみが1次元点列バッファ(テンプレー
ト)として登録されるので、処理時間を短縮できる。
[Operation] In the first invention, only a part of the point sequence in the reference image is registered as the one-dimensional point sequence buffer (template) by the edge point selecting means, so that the processing time can be shortened.

また、第2の発明では、1次元点列バッファ内の全て
の点を類似度評価に用いるのではなく、類似度のスコア
があまり大きくならない場合には類似度評価を途中で打
ち切り、あたかもテンプレートのみかけの長さが短縮さ
れたかのように作用するので、処理時間を短縮できる。
Further, in the second invention, instead of using all the points in the one-dimensional point sequence buffer for similarity evaluation, if the score of the similarity does not become too large, the similarity evaluation is aborted midway, and it is as if the template Since it acts as if the apparent length was shortened, the processing time can be shortened.

[実施例] 以下、第1、第2の発明の一実施例について添付した
図を用いて説明する。
[Embodiment] An embodiment of the first and second inventions will be described below with reference to the accompanying drawings.

(第1の発明の実施例) 第1図は第1の発明の一実施例による画像処理装置の
構成を示すブロック図である。また、第2図は第1図の
例に於けるテンプレート生成処理の流れを示すフローチ
ャート図である。以下、第2図の流れに従って処理を説
明する。まず(S1)で、テンプレートのもとになる基準
画像が撮像され、基準画像メモリ(11)に格納される。
基準画像は(S2)でエッジ抽出部(13)によって画像中
のエッジ部分が抽出される。抽出されたエッジ点はエッ
ジ点選択手段(15)に入力され、(S3)で位置合わせに
必要なエッジ点のみが選択される。位置合わせに必要な
点とは、例えばエッジ強度が強いものなどであり、基準
画像上での空間分布やエッジの方向性がある程度一様に
なるように選択される。その後に選択されたエッジ点列
は(S4)でテンプレートとしての1次元点列バッファ
(16)に格納される。選択されたエッジ点列の個数は基
準画像中の全エッジ点列数よりも少なくなる。一方対象
画像についても対象画像メモリ(12)に一旦格納された
後、エッジ抽出部(14)によってエッジ部分が抽出され
る。類似度評価部(17)は1次元点列バッファ(16)の
内容とエッジ抽出部(14)の出力画像とを比較・照合
し、類似度スコアマップを生成する。制御部(18)は類
似度スコアマップを探索して最大点を見つけ、そのアド
レスとして基準画像と対象画像との相対位置ずれ量を求
める。
(Embodiment of the First Invention) FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the first invention. FIG. 2 is a flow chart showing the flow of template generation processing in the example of FIG. The processing will be described below according to the flow of FIG. First, in (S1), a reference image serving as a template is picked up and stored in the reference image memory (11).
In (S2), the edge portion of the reference image is extracted by the edge extraction unit (13). The extracted edge points are input to the edge point selection means (15), and only the edge points required for the alignment are selected in (S3). The points required for alignment are, for example, those with strong edge strength, and are selected so that the spatial distribution on the reference image and the directionality of edges are uniform to some extent. The edge point sequence selected thereafter is stored in the one-dimensional point sequence buffer (16) as a template in (S4). The number of selected edge point sequences is smaller than the number of all edge point sequences in the reference image. On the other hand, the target image is once stored in the target image memory (12), and then the edge portion is extracted by the edge extraction unit (14). The similarity evaluation unit (17) compares and collates the contents of the one-dimensional point sequence buffer (16) with the output image of the edge extraction unit (14) to generate a similarity score map. A control unit (18) searches the similarity score map to find the maximum point, and obtains the relative position shift amount between the reference image and the target image as its address.

(第2の発明の実施例) 第3図は、第2の発明の一実施例による画像処理装置
を示すブロック図である。また、第4図は本発明に於け
る類似度評価処理の流れ図である。処理内容としては、
まずテンプレートのもとになる基準画像が入力され、基
準画像メモリ(31)に格納される。基準画像ではエッジ
抽出部(33)によって画像中のエッジ部分が抽出され
る。抽出されたエッジ点は1次元点列バッファ(35)に
格納される。一方、対象画像についても対象画像メモリ
(32)に一旦格納された後、エッジ抽出部(34)によっ
てエッジ部分が抽出される。次にテンプレートとしての
1次元点列バッファと、エッジ抽出部(34)によって抽
出された対象画像のエッジ画像が類似度評価部(36)に
よって類似度が評価される。以下、第4図の流れに従っ
て類似度評価処理の内容を説明する。まず(S11)では
テンプレート(1次元点列バッファにおなじ)(35)の
点列格納アドレスを示すポインタiが1に、また累積ス
コア値M(i)が0に初期化されると同時に、しきい値
関数Th(i)が次式のように定義される。
(Embodiment of the Second Invention) FIG. 3 is a block diagram showing an image processing apparatus according to an embodiment of the second invention. Further, FIG. 4 is a flow chart of the similarity evaluation processing in the present invention. As the processing content,
First, a reference image that is the basis of the template is input and stored in the reference image memory (31). In the reference image, the edge extraction unit (33) extracts the edge portion in the image. The extracted edge points are stored in the one-dimensional point sequence buffer (35). On the other hand, the target image is also temporarily stored in the target image memory (32) and then the edge portion is extracted by the edge extracting section (34). Next, the one-dimensional point sequence buffer as a template and the edge image of the target image extracted by the edge extraction unit (34) are evaluated by the similarity evaluation unit (36) for similarity. The contents of the similarity evaluation process will be described below according to the flow of FIG. First, in (S11), the pointer i indicating the point sequence storage address of the template (same as in the one-dimensional point sequence buffer) (35) is initialized to 1, and the cumulative score value M (i) is initialized to 0. The threshold function Th (i) is defined by the following equation.

Th(i)=T−α・(l−i) (式1) ただし、ここでTは累積最大スコアしきい値、αは0
<α<1である適当な係数、lはテンプレートの長さで
ある。しきい値関数は第3図において制御部(39)から
の指示でしきい値関数生成部(37)により生成され、し
きい値関数メモリ(38)に格納される。(S12)では、
テンプレートのi番目の点における一致度sが評価され
る。テンプレートi番目の点に対応する対象エッジ画像
の座標にエッジが存在していれば、その画素値を一致度
とする。(S13)では、 M(i)=M(i−1)+s (式2) によって前回計算した累積スコア値に一致度sを加算す
る。(S14)では累積スコアM(i)としきい値関数Th
(i)が比較され、M(i)>Tb(i)であれば更に
(S16)でiとテンプレート長さlが比較される。i≧
lであれば(S18)でT=M(1)として処理を終了す
る。(S16)でi<lであれば(S17)でiの値が1増加
されて再び(S12)の処理から繰り返す。また、(S14)
においてM(i)<Th(i)であれば(S15)でスコア
の累積処理を打ち切って処理を終了する。
Th (i) = T−α · (l−i) (Equation 1) where T is the cumulative maximum score threshold and α is 0
<Α <1, a suitable coefficient, l is the length of the template. The threshold function is generated by the threshold function generating unit (37) in accordance with an instruction from the control unit (39) in FIG. 3 and stored in the threshold function memory (38). (S12)
The degree of coincidence s at the i-th point of the template is evaluated. If an edge exists at the coordinates of the target edge image corresponding to the i-th point of the template, the pixel value thereof is set as the degree of coincidence. In (S13), the degree of coincidence s is added to the cumulative score value calculated last time by M (i) = M (i-1) + s (Equation 2). In (S14), the cumulative score M (i) and the threshold function Th
(I) is compared, and if M (i)> Tb (i), i is further compared with the template length 1 in (S16). i ≧
If it is l, T = M (1) is set in (S18) and the processing is ended. If i <l in (S16), the value of i is incremented by 1 in (S17) and the process from (S12) is repeated. Also (S14)
When M (i) <Th (i) in (S15), the score accumulating process is terminated and the process ends.

第5図は以上説明した処理の例を示すテンプレートポ
インタiと累積スコア値M(i)の関係である。図中、
Mo(i)はテンプレート内の点列が全て対象エッジ画像
にマッチしたと仮定したときの累積スコア値履歴であ
る。いま、実際には図の太線のような累積スコア履歴を
描いたとすると、テンプレートポインタiがi1のときに
累積スコア値はP1である。この時点でテンプレートポイ
ンタiが1に到達した時の累積スコア値を予測するとQ1
=P1−α(l−i1)となり、予め設定した累積最大スコ
アしきい値Tより大、即ちP1>Th(i1)=T−α(l−
i1)なので累積スコア値を求める計算を続行する。同様
にテンプレートポインタiがi2に進んで累積スコア値が
P2であるときに、テンプレートポインタiがlに到着し
た時の累積スコア値を予測するとQ2=P2−α(l−i2
となり、予め設定した累積最大スコアしきい値Tより
小、即ちP2<Th(i2)=T−α(l−i2)なので、累積
スコア値を求める計算をこの時点で打ち切ることにす
る。最後に、制御部(39)は類似度スコアマップを探索
して最大点を見つけ、そのアドレスとして基準画像と対
象画像との相対位置ずれ量を求める。
FIG. 5 shows the relationship between the template pointer i and the cumulative score value M (i) showing an example of the processing described above. In the figure,
Mo (i) is a cumulative score value history when it is assumed that all the point sequences in the template match the target edge image. Now, assuming that a cumulative score history like a bold line in the drawing is actually drawn, the cumulative score value is P 1 when the template pointer i is i 1 . Predicting the cumulative score value when the template pointer i reaches 1 at this point is Q 1
= P 1 −α (l−i 1 ), which is greater than the preset cumulative maximum score threshold T, that is, P 1 > Th (i 1) = T−α (l−
Since i 1 ), the calculation of the cumulative score value is continued. Similarly, the template pointer i advances to i 2 and the cumulative score value
When a P 2, the template pointer i to predict the cumulative score value when arriving at l Q 2 = P 2 -α ( l-i 2)
Is smaller than the preset maximum cumulative score threshold T, that is, P 2 <Th (i 2 ) = T−α (l−i 2 ), the calculation for obtaining the cumulative score value is terminated at this point. Finally, the control section (39) searches the similarity score map to find the maximum point, and obtains the relative position shift amount between the reference image and the target image as its address.

なお、本実施例では第1の発明と第2の発明を別々に
説明したが、これらはほぼ同一構成の装置において同時
に実施することが可能であり、高速化の効果は重畳され
る。
In the present embodiment, the first invention and the second invention have been separately described, but these can be implemented simultaneously in an apparatus having substantially the same configuration, and the effect of speeding up is superimposed.

[発明の効果] 以上のように、第1の発明によれば、基準画像に対す
るエッジ抽出部の出力から予め設定された条件を満たす
点列のみを選択するエッジ点選択手段を設けて、上記基
準画像中の一部の点列のみを類似度評価に用いるので、
また、第2の発明によれば、類似度を計算する過程で予
め設定したしきい値関数と計算途中の類似度とを逐次比
較して、計算途中の類似度がしきい値以下であれば類似
度計算をその段階で打ち切るので、共に画像の位置合わ
せ時間を短縮できる効果がある。
[Effects of the Invention] As described above, according to the first aspect of the present invention, the edge point selection means for selecting only a point sequence satisfying a preset condition from the output of the edge extraction unit for the reference image is provided, and the reference point Since only some points in the image are used for similarity evaluation,
Further, according to the second aspect of the present invention, the threshold function set in advance in the process of calculating the similarity and the similarity in the middle of the calculation are sequentially compared, and if the similarity in the middle of the calculation is less than or equal to the threshold value. Since the similarity calculation is terminated at that stage, there is an effect that the image alignment time can be shortened.

【図面の簡単な説明】[Brief description of the drawings]

第1図は第1の発明の一実施例による画像処理装置の構
成を示すブロック図、第2図は第1図の例に於けるテン
プレート生成処理の流れを示すフローチャート図、第3
図は第2の発明の一実施例による画像処理装置の構成を
示すブロック図、第4図は第3図の例に於ける類似度評
価処理の流れを示すフローチャート図、第5図はテンプ
レートポインタiと累積スコア値M(i)の関係を示す
特性図、第6図は従来のエッジ点列を用いるテンプレー
トマッチング法の構成を示すブロック図である。 図において、(11)、(31)は基準画像メモリ、(1
2)、(32)は対象画像メモリ、(13)、(14)、(3
3)、(34)はエッジ抽出部、(15)はエッジ点選択手
段、(16)、(35)は1次元点列バッファ、(17)、
(36)は類似度評価部、(18)、(39)は制御部、(3
7)はしきい値関数生成部、(38)はしきい値関数メモ
リ、(61)は基準画像、(62)はエッジ点列バッファ、
(63)は対象画像、(64)は対象エッジ画像、(65)は
膨張エッジ画像、(66)はマッチングスコアマップであ
る。
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the first invention, FIG. 2 is a flow chart diagram showing a flow of template generation processing in the example of FIG. 1, and FIG.
FIG. 4 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the second invention, FIG. 4 is a flow chart showing the flow of similarity evaluation processing in the example of FIG. 3, and FIG. 5 is a template pointer. FIG. 6 is a characteristic diagram showing the relationship between i and the cumulative score value M (i), and FIG. 6 is a block diagram showing the configuration of a conventional template matching method using an edge point sequence. In the figure, (11) and (31) are reference image memories and (1
2), (32) are the target image memory, (13), (14), (3
3) and (34) are edge extraction units, (15) are edge point selection means, (16) and (35) are one-dimensional point sequence buffers, (17),
(36) is a similarity evaluation unit, (18) and (39) are control units, and (3
7) is a threshold function generator, (38) is a threshold function memory, (61) is a reference image, (62) is an edge point sequence buffer,
(63) is a target image, (64) is a target edge image, (65) is a dilated edge image, and (66) is a matching score map.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】基準画像を格納する基準画像メモリと、対
象画像を格納する対象画像メモリと、これら画像メモリ
の内容から画像中の輪郭部分を抽出してエッジ画像を生
成するエッジ抽出部と、上記基準画像から抽出されたエ
ッジ点列を格納する1次元点列バッファと、この1次元
点列バッファの内容と上記対象画像のエッジ画像の内容
とを比較してそれらの類似度を評価する類似度評価部と
を備える画像処理装置において、上記基準画像に対する
エッジ抽出部の出力から予め設定された条件を満たす点
列のみを選択するエッジ点選択手段を設けて、上記基準
画像中の一部の点列のみを類似度評価に用いることを特
徴とする画像処理方式。
1. A reference image memory for storing a reference image, a target image memory for storing a target image, and an edge extraction unit for extracting an edge portion in the image from the contents of these image memories to generate an edge image. A one-dimensional point sequence buffer that stores an edge point sequence extracted from the reference image, and the contents of this one-dimensional point sequence buffer are compared with the contents of the edge image of the target image to evaluate their similarity. In the image processing apparatus including a degree evaluation unit, an edge point selection unit that selects only a point sequence satisfying a preset condition from the output of the edge extraction unit for the reference image is provided, and a part of the reference image An image processing method characterized in that only point sequences are used for similarity evaluation.
【請求項2】基準画像を格納する基準画像メモリと、対
象画像を格納する対象画像メモリと、これら画像メモリ
の内容から画像中の輪郭部分を抽出してエッジ画像を生
成するエッジ抽出部と、上記基準面像から抽出されたエ
ッジ点列を格納する1次元点列バッファと、この1次元
点列バッファの内容と対象画像のエッジ画像の内容とを
比較してそれらの類似度を評価する類似度評価部とを持
つ画像処理装置において、上記類似度を計算する過程で
予め設定したしきい値関数と計算途中の類似度とを逐次
比較して、計算途中の類似度がしきい値以下であれば類
似度計算をその段階で打ち切ることを特徴とする画像処
理方式。
2. A reference image memory for storing a reference image, a target image memory for storing a target image, and an edge extraction unit for extracting an edge portion in the image from the contents of these image memories to generate an edge image. A one-dimensional point sequence buffer that stores an edge point sequence extracted from the reference plane image and the contents of this one-dimensional point sequence buffer are compared with the contents of the edge image of the target image to evaluate their similarity. In an image processing apparatus having a degree evaluation unit, the threshold function preset in the process of calculating the degree of similarity is sequentially compared with the degree of similarity during calculation, and the degree of similarity during calculation is less than or equal to the threshold value. An image processing method characterized by aborting similarity calculation at that stage, if any.
JP12185290A 1990-05-12 1990-05-12 Image processing method Expired - Fee Related JP2689688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12185290A JP2689688B2 (en) 1990-05-12 1990-05-12 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12185290A JP2689688B2 (en) 1990-05-12 1990-05-12 Image processing method

Publications (2)

Publication Number Publication Date
JPH0418685A JPH0418685A (en) 1992-01-22
JP2689688B2 true JP2689688B2 (en) 1997-12-10

Family

ID=14821528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12185290A Expired - Fee Related JP2689688B2 (en) 1990-05-12 1990-05-12 Image processing method

Country Status (1)

Country Link
JP (1) JP2689688B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647826B1 (en) * 2015-05-27 2016-08-11 한국에너지기술연구원 Apparatus for determinig stability of power system and method for managing stability of the power system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6767811B2 (en) * 2016-08-31 2020-10-14 キヤノン株式会社 Position detection method, position detection device, lithography device and article manufacturing method
JP7252591B2 (en) * 2018-10-31 2023-04-05 エイチエスティ・ビジョン株式会社 Image processing method and image processing apparatus by geometric shape matching

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
橋本外2名,"エッジ点列を用いたテンプレートマッチング法",1990年 電子情報通信学会春季全国大会講演予稿集,電子情報通信学会,平成2年3月,7分冊,P.7−259

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647826B1 (en) * 2015-05-27 2016-08-11 한국에너지기술연구원 Apparatus for determinig stability of power system and method for managing stability of the power system

Also Published As

Publication number Publication date
JPH0418685A (en) 1992-01-22

Similar Documents

Publication Publication Date Title
US5566246A (en) System and method for ranking and extracting salient contours for target recognition
CN111881720B (en) Automatic enhancement and expansion method, recognition method and system for data for deep learning
CN106897714A (en) A kind of video actions detection method based on convolutional neural networks
US20180181816A1 (en) Handling Perspective Magnification in Optical Flow Proessing
JP2000339477A (en) Method for expressing object, method for searching object, device for expressing or searching object, computer program, computer system and computer readable storage medium
CN107622270A (en) Image similarity calculation method and device, method for retrieving similar images and system
JP2689688B2 (en) Image processing method
JP3727967B2 (en) Image search method and apparatus
CN111291611A (en) Pedestrian re-identification method and device based on Bayesian query expansion
JPH10111946A (en) Image tracking device
US5418897A (en) Method for elimination of extraneous lines generated by rectangular polygon clipping process
KR19990016894A (en) How to search video database
JP3953998B2 (en) Image processing device
JPS63292375A (en) Matching method for hierarchized structural template
CN109325432A (en) A kind of recognition methods of three dimensional object, equipment and computer-readable storage media
JP3315175B2 (en) 3D measuring device
JPH1069542A (en) Template matching method
JPS63254856A (en) Image filing device
JPH1139477A (en) Corresponding point search device
CN115546520A (en) Image matching method and device and electronic equipment
JPH11312244A (en) Template matching method
JPS6037955B2 (en) Character/symbol recognition method
JPH064672A (en) Pattern matching circuit
CN116071540A (en) Region determination method, device, equipment and medium
JPS6174077A (en) Segment pattern preparing system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20070829

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20080829

LAPS Cancellation because of no payment of annual fees