JP2013073476A - Image retrieval device, image retrieval method, and program - Google Patents

Image retrieval device, image retrieval method, and program Download PDF

Info

Publication number
JP2013073476A
JP2013073476A JP2011212980A JP2011212980A JP2013073476A JP 2013073476 A JP2013073476 A JP 2013073476A JP 2011212980 A JP2011212980 A JP 2011212980A JP 2011212980 A JP2011212980 A JP 2011212980A JP 2013073476 A JP2013073476 A JP 2013073476A
Authority
JP
Japan
Prior art keywords
image
similarity
local feature
registered
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011212980A
Other languages
Japanese (ja)
Other versions
JP5893318B2 (en
Inventor
Koichi Umakai
浩一 馬養
Hirotaka Shiiyama
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011212980A priority Critical patent/JP5893318B2/en
Publication of JP2013073476A publication Critical patent/JP2013073476A/en
Application granted granted Critical
Publication of JP5893318B2 publication Critical patent/JP5893318B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain retrieval results in order of higher utility.SOLUTION: An image retrieval method includes the steps of: defining, in a combination of local feature amounts that makes a distance between local features shortest, a difference between scale numbers that are applied in accordance with resolution in order of larger size of reduced images in creation processing of reduced image as a difference in resolution; reflecting a difference in resolution with highest frequency to a weighting coefficient of similarity; and outputting final similarity obtained by multiplying the reflection result by a final number of votes VoteMax so as to output a retrieval result to which resolution of an image is reflected.

Description

本発明は、例えば、局所特徴点及び局所特徴量に基づく検索を行うために用いて好適な画像検索装置、画像検索方法及びプログラムに関する。   The present invention relates to an image search apparatus, an image search method, and a program suitable for use in performing a search based on local feature points and local feature amounts, for example.

従来、画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する。抽出方法については例えば非特許文献1に開示されている方法が挙げられる。そして、当該特徴点とその周辺の画像情報とに基づいて、当該特徴点に対応する特徴量(局所特徴量)を計算する。局所特徴量については例えば非特許文献2に開示されている方法によって計算することができる。このように画像の検索は、局所特徴量同士のマッチングによって行われる。   Conventionally, a method of searching for a similar image using a local feature amount (local feature amount) of an image has been proposed. In this method, first, characteristic points (local feature points) are extracted from an image. Examples of the extraction method include the method disclosed in Non-Patent Document 1. Then, based on the feature point and the surrounding image information, a feature amount (local feature amount) corresponding to the feature point is calculated. The local feature amount can be calculated by a method disclosed in Non-Patent Document 2, for example. In this way, the image search is performed by matching local feature amounts.

局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、画像を検索することができる。また、局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話であり、実際のデジタル画像においては、画像の回転や拡大・縮小処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。   In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thereby, even when the image is rotated, enlarged or reduced, the image can be searched. Further, the local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature is invariant to rotation and enlargement / reduction. In an actual digital image, the local feature before image rotation and enlargement / reduction processing corresponds to that after processing. Some variation occurs between the local feature amount.

例えば非特許文献2に記載の方法では、回転不変の局所特徴量を算出するために、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量の算出時に主方向を基準に局所領域を回転させて方向を正規化する。また、拡大・縮小不変の局所特徴量を算出するために、異なる解像度の画像を内部で生成し、各解像度の画像からそれぞれ局所特徴点を抽出し、局所特徴量を算出する。ここで、内部で生成した一連の異なる解像度の画像集合は一般的にスケールスペースと呼ばれる。   For example, in the method described in Non-Patent Document 2, in order to calculate a rotation-invariant local feature amount, a main direction is calculated from a pixel pattern of a local region around a local feature point, and the main direction is used as a reference when calculating the local feature amount. Rotate the local region to normalize the direction. In addition, in order to calculate the local feature amount that does not change in size, the image is generated internally with different resolutions, local feature points are extracted from each resolution image, and the local feature amount is calculated. Here, a series of images having different resolutions generated inside is generally called a scale space.

C.Harris and M.J. Stephens,"A combined corner and edge detector," In Alvey Vision Conference,pages 147-152, 1988.C. Harris and M.J. Stephens, "A combined corner and edge detector," In Alvey Vision Conference, pages 147-152, 1988. David G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, 60, 2 (2004), pp.91-110.David G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, 60, 2 (2004), pp.91-110. J. J. Koenderink and A. J. van Doorn, "Representation of local geometry in the visual system," Riological cybernetics, vol.55, pp.367-375, 1987.J. J. Koenderink and A. J. van Doorn, "Representation of local geometry in the visual system," Riological cybernetics, vol.55, pp.367-375, 1987. M. A. Fischler and R. C. Bollers, "Random sample consensus: A paradigm formodel fitting with applications to image analysis and automated cartography," Commum. ACM, no.24, vol.6, pp.381-395, June 1981.M. A. Fischler and R. C. Bollers, "Random sample consensus: A paradigm formodel fitting with applications to image analysis and automated cartography," Commum. ACM, no.24, vol.6, pp.381-395, June 1981.

検索結果により画像が表示される順位は、多くの場合、クエリ画像と登録画像との間の類似度が局所特徴量のマッチングにより算出され、その類似度を用いて決定される。局所特徴量のマッチング方法としては、局所特徴量をベクトルに表現してベクトル間の距離を測るものや、ハッシュ表を用いる方法などがある。ところが、このような従来の方法では、検索結果の画像の利用価値の順序と結果の表示順序とが合致しないことがある。このような現象が生じる場合の例とその原因について以下に説明する。   In many cases, the order in which images are displayed based on the search result is determined using the similarity between the query image and the registered image calculated by matching local features. As a local feature amount matching method, there are a method of measuring a distance between vectors by expressing the local feature amount as a vector, a method using a hash table, and the like. However, in such a conventional method, the order of use values of the search result images may not match the display order of the results. An example of the case where such a phenomenon occurs and its cause will be described below.

例えば、クエリ画像と同じ解像度で回転のない第1の登録画像と、クエリ画像よりはるかに解像度が高いが若干回転している第2の登録画像とが検索される場合を考える。まず、局所特徴量をマッチングするために、前述のように、それぞれの画像に対してスケールスペースを生成し、各解像度の画像から回転不変の局所特徴量を算出する。   For example, consider a case where a first registered image that has the same resolution as the query image and does not rotate and a second registered image that is much higher in resolution than the query image but slightly rotated are searched. First, in order to match local feature amounts, as described above, a scale space is generated for each image, and rotation-invariant local feature amounts are calculated from images of each resolution.

このとき、第2の登録画像からは、クエリ画像には存在しない高解像度の画像がスケールスペースに含まれ、その画像からも局所特徴量が算出される。ところが、これらの局所特徴量は検索時のクエリ画像との局所特徴量のマッチングには寄与しない。クエリ画像と重なる解像度のスケールスペースから算出された第2の登録画像の局所特徴量だけが、クエリ画像との局所特徴量同士のマッチングに寄与することになる。   At this time, from the second registered image, a high-resolution image that does not exist in the query image is included in the scale space, and the local feature amount is also calculated from the image. However, these local feature amounts do not contribute to matching of the local feature amounts with the query image at the time of search. Only the local feature amount of the second registered image calculated from the scale space having the resolution overlapping with the query image contributes to matching of the local feature amounts with the query image.

ここで、第2の登録画像とクエリ画像との間でマッチした局所特徴量ペアのベクトル間距離は、第1の登録画像とクエリ画像との間でマッチした局所特徴量ペア間のベクトル間距離よりも大きくなる可能性が高い。これは、クエリ画像に対して第1の登録画像が回転していない一方で第2の登録画像は若干回転していることに起因する。すなわち、第2の登録画像は回転によって画像にノイズが付与され、そのノイズが局所特徴量を変動させるからである。   Here, the inter-vector distance of the local feature amount pair matched between the second registered image and the query image is the inter-vector distance between the matched local feature amount pairs between the first registered image and the query image. Is likely to be larger. This is because the first registered image is not rotated with respect to the query image, while the second registered image is slightly rotated. That is, the second registered image is given a noise by rotation, and the noise fluctuates the local feature amount.

この結果、クエリ画像と第1の登録画像との類似度は、解像度の高い第2の登録画像との類似度よりも大きくなる。ところが、第2の登録画像の回転量がユーザの気にならない程度の回転量であった場合には、解像度の高い第2の登録画像の方が第1の登録画像よりも利用価値が高いことがある。例えば、解像度の高い画像の方が、画像の回転や拡大など画像加工時の画質劣化問題を回避しやすいため、再利用性に優れている。   As a result, the similarity between the query image and the first registered image is greater than the similarity between the second registered image having a high resolution. However, when the rotation amount of the second registered image is such that the user does not care, the second registered image having a higher resolution has a higher utility value than the first registered image. There is. For example, an image with a higher resolution is more reusable because it is easier to avoid image quality degradation problems during image processing such as image rotation and enlargement.

このように、従来の方法では検索結果の画像の利用価値の順序と結果の表示順序とが合致しないという現象が容易に生じ得るという問題がある。   As described above, in the conventional method, there is a problem that a phenomenon that the order of the use values of the search result images does not match the display order of the results can easily occur.

本発明は前述の問題点に鑑み、利用価値の高い順序で検索結果を得ることができるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and it is an object of the present invention to obtain search results in order of high utility value.

本発明の画像検索装置は、入力画像を用いて予め登録されている登録画像を検索する画像検索装置であって、前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出手段と、前記局所特徴抽出手段によって抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出手段と、前記第1の類似度算出手段によって算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出手段と、前記第2の類似度算出手段によって算出された第2の類似度に応じて検索結果を出力する出力手段とを備えることを特徴とする。   An image search device of the present invention is an image search device for searching a registered image registered in advance using an input image, and includes local feature extraction means for extracting a local local feature from the input image and the registered image; First similarity calculation means for calculating a first similarity between the input image and the registered image based on the local feature extracted by the local feature extraction means; and the first similarity calculation Second similarity calculation for calculating a second similarity between the input image and the registered image based on the first similarity calculated by the means and the resolution information of the input image and the registered image Means and output means for outputting a search result in accordance with the second similarity calculated by the second similarity calculation means.

本発明によれば、画像の解像度が反映された利用価値の高い順序で検索結果を出力することができる。   According to the present invention, search results can be output in order of high utility value reflecting the resolution of an image.

実施形態における画像検索装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of an image search device in an embodiment. 実施形態において、画像の局所特徴点及び局所特徴量を抽出する処理手順の一例を示すフローチャートである。In an embodiment, it is a flow chart which shows an example of a processing procedure which extracts a local feature point and local feature-value of an image. 図2のステップS204における縮小画像の生成処理の概要を説明する図である。It is a figure explaining the outline | summary of the production | generation process of the reduction image in step S204 of FIG. 局所特徴点の抽出する概要を説明する図である。It is a figure explaining the outline | summary which a local feature point extracts. 解像度を考慮しないで類似度を算出する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which calculates a similarity degree without considering resolution. 実施形態における類似度を算出する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which calculates the similarity in embodiment. 実施形態における画像検索装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the image search device in embodiment.

以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態における画像検索装置100の構成例を示すブロック図である。
図1において、画像検索装置100は、第1の画像入力部102、第2の画像入力部105、第1の局所特徴点/局所特徴量抽出部103、第2の局所特徴点/局所特徴量抽出部106及び局所特徴量比較部107から構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of an image search apparatus 100 according to the present embodiment.
In FIG. 1, an image search apparatus 100 includes a first image input unit 102, a second image input unit 105, a first local feature point / local feature quantity extraction unit 103, and a second local feature point / local feature quantity. An extraction unit 106 and a local feature amount comparison unit 107 are included.

画像検索装置100では、入力画像101が第1の画像入力部102に入力されると、第1の局所特徴点/局所特徴量抽出部103は、局所特徴として局所特徴点とその局所特徴量とを抽出する。同様に、比較対象となる入力画像104が第2の画像入力部105に入力されると、第2の局所特徴点/局所特徴量抽出部106は、局所特徴として局所特徴点とその局所特徴量とを抽出する。本実施形態では、入力画像101をクエリ画像とし、比較対象となる入力画像104をデータベースに登録されている登録画像として説明する。また、局所特徴点とその局所特徴量とを抽出する処理の詳細については後述する。   In the image search apparatus 100, when the input image 101 is input to the first image input unit 102, the first local feature point / local feature amount extraction unit 103 determines a local feature point and its local feature amount as local features. To extract. Similarly, when the input image 104 to be compared is input to the second image input unit 105, the second local feature point / local feature quantity extraction unit 106 uses the local feature point and its local feature quantity as local features. And extract. In this embodiment, the input image 101 is described as a query image, and the input image 104 to be compared is described as a registered image registered in a database. Details of the process of extracting the local feature points and the local feature amounts will be described later.

局所特徴点/局所特徴量比較部107は、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106で抽出されたそれぞれの局所特徴点及び局所特徴量同士を比較し、画像表示順序として比較結果108を出力する。この局所特徴点及び局所特徴量の比較処理の詳細についても後述する。   The local feature point / local feature amount comparison unit 107 includes the local feature points / local features extracted by the first local feature point / local feature amount extraction unit 103 and the second local feature point / local feature amount extraction unit 106. The feature amounts are compared with each other, and a comparison result 108 is output as an image display order. Details of the comparison processing of the local feature points and the local feature amounts will be described later.

図7は、本実施形態に係る画像検索装置1400のハードウェア構成例を示すブロック図である。
図7において、画像検索装置1400は例えばパーソナルコンピュータであり、ROM1430には、後述するフローチャートの処理をCPU1410の制御により実現させるプログラムが格納されている。そして、プログラムを実行させる際には、ROM1430に格納されたプログラムをRAM1420に読み出してCPU1410が処理できるようにしている。
FIG. 7 is a block diagram illustrating a hardware configuration example of the image search apparatus 1400 according to the present embodiment.
In FIG. 7, an image search device 1400 is a personal computer, for example, and a ROM 1430 stores a program that realizes processing of a flowchart described below under the control of the CPU 1410. When the program is executed, the program stored in the ROM 1430 is read into the RAM 1420 so that the CPU 1410 can process it.

バス1450は、ROM1430、RAM1420、CPU1410及びHDD1440とデータのやりとりを行う。また、画像検索装置1400は、ユーザインターフェース1460に接続されるキーボードやマウスなどの入出力機器からの入力を受ける。さらに、画像検索装置1400は、ネットワークインターフェース1470を介してネットワーク1500を経由し、データベース(DB)1510、クライアント端末(CLIENT)1520、及びプリンタ(PRINTER)1530とデータの入出力を行う。   The bus 1450 exchanges data with the ROM 1430, the RAM 1420, the CPU 1410, and the HDD 1440. Further, the image search device 1400 receives input from input / output devices such as a keyboard and a mouse connected to the user interface 1460. Further, the image search apparatus 1400 inputs / outputs data to / from the database (DB) 1510, the client terminal (CLIENT) 1520, and the printer (PRINTER) 1530 via the network 1500 via the network interface 1470.

また、複数のハードウェアとソフトウェアとの協働によって後述する実施形態の処理を実現してもよい。例えば、画像検索装置1400がクライアント端末1520やプリンタ1530から検索依頼とクエリ画像とを受け付け、後述するフローチャートの処理を行い、データベース1510からクエリ画像に類似する画像を検索する形態が挙げられる。   Further, the processing of the embodiment described later may be realized by cooperation of a plurality of hardware and software. For example, the image search apparatus 1400 may receive a search request and a query image from the client terminal 1520 or the printer 1530, perform processing of a flowchart to be described later, and search for an image similar to the query image from the database 1510.

[局所特徴抽出処理]
次に、画像の局所特徴(局所特徴点及び局所特徴量)抽出処理を説明する。画像の局所特徴抽出処理は、画像データを読み出すステップ、輝度成分の抽出ステップ、縮小画像の作成ステップ、局所特徴点の抽出ステップ、及び局所特徴量の算出ステップからなる。
[Local feature extraction processing]
Next, local feature (local feature points and local feature amounts) extraction processing of an image will be described. The local feature extraction processing of an image includes a step of reading image data, a luminance component extraction step, a reduced image creation step, a local feature point extraction step, and a local feature amount calculation step.

図2は、本実施形態において、画像の局所特徴点及び局所特徴量を抽出する処理手順の一例を示すフローチャートである。
まず、ステップS201により処理を開始し、ステップS202において、第1の画像入力部102及び第2の画像入力部105は、それぞれの画像データを読み出す。そして、ステップS203において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106はそれぞれ、画像データから輝度成分を抽出し、輝度成分画像を生成する。
FIG. 2 is a flowchart illustrating an example of a processing procedure for extracting local feature points and local feature amounts of an image in the present embodiment.
First, processing is started in step S201, and in step S202, the first image input unit 102 and the second image input unit 105 read out the respective image data. In step S203, the first local feature point / local feature amount extraction unit 103 and the second local feature point / local feature amount extraction unit 106 each extract a luminance component from the image data to generate a luminance component image. To do.

次に、ステップS204において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106はそれぞれ、ステップS203で作成した当該輝度成分画像を倍率pに従って順次縮小し、縮小画像をn枚生成する。ただし、倍率p及び縮小画像の枚数nは予め決められているものとする。   Next, in step S204, each of the first local feature point / local feature quantity extraction unit 103 and the second local feature point / local feature quantity extraction unit 106 uses the luminance component image created in step S203 according to the magnification p. The image is sequentially reduced to generate n reduced images. However, the magnification p and the number n of reduced images are determined in advance.

図3は、図2のステップS204における縮小画像の生成処理の概要を説明する図である。なお、図3では、倍率pを2の−(1/4)乗とし、縮小画像の枚数nを9とした場合の例を示している。また、図3に示す例では、倍率pを面積比ではなく辺の長さの比としている。   FIG. 3 is a diagram for explaining the outline of the reduced image generation process in step S204 of FIG. FIG. 3 shows an example where the magnification p is 2 to the power of − (1/4) and the number n of reduced images is 9. Further, in the example shown in FIG. 3, the magnification p is not the area ratio but the side length ratio.

図3において、301はステップS203で作成した輝度成分画像である。302は輝度成分画像301から倍率pに従って4回縮小された縮小画像であり、輝度成分画像301を1/2に縮小した画像に相当する。また、303は輝度成分画像301から倍率pに従って8回縮小された縮小画像であり、輝度成分画像301を1/4に縮小した画像に相当する。なお、画像を縮小する方法は単純に画素を間引く方法、線形補間を用いる方法、低域フィルタ適用後にサンプリングする方法などを用いることができるが、何れの方法でもよい。本実施形態では、線形補間による縮小方法を用いて画像を縮小するものとする。   In FIG. 3, reference numeral 301 denotes the luminance component image created in step S203. Reference numeral 302 denotes a reduced image obtained by reducing the luminance component image 301 four times in accordance with the magnification p, and corresponds to an image obtained by reducing the luminance component image 301 to ½. Reference numeral 303 denotes a reduced image obtained by reducing the luminance component image 301 eight times according to the magnification p, and corresponds to an image obtained by reducing the luminance component image 301 to ¼. Note that, as a method for reducing an image, a method of simply thinning out pixels, a method using linear interpolation, a method of sampling after applying a low-pass filter, or the like can be used. Any method may be used. In this embodiment, it is assumed that an image is reduced using a reduction method based on linear interpolation.

304はスケール番号であり、縮小画像のサイズが大きい方から順に解像度に応じて付与される番号である。本実施形態では、スケール番号は1から始まるようにしているが、0から始まるようにしてもよい。   Reference numeral 304 denotes a scale number, which is a number assigned according to the resolution in order from the larger reduced image size. In this embodiment, the scale number starts from 1. However, the scale number may start from 0.

図2の説明に戻り、次に、ステップS205において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106は、ステップS204で得られたn枚の縮小画像のそれぞれから局所的な特徴点(局所特徴点)を抽出する。ここで抽出する局所特徴点は、画像に回転や縮小などの画像処理を施しても同じ場所から安定的に抽出されるようなロバストな局所特徴点である。このような局所特徴点を抽出する方法として、本実施形態では、非特許文献1に記載されているHarris作用素を用いる。   Returning to the description of FIG. 2, next, in step S205, the first local feature point / local feature quantity extraction unit 103 and the second local feature point / local feature quantity extraction unit 106 obtain the n obtained in step S204. Local feature points (local feature points) are extracted from each of the reduced images. The local feature points extracted here are robust local feature points that can be stably extracted from the same place even if image processing such as rotation or reduction is performed on the image. As a method for extracting such local feature points, the Harris operator described in Non-Patent Document 1 is used in the present embodiment.

具体的には、Harris作用素を作用させて得られた画像の画素それぞれについて、着目画素とその周辺にある8つの画素との合計9画素の画素値を調べる。そして、着目画素の画素値が予め定めた値以上であり、かつ局所極大になる(当該9画素の中で当該画素の画素値が最大になる)場合に、その着目画素が位置する点を局所特徴点として抽出する。なお、ロバストな局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。   Specifically, for each pixel of the image obtained by applying the Harris operator, the pixel value of a total of nine pixels including the pixel of interest and the eight pixels around it is examined. When the pixel value of the pixel of interest is equal to or greater than a predetermined value and has a local maximum (the pixel value of the pixel is the maximum among the nine pixels), the point where the pixel of interest is located is locally Extract as feature points. Note that any feature point extraction method is applicable as long as it is a method capable of extracting a robust local feature point, not limited to the above-described feature point extraction method using the Harris operator.

次に、ステップS206において、ステップS205で得られた局所特徴点それぞれについて、画像の回転があっても不変となるように定義された特徴量(局所特徴量)を算出する。この局所特徴量の算出方法として、本実施形態では非特許文献3に記載されているLocal Jet及びそれらの導関数の組み合わせを用いる。この方法により算出される局所特徴量は、拡大縮小、回転に対して、比較的高い耐性を持つような特性を持たせることができる。具体的には、以下の式(1)により局所特徴量を算出する。   Next, in step S206, for each local feature point obtained in step S205, a feature quantity (local feature quantity) defined so as to remain unchanged even when the image is rotated is calculated. As a method for calculating the local feature amount, in this embodiment, a combination of Local Jet and derivatives thereof described in Non-Patent Document 3 is used. The local feature amount calculated by this method can have characteristics that have a relatively high resistance to enlargement / reduction and rotation. Specifically, the local feature amount is calculated by the following equation (1).

Figure 2013073476
Figure 2013073476

ただし、式(1)の右辺で用いている記号は、以下の式(2)から式(7)に示すように定義される。   However, the symbols used on the right side of Expression (1) are defined as shown in Expression (2) to Expression (7) below.

Figure 2013073476
Figure 2013073476

ここで、式(2)右辺のG(x,y)はガウス関数であり、I(x,y)は画像の座標(x,y)における画素値であり、"*"は畳み込み演算を表す記号である。また、式(3)は式(2)で定義された変数Lのxに関する偏導関数であり、式(4)は当該変数Lのyに関する偏導関数である。式(5)は式(3)で定義された変数Lxのyに関する偏導関数である。式(6)は式(3)で定義された変数Lxのxに関する偏導関数であり、式(7)は式(4)で定義されたLyのyに関する偏導関数である。 Here, G (x, y) on the right side of Expression (2) is a Gaussian function, I (x, y) is a pixel value at image coordinates (x, y), and “*” represents a convolution operation. It is a symbol. Equation (3) is a partial derivative of variable L defined in equation (2) with respect to x, and Equation (4) is a partial derivative of variable L with respect to y. Equation (5) is a partial derivative with respect to y of the variable L x defined in Equation (3). Equation (6) is a partial derivative of variable L x defined in equation (3) with respect to x, and equation (7) is a partial derivative of L y defined in equation (4) with respect to y.

なお、局所特徴量の算出方法は、上述の方法に限らず他の局所特徴量の算出方法も適用可能である。他の局所特徴量の算出方法として、例えば非特許文献2に記載されている方法がある。この方法では、局所特徴点周辺の局所領域内の各画素に対して画素値の勾配方向を算出し、そのヒストグラムを局所特徴量としている。   In addition, the calculation method of a local feature-value is not restricted to the above-mentioned method, The calculation method of another local feature-value is applicable. As another local feature amount calculation method, for example, there is a method described in Non-Patent Document 2. In this method, the gradient direction of the pixel value is calculated for each pixel in the local region around the local feature point, and the histogram is used as the local feature amount.

図4は、局所特徴点の抽出する概要を説明する図である。図4(a)は入力画像410を示しており、図4(b)は、入力画像410から抽出した局所特徴点421、422を重畳した入力画像420を示している。図4に示す例では、局所特徴点421、422に対してそれぞれ局所特徴量が計算される。   FIG. 4 is a diagram illustrating an outline of extracting local feature points. 4A shows an input image 410, and FIG. 4B shows an input image 420 on which local feature points 421 and 422 extracted from the input image 410 are superimposed. In the example illustrated in FIG. 4, local feature amounts are calculated for the local feature points 421 and 422, respectively.

[類似度算出方法]
まず、一般的な方法を用いて類似度を算出する方法について説明する。類似度の算出方法では様々な方法を用いることができるが、以下の説明では、例えば非特許文献4に記載されているRANSACを利用した類似度算出方法について説明する。
[Similarity calculation method]
First, a method for calculating the similarity using a general method will be described. Various methods can be used as the similarity calculation method. In the following description, for example, a similarity calculation method using RANSAC described in Non-Patent Document 4 will be described.

ここで、入力画像の局所特徴点をQとし、その座標をQ(x',y')とし、その局所特徴点Qの局所特徴量をVqとする。また、比較対象となる入力画像の画像上の局所特徴点をSとして、その座標をS(x,y)とし、その局所特徴点Sの局所特徴量をVsとする。 Here, it is assumed that the local feature point of the input image is Q, the coordinate is Q (x ′, y ′), and the local feature amount of the local feature point Q is V q . Also, the local feature point on the image of the input image to be compared as S, and the coordinates S (x, y) and to the local feature quantity of the local feature points S and V s.

図5は、解像度を考慮しないで類似度を算出する処理手順の一例を示すフローチャートである。
ステップS501で処理を開始すると、ステップS502において、局所特徴量Vqと局所特徴量Vsとを照合して最小距離対応点リストを作成する。具体的には、まず、局所特徴量Vqと局所特徴量Vsとの全ての組み合わせについて局所特徴量間の距離を計算する。次に、計算した局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)を抽出する。これらの対応点を最小距離対応点リストに登録することにより、最小距離対応点リストを作成する。
FIG. 5 is a flowchart illustrating an example of a processing procedure for calculating the similarity without considering the resolution.
Upon starting the processing step S501, in step S502, to create a minimum distance correspondence point list by matching the local feature quantity V q and the local feature amount V s. Specifically, first, distances between local feature quantities are calculated for all combinations of the local feature quantity V q and the local feature quantity V s . Next, a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s is extracted so that the calculated distance between the local feature quantities is equal to or less than the threshold value Tv and is the minimum distance. By registering these corresponding points in the minimum distance corresponding point list, a minimum distance corresponding point list is created.

ここで、最小距離対応点リストには、例えばk番目の最小距離対応点をそれぞれQk、Skと表わし、これらの座標をQk(xk',yk')、Sk(xk,yk)とし、添え字を合わせて記載する。なお、1つの局所特徴点に対応付けられる局所特徴量は2つ以上あってもよいが、以下の説明では説明を簡略化するため、1つの局所特徴点に対応付けられる局所特徴量は1つだけとする。そして、前記Qk、Skの局所特徴量をそれぞれVq(k)、Vs(k)とする。また、ステップS502では、m組の対応点が最小距離対応点リストに登録されるものとする。 Here, in the minimum distance corresponding point list, for example, the kth minimum distance corresponding point is represented as Q k and S k , respectively, and these coordinates are represented as Q k (x k ′, y k ′) and S k (x k ). , Y k ) and include the subscript. Note that there may be two or more local feature amounts associated with one local feature point, but in the following description, one local feature amount is associated with one local feature point in order to simplify the description. Only. The local feature values of Q k and S k are V q (k) and V s (k), respectively. In step S502, m sets of corresponding points are registered in the minimum distance corresponding point list.

次に、ステップS521において、mが3以上であるか否かを判定する。この判定の結果、mが3未満である場合は、類似度を算出できないため、ステップS522に進み、処理を終了する。   Next, in step S521, it is determined whether m is 3 or more. As a result of this determination, if m is less than 3, the similarity cannot be calculated, so the process proceeds to step S522, and the process ends.

一方、ステップS521の判定の結果、mが3以上である場合は、ステップS503において、最終投票数を表す変数VoteMaxを0に初期化する。そして、ステップS504において、類似度算出処理の反復カウント数を表す変数Countを0に初期化する。   On the other hand, if m is 3 or more as a result of the determination in step S521, a variable VoteMax representing the final number of votes is initialized to 0 in step S503. In step S504, a variable Count indicating the number of iterations of the similarity calculation process is initialized to zero.

次に、ステップS505において、反復カウント数Countが予め定められた最大反復処理回数Rnを超えていないか否かを判定する。この判定の結果、反復カウント数Countが最大反復処理回数Rnを超えていない場合はステップS506へ進み、投票数を表す変数Voteを0に初期化する。一方、ステップS505の判定の結果、反復カウント数Countが最大反復処理回数Rnを超えている場合には、ステップS519へ進み、最終投票数VoteMaxを類似度として出力し、ステップS520において処理を終了する。   Next, in step S505, it is determined whether or not the iteration count number Count has exceeded a predetermined maximum number of iterations Rn. As a result of this determination, if the iteration count number Count does not exceed the maximum number of iterations Rn, the process proceeds to step S506, and a variable Vote representing the number of votes is initialized to zero. On the other hand, if it is determined in step S505 that the iteration count Count exceeds the maximum number of iterations Rn, the process proceeds to step S519, the final vote number VoteMax is output as the similarity, and the process ends in step S520. .

次に、ステップS507において、最小距離対応点リストから対応点の組の座標をランダムに2組抽出する。ここで、抽出した2組の座標をQ1(x1',y1')、S1(x1,y1)、及びQ2(x2',y2')、S2(x2,y2)と定義する。そして、ステップS508において、変換行列M、Tを計算する。ここで、行列Mは、以下の式(8)において変数a〜dで構成される行列であり、行列Tは変数e〜fで構成される行列である。 Next, in step S507, two sets of coordinates of corresponding point pairs are randomly extracted from the minimum distance corresponding point list. Here, the extracted two sets of coordinates are Q 1 (x 1 ′, y 1 ′), S 1 (x 1 , y 1 ), Q 2 (x 2 ′, y 2 ′), S 2 (x 2 , Y 2 ). In step S508, conversion matrices M and T are calculated. Here, the matrix M is a matrix composed of variables a to d in the following equation (8), and the matrix T is a matrix composed of variables ef.

Figure 2013073476
Figure 2013073476

ここで、以下の説明では説明を簡略化するため、相似変換だけを考える。この場合には、上記式(8)は以下の式(9)のように書き換えられる。   Here, in order to simplify the explanation in the following explanation, only the similarity transformation is considered. In this case, the above equation (8) is rewritten as the following equation (9).

Figure 2013073476
Figure 2013073476

また、式(9)における変数a、b、e、fは、座標Q1(x1',y1')、S1(x1,y1)及びQ2(x2',y2')、S2(x2,y2)の座標値を用いて以下の式(10)〜式(13)で表すことができる。 Further, the variables a, b, e, and f in the equation (9) are represented by coordinates Q 1 (x 1 ′, y 1 ′), S 1 (x 1 , y 1 ), and Q 2 (x 2 ′, y 2 ′). ), S 2 (x 2 , y 2 ) can be used to express the following equations (10) to (13).

Figure 2013073476
Figure 2013073476

次に、ステップS509において、ステップS507で最短距離対応点リストからランダムに抽出された2組の点以外の点を選択するために、対応点選択変数kを3に初期化する。そして、ステップS510において、対応点選択変数kが最短距離対応点リストに登録されている対応点の組数mを超えていないか否かを判定する。この判定の結果、組数mを超えている場合はステップS516へ進む。ステップS516の処理については後述する。   Next, in step S509, the corresponding point selection variable k is initialized to 3 in order to select a point other than the two sets of points randomly extracted from the shortest distance corresponding point list in step S507. Then, in step S510, it is determined whether or not the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list. As a result of the determination, if the number of sets m is exceeded, the process proceeds to step S516. The process of step S516 will be described later.

一方、ステップS510の判定の結果、組数mを超えていない場合は、ステップS511において、最小距離対応点リストから新たな対応点の組を1組抽出する。ここでは、抽出した座標をSk(xk,yk)、Qk(xk',yk')と定義する。なお、抽出する際には、ステップS507と同様に付加情報を利用する。 On the other hand, if the result of determination in step S510 is that the number m of pairs has not been exceeded, one set of new corresponding points is extracted from the minimum distance corresponding point list in step S511. Here, the extracted coordinates are defined as S k (x k , y k ) and Q k (x k ′, y k ′). When extracting, additional information is used in the same manner as in step S507.

次に、ステップS512において、式(9)によりSk(xk,yk)を変換した座標Sk'(xk",yk")を求める。その後、ステップS513において、座標Sk'(xk",yk")と座標Qk(xk',yk')との幾何学的距離をユークリッド距離で計算し、当該ユークリッド距離が閾値Td以下であるか否かを判定する。この判定の結果、当該ユークリッド距離が閾値Td以下の場合はステップS514へ進み、投票数Voteをインクリメントした後、ステップS515へ進む。一方、ステップS513の判定の結果、当該ユークリッド距離が閾値Tdより大きい場合は、何もせずにステップS515へ進む。 Next, in step S512, coordinates S k ′ (x k ″, y k ″) obtained by converting S k (x k , y k ) using Expression (9) are obtained . Thereafter, in step S513, the geometric distance between the coordinates S k ′ (x k ″, y k ″) and the coordinates Q k (x k ′, y k ′) is calculated as the Euclidean distance, and the Euclidean distance is a threshold value. It is determined whether or not Td or less. If the result of this determination is that the Euclidean distance is less than or equal to the threshold Td, the process proceeds to step S514, and after the vote number Vote is incremented, the process proceeds to step S515. On the other hand, if the result of the determination in step S513 is that the Euclidean distance is greater than the threshold Td, the process proceeds to step S515 without doing anything.

次に、ステップS515において、対応点選択変数kをインクリメントし、ステップS510に戻り、対応点選択変数kが最短距離対応点リストに登録されている対応点の組数mを超えるまで、上述の処理を繰り返す。   Next, in step S515, the corresponding point selection variable k is incremented, and the process returns to step S510, and the above processing is performed until the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list. repeat.

次に、ステップS510で、対応点選択変数kが当該対応点リストに登録されている対応点の組数mを超えた場合について説明する。ステップS516においては、投票数Voteの値と最終投票数VoteMaxの値とを比較し、投票数Voteの値が最終投票数VoteMaxの値よりも大きいか否かを判定する。この判定の結果、投票数Voteの値が最終投票数VoteMaxの値よりも大きい場合にはステップS517へ進む。   Next, the case where the corresponding point selection variable k exceeds the number m of corresponding points registered in the corresponding point list in step S510 will be described. In step S516, the value of the vote number Vote and the value of the final vote number VoteMax are compared, and it is determined whether or not the value of the vote number Vote is larger than the value of the final vote number VoteMax. As a result of this determination, if the value of the vote number Vote is larger than the value of the final vote number VoteMax, the process proceeds to step S517.

ステップS517においては、最終投票数VoteMaxの値を投票数Voteの値で置き換える。そして、ステップS518において反復カウント数Countをインクリメントし、ステップS505に戻る。一方、ステップS516の判定の結果、投票数Voteの値が最終投票数VoteMaxの値以下の場合にはステップS518へ処理を移し、反復カウント数CountをインクリメントしてステップS505に処理を戻す。   In step S517, the value of the final vote number VoteMax is replaced with the value of the vote number Vote. In step S518, the iteration count Count is incremented, and the process returns to step S505. On the other hand, as a result of the determination in step S516, if the value of the vote number Vote is equal to or less than the value of the final vote number VoteMax, the process proceeds to step S518, the repeat count number Count is incremented, and the process returns to step S505.

なお、図5の説明では、相似変換だけを考慮して説明したが、アフィン変換などその他の幾何学変換についても、ステップS508でそれぞれに応じた変換行列を求めることにより、対応可能である。例えば、アフィン変換の場合には、まずステップS507で、ランダムに選択する対応点の組の座標数を3とする。次に、ステップS508で、式(9)ではなく式(8)を用い、ステップS507で選択した3組の対応点(合計6点)を用いて変数a〜fを求めればよい。   In the description of FIG. 5, only the similarity transformation is considered. However, other geometric transformations such as affine transformation can be dealt with by obtaining a transformation matrix corresponding to each in step S508. For example, in the case of affine transformation, first, in step S507, the number of coordinates of a pair of corresponding points selected at random is set to 3. Next, in Step S508, using Equation (8) instead of Equation (9), the variables a to f may be obtained using the three corresponding points selected in Step S507 (6 points in total).

また、図5の説明では、ステップS519で類似度として最終投票数VoteMaxを出力する例について説明したが、他の類似度を計算するようにしてもよい。例えば、ステップS503以降の処理を行わずに、ステップS502で作成された最小距離対応点リストに登録された対応点の組数mを類似度として出力する方法がある。   In the description of FIG. 5, the example in which the final vote number VoteMax is output as the similarity in step S519 has been described, but other similarities may be calculated. For example, there is a method in which the number m of pairs of corresponding points registered in the minimum distance corresponding point list created in step S502 is output as the similarity without performing the processing after step S503.

次に、本実施形態における類似度算出方法について、図6を参照しながら説明する。
図6は、本実施形態において、局所特徴点/局所特徴量比較部107により類似度を算出する処理手順の一例を示すフローチャートである。図6に示すフローチャートでは、図5の処理手順にステップS601の処理が追加され、さらに図5のステップS519の処理がステップS602の処理に入れ替わっている。なお、図5の同じ符号を付しているステップS501〜S518、S520〜S522については図5と同様であるため、説明は省略する。
Next, the similarity calculation method in the present embodiment will be described with reference to FIG.
FIG. 6 is a flowchart illustrating an example of a processing procedure for calculating the similarity by the local feature point / local feature amount comparison unit 107 in the present embodiment. In the flowchart shown in FIG. 6, the process of step S601 is added to the process procedure of FIG. 5, and the process of step S519 of FIG. 5 is replaced with the process of step S602. Note that steps S501 to S518 and S520 to S522 denoted by the same reference numerals in FIG. 5 are the same as those in FIG.

まず、ステップS601の処理について説明する。   First, the process of step S601 will be described.

図5に示した手順では、まず、ステップS502で、局所特徴量Vqと局所特徴量Vsとの全ての組み合わせについて局所特徴量間の距離を計算する。次に、計算した局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)を抽出し、これらの対応点を登録することにより最小距離対応点リストを作成する。 In the procedure shown in FIG. 5, first, in step S502, distances between local feature quantities are calculated for all combinations of the local feature quantity V q and the local feature quantity V s . Next, a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s so that the calculated distance between the local feature quantities is equal to or smaller than the threshold Tv and becomes the minimum distance is extracted, and the correspondence between them is extracted. A list of points corresponding to the minimum distance is created by registering the points.

このとき、図3に示したスケール番号304に着目することにより比較対象画像との間の解像度の差を推定することができる。以下にその方法を説明する。ここで、局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)があった場合に、それぞれのスケール番号をSq、Ssとする。また、局所特徴量Vqが属する画像をクエリ画像とした場合に、局所特徴量Vsが属する画像の類似度を算出する場合を想定する。 At this time, by paying attention to the scale number 304 shown in FIG. 3, the difference in resolution from the comparison target image can be estimated. The method will be described below. Here, when there is a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s such that the distance between the local feature quantities is equal to or less than the threshold value Tv and the minimum distance, the respective scales are obtained. The numbers are S q and S s . Further, it is assumed that when the image to which the local feature value V q belongs is used as a query image, the similarity of the image to which the local feature value V s belongs is calculated.

解像度の差をΔS=Ss−Sqとしたとき、局所特徴量Vqと局所特徴量Vsとが正しい対応点(正対応点)である場合には、解像度の差ΔSは一定値となる。一方、対応が誤っている点(誤対応点)の解像度の差ΔSは正対応点の解像度の差ΔSと一致しないことが多い。つまり、特徴量間の距離で抽出した対応点すべてに対して解像度の差ΔSを算出し、解像度の差ΔSの最頻値ΔSmodを求めることにより、最頻値ΔSmodを持つ対応点を正対応点と推定できる。 When the difference in resolution is ΔS = S s −S q , if the local feature amount V q and the local feature amount V s are correct corresponding points (positive corresponding points), the resolution difference ΔS is a constant value. Become. On the other hand, the resolution difference ΔS at the point where the correspondence is incorrect (miscorresponding point) often does not coincide with the resolution difference ΔS at the positive corresponding point. That is, the resolution difference ΔS is calculated for all corresponding points extracted by the distance between the feature quantities, and the mode value ΔS mod of the resolution difference ΔS is obtained, so that the corresponding point having the mode value ΔS mod is corrected. It can be estimated as a corresponding point.

また、最頻値ΔSmodは比較画像間の解像度の差を表わし、ΔSmod>0の場合は局所特徴点Vsが属する画像の解像度の方が大きいことを示す。また、ΔSmod=0の場合は比較画像間に解像度の差がなく、ΔSmod<0の場合は、局所特徴点Vsが属する画像の解像度の方が小さいことを示す。 The mode value ΔS mod represents the difference in resolution between the comparison images. When ΔS mod > 0, the resolution of the image to which the local feature point V s belongs is larger. Further, when ΔS mod = 0, there is no difference in resolution between the comparison images, and when ΔS mod <0, the resolution of the image to which the local feature point V s belongs is smaller.

ステップS601では、局所特徴量Vsが属する画像の解像度の方が大きい場合は類似度が大きくなり、局所特徴量Vsが属する画像の解像度の方が小さい場合は類似度が小さくなるように、重み付けするための重み係数wを決定する。本実施形態では、以下の式(14)により重み係数wを決定する。ここで決定した重み係数wは、後述するステップS602で用いられる。 In step S601, the degree of similarity increases when the resolution of the image to which the local feature amount V s belongs is larger, and the degree of similarity decreases when the resolution of the image to which the local feature amount V s belongs is smaller. A weighting factor w for weighting is determined. In the present embodiment, the weight coefficient w is determined by the following equation (14). The weighting factor w determined here is used in step S602 described later.

Figure 2013073476
Figure 2013073476

次に、ステップS602の処理について説明する。   Next, the process of step S602 will be described.

図5のステップS519では、第1の類似度算出手段として機能することにより最終投票数VoteMaxを類似度として出力した。ここで、ステップS519で出力した類似度を第1の類似度とした場合、ステップS602では、第2の類似度算出手段として機能することにより第1の類似度とステップS601で算出した重み係数wとを用いて第2の類似度を算出する。本実施形態においては、第2の類似度Sim2を以下の式(15)により算出し、これを総合類似度とする。このように検索結果の表示順序は、第2の類似度Sim2に応じて決定される。   In step S519 in FIG. 5, the final vote number VoteMax is output as the similarity by functioning as the first similarity calculation means. Here, when the similarity output in step S519 is the first similarity, in step S602, the first similarity and the weight coefficient w calculated in step S601 are obtained by functioning as second similarity calculation means. And the second similarity is calculated. In the present embodiment, the second similarity Sim2 is calculated by the following equation (15), and this is used as the total similarity. As described above, the display order of the search results is determined according to the second similarity Sim2.

Figure 2013073476
Figure 2013073476

以上のように本実施形態によれば、比較対象画像間の対応点のスケール番号に着目して解像度の差を推定し、解像度の差を類似度に反映するようにした。これにより、ユーザの感覚により合致した類似度を算出することが可能になる。   As described above, according to the present embodiment, the resolution difference is estimated by focusing on the scale number of the corresponding point between the comparison target images, and the resolution difference is reflected in the similarity. Thereby, it becomes possible to calculate the degree of similarity that matches the sense of the user.

なお、本実施形態では、スケール番号に着目することによって第1の類似度に重みを付けて第2の類似度を算出し、第2の類似度を総合類似度としたが、解像度情報を利用した類似度算出方法であれば、他の類似度算出方法でもよい。例えば、第1の類似度が所定の閾値以上の場合に、式(14)の結果をそのまま総合類似度としもよい。   In the present embodiment, the second similarity is calculated by weighting the first similarity by paying attention to the scale number, and the second similarity is set as the overall similarity. However, the resolution information is used. Any other similarity calculation method may be used as long as it is a similarity calculation method. For example, when the first similarity is equal to or greater than a predetermined threshold, the result of Expression (14) may be used as the total similarity as it is.

また、本実施形態では、スケール番号に着目することによって解像度の差を推定したが、解像度の差を推定することができれば他の推定方法を用いもよい。例えば、クエリ画像である入力画像101と登録画像である入力画像104との位置合わせに利用可能なパラメータを用いて解像度の差を求めることができる。以下、推定方法の一例として、最終投票数VoteMaxを算出した時の変換行列Mを用いる方法について説明する。具体的には、以下の式(16)により、変換行列Mの要素値を用いて、入力画像104に対する入力画像101の縮小率Rを算出する。   In this embodiment, the difference in resolution is estimated by paying attention to the scale number. However, other estimation methods may be used as long as the difference in resolution can be estimated. For example, the difference in resolution can be obtained using parameters that can be used for alignment between the input image 101 that is a query image and the input image 104 that is a registered image. Hereinafter, as an example of the estimation method, a method of using the transformation matrix M when the final vote number VoteMax is calculated will be described. Specifically, the reduction ratio R of the input image 101 with respect to the input image 104 is calculated using the element value of the transformation matrix M by the following equation (16).

Figure 2013073476
Figure 2013073476

ここで、R<1である場合は、登録画像である入力画像104の方がクエリ画像である入力画像101よりも解像度が高い。このように、縮小率Rを算出することによって解像度の差を推定することが可能となる。さらに、縮小率Rを類似度に反映させるために式(14)及び式(15)を用いる場合は、以下の式(17)を用いて最頻値ΔSmodを求める。 Here, when R <1, the input image 104 that is a registered image has a higher resolution than the input image 101 that is a query image. Thus, by calculating the reduction ratio R, it is possible to estimate the difference in resolution. Furthermore, when formula (14) and formula (15) are used to reflect the reduction rate R in the similarity, the mode value ΔS mod is obtained using the following formula (17).

Figure 2013073476
Figure 2013073476

また、クエリ画像である入力画像101と登録画像である入力画像104との位置合わせを行った後に、画像の周波数成分を比較することによっても解像度の差を求めることができる。以下、図5及び図6において、最終投票数VoteMaxを算出した時の変換行列M、Tを用いる方法について説明する。具体的には、以下の式(18)により入力画像101に拡大・縮小、及び回転処理を施して入力画像104と位置合わせをする。   Further, after the input image 101 that is the query image and the input image 104 that is the registered image are aligned, the difference in resolution can also be obtained by comparing the frequency components of the images. Hereinafter, a method of using the transformation matrices M and T when the final vote number VoteMax is calculated in FIGS. 5 and 6 will be described. Specifically, the input image 101 is subjected to enlargement / reduction and rotation processing according to the following expression (18) to align with the input image 104.

Figure 2013073476
Figure 2013073476

ここで、Qk(xk',yk')は位置合わせ前の入力画像101の画素座標であり、Qk'(Xk',Yk')は位置合わせ後の入力画像の画素座標である。すなわち、Qk(xk',yk')の位置にある画素値をQk'(Xk',Yk')の位置の画素値として設定することにより、位置合わせ後の入力画像を生成する。このとき、線形補間を用いるように構成してもよい。 Here, Q k (x k ′, y k ′) is the pixel coordinates of the input image 101 before alignment, and Q k ′ (X k ′, Y k ′) is the pixel coordinates of the input image after alignment. It is. That is, by setting the pixel value at the position of Q k (x k ′, y k ′) as the pixel value at the position of Q k ′ (X k ′, Y k ′), the input image after alignment is obtained. Generate. At this time, linear interpolation may be used.

次に、周波数成分の比較方法としては、まず、入力画像104と前述の位置合わせ後の入力画像とを周波数変換する。ここで、入力画像104の最大周波数をfsmaxとし、位置合わせ後の入力画像の最大周波数をfqmaxとした場合、入力画像104に対する位置合わせ後の入力画像の縮小率Rは以下の式(19)により推定できる。 Next, as a frequency component comparison method, first, frequency conversion is performed on the input image 104 and the input image after the alignment described above. Here, when the maximum frequency of the input image 104 is fs max and the maximum frequency of the input image after alignment is fq max , the reduction ratio R of the input image after alignment with respect to the input image 104 is expressed by the following equation (19 ).

Figure 2013073476
Figure 2013073476

さらに、この縮小率Rを類似度に反映させるために式(14)及び式(15)を用いる場合は、前述のように、式(17)により最頻値ΔSmodを求めればよい。なお、縮小率Rは、周波数成分の比ではなく周波数成分の差を用いるようにしてもよい。また、位置合わせを行った後の入力画像と登録画像とが重なりあう領域あるいはその一部に対して周波数成分を比較してもよい。 Furthermore, when formula (14) and formula (15) are used to reflect the reduction ratio R in the similarity, the mode value ΔS mod may be obtained by formula (17) as described above. Note that the reduction ratio R may use a frequency component difference instead of a frequency component ratio. Further, the frequency components may be compared with a region where the input image after registration is aligned and the registered image or a part thereof.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

103 第1の局所特徴点/局所特徴量抽出部
106 第2の局所特徴点/局所特徴量抽出部
107 局所特徴点/局所特徴量比較部
103 First local feature point / local feature quantity extraction unit 106 Second local feature point / local feature quantity extraction unit 107 Local feature point / local feature quantity comparison unit

Claims (12)

入力画像を用いて予め登録されている登録画像を検索する画像検索装置であって、
前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出手段と、
前記局所特徴抽出手段によって抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出手段と、
前記第1の類似度算出手段によって算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出手段と、
前記第2の類似度算出手段によって算出された第2の類似度に応じて検索結果を出力する出力手段とを備えることを特徴とする画像検索装置。
An image search device for searching a registered image registered in advance using an input image,
Local feature extraction means for extracting local local features from the input image and the registered image;
First similarity calculation means for calculating a first similarity between the input image and the registered image based on the local feature extracted by the local feature extraction means;
A second similarity between the input image and the registered image is calculated based on the first similarity calculated by the first similarity calculating unit and the resolution information of the input image and the registered image. Second similarity calculating means for
An image search apparatus comprising: output means for outputting a search result according to the second similarity calculated by the second similarity calculation means.
前記第2の類似度算出手段は、前記解像度情報を用いて前記第1の類似度に重み付けすることにより前記第2の類似度を算出することを特徴とする請求項1に記載の画像検索装置。   The image search apparatus according to claim 1, wherein the second similarity calculation unit calculates the second similarity by weighting the first similarity using the resolution information. . 前記解像度情報は、前記入力画像と前記登録画像との解像度の差であることを特徴とする請求項1又は2に記載の画像検索装置。   The image search apparatus according to claim 1, wherein the resolution information is a difference in resolution between the input image and the registered image. 前記解像度の差は、前記入力画像と前記登録画像との位置合わせに用いられるパラメータによって算出される値であることを特徴とする請求項3に記載の画像検索装置。   The image search apparatus according to claim 3, wherein the difference in resolution is a value calculated by a parameter used for alignment between the input image and the registered image. 前記解像度の差は、前記入力画像と前記登録画像との位置合わせが行われたた後に、それぞれの画像の周波数成分の比較によって算出される値であることを特徴とする請求項3に記載の画像検索装置。   The difference in resolution is a value calculated by comparing frequency components of respective images after the registration between the input image and the registered image is performed. Image search device. 前記周波数成分の比較は、前記周波数成分の差又は比による比較であることであることを特徴とする請求項5に記載の画像検索装置。   The image search apparatus according to claim 5, wherein the comparison of the frequency components is a comparison based on a difference or a ratio of the frequency components. 前記周波数成分の比較は、前記入力画像及び登録画像の最大周波数の比較であることを特徴とする請求項5又は6に記載の画像検索装置。   The image search apparatus according to claim 5 or 6, wherein the comparison of the frequency components is a comparison of maximum frequencies of the input image and the registered image. 前記周波数成分の比較は、前記位置合わせを行った後の前記入力画像と前記登録画像とが重なりあう領域あるいはその一部に対して行われることを特徴とする請求項5又は6に記載の画像検索装置。   The image according to claim 5 or 6, wherein the comparison of the frequency components is performed on a region where the input image after the alignment is performed and the registered image or a part thereof overlaps. Search device. 前記位置合わせは、前記入力画像又は前記登録画像に対する回転、拡大又は縮小によるものであることを特徴とする請求項4〜8の何れか1項に記載の画像検索装置。   The image search apparatus according to claim 4, wherein the alignment is based on rotation, enlargement, or reduction of the input image or the registered image. 前記解像度の差は、前記入力画像と前記登録画像とで局所特徴を照合することにより得られる対応点の前記解像度に応じて付与された番号の差であることを特徴とする請求項3に記載の画像検索装置。   The difference in resolution is a difference in numbers assigned according to the resolution of corresponding points obtained by collating local features between the input image and the registered image. Image search device. 入力画像を用いて予め登録されている登録画像を検索する画像検索方法であって、
前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出工程と、
前記第1の類似度算出工程において算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出工程と、
前記第2の類似度算出工程において算出された第2の類似度に応じて検索結果を出力する出力工程とを備えることを特徴とする画像検索方法。
An image search method for searching for a registered image registered in advance using an input image,
A local feature extraction step of extracting local local features from the input image and the registered image;
A first similarity calculation step of calculating a first similarity between the input image and the registered image based on the local feature extracted in the local feature extraction step;
A second similarity between the input image and the registered image is calculated based on the first similarity calculated in the first similarity calculating step and the resolution information of the input image and the registered image. A second similarity calculation step,
An image search method comprising: an output step of outputting a search result according to the second similarity calculated in the second similarity calculation step.
入力画像を用いて予め登録されている登録画像を検索する画像検索装置を制御するためのプログラムであって、
前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出工程と、
前記第1の類似度算出工程において算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出工程と、
前記第2の類似度算出工程において算出された第2の類似度に応じて検索結果を出力する出力工程とをコンピュータに実行させることを特徴とするプログラム。
A program for controlling an image search device that searches for a registered image registered in advance using an input image,
A local feature extraction step of extracting local local features from the input image and the registered image;
A first similarity calculation step of calculating a first similarity between the input image and the registered image based on the local feature extracted in the local feature extraction step;
A second similarity between the input image and the registered image is calculated based on the first similarity calculated in the first similarity calculating step and the resolution information of the input image and the registered image. A second similarity calculation step,
A program causing a computer to execute an output step of outputting a search result according to the second similarity calculated in the second similarity calculation step.
JP2011212980A 2011-09-28 2011-09-28 Image search apparatus, image search method and program Active JP5893318B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011212980A JP5893318B2 (en) 2011-09-28 2011-09-28 Image search apparatus, image search method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011212980A JP5893318B2 (en) 2011-09-28 2011-09-28 Image search apparatus, image search method and program

Publications (2)

Publication Number Publication Date
JP2013073476A true JP2013073476A (en) 2013-04-22
JP5893318B2 JP5893318B2 (en) 2016-03-23

Family

ID=48477915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011212980A Active JP5893318B2 (en) 2011-09-28 2011-09-28 Image search apparatus, image search method and program

Country Status (1)

Country Link
JP (1) JP5893318B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895574A (en) * 2018-09-13 2020-03-20 深圳市蓝灯鱼智能科技有限公司 Picture retrieval method and device, storage medium and electronic device
CN111159456A (en) * 2019-12-30 2020-05-15 云南大学 Multi-scale clothing retrieval method and system based on deep learning and traditional features
CN115731436A (en) * 2022-09-21 2023-03-03 东南大学 Highway vehicle image retrieval method based on deep learning fusion model

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181818B1 (en) * 1994-11-15 2001-01-30 Canon Kabushiki Kaisha Image retrieval method and apparatus
JP2006065399A (en) * 2004-08-24 2006-03-09 Sony Corp Image processing device and method, storage medium and program
JP2010102502A (en) * 2008-10-23 2010-05-06 Canon Inc Image processing device, image processing method, and program
JP2010218479A (en) * 2009-03-19 2010-09-30 Yahoo Japan Corp Image retrieval device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181818B1 (en) * 1994-11-15 2001-01-30 Canon Kabushiki Kaisha Image retrieval method and apparatus
JP2006065399A (en) * 2004-08-24 2006-03-09 Sony Corp Image processing device and method, storage medium and program
JP2010102502A (en) * 2008-10-23 2010-05-06 Canon Inc Image processing device, image processing method, and program
JP2010218479A (en) * 2009-03-19 2010-09-30 Yahoo Japan Corp Image retrieval device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895574A (en) * 2018-09-13 2020-03-20 深圳市蓝灯鱼智能科技有限公司 Picture retrieval method and device, storage medium and electronic device
CN111159456A (en) * 2019-12-30 2020-05-15 云南大学 Multi-scale clothing retrieval method and system based on deep learning and traditional features
CN115731436A (en) * 2022-09-21 2023-03-03 东南大学 Highway vehicle image retrieval method based on deep learning fusion model
CN115731436B (en) * 2022-09-21 2023-09-26 东南大学 Highway vehicle image retrieval method based on deep learning fusion model

Also Published As

Publication number Publication date
JP5893318B2 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
JP5096776B2 (en) Image processing apparatus and image search method
JP5183392B2 (en) Image processing apparatus, image processing method, and program
US8483440B2 (en) Methods and systems for verifying automatic license plate recognition results
JP4989308B2 (en) Image processing apparatus and image search method
CN110555795A (en) High resolution style migration
CN109858333B (en) Image processing method, image processing device, electronic equipment and computer readable medium
WO2020233427A1 (en) Method and apparatus for determining features of target
JP6292911B2 (en) Image processing method, image processing program, and image processing apparatus
WO2020020047A1 (en) Key point matching method and device, terminal device and storage medium
Rajput et al. A robust face super-resolution algorithm and its application in low-resolution face recognition system
US8385656B2 (en) Image processing apparatus, image processing method and program
JP5893318B2 (en) Image search apparatus, image search method and program
CN109871249B (en) Remote desktop operation method and device, readable storage medium and terminal equipment
WO2020213742A1 (en) Image conversion device, image conversion model training device, method, and program
JP2010266964A (en) Image retrieval device, its control method, and program
JP5430636B2 (en) Data acquisition apparatus, method and program
JP6017005B2 (en) Image search apparatus, image search method and program
JP6143462B2 (en) Image search device, image search method, search source image providing device, search source image providing method, and program
CN110580297A (en) Merchant and dish matching method and device based on dish image and electronic equipment
JP5836728B2 (en) Image search apparatus, image search method and program
JP6833753B2 (en) Structure inspection system, structure inspection equipment and structure inspection method
JP2016085694A (en) Image processing device, control method of the same, and program
JP2017138742A (en) Image processing apparatus, image processing method, and program
JP6327918B2 (en) Image search apparatus and control method thereof
JP5882976B2 (en) Learning local feature generating apparatus and learning local feature generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160224

R151 Written notification of patent or utility model registration

Ref document number: 5893318

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151