JP2013073476A - Image retrieval device, image retrieval method, and program - Google Patents
Image retrieval device, image retrieval method, and program Download PDFInfo
- Publication number
- JP2013073476A JP2013073476A JP2011212980A JP2011212980A JP2013073476A JP 2013073476 A JP2013073476 A JP 2013073476A JP 2011212980 A JP2011212980 A JP 2011212980A JP 2011212980 A JP2011212980 A JP 2011212980A JP 2013073476 A JP2013073476 A JP 2013073476A
- Authority
- JP
- Japan
- Prior art keywords
- image
- similarity
- local feature
- registered
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、例えば、局所特徴点及び局所特徴量に基づく検索を行うために用いて好適な画像検索装置、画像検索方法及びプログラムに関する。 The present invention relates to an image search apparatus, an image search method, and a program suitable for use in performing a search based on local feature points and local feature amounts, for example.
従来、画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する方法が提案されている。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する。抽出方法については例えば非特許文献1に開示されている方法が挙げられる。そして、当該特徴点とその周辺の画像情報とに基づいて、当該特徴点に対応する特徴量(局所特徴量)を計算する。局所特徴量については例えば非特許文献2に開示されている方法によって計算することができる。このように画像の検索は、局所特徴量同士のマッチングによって行われる。
Conventionally, a method of searching for a similar image using a local feature amount (local feature amount) of an image has been proposed. In this method, first, characteristic points (local feature points) are extracted from an image. Examples of the extraction method include the method disclosed in
局所特徴量を利用する手法においては、局所特徴量を回転不変、拡大・縮小不変となる複数の要素で構成される情報として定義する。これにより、画像を回転させたり、拡大又は縮小させたりした場合であっても、画像を検索することができる。また、局所特徴量は一般的にベクトルとして表現される。ただし、局所特徴量が回転不変、拡大・縮小不変であることは理論上の話であり、実際のデジタル画像においては、画像の回転や拡大・縮小処理前の局所特徴量と処理後の対応する局所特徴量との間に若干の変動が生じる。 In the method using the local feature amount, the local feature amount is defined as information including a plurality of elements that are rotation invariant and enlargement / reduction invariant. Thereby, even when the image is rotated, enlarged or reduced, the image can be searched. Further, the local feature amount is generally expressed as a vector. However, it is a theoretical story that the local feature is invariant to rotation and enlargement / reduction. In an actual digital image, the local feature before image rotation and enlargement / reduction processing corresponds to that after processing. Some variation occurs between the local feature amount.
例えば非特許文献2に記載の方法では、回転不変の局所特徴量を算出するために、局所特徴点周辺の局所領域の画素パターンから主方向を算出し、局所特徴量の算出時に主方向を基準に局所領域を回転させて方向を正規化する。また、拡大・縮小不変の局所特徴量を算出するために、異なる解像度の画像を内部で生成し、各解像度の画像からそれぞれ局所特徴点を抽出し、局所特徴量を算出する。ここで、内部で生成した一連の異なる解像度の画像集合は一般的にスケールスペースと呼ばれる。
For example, in the method described in Non-Patent
検索結果により画像が表示される順位は、多くの場合、クエリ画像と登録画像との間の類似度が局所特徴量のマッチングにより算出され、その類似度を用いて決定される。局所特徴量のマッチング方法としては、局所特徴量をベクトルに表現してベクトル間の距離を測るものや、ハッシュ表を用いる方法などがある。ところが、このような従来の方法では、検索結果の画像の利用価値の順序と結果の表示順序とが合致しないことがある。このような現象が生じる場合の例とその原因について以下に説明する。 In many cases, the order in which images are displayed based on the search result is determined using the similarity between the query image and the registered image calculated by matching local features. As a local feature amount matching method, there are a method of measuring a distance between vectors by expressing the local feature amount as a vector, a method using a hash table, and the like. However, in such a conventional method, the order of use values of the search result images may not match the display order of the results. An example of the case where such a phenomenon occurs and its cause will be described below.
例えば、クエリ画像と同じ解像度で回転のない第1の登録画像と、クエリ画像よりはるかに解像度が高いが若干回転している第2の登録画像とが検索される場合を考える。まず、局所特徴量をマッチングするために、前述のように、それぞれの画像に対してスケールスペースを生成し、各解像度の画像から回転不変の局所特徴量を算出する。 For example, consider a case where a first registered image that has the same resolution as the query image and does not rotate and a second registered image that is much higher in resolution than the query image but slightly rotated are searched. First, in order to match local feature amounts, as described above, a scale space is generated for each image, and rotation-invariant local feature amounts are calculated from images of each resolution.
このとき、第2の登録画像からは、クエリ画像には存在しない高解像度の画像がスケールスペースに含まれ、その画像からも局所特徴量が算出される。ところが、これらの局所特徴量は検索時のクエリ画像との局所特徴量のマッチングには寄与しない。クエリ画像と重なる解像度のスケールスペースから算出された第2の登録画像の局所特徴量だけが、クエリ画像との局所特徴量同士のマッチングに寄与することになる。 At this time, from the second registered image, a high-resolution image that does not exist in the query image is included in the scale space, and the local feature amount is also calculated from the image. However, these local feature amounts do not contribute to matching of the local feature amounts with the query image at the time of search. Only the local feature amount of the second registered image calculated from the scale space having the resolution overlapping with the query image contributes to matching of the local feature amounts with the query image.
ここで、第2の登録画像とクエリ画像との間でマッチした局所特徴量ペアのベクトル間距離は、第1の登録画像とクエリ画像との間でマッチした局所特徴量ペア間のベクトル間距離よりも大きくなる可能性が高い。これは、クエリ画像に対して第1の登録画像が回転していない一方で第2の登録画像は若干回転していることに起因する。すなわち、第2の登録画像は回転によって画像にノイズが付与され、そのノイズが局所特徴量を変動させるからである。 Here, the inter-vector distance of the local feature amount pair matched between the second registered image and the query image is the inter-vector distance between the matched local feature amount pairs between the first registered image and the query image. Is likely to be larger. This is because the first registered image is not rotated with respect to the query image, while the second registered image is slightly rotated. That is, the second registered image is given a noise by rotation, and the noise fluctuates the local feature amount.
この結果、クエリ画像と第1の登録画像との類似度は、解像度の高い第2の登録画像との類似度よりも大きくなる。ところが、第2の登録画像の回転量がユーザの気にならない程度の回転量であった場合には、解像度の高い第2の登録画像の方が第1の登録画像よりも利用価値が高いことがある。例えば、解像度の高い画像の方が、画像の回転や拡大など画像加工時の画質劣化問題を回避しやすいため、再利用性に優れている。 As a result, the similarity between the query image and the first registered image is greater than the similarity between the second registered image having a high resolution. However, when the rotation amount of the second registered image is such that the user does not care, the second registered image having a higher resolution has a higher utility value than the first registered image. There is. For example, an image with a higher resolution is more reusable because it is easier to avoid image quality degradation problems during image processing such as image rotation and enlargement.
このように、従来の方法では検索結果の画像の利用価値の順序と結果の表示順序とが合致しないという現象が容易に生じ得るという問題がある。 As described above, in the conventional method, there is a problem that a phenomenon that the order of the use values of the search result images does not match the display order of the results can easily occur.
本発明は前述の問題点に鑑み、利用価値の高い順序で検索結果を得ることができるようにすることを目的としている。 The present invention has been made in view of the above-described problems, and it is an object of the present invention to obtain search results in order of high utility value.
本発明の画像検索装置は、入力画像を用いて予め登録されている登録画像を検索する画像検索装置であって、前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出手段と、前記局所特徴抽出手段によって抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出手段と、前記第1の類似度算出手段によって算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出手段と、前記第2の類似度算出手段によって算出された第2の類似度に応じて検索結果を出力する出力手段とを備えることを特徴とする。 An image search device of the present invention is an image search device for searching a registered image registered in advance using an input image, and includes local feature extraction means for extracting a local local feature from the input image and the registered image; First similarity calculation means for calculating a first similarity between the input image and the registered image based on the local feature extracted by the local feature extraction means; and the first similarity calculation Second similarity calculation for calculating a second similarity between the input image and the registered image based on the first similarity calculated by the means and the resolution information of the input image and the registered image Means and output means for outputting a search result in accordance with the second similarity calculated by the second similarity calculation means.
本発明によれば、画像の解像度が反映された利用価値の高い順序で検索結果を出力することができる。 According to the present invention, search results can be output in order of high utility value reflecting the resolution of an image.
以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態における画像検索装置100の構成例を示すブロック図である。
図1において、画像検索装置100は、第1の画像入力部102、第2の画像入力部105、第1の局所特徴点/局所特徴量抽出部103、第2の局所特徴点/局所特徴量抽出部106及び局所特徴量比較部107から構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of an
In FIG. 1, an
画像検索装置100では、入力画像101が第1の画像入力部102に入力されると、第1の局所特徴点/局所特徴量抽出部103は、局所特徴として局所特徴点とその局所特徴量とを抽出する。同様に、比較対象となる入力画像104が第2の画像入力部105に入力されると、第2の局所特徴点/局所特徴量抽出部106は、局所特徴として局所特徴点とその局所特徴量とを抽出する。本実施形態では、入力画像101をクエリ画像とし、比較対象となる入力画像104をデータベースに登録されている登録画像として説明する。また、局所特徴点とその局所特徴量とを抽出する処理の詳細については後述する。
In the
局所特徴点/局所特徴量比較部107は、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106で抽出されたそれぞれの局所特徴点及び局所特徴量同士を比較し、画像表示順序として比較結果108を出力する。この局所特徴点及び局所特徴量の比較処理の詳細についても後述する。
The local feature point / local feature
図7は、本実施形態に係る画像検索装置1400のハードウェア構成例を示すブロック図である。
図7において、画像検索装置1400は例えばパーソナルコンピュータであり、ROM1430には、後述するフローチャートの処理をCPU1410の制御により実現させるプログラムが格納されている。そして、プログラムを実行させる際には、ROM1430に格納されたプログラムをRAM1420に読み出してCPU1410が処理できるようにしている。
FIG. 7 is a block diagram illustrating a hardware configuration example of the
In FIG. 7, an
バス1450は、ROM1430、RAM1420、CPU1410及びHDD1440とデータのやりとりを行う。また、画像検索装置1400は、ユーザインターフェース1460に接続されるキーボードやマウスなどの入出力機器からの入力を受ける。さらに、画像検索装置1400は、ネットワークインターフェース1470を介してネットワーク1500を経由し、データベース(DB)1510、クライアント端末(CLIENT)1520、及びプリンタ(PRINTER)1530とデータの入出力を行う。
The
また、複数のハードウェアとソフトウェアとの協働によって後述する実施形態の処理を実現してもよい。例えば、画像検索装置1400がクライアント端末1520やプリンタ1530から検索依頼とクエリ画像とを受け付け、後述するフローチャートの処理を行い、データベース1510からクエリ画像に類似する画像を検索する形態が挙げられる。
Further, the processing of the embodiment described later may be realized by cooperation of a plurality of hardware and software. For example, the
[局所特徴抽出処理]
次に、画像の局所特徴(局所特徴点及び局所特徴量)抽出処理を説明する。画像の局所特徴抽出処理は、画像データを読み出すステップ、輝度成分の抽出ステップ、縮小画像の作成ステップ、局所特徴点の抽出ステップ、及び局所特徴量の算出ステップからなる。
[Local feature extraction processing]
Next, local feature (local feature points and local feature amounts) extraction processing of an image will be described. The local feature extraction processing of an image includes a step of reading image data, a luminance component extraction step, a reduced image creation step, a local feature point extraction step, and a local feature amount calculation step.
図2は、本実施形態において、画像の局所特徴点及び局所特徴量を抽出する処理手順の一例を示すフローチャートである。
まず、ステップS201により処理を開始し、ステップS202において、第1の画像入力部102及び第2の画像入力部105は、それぞれの画像データを読み出す。そして、ステップS203において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106はそれぞれ、画像データから輝度成分を抽出し、輝度成分画像を生成する。
FIG. 2 is a flowchart illustrating an example of a processing procedure for extracting local feature points and local feature amounts of an image in the present embodiment.
First, processing is started in step S201, and in step S202, the first
次に、ステップS204において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106はそれぞれ、ステップS203で作成した当該輝度成分画像を倍率pに従って順次縮小し、縮小画像をn枚生成する。ただし、倍率p及び縮小画像の枚数nは予め決められているものとする。
Next, in step S204, each of the first local feature point / local feature
図3は、図2のステップS204における縮小画像の生成処理の概要を説明する図である。なお、図3では、倍率pを2の−(1/4)乗とし、縮小画像の枚数nを9とした場合の例を示している。また、図3に示す例では、倍率pを面積比ではなく辺の長さの比としている。 FIG. 3 is a diagram for explaining the outline of the reduced image generation process in step S204 of FIG. FIG. 3 shows an example where the magnification p is 2 to the power of − (1/4) and the number n of reduced images is 9. Further, in the example shown in FIG. 3, the magnification p is not the area ratio but the side length ratio.
図3において、301はステップS203で作成した輝度成分画像である。302は輝度成分画像301から倍率pに従って4回縮小された縮小画像であり、輝度成分画像301を1/2に縮小した画像に相当する。また、303は輝度成分画像301から倍率pに従って8回縮小された縮小画像であり、輝度成分画像301を1/4に縮小した画像に相当する。なお、画像を縮小する方法は単純に画素を間引く方法、線形補間を用いる方法、低域フィルタ適用後にサンプリングする方法などを用いることができるが、何れの方法でもよい。本実施形態では、線形補間による縮小方法を用いて画像を縮小するものとする。
In FIG. 3,
304はスケール番号であり、縮小画像のサイズが大きい方から順に解像度に応じて付与される番号である。本実施形態では、スケール番号は1から始まるようにしているが、0から始まるようにしてもよい。
図2の説明に戻り、次に、ステップS205において、第1の局所特徴点/局所特徴量抽出部103及び第2の局所特徴点/局所特徴量抽出部106は、ステップS204で得られたn枚の縮小画像のそれぞれから局所的な特徴点(局所特徴点)を抽出する。ここで抽出する局所特徴点は、画像に回転や縮小などの画像処理を施しても同じ場所から安定的に抽出されるようなロバストな局所特徴点である。このような局所特徴点を抽出する方法として、本実施形態では、非特許文献1に記載されているHarris作用素を用いる。
Returning to the description of FIG. 2, next, in step S205, the first local feature point / local feature
具体的には、Harris作用素を作用させて得られた画像の画素それぞれについて、着目画素とその周辺にある8つの画素との合計9画素の画素値を調べる。そして、着目画素の画素値が予め定めた値以上であり、かつ局所極大になる(当該9画素の中で当該画素の画素値が最大になる)場合に、その着目画素が位置する点を局所特徴点として抽出する。なお、ロバストな局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。 Specifically, for each pixel of the image obtained by applying the Harris operator, the pixel value of a total of nine pixels including the pixel of interest and the eight pixels around it is examined. When the pixel value of the pixel of interest is equal to or greater than a predetermined value and has a local maximum (the pixel value of the pixel is the maximum among the nine pixels), the point where the pixel of interest is located is locally Extract as feature points. Note that any feature point extraction method is applicable as long as it is a method capable of extracting a robust local feature point, not limited to the above-described feature point extraction method using the Harris operator.
次に、ステップS206において、ステップS205で得られた局所特徴点それぞれについて、画像の回転があっても不変となるように定義された特徴量(局所特徴量)を算出する。この局所特徴量の算出方法として、本実施形態では非特許文献3に記載されているLocal Jet及びそれらの導関数の組み合わせを用いる。この方法により算出される局所特徴量は、拡大縮小、回転に対して、比較的高い耐性を持つような特性を持たせることができる。具体的には、以下の式(1)により局所特徴量を算出する。
Next, in step S206, for each local feature point obtained in step S205, a feature quantity (local feature quantity) defined so as to remain unchanged even when the image is rotated is calculated. As a method for calculating the local feature amount, in this embodiment, a combination of Local Jet and derivatives thereof described in
ただし、式(1)の右辺で用いている記号は、以下の式(2)から式(7)に示すように定義される。 However, the symbols used on the right side of Expression (1) are defined as shown in Expression (2) to Expression (7) below.
ここで、式(2)右辺のG(x,y)はガウス関数であり、I(x,y)は画像の座標(x,y)における画素値であり、"*"は畳み込み演算を表す記号である。また、式(3)は式(2)で定義された変数Lのxに関する偏導関数であり、式(4)は当該変数Lのyに関する偏導関数である。式(5)は式(3)で定義された変数Lxのyに関する偏導関数である。式(6)は式(3)で定義された変数Lxのxに関する偏導関数であり、式(7)は式(4)で定義されたLyのyに関する偏導関数である。 Here, G (x, y) on the right side of Expression (2) is a Gaussian function, I (x, y) is a pixel value at image coordinates (x, y), and “*” represents a convolution operation. It is a symbol. Equation (3) is a partial derivative of variable L defined in equation (2) with respect to x, and Equation (4) is a partial derivative of variable L with respect to y. Equation (5) is a partial derivative with respect to y of the variable L x defined in Equation (3). Equation (6) is a partial derivative of variable L x defined in equation (3) with respect to x, and equation (7) is a partial derivative of L y defined in equation (4) with respect to y.
なお、局所特徴量の算出方法は、上述の方法に限らず他の局所特徴量の算出方法も適用可能である。他の局所特徴量の算出方法として、例えば非特許文献2に記載されている方法がある。この方法では、局所特徴点周辺の局所領域内の各画素に対して画素値の勾配方向を算出し、そのヒストグラムを局所特徴量としている。
In addition, the calculation method of a local feature-value is not restricted to the above-mentioned method, The calculation method of another local feature-value is applicable. As another local feature amount calculation method, for example, there is a method described in
図4は、局所特徴点の抽出する概要を説明する図である。図4(a)は入力画像410を示しており、図4(b)は、入力画像410から抽出した局所特徴点421、422を重畳した入力画像420を示している。図4に示す例では、局所特徴点421、422に対してそれぞれ局所特徴量が計算される。
FIG. 4 is a diagram illustrating an outline of extracting local feature points. 4A shows an
[類似度算出方法]
まず、一般的な方法を用いて類似度を算出する方法について説明する。類似度の算出方法では様々な方法を用いることができるが、以下の説明では、例えば非特許文献4に記載されているRANSACを利用した類似度算出方法について説明する。
[Similarity calculation method]
First, a method for calculating the similarity using a general method will be described. Various methods can be used as the similarity calculation method. In the following description, for example, a similarity calculation method using RANSAC described in
ここで、入力画像の局所特徴点をQとし、その座標をQ(x',y')とし、その局所特徴点Qの局所特徴量をVqとする。また、比較対象となる入力画像の画像上の局所特徴点をSとして、その座標をS(x,y)とし、その局所特徴点Sの局所特徴量をVsとする。 Here, it is assumed that the local feature point of the input image is Q, the coordinate is Q (x ′, y ′), and the local feature amount of the local feature point Q is V q . Also, the local feature point on the image of the input image to be compared as S, and the coordinates S (x, y) and to the local feature quantity of the local feature points S and V s.
図5は、解像度を考慮しないで類似度を算出する処理手順の一例を示すフローチャートである。
ステップS501で処理を開始すると、ステップS502において、局所特徴量Vqと局所特徴量Vsとを照合して最小距離対応点リストを作成する。具体的には、まず、局所特徴量Vqと局所特徴量Vsとの全ての組み合わせについて局所特徴量間の距離を計算する。次に、計算した局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)を抽出する。これらの対応点を最小距離対応点リストに登録することにより、最小距離対応点リストを作成する。
FIG. 5 is a flowchart illustrating an example of a processing procedure for calculating the similarity without considering the resolution.
Upon starting the processing step S501, in step S502, to create a minimum distance correspondence point list by matching the local feature quantity V q and the local feature amount V s. Specifically, first, distances between local feature quantities are calculated for all combinations of the local feature quantity V q and the local feature quantity V s . Next, a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s is extracted so that the calculated distance between the local feature quantities is equal to or less than the threshold value Tv and is the minimum distance. By registering these corresponding points in the minimum distance corresponding point list, a minimum distance corresponding point list is created.
ここで、最小距離対応点リストには、例えばk番目の最小距離対応点をそれぞれQk、Skと表わし、これらの座標をQk(xk',yk')、Sk(xk,yk)とし、添え字を合わせて記載する。なお、1つの局所特徴点に対応付けられる局所特徴量は2つ以上あってもよいが、以下の説明では説明を簡略化するため、1つの局所特徴点に対応付けられる局所特徴量は1つだけとする。そして、前記Qk、Skの局所特徴量をそれぞれVq(k)、Vs(k)とする。また、ステップS502では、m組の対応点が最小距離対応点リストに登録されるものとする。 Here, in the minimum distance corresponding point list, for example, the kth minimum distance corresponding point is represented as Q k and S k , respectively, and these coordinates are represented as Q k (x k ′, y k ′) and S k (x k ). , Y k ) and include the subscript. Note that there may be two or more local feature amounts associated with one local feature point, but in the following description, one local feature amount is associated with one local feature point in order to simplify the description. Only. The local feature values of Q k and S k are V q (k) and V s (k), respectively. In step S502, m sets of corresponding points are registered in the minimum distance corresponding point list.
次に、ステップS521において、mが3以上であるか否かを判定する。この判定の結果、mが3未満である場合は、類似度を算出できないため、ステップS522に進み、処理を終了する。 Next, in step S521, it is determined whether m is 3 or more. As a result of this determination, if m is less than 3, the similarity cannot be calculated, so the process proceeds to step S522, and the process ends.
一方、ステップS521の判定の結果、mが3以上である場合は、ステップS503において、最終投票数を表す変数VoteMaxを0に初期化する。そして、ステップS504において、類似度算出処理の反復カウント数を表す変数Countを0に初期化する。 On the other hand, if m is 3 or more as a result of the determination in step S521, a variable VoteMax representing the final number of votes is initialized to 0 in step S503. In step S504, a variable Count indicating the number of iterations of the similarity calculation process is initialized to zero.
次に、ステップS505において、反復カウント数Countが予め定められた最大反復処理回数Rnを超えていないか否かを判定する。この判定の結果、反復カウント数Countが最大反復処理回数Rnを超えていない場合はステップS506へ進み、投票数を表す変数Voteを0に初期化する。一方、ステップS505の判定の結果、反復カウント数Countが最大反復処理回数Rnを超えている場合には、ステップS519へ進み、最終投票数VoteMaxを類似度として出力し、ステップS520において処理を終了する。 Next, in step S505, it is determined whether or not the iteration count number Count has exceeded a predetermined maximum number of iterations Rn. As a result of this determination, if the iteration count number Count does not exceed the maximum number of iterations Rn, the process proceeds to step S506, and a variable Vote representing the number of votes is initialized to zero. On the other hand, if it is determined in step S505 that the iteration count Count exceeds the maximum number of iterations Rn, the process proceeds to step S519, the final vote number VoteMax is output as the similarity, and the process ends in step S520. .
次に、ステップS507において、最小距離対応点リストから対応点の組の座標をランダムに2組抽出する。ここで、抽出した2組の座標をQ1(x1',y1')、S1(x1,y1)、及びQ2(x2',y2')、S2(x2,y2)と定義する。そして、ステップS508において、変換行列M、Tを計算する。ここで、行列Mは、以下の式(8)において変数a〜dで構成される行列であり、行列Tは変数e〜fで構成される行列である。 Next, in step S507, two sets of coordinates of corresponding point pairs are randomly extracted from the minimum distance corresponding point list. Here, the extracted two sets of coordinates are Q 1 (x 1 ′, y 1 ′), S 1 (x 1 , y 1 ), Q 2 (x 2 ′, y 2 ′), S 2 (x 2 , Y 2 ). In step S508, conversion matrices M and T are calculated. Here, the matrix M is a matrix composed of variables a to d in the following equation (8), and the matrix T is a matrix composed of variables ef.
ここで、以下の説明では説明を簡略化するため、相似変換だけを考える。この場合には、上記式(8)は以下の式(9)のように書き換えられる。 Here, in order to simplify the explanation in the following explanation, only the similarity transformation is considered. In this case, the above equation (8) is rewritten as the following equation (9).
また、式(9)における変数a、b、e、fは、座標Q1(x1',y1')、S1(x1,y1)及びQ2(x2',y2')、S2(x2,y2)の座標値を用いて以下の式(10)〜式(13)で表すことができる。 Further, the variables a, b, e, and f in the equation (9) are represented by coordinates Q 1 (x 1 ′, y 1 ′), S 1 (x 1 , y 1 ), and Q 2 (x 2 ′, y 2 ′). ), S 2 (x 2 , y 2 ) can be used to express the following equations (10) to (13).
次に、ステップS509において、ステップS507で最短距離対応点リストからランダムに抽出された2組の点以外の点を選択するために、対応点選択変数kを3に初期化する。そして、ステップS510において、対応点選択変数kが最短距離対応点リストに登録されている対応点の組数mを超えていないか否かを判定する。この判定の結果、組数mを超えている場合はステップS516へ進む。ステップS516の処理については後述する。 Next, in step S509, the corresponding point selection variable k is initialized to 3 in order to select a point other than the two sets of points randomly extracted from the shortest distance corresponding point list in step S507. Then, in step S510, it is determined whether or not the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list. As a result of the determination, if the number of sets m is exceeded, the process proceeds to step S516. The process of step S516 will be described later.
一方、ステップS510の判定の結果、組数mを超えていない場合は、ステップS511において、最小距離対応点リストから新たな対応点の組を1組抽出する。ここでは、抽出した座標をSk(xk,yk)、Qk(xk',yk')と定義する。なお、抽出する際には、ステップS507と同様に付加情報を利用する。 On the other hand, if the result of determination in step S510 is that the number m of pairs has not been exceeded, one set of new corresponding points is extracted from the minimum distance corresponding point list in step S511. Here, the extracted coordinates are defined as S k (x k , y k ) and Q k (x k ′, y k ′). When extracting, additional information is used in the same manner as in step S507.
次に、ステップS512において、式(9)によりSk(xk,yk)を変換した座標Sk'(xk",yk")を求める。その後、ステップS513において、座標Sk'(xk",yk")と座標Qk(xk',yk')との幾何学的距離をユークリッド距離で計算し、当該ユークリッド距離が閾値Td以下であるか否かを判定する。この判定の結果、当該ユークリッド距離が閾値Td以下の場合はステップS514へ進み、投票数Voteをインクリメントした後、ステップS515へ進む。一方、ステップS513の判定の結果、当該ユークリッド距離が閾値Tdより大きい場合は、何もせずにステップS515へ進む。 Next, in step S512, coordinates S k ′ (x k ″, y k ″) obtained by converting S k (x k , y k ) using Expression (9) are obtained . Thereafter, in step S513, the geometric distance between the coordinates S k ′ (x k ″, y k ″) and the coordinates Q k (x k ′, y k ′) is calculated as the Euclidean distance, and the Euclidean distance is a threshold value. It is determined whether or not Td or less. If the result of this determination is that the Euclidean distance is less than or equal to the threshold Td, the process proceeds to step S514, and after the vote number Vote is incremented, the process proceeds to step S515. On the other hand, if the result of the determination in step S513 is that the Euclidean distance is greater than the threshold Td, the process proceeds to step S515 without doing anything.
次に、ステップS515において、対応点選択変数kをインクリメントし、ステップS510に戻り、対応点選択変数kが最短距離対応点リストに登録されている対応点の組数mを超えるまで、上述の処理を繰り返す。 Next, in step S515, the corresponding point selection variable k is incremented, and the process returns to step S510, and the above processing is performed until the corresponding point selection variable k exceeds the number m of corresponding points registered in the shortest distance corresponding point list. repeat.
次に、ステップS510で、対応点選択変数kが当該対応点リストに登録されている対応点の組数mを超えた場合について説明する。ステップS516においては、投票数Voteの値と最終投票数VoteMaxの値とを比較し、投票数Voteの値が最終投票数VoteMaxの値よりも大きいか否かを判定する。この判定の結果、投票数Voteの値が最終投票数VoteMaxの値よりも大きい場合にはステップS517へ進む。 Next, the case where the corresponding point selection variable k exceeds the number m of corresponding points registered in the corresponding point list in step S510 will be described. In step S516, the value of the vote number Vote and the value of the final vote number VoteMax are compared, and it is determined whether or not the value of the vote number Vote is larger than the value of the final vote number VoteMax. As a result of this determination, if the value of the vote number Vote is larger than the value of the final vote number VoteMax, the process proceeds to step S517.
ステップS517においては、最終投票数VoteMaxの値を投票数Voteの値で置き換える。そして、ステップS518において反復カウント数Countをインクリメントし、ステップS505に戻る。一方、ステップS516の判定の結果、投票数Voteの値が最終投票数VoteMaxの値以下の場合にはステップS518へ処理を移し、反復カウント数CountをインクリメントしてステップS505に処理を戻す。 In step S517, the value of the final vote number VoteMax is replaced with the value of the vote number Vote. In step S518, the iteration count Count is incremented, and the process returns to step S505. On the other hand, as a result of the determination in step S516, if the value of the vote number Vote is equal to or less than the value of the final vote number VoteMax, the process proceeds to step S518, the repeat count number Count is incremented, and the process returns to step S505.
なお、図5の説明では、相似変換だけを考慮して説明したが、アフィン変換などその他の幾何学変換についても、ステップS508でそれぞれに応じた変換行列を求めることにより、対応可能である。例えば、アフィン変換の場合には、まずステップS507で、ランダムに選択する対応点の組の座標数を3とする。次に、ステップS508で、式(9)ではなく式(8)を用い、ステップS507で選択した3組の対応点(合計6点)を用いて変数a〜fを求めればよい。 In the description of FIG. 5, only the similarity transformation is considered. However, other geometric transformations such as affine transformation can be dealt with by obtaining a transformation matrix corresponding to each in step S508. For example, in the case of affine transformation, first, in step S507, the number of coordinates of a pair of corresponding points selected at random is set to 3. Next, in Step S508, using Equation (8) instead of Equation (9), the variables a to f may be obtained using the three corresponding points selected in Step S507 (6 points in total).
また、図5の説明では、ステップS519で類似度として最終投票数VoteMaxを出力する例について説明したが、他の類似度を計算するようにしてもよい。例えば、ステップS503以降の処理を行わずに、ステップS502で作成された最小距離対応点リストに登録された対応点の組数mを類似度として出力する方法がある。 In the description of FIG. 5, the example in which the final vote number VoteMax is output as the similarity in step S519 has been described, but other similarities may be calculated. For example, there is a method in which the number m of pairs of corresponding points registered in the minimum distance corresponding point list created in step S502 is output as the similarity without performing the processing after step S503.
次に、本実施形態における類似度算出方法について、図6を参照しながら説明する。
図6は、本実施形態において、局所特徴点/局所特徴量比較部107により類似度を算出する処理手順の一例を示すフローチャートである。図6に示すフローチャートでは、図5の処理手順にステップS601の処理が追加され、さらに図5のステップS519の処理がステップS602の処理に入れ替わっている。なお、図5の同じ符号を付しているステップS501〜S518、S520〜S522については図5と同様であるため、説明は省略する。
Next, the similarity calculation method in the present embodiment will be described with reference to FIG.
FIG. 6 is a flowchart illustrating an example of a processing procedure for calculating the similarity by the local feature point / local feature
まず、ステップS601の処理について説明する。 First, the process of step S601 will be described.
図5に示した手順では、まず、ステップS502で、局所特徴量Vqと局所特徴量Vsとの全ての組み合わせについて局所特徴量間の距離を計算する。次に、計算した局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)を抽出し、これらの対応点を登録することにより最小距離対応点リストを作成する。 In the procedure shown in FIG. 5, first, in step S502, distances between local feature quantities are calculated for all combinations of the local feature quantity V q and the local feature quantity V s . Next, a combination (corresponding point) of the local feature quantity V q and the local feature quantity V s so that the calculated distance between the local feature quantities is equal to or smaller than the threshold Tv and becomes the minimum distance is extracted, and the correspondence between them is extracted. A list of points corresponding to the minimum distance is created by registering the points.
このとき、図3に示したスケール番号304に着目することにより比較対象画像との間の解像度の差を推定することができる。以下にその方法を説明する。ここで、局所特徴量間の距離が閾値Tv以下となり、かつ、最小距離となるような局所特徴量Vqと局所特徴量Vsとの組み合わせ(対応点)があった場合に、それぞれのスケール番号をSq、Ssとする。また、局所特徴量Vqが属する画像をクエリ画像とした場合に、局所特徴量Vsが属する画像の類似度を算出する場合を想定する。
At this time, by paying attention to the
解像度の差をΔS=Ss−Sqとしたとき、局所特徴量Vqと局所特徴量Vsとが正しい対応点(正対応点)である場合には、解像度の差ΔSは一定値となる。一方、対応が誤っている点(誤対応点)の解像度の差ΔSは正対応点の解像度の差ΔSと一致しないことが多い。つまり、特徴量間の距離で抽出した対応点すべてに対して解像度の差ΔSを算出し、解像度の差ΔSの最頻値ΔSmodを求めることにより、最頻値ΔSmodを持つ対応点を正対応点と推定できる。 When the difference in resolution is ΔS = S s −S q , if the local feature amount V q and the local feature amount V s are correct corresponding points (positive corresponding points), the resolution difference ΔS is a constant value. Become. On the other hand, the resolution difference ΔS at the point where the correspondence is incorrect (miscorresponding point) often does not coincide with the resolution difference ΔS at the positive corresponding point. That is, the resolution difference ΔS is calculated for all corresponding points extracted by the distance between the feature quantities, and the mode value ΔS mod of the resolution difference ΔS is obtained, so that the corresponding point having the mode value ΔS mod is corrected. It can be estimated as a corresponding point.
また、最頻値ΔSmodは比較画像間の解像度の差を表わし、ΔSmod>0の場合は局所特徴点Vsが属する画像の解像度の方が大きいことを示す。また、ΔSmod=0の場合は比較画像間に解像度の差がなく、ΔSmod<0の場合は、局所特徴点Vsが属する画像の解像度の方が小さいことを示す。 The mode value ΔS mod represents the difference in resolution between the comparison images. When ΔS mod > 0, the resolution of the image to which the local feature point V s belongs is larger. Further, when ΔS mod = 0, there is no difference in resolution between the comparison images, and when ΔS mod <0, the resolution of the image to which the local feature point V s belongs is smaller.
ステップS601では、局所特徴量Vsが属する画像の解像度の方が大きい場合は類似度が大きくなり、局所特徴量Vsが属する画像の解像度の方が小さい場合は類似度が小さくなるように、重み付けするための重み係数wを決定する。本実施形態では、以下の式(14)により重み係数wを決定する。ここで決定した重み係数wは、後述するステップS602で用いられる。 In step S601, the degree of similarity increases when the resolution of the image to which the local feature amount V s belongs is larger, and the degree of similarity decreases when the resolution of the image to which the local feature amount V s belongs is smaller. A weighting factor w for weighting is determined. In the present embodiment, the weight coefficient w is determined by the following equation (14). The weighting factor w determined here is used in step S602 described later.
次に、ステップS602の処理について説明する。 Next, the process of step S602 will be described.
図5のステップS519では、第1の類似度算出手段として機能することにより最終投票数VoteMaxを類似度として出力した。ここで、ステップS519で出力した類似度を第1の類似度とした場合、ステップS602では、第2の類似度算出手段として機能することにより第1の類似度とステップS601で算出した重み係数wとを用いて第2の類似度を算出する。本実施形態においては、第2の類似度Sim2を以下の式(15)により算出し、これを総合類似度とする。このように検索結果の表示順序は、第2の類似度Sim2に応じて決定される。 In step S519 in FIG. 5, the final vote number VoteMax is output as the similarity by functioning as the first similarity calculation means. Here, when the similarity output in step S519 is the first similarity, in step S602, the first similarity and the weight coefficient w calculated in step S601 are obtained by functioning as second similarity calculation means. And the second similarity is calculated. In the present embodiment, the second similarity Sim2 is calculated by the following equation (15), and this is used as the total similarity. As described above, the display order of the search results is determined according to the second similarity Sim2.
以上のように本実施形態によれば、比較対象画像間の対応点のスケール番号に着目して解像度の差を推定し、解像度の差を類似度に反映するようにした。これにより、ユーザの感覚により合致した類似度を算出することが可能になる。 As described above, according to the present embodiment, the resolution difference is estimated by focusing on the scale number of the corresponding point between the comparison target images, and the resolution difference is reflected in the similarity. Thereby, it becomes possible to calculate the degree of similarity that matches the sense of the user.
なお、本実施形態では、スケール番号に着目することによって第1の類似度に重みを付けて第2の類似度を算出し、第2の類似度を総合類似度としたが、解像度情報を利用した類似度算出方法であれば、他の類似度算出方法でもよい。例えば、第1の類似度が所定の閾値以上の場合に、式(14)の結果をそのまま総合類似度としもよい。 In the present embodiment, the second similarity is calculated by weighting the first similarity by paying attention to the scale number, and the second similarity is set as the overall similarity. However, the resolution information is used. Any other similarity calculation method may be used as long as it is a similarity calculation method. For example, when the first similarity is equal to or greater than a predetermined threshold, the result of Expression (14) may be used as the total similarity as it is.
また、本実施形態では、スケール番号に着目することによって解像度の差を推定したが、解像度の差を推定することができれば他の推定方法を用いもよい。例えば、クエリ画像である入力画像101と登録画像である入力画像104との位置合わせに利用可能なパラメータを用いて解像度の差を求めることができる。以下、推定方法の一例として、最終投票数VoteMaxを算出した時の変換行列Mを用いる方法について説明する。具体的には、以下の式(16)により、変換行列Mの要素値を用いて、入力画像104に対する入力画像101の縮小率Rを算出する。 In this embodiment, the difference in resolution is estimated by paying attention to the scale number. However, other estimation methods may be used as long as the difference in resolution can be estimated. For example, the difference in resolution can be obtained using parameters that can be used for alignment between the input image 101 that is a query image and the input image 104 that is a registered image. Hereinafter, as an example of the estimation method, a method of using the transformation matrix M when the final vote number VoteMax is calculated will be described. Specifically, the reduction ratio R of the input image 101 with respect to the input image 104 is calculated using the element value of the transformation matrix M by the following equation (16).
ここで、R<1である場合は、登録画像である入力画像104の方がクエリ画像である入力画像101よりも解像度が高い。このように、縮小率Rを算出することによって解像度の差を推定することが可能となる。さらに、縮小率Rを類似度に反映させるために式(14)及び式(15)を用いる場合は、以下の式(17)を用いて最頻値ΔSmodを求める。 Here, when R <1, the input image 104 that is a registered image has a higher resolution than the input image 101 that is a query image. Thus, by calculating the reduction ratio R, it is possible to estimate the difference in resolution. Furthermore, when formula (14) and formula (15) are used to reflect the reduction rate R in the similarity, the mode value ΔS mod is obtained using the following formula (17).
また、クエリ画像である入力画像101と登録画像である入力画像104との位置合わせを行った後に、画像の周波数成分を比較することによっても解像度の差を求めることができる。以下、図5及び図6において、最終投票数VoteMaxを算出した時の変換行列M、Tを用いる方法について説明する。具体的には、以下の式(18)により入力画像101に拡大・縮小、及び回転処理を施して入力画像104と位置合わせをする。 Further, after the input image 101 that is the query image and the input image 104 that is the registered image are aligned, the difference in resolution can also be obtained by comparing the frequency components of the images. Hereinafter, a method of using the transformation matrices M and T when the final vote number VoteMax is calculated in FIGS. 5 and 6 will be described. Specifically, the input image 101 is subjected to enlargement / reduction and rotation processing according to the following expression (18) to align with the input image 104.
ここで、Qk(xk',yk')は位置合わせ前の入力画像101の画素座標であり、Qk'(Xk',Yk')は位置合わせ後の入力画像の画素座標である。すなわち、Qk(xk',yk')の位置にある画素値をQk'(Xk',Yk')の位置の画素値として設定することにより、位置合わせ後の入力画像を生成する。このとき、線形補間を用いるように構成してもよい。 Here, Q k (x k ′, y k ′) is the pixel coordinates of the input image 101 before alignment, and Q k ′ (X k ′, Y k ′) is the pixel coordinates of the input image after alignment. It is. That is, by setting the pixel value at the position of Q k (x k ′, y k ′) as the pixel value at the position of Q k ′ (X k ′, Y k ′), the input image after alignment is obtained. Generate. At this time, linear interpolation may be used.
次に、周波数成分の比較方法としては、まず、入力画像104と前述の位置合わせ後の入力画像とを周波数変換する。ここで、入力画像104の最大周波数をfsmaxとし、位置合わせ後の入力画像の最大周波数をfqmaxとした場合、入力画像104に対する位置合わせ後の入力画像の縮小率Rは以下の式(19)により推定できる。 Next, as a frequency component comparison method, first, frequency conversion is performed on the input image 104 and the input image after the alignment described above. Here, when the maximum frequency of the input image 104 is fs max and the maximum frequency of the input image after alignment is fq max , the reduction ratio R of the input image after alignment with respect to the input image 104 is expressed by the following equation (19 ).
さらに、この縮小率Rを類似度に反映させるために式(14)及び式(15)を用いる場合は、前述のように、式(17)により最頻値ΔSmodを求めればよい。なお、縮小率Rは、周波数成分の比ではなく周波数成分の差を用いるようにしてもよい。また、位置合わせを行った後の入力画像と登録画像とが重なりあう領域あるいはその一部に対して周波数成分を比較してもよい。 Furthermore, when formula (14) and formula (15) are used to reflect the reduction ratio R in the similarity, the mode value ΔS mod may be obtained by formula (17) as described above. Note that the reduction ratio R may use a frequency component difference instead of a frequency component ratio. Further, the frequency components may be compared with a region where the input image after registration is aligned and the registered image or a part thereof.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
103 第1の局所特徴点/局所特徴量抽出部
106 第2の局所特徴点/局所特徴量抽出部
107 局所特徴点/局所特徴量比較部
103 First local feature point / local feature
Claims (12)
前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出手段と、
前記局所特徴抽出手段によって抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出手段と、
前記第1の類似度算出手段によって算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出手段と、
前記第2の類似度算出手段によって算出された第2の類似度に応じて検索結果を出力する出力手段とを備えることを特徴とする画像検索装置。 An image search device for searching a registered image registered in advance using an input image,
Local feature extraction means for extracting local local features from the input image and the registered image;
First similarity calculation means for calculating a first similarity between the input image and the registered image based on the local feature extracted by the local feature extraction means;
A second similarity between the input image and the registered image is calculated based on the first similarity calculated by the first similarity calculating unit and the resolution information of the input image and the registered image. Second similarity calculating means for
An image search apparatus comprising: output means for outputting a search result according to the second similarity calculated by the second similarity calculation means.
前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出工程と、
前記第1の類似度算出工程において算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出工程と、
前記第2の類似度算出工程において算出された第2の類似度に応じて検索結果を出力する出力工程とを備えることを特徴とする画像検索方法。 An image search method for searching for a registered image registered in advance using an input image,
A local feature extraction step of extracting local local features from the input image and the registered image;
A first similarity calculation step of calculating a first similarity between the input image and the registered image based on the local feature extracted in the local feature extraction step;
A second similarity between the input image and the registered image is calculated based on the first similarity calculated in the first similarity calculating step and the resolution information of the input image and the registered image. A second similarity calculation step,
An image search method comprising: an output step of outputting a search result according to the second similarity calculated in the second similarity calculation step.
前記入力画像及び登録画像から局所的な局所特徴を抽出する局所特徴抽出工程と、
前記局所特徴抽出工程において抽出された局所特徴に基づいて前記入力画像と前記登録画像との間の第1の類似度を算出する第1の類似度算出工程と、
前記第1の類似度算出工程において算出された第1の類似度と、前記入力画像及び登録画像の解像度情報とに基づいて前記入力画像と前記登録画像との間の第2の類似度を算出する第2の類似度算出工程と、
前記第2の類似度算出工程において算出された第2の類似度に応じて検索結果を出力する出力工程とをコンピュータに実行させることを特徴とするプログラム。 A program for controlling an image search device that searches for a registered image registered in advance using an input image,
A local feature extraction step of extracting local local features from the input image and the registered image;
A first similarity calculation step of calculating a first similarity between the input image and the registered image based on the local feature extracted in the local feature extraction step;
A second similarity between the input image and the registered image is calculated based on the first similarity calculated in the first similarity calculating step and the resolution information of the input image and the registered image. A second similarity calculation step,
A program causing a computer to execute an output step of outputting a search result according to the second similarity calculated in the second similarity calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011212980A JP5893318B2 (en) | 2011-09-28 | 2011-09-28 | Image search apparatus, image search method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011212980A JP5893318B2 (en) | 2011-09-28 | 2011-09-28 | Image search apparatus, image search method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013073476A true JP2013073476A (en) | 2013-04-22 |
JP5893318B2 JP5893318B2 (en) | 2016-03-23 |
Family
ID=48477915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011212980A Active JP5893318B2 (en) | 2011-09-28 | 2011-09-28 | Image search apparatus, image search method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5893318B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110895574A (en) * | 2018-09-13 | 2020-03-20 | 深圳市蓝灯鱼智能科技有限公司 | Picture retrieval method and device, storage medium and electronic device |
CN111159456A (en) * | 2019-12-30 | 2020-05-15 | 云南大学 | Multi-scale clothing retrieval method and system based on deep learning and traditional features |
CN115731436A (en) * | 2022-09-21 | 2023-03-03 | 东南大学 | Highway vehicle image retrieval method based on deep learning fusion model |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6181818B1 (en) * | 1994-11-15 | 2001-01-30 | Canon Kabushiki Kaisha | Image retrieval method and apparatus |
JP2006065399A (en) * | 2004-08-24 | 2006-03-09 | Sony Corp | Image processing device and method, storage medium and program |
JP2010102502A (en) * | 2008-10-23 | 2010-05-06 | Canon Inc | Image processing device, image processing method, and program |
JP2010218479A (en) * | 2009-03-19 | 2010-09-30 | Yahoo Japan Corp | Image retrieval device |
-
2011
- 2011-09-28 JP JP2011212980A patent/JP5893318B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6181818B1 (en) * | 1994-11-15 | 2001-01-30 | Canon Kabushiki Kaisha | Image retrieval method and apparatus |
JP2006065399A (en) * | 2004-08-24 | 2006-03-09 | Sony Corp | Image processing device and method, storage medium and program |
JP2010102502A (en) * | 2008-10-23 | 2010-05-06 | Canon Inc | Image processing device, image processing method, and program |
JP2010218479A (en) * | 2009-03-19 | 2010-09-30 | Yahoo Japan Corp | Image retrieval device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110895574A (en) * | 2018-09-13 | 2020-03-20 | 深圳市蓝灯鱼智能科技有限公司 | Picture retrieval method and device, storage medium and electronic device |
CN111159456A (en) * | 2019-12-30 | 2020-05-15 | 云南大学 | Multi-scale clothing retrieval method and system based on deep learning and traditional features |
CN115731436A (en) * | 2022-09-21 | 2023-03-03 | 东南大学 | Highway vehicle image retrieval method based on deep learning fusion model |
CN115731436B (en) * | 2022-09-21 | 2023-09-26 | 东南大学 | Highway vehicle image retrieval method based on deep learning fusion model |
Also Published As
Publication number | Publication date |
---|---|
JP5893318B2 (en) | 2016-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5096776B2 (en) | Image processing apparatus and image search method | |
JP5183392B2 (en) | Image processing apparatus, image processing method, and program | |
US8483440B2 (en) | Methods and systems for verifying automatic license plate recognition results | |
JP4989308B2 (en) | Image processing apparatus and image search method | |
CN110555795A (en) | High resolution style migration | |
CN109858333B (en) | Image processing method, image processing device, electronic equipment and computer readable medium | |
WO2020233427A1 (en) | Method and apparatus for determining features of target | |
JP6292911B2 (en) | Image processing method, image processing program, and image processing apparatus | |
WO2020020047A1 (en) | Key point matching method and device, terminal device and storage medium | |
Rajput et al. | A robust face super-resolution algorithm and its application in low-resolution face recognition system | |
US8385656B2 (en) | Image processing apparatus, image processing method and program | |
JP5893318B2 (en) | Image search apparatus, image search method and program | |
CN109871249B (en) | Remote desktop operation method and device, readable storage medium and terminal equipment | |
WO2020213742A1 (en) | Image conversion device, image conversion model training device, method, and program | |
JP2010266964A (en) | Image retrieval device, its control method, and program | |
JP5430636B2 (en) | Data acquisition apparatus, method and program | |
JP6017005B2 (en) | Image search apparatus, image search method and program | |
JP6143462B2 (en) | Image search device, image search method, search source image providing device, search source image providing method, and program | |
CN110580297A (en) | Merchant and dish matching method and device based on dish image and electronic equipment | |
JP5836728B2 (en) | Image search apparatus, image search method and program | |
JP6833753B2 (en) | Structure inspection system, structure inspection equipment and structure inspection method | |
JP2016085694A (en) | Image processing device, control method of the same, and program | |
JP2017138742A (en) | Image processing apparatus, image processing method, and program | |
JP6327918B2 (en) | Image search apparatus and control method thereof | |
JP5882976B2 (en) | Learning local feature generating apparatus and learning local feature generating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150623 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160224 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5893318 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |