WO2017120794A1 - 一种图像匹配方法和装置 - Google Patents

一种图像匹配方法和装置 Download PDF

Info

Publication number
WO2017120794A1
WO2017120794A1 PCT/CN2016/070779 CN2016070779W WO2017120794A1 WO 2017120794 A1 WO2017120794 A1 WO 2017120794A1 CN 2016070779 W CN2016070779 W CN 2016070779W WO 2017120794 A1 WO2017120794 A1 WO 2017120794A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
image
template
feature
features
Prior art date
Application number
PCT/CN2016/070779
Other languages
English (en)
French (fr)
Inventor
王文敏
张若楠
王荣刚
李革
董胜富
王振宇
李英
高文
Original Assignee
北京大学深圳研究生院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京大学深圳研究生院 filed Critical 北京大学深圳研究生院
Priority to US15/749,545 priority Critical patent/US10699156B2/en
Priority to PCT/CN2016/070779 priority patent/WO2017120794A1/zh
Publication of WO2017120794A1 publication Critical patent/WO2017120794A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • G06F18/21347Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis using domain transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches

Definitions

  • the present invention relates to the field of image matching technologies, and in particular, to an image matching method and apparatus.
  • the present application provides an image matching method and apparatus capable of ensuring non-redundancy of feature points and correct matching of images in an image matching process.
  • an image matching method including the steps of: acquiring a frame template image; acquiring a multi-frame target image; acquiring a set of template features according to the template image, the set of templates
  • the feature includes a plurality of template features; a set of target features are extracted from each frame of the target image based on pixel grayscale features of each frame of the target image, and the set of target features includes a plurality of target features; a group template feature and a set of target features of each frame of the target image, calculating image similarity between the template image and each frame of the target image, obtaining a plurality of image similarities; obtaining the plurality of image similarities according to the plurality of image similarities a maximum value of the degree; a target image corresponding to the maximum value is obtained, and the target image corresponding to the maximum value is an image matching the template image.
  • an image matching apparatus including: a first image acquisition list a first image acquisition unit, configured to acquire a template image, a second image acquisition unit, the second image acquisition unit, configured to acquire a multi-frame target image, and a template feature acquisition unit, where the template feature acquisition unit is configured to The template image acquires a set of template features, wherein the set of template features includes a plurality of template features; a target feature extraction unit, wherein the target feature extraction unit is configured to: each frame target based on pixel grayscale features of each frame of the target image Extracting a set of target features in the image, and the set of target features includes a plurality of target features; a similarity calculation unit, wherein the similarity calculation unit is configured to use the set of template features of the template image and each target image of the frame a set of target features, calculating image similarity between the template image and each target image, obtaining a plurality of image similarities; and matching unit, the matching unit obtaining the plurality of image
  • the image similarity between the template image and each target image is respectively calculated by the similarity between the template feature and the target feature to perform image matching, and the image matching process can be ensured.
  • the non-redundancy of the features ensures the correct matching of the images and improves the accuracy of image matching.
  • FIG. 1 is a schematic flow chart of an image matching method according to some embodiments of the present invention.
  • FIG. 2 is a schematic diagram of template images and template feature points according to some embodiments of the present invention.
  • FIG. 3 is a schematic diagram of a target image according to some embodiments of the present invention.
  • FIG. 4 is a schematic diagram of the image in FIG. 3 and the matching feature points searched therefrom that match the template feature points in FIG. 2;
  • FIG. 5 is a block diagram showing the structure of an image matching apparatus according to some embodiments of the present invention.
  • Embodiments of the present invention relate to methods and apparatus for image matching.
  • the image matching method and apparatus can be used to identify from a multi-frame image with another frame image or the other frame image
  • the target of the same or similar target an image as an identified subject (for example, the aforementioned "another frame image") is referred to as a "template image”, and the aforementioned specific target is referred to as an "object of interest”, and a template to be identified therefrom is required.
  • An image or an image whose target of interest is the same or similar is called a "target image.”
  • a template image (or a template feature) characterization of the template image or a target thereof may be obtained from the template image using the template image as a template.
  • the template feature may be a point (referred to herein as a "template feature point”) and/or an edge (referred to herein as a “template feature edge”) that can characterize the template image or the object of interest; Extracting features (referred to herein as “target features”), which may also be points (referred to herein as “target feature points”) and/or edges (referred to herein as “target feature edges”) Then, according to the template feature and the target feature, the similarity between the template image and the target image of each frame is calculated, and the obtained similarity is compared, and the target image corresponding to the maximum value of the similarity is matched with the template image. Match the image.
  • the "edge” referred to herein may be a line segment between two points in the image.
  • a template image can be acquired.
  • the template image may be an image that is currently obtained by various imaging devices, or may be an image that has been previously obtained and stored in a memory of a system using the image matching method and apparatus of the present invention. Therefore, in step 10, the template image can be obtained by various imaging devices, or the template image can be read from the memory.
  • a set of template features may be acquired according to the template image.
  • template features may be specific features (position, grayscale, angle, etc.) in the template image or images of the object of interest in the template image, which will imply a template image or information and characteristics of the object of interest, which can be characterized
  • the template image or points and/or edges of the target of interest can include a plurality of template features that embody the template image or features of the object of interest.
  • the set of template features may be obtained by receiving input from a user.
  • the user can click on the template image to select a template image or a feature of the target of interest through the input device.
  • the image matching apparatus of the embodiment of the present invention receives the input of the user and obtains a set of template features based on the input of the user.
  • the set of template features may also be based on the image matching device of the present invention.
  • the template image or pixel grayscale features of the object of interest eg, grayscale mean, gradient, variance, grayscale distribution features, etc.
  • the foregoing “set of template features” may include all of the features input by the user or extracted from the template image, or may only include or be extracted from the template image. Part of the feature.
  • FIG. 2 shows a template image in some embodiments of the invention in which the object of interest is a car in the template image.
  • points Al, A2, A3, A4, A5, A6, A7, A8, A9 and A10 are template features extracted by the user or extracted according to the pixel grayscale features of the object of interest (car in Fig. 2). point.
  • the template feature points A1-A10 are schematically represented as circles of different sizes. It should be understood that these circles are only intended to schematically represent template feature points, and are not intended to limit the size, position, shape, etc. of the template feature points.
  • a line segment between any two points of points Al, A2, A3, A4, A5, A6, A7, A8, A9 and A10 may also be used as a template feature edge.
  • FIG. 2 is used as a template image
  • FIG. 3 (described in detail below) is used as a target image
  • the automobile in FIG. 2 is used as an object of interest
  • the image matching method according to an embodiment of the present invention is used.
  • the device, the car in Figure 3 and Figure 2 can be matched.
  • a multi-frame target image may be acquired. Similar to step 10, the target image may be an image obtained by various imaging devices at present, or may be an image that has been obtained in advance and stored in a memory of a system using the image matching method and apparatus of the present invention. Therefore, in step 20, the target image can be obtained by various imaging devices, and the target image can also be read from the memory.
  • FIG. 3 shows a target image acquired in some embodiments of the present invention.
  • a set of target features may be extracted from each frame of the target image based on the pixel grayscale features of the target image.
  • a method of extracting a target feature from a target image may use a variety of suitable image feature extraction methods in the art. For example, in some embodiments, Maximum Stable Extremal Area Method (MSER), Scale Invariant Feature Transform (SIFT), Hessian (Hessian), Harris Affine, or Histogram can be used.
  • MSER Maximum Stable Extremal Area Method
  • SIFT Scale Invariant Feature Transform
  • Hessian Hessian
  • Harris Affine Harris Affine
  • Histogram Histogram
  • the foregoing “set of target features” may include special features extracted from the target image. All of the levies may also contain only a part of the features extracted from the target image.
  • the template image may be calculated according to the set of template features of the template image and the set of target features of each frame of the target image.
  • the image is similar to the image of the target image per frame, thereby obtaining a plurality of image similarities.
  • each frame target image in calculating its image similarity with the template image, the following steps may be performed (the latter, the frame target image participating in the calculation is called "" Current target image ”) :
  • inter-feature similarity a similarity between each of the set of template features of the template image and each of the set of target features of the current target image.
  • the feature used may be a point, an edge, or both.
  • the initialized feature similarity between the template feature and the target feature of each frame of the target image can be obtained using a conventional calculation method in the art, and will not be described in detail herein;
  • Match target feature searching for the feature matching each template feature of the template image of the template image from the set of target features of the current target image (referred to herein as " Match target feature ");
  • a feature matching each of the set of template features of the template image is searched from the set of target features of the current target image according to the obtained inter-feature similarity. ⁇ , for each template feature of the set of template features of the template image, you can follow the steps below (in this case, the template feature participating in the calculation is called "current template feature”):
  • the plurality of target features that are "closest" to the current template feature may be a plurality of target features that are relatively similar to the feature between the current template features, for example, in some embodiments, the target feature is associated with the current template.
  • the similarity between features between features is arranged from large to small.
  • the multiple target features closest to the current template feature may be the top two target features, such as the first two, the first three or the first four.
  • the search process is performed according to the foregoing process, and the matching target feature of each template feature can be searched for from the target feature.
  • matching target feature points B1, B2, B3, B4, B5, B6, B7, which are searched in the image in FIG. 3 and matched with the template feature points in FIG. 2 are schematically shown in FIG. B8, B9, and BIO
  • these matching target feature points represent the target in the target image that approximates the target of interest in Figure 2 (ie, the car in Figure 2).
  • the foregoing selecting a plurality of target features that are closest to the current template feature from the target features of the set of target features of the current target image may be three target features, ie, from the current Selecting three target features closest to the current template feature among the target features in the set of target features of the target image, and calculating a weighted average of the similarity between the current template feature and the three target features, and The similarity between the features of the three target features and the current template feature is the closest to the average
  • the closest target feature is a matching target feature that matches the current template feature.
  • the current target image and the template image may be calculated according to the similarity between the set of template features of the template image and the matching target features as described above. Similarity. For example, in some embodiments of the invention, the sum of the similarities between the set of template features and the matching target features may be calculated, with the sum being the similarity between the current target image and the template image.
  • the similarity between the target image of each frame and the template image is calculated, thereby obtaining a plurality of image similarities.
  • a maximum value of the plurality of image similarities may be obtained according to the obtained plurality of image similarities, that is, a maximum image similarity is obtained, and the target image corresponding to the maximum image similarity is used as a template The image matches the image.
  • an image matching apparatus is further provided, and the image matching apparatus may include a first image acquiring unit 50, a second image acquiring unit 60, and a template.
  • the image matching device can perform the image matching method in the respective embodiments described in the foregoing.
  • the first image acquiring unit 50 is configured to acquire a template image
  • the second image acquiring unit 60 is configured to acquire a multi-frame target image
  • the template feature acquiring unit 51 is configured to acquire a set of template features according to the template image, where the set of template features includes a plurality of template features
  • the target feature extraction unit 61 is configured to extract a set of target features from each frame target image based on the pixel grayscale features of each frame of the target image, and the set of target features includes a plurality of target features
  • the similarity calculation unit 70 is configured to calculate image similarity between the template image and each target image according to the set of template features of the template image and the set of target features of each frame of the target image, to obtain a plurality of image similarities
  • the matching unit 72 is configured to The plurality of image similarities obtain a maximum value of the plurality of image similarities, and obtain a target image corresponding to the maximum value, and the target image corresponding to the maximum value is an image that matches the template image.
  • the template feature obtaining unit 51 may be configured to receive a user's input and obtain a set of template features according to the user's input and/or extract a set from the template image according to the pixel grayscale feature of the template image. Template feature.
  • the target feature extraction unit 61 may use the maximum stable extreme value region method, and the scale is not
  • the variable feature transform method, the Hessian method, the Harris affine method or the histogram attribute association graph (HARG) method and the like extract the set of target features from the target image.
  • the similarity calculation unit 70 may perform the following steps for each frame of the target image: [0052] acquiring each of the template features of the template image and the current target image. The inter-feature similarity between each target feature in the group target feature;
  • the similarity calculation unit 70 searches for the template feature of the set of template features of the template image from the set of target features of the current target image according to the inter-feature similarity.
  • Matching matching target characteristics can perform the following steps:
  • the plurality of target features herein are a portion of the set of target features of the current target image;
  • the similarity calculation unit 70 selects three target features that are closest to the current template feature from the set of target features of the current target image, and calculates features between the current template feature and the three target features.
  • the weighted average of the similarities, and the target feature that is closest to the feature similarity of the current template feature and the weighted average is the matching target feature that matches the current template feature.
  • the matching unit 72 may calculate a sum of similarities between features of the set of template features of the template image and the matching target features of the current target image, with the sum as the current target image and The similarity of the template image.
  • the image similarity between the template image and each target image is respectively calculated by the similarity between the template feature and the target feature to perform image matching, and the image matching process can be ensured.
  • the non-redundancy of the features ensures the correct matching of the images and improves the accuracy of image matching.
  • the storage medium may include: Read memory, random access memory, disk or CD, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种图像匹配方法和装置。该方法包括:获取模板图像和目标图像;根据模板图像获取一组模板特征;根据目标图像提取一组目标特征;根据模板特征和目标特征,计算模板图像与每帧目标图像的图像相似度,并以图像相似度最大的目标图像为与模板图像匹配的图像。上述实施例的图像匹配方法和装置中,通过模板特征与目标特征之间的相似度分别计算模板图像与每个目标图像之间的图像相似度来进行图像匹配,可以保证图像匹配过程中特征的不冗余性,保证图像的正确匹配,提高图像匹配的准确度。

Description

一种图像匹配方法和装置 技术领域
[0001] 本发明涉及图像匹配技术领域, 具体涉及一种图像匹配方法和装置。
[0002]
[0003] 背景技术
[0004] 在计算机视觉研究中, 图像匹配是一个非常基本的内容。 由于图有着非常好的 表现力, 并且可以保存图像中的重要信息, 因而近些年来, 图匹配作为图像匹 配的一种方法广泛应用于社交网络、 数据分析、 复杂物体识别以及视频分析等 领域。
[0005] 可以应对非刚性物体以及发生形变的图像匹配有着更加广泛的通用性。 但是由 于其在数学上是二次分配问题, 也就是 NP难的, 故有很多方法对其进行了尝试 。 然而, 如何保证图匹配过程中特征点和边的不冗余性以及如何正确进行匹配 都是需要进一步解决。
[0006]
[0007] 发明内容
[0008] 本申请提供一种能够保证图像匹配过程中特征点的不冗余性以及图像的正确匹 配的图像匹配方法和装置。
[0009] 根据第一方面, 一些实施例中提供一种图像匹配方法, 包括步骤: 获取一帧模 板图像; 获取多帧目标图像; 根据所述模板图像获取一组模板特征, 所述一组 模板特征包括多个模板特征; 基于每帧目标图像的像素灰度特征, 从每帧目标 图像中提取一组目标特征, 并且所述一组目标特征包括多个目标特征; 根据模 板图像的所述一组模板特征和每帧目标图像的一组目标特征, 计算模板图像与 每帧目标图像的图像相似度, 获得多个图像相似度; 根据所述多个图像相似度 , 获得所述多个图像相似度的最大值; 获得所述最大值对应的目标图像, 以所 述最大值对应的目标图像为与所述模板图像匹配的图像。
[0010] 根据第二方面, 一种实施例中提供一种图像匹配装置, 包括: 第一图像获取单 元, 所述第一图像获取单元用于获取模板图像; 第二图像获取单元, 所述第二 图像获取单元用于获取多帧目标图像; 模板特征获取单元, 所述模板特征获取 单元用于根据所述模板图像获取一组模板特征, 其中所述一组模板特征包括多 个模板特征; 目标特征提取单元, 所述目标特征提取单元用于基于每帧目标图 像的像素灰度特征从每帧目标图像中提取一组目标特征, 并且所述一组目标特 征包括多个目标特征; 相似度计算单元, 所述相似度计算单元用于根据模板图 像的所述一组模板特征和每帧目标图像的一组目标特征, 计算模板图像与每帧 目标图像的图像相似度, 获得多个图像相似度; 匹配单元, 所述匹配单元根据 所述多个图像相似度, 获得所述多个图像相似度的最大值, 并获得所述最大值 对应的目标图像, 以所述最大值对应的目标图像为与所述模板图像匹配的图像
[0011] 上述实施例的图像匹配方法和装置中, 通过模板特征与目标特征之间的相似度 分别计算模板图像与每个目标图像之间的图像相似度来进行图像匹配, 可以保 证图像匹配过程中特征的不冗余性, 保证图像的正确匹配, 提高图像匹配的准 确度。
[0012]
[0013] 附图说明
[0014] 图 1为本发明一些实施例的图像匹配方法的流程示意图;
[0015] 图 2为本发明一些实施例的模板图像及模板特征点的示意图;
[0016] 图 3为本发明一些实施例的目标图像的示意图;
[0017] 图 4为图 3中的图像及从中搜索出的与图 2中的模板特征点相匹配的匹配特征点 的示意图;
[0018] 图 5为本发明一些实施例的图像匹配装置的框图结构示意图。
[0019]
[0020] 具体实施方式
[0021] 下面通过具体实施方式结合附图对本发明作进一步详细说明。
[0022] 本发明的实施例涉及图像匹配的方法和装置。 例如, 一些实施例中, 该图像匹 配方法和装置可以用于从多帧图像中识别出与另一帧图像或者该另一帧图像中 的特定目标相同或者近似的目标。 本文中, 将作为识别的标的的图像 (例如, 前述的 "另一帧图像") 称之为"模板图像", 前述特定目标称之为 "感兴趣目标", 而将需要从中识别出与模板图像或者感兴趣目标相同或者近似的图像称之为 "目 标图像"。
[0023] 本发明的实施例中, 一般地, 可以以模板图像为模板, 从模板图像中获得表征 该模板图像或者其中的感兴趣目标的特征 (本文中称之为"模板特征") , 这些模 板特征可以是可以表征该模板图像或者该感兴趣目标的点 (本文中称之为"模板 特征点") 和 /或边 (本文中称之为"模板特征边") ; 此外, 从目标图像中提取特 征 (本文中称之为"目标特征") , 该目标特征也可以是点 (本文中称之为"目标 特征点") 和 /或边 (本文中称之为"目标特征边") ; 然后, 根据模板特征和目标 特征, 计算模板图像与每帧目标图像之间的相似度, 并比较获得的相似度的大 小, 以相似度的最大值对应的目标图像为与模板图像相匹配的匹配图像。 本发 明的一些实施例中, 这里所说的"边"可以是图像中两个点之间的线段。
[0024] 图 1为本发明一些实施例的图像匹配方法的流程示意图。 如图 1所示, 在步骤 10 , 可以获取模板图像。 本发明的实施例中, 模板图像可以是当前实吋通过各种 成像装置获得的图像, 也可以是预先已经获得并且存储在使用本发明的图像匹 配方法和装置的***的存储器中的图像。 因此, 步骤 10中, 可以通过各种成像 装置获得模板图像, 也可以从存储器中读出模板图像。
[0025] 获得了模板图像之后, 在步骤 11中, 可以根据该模板图像获取一组模板特征。
这些模板特征可以是该模板图像或者该模板图像中的感兴趣目标的图像中有特 别的特征 (位置、 灰度、 角度等等) 、 将蕴含模板图像或者感兴趣目标的信息 和特性、 可以表征该模板图像或者感兴趣目标的点和 /或边。 该组模板特征可以 包括多个模板特征, 其体现了模板图像或者感兴趣目标的特征。
[0026] 本发明的一些实施例中, 该组模板特征可以通过接收用户的输入而获得。 例如 , 用户可以通过输入装置在模板图像上点击选择模板图像或者感兴趣目标的特 征。 本发明实施例的图像匹配装置接收用户的输入, 并根据用户的输入获得一 组模板特征。
[0027] 本发明的另一些实施例中, 该组模板特征也可以由本发明的图像匹配装置根据 模板图像或者感兴趣目标的像素灰度特征 (例如, 灰度均值、 梯度、 方差、 灰 度分布特征、 等等) 从模板图像中提取出来。
[0028] 本发明的实施例中, 前述的 "一组模板特征"可以包含用户输入的或者从模板图 像中提取出的特征的全部, 也可以只包含用户输入的或者从模板图像中提取出 的特征中的一部分。
[0029] 图 2显示了本发明一些实施例中的模板图像, 其中感兴趣目标为该模板图像中 的汽车。 图 2中, 点 Al、 A2、 A3、 A4、 A5、 A6、 A7、 A8、 A9和 A10是用户输 入的或者根据感兴趣目标 (图 2中为汽车) 的像素灰度特征提取出的模板特征点 。 图 2中, 为了能够清楚地显示, 模板特征点 A1-A10被示意性地表示为不同大小 的圆。 应当理解, 这些圆只是为了示意性地表示模板特征点, 而并非对模板特 征点的大小、 位置、 形状等等的限制。 图 2中, 还可以以点 Al、 A2、 A3、 A4、 A5、 A6、 A7、 A8、 A9和 A10中任意两个点之间的线段作为模板特征边。
[0030] 本发明的一些实施例中, 以图 2作模板图像, 以图 3 (下文详述) 作为一个目标 图像, 图 2中的汽车作为感兴趣目标, 根据本发明实施例的图像匹配方法和装置 , 可以将图 3与图 2中的汽车进行匹配。
[0031] 图 1的实施例中, 在步骤 20, 可以获取多帧目标图像。 与步骤 10中类似, 目标 图像可以是当前实吋通过各种成像装置获得的图像, 也可以是预先已经获得并 且存储在使用本发明的图像匹配方法和装置的***的存储器中的图像。 因此, 步骤 20中, 可以通过各种成像装置获得目标图像, 也可以从存储器中读出目标 图像。
[0032] 图 3显示了本发明一些实施例中获取的目标图像。
[0033] 获得了目标图像之后, 在步骤 21中, 可以基于目标图像的像素灰度特征, 从每 帧目标图像中提取一组目标特征。 从目标图像中提取目标特征的方法可以使用 本领域中多种适合的图像特征提取方法。 例如, 一些实施例中, 可以使用最大 稳定极值区域法 (MSER) 、 尺度不变特征变换法 (SIFT) 、 海森算子 (Hessian ) 法、 哈里斯仿射法 (Harris Affine) 或者直方图属性关联图 (HARG) 法从每 帧目标图像中提取一组目标特征。
[0034] 本发明的实施例中, 前述的 "一组目标特征 "可以包含从目标图像中提取出的特 征的全部, 也可以只包含从目标图像中提取出的特征的一部分。
[0035] 获得了模板图像的模板特征和每帧模板图像的目标特征之后, 在步骤 30中, 可 以根据模板图像的该一组模板特征和每帧目标图像的该组目标特征, 计算出模 板图像与每帧目标图像的图像相似度, 从而获得多个图像相似度。
[0036] 本发明的一些实施例中, 对于每一帧目标图像, 在计算其与模板图像的图像相 似度吋, 可以按照下列步骤进行 (此吋, 参与计算的该帧目标图像称之为"当前 目标图像") :
[0037] 首先, 获取模板图像的该组模板特征中的每个模板特征与当前目标图像的该组 目标特征中的每个目标特征之间的相似度 (本文中称之为"特征间相似度") 。 容 易理解, 此吋, 当这里的特征是点吋, 这里的相似度即为特征点间相似度; 当 这里的特征是边吋, 这里的相似度即为特征边间相似度。 本发明的实施例中, 使用的特征可以是点, 也可以是边, 或者也可以是二者同吋使用。 本发明的实 施例中, 模板特征和每帧目标图像的目标特征之间的初始化的特征相似度可以 使用本领域常规的计算方法获得, 在此不再详述;
[0038] 然后, 根据获得的特征间相似度, 从当前目标图像的该组目标特征中搜索出与 模板图像的该组模板特征中的每个模板特征相匹配的特征 (本文中称之为"匹配 目标特征") ;
[0039] 随后, 根据模板图像的该一组模板特征与当前目标图像中的该匹配目标特征之 间的特征间相似度 (如前文所述, 每个模板特征与每个目标特征之间的特征间 相似度已经获得, 因此每个模板特征与每个匹配目标特征之间的特征间相似度 此吋已知) , 计算当前目标图像与模板图像的相似度。
[0040] 本发明的一些实施例中, 在根据获得的特征间相似度, 从当前目标图像的该组 目标特征中搜索出与模板图像的该组模板特征中的每个模板特征相匹配的特征 吋, 对于模板图像的该一组模板特征中的每个模板特征, 可以按照下列步骤进 行 (此吋, 参与计算的模板特征称之为 "当前模板特征") :
[0041] 首先, 根据当前模板特征与当前目标图像的该一组目标特征中的每个目标特征 之间的特征间相似度, 从当前目标图像的该一组目标特征中的目标特征中选择 与当前模板特征最接近的多个目标特征, 并且这里, 选择的该多个目标特征仅 仅为当前目标图像的一组目标特征中的一部分, 而不是全部。 这里, 与当前模 板特征 "最接近"的多个目标特征, 可以是与当前模板特征之间的特征间相似度相 对最大的多个目标特征, 例如, 一些实施例中, 将目标特征与当前模板特征之 间的特征间相似度由大到小排列, 与当前模板特征最接近的多个目标特征可以 是排名在最前面的多个目标特征, 例如前两个、 前三个或者前四个, 等等; [0042] 然后, 计算当前模板特征与选择出的该多个目标特征之间的多个特征间相似度
(如前文所述, 每个模板特征与每个目标特征之间均有一个特征间相似度, 因 此这里当前模板特征与多个目标特征之间具有多个特征间相似度) 的加权平均 值, 并从该多个特征间相似度中获得与该加权平均值最接近的特征间相似度, 以与该加权平均值最接近的特征间相似度对应的目标特征为与当前模板特征匹 配的匹配目标特征。
[0043] 对每个模板特征点均按照前述过程进行搜索, 即可从目标特征中搜索出每个模 板特征的匹配目标特征。 例如, 图 4中示意性地显示了在图 3中的图像中搜索出 的与图 2中的模板特征点相匹配的匹配目标特征点 (Bl、 B2、 B3、 B4、 B5、 B6 、 B7、 B8、 B9和 BIO) , 这些匹配目标特征点表征出了目标图像中与图 2中的感 兴趣目标 (即图 2中的汽车) 近似的目标。
[0044] 这些实施例中, 在搜索与模板特征相匹配的匹配目标特征吋, 其周围的多个特 征参与了计算, 即以其周围的多个特征做了参考, 提高了搜索匹配目标特征的 准确率; 同吋, 在计算吋没有将全部目标特征都参与计算, 而是使用其周围的 一部分目标特征的加权邻近值的平均值作为衡量, 不但减小了计算量, 避免了 计算吋间和资源的浪费部, 而且避免了过远的目标特征的干扰, 提高了匹配准 确性。 即, 这些实施例中, 综合考虑了图像的区域性特性和稀疏化特性, 即减 小了计算量, 也提高了匹配准确性。
[0045] 本发明的一些实施例中, 前述的从当前目标图像的该一组目标特征中的目标特 征中选择与当前模板特征最接近的多个目标特征可以是三个目标特征, 即从当 前目标图像的该一组目标特征中的目标特征中选择与当前模板特征最接近的三 个目标特征, 计算当前模板特征与这三个目标特征间的特征间相似度的加权平 均值, 并以这三个目标特征中与当前模板特征的特征间相似度与该平均值最接 近的那个目标特征为与当前模板特征相匹配的匹配目标特征。 发明人经研究发 现, 当这里取三个目标特征吋, 能够获得更优的图像匹配效果。
[0046] 获得了与模板特征相匹配的匹配目标特征之后, 即可如前文所述根据模板图像 的该一组模板特征与这些匹配目标特征之间的特征间相似度计算当前目标图像 与模板图像的相似度。 例如, 本发明的一些实施例中, 可以计算该一组模板特 征与这些匹配目标特征之间的特征间相似度的和, 以该和作为当前目标图像与 模板图像的相似度。
[0047] 对于每一帧目标图像, 均按照前述过程进行, 计算出每帧目标图像与模板图像 的相似度, 从而获得多个图像相似度。 然后, 在步骤 32中, 可以根据获得的多 个图像相似度, 获得该多个图像相似度中的最大值, 即获得最大图像相似度, 并以该最大图像相似度对应的目标图像为与模板图像匹配的图像。
[0048] 相应地, 如图 5所示, 本发明的一些实施例中, 还提供了一种图像匹配装置, 该图像匹配装置可以包括第一图像获取单元 50、 第二图像获取单元 60、 模板特 征获取单元 51、 目标特征提取单元 61、 相似度计算单元 70和匹配单元 80。 该图 像匹配装置可以执行前文中所述的各个实施例中的图像匹配方法。 例如, 第一 图像获取单元 50用于获取模板图像; 第二图像获取单元 60用于获取多帧目标图 像; 模板特征获取单元 51用于根据模板图像获取一组模板特征, 该一组模板特 征包括多个模板特征; 目标特征提取单元 61用于基于每帧目标图像的像素灰度 特征从每帧目标图像中提取一组目标特征, 并且该一组目标特征包括多个目标 特征; 相似度计算单元 70用于根据模板图像的该一组模板特征和每帧目标图像 的该一组目标特征, 计算模板图像与每帧目标图像的图像相似度, 获得多个图 像相似度; 匹配单元 72用于根据该多个图像相似度, 获得该多个图像相似度的 最大值, 并获得该最大值对应的目标图像, 以最大值对应的目标图像为与模板 图像匹配的图像。
[0049] 图 5的实施例中, 模板特征获取单元 51可以用于接收用户的输入并根据用户的 输入获得一组模板特征和 /或根据模板图像的像素灰度特征从模板图像中提取一 组模板特征。
[0050] 图 5的实施例中, 目标特征提取单元 61可以使用最大稳定极值区域法、 尺度不 变特征变换法、 海森检测子 (Hessian) 法、 哈里斯仿射法或者直方图属性关联 图 (HARG) 法等等方法从目标图像中提取所说的一组目标特征。
[0051] 图 5的实施例中, 相似度计算单元 70可以对于每帧目标图像执行下列步骤: [0052] 获取模板图像的该一组模板特征中的每个模板特征与当前目标图像的该一组目 标特征中的每个目标特征之间的特征间相似度;
[0053] 根据该特征间相似度, 从当前目标图像的该一组目标特征中搜索出与模板图像 的该一组模板特征中的每个模板特征相匹配的匹配目标特征;
[0054] 根据该一组模板特征与当前目标图像的该匹配目标特征之间的特征间相似度计 算当前目标图像与模板图像的相似度。
[0055] 图 5的实施例中, 相似度计算单元 70在根据特征间相似度从当前目标图像的该 一组目标特征中搜索出与模板图像的该一组模板特征中的每个模板特征相匹配 的匹配目标特征吋可以执行下列步骤:
[0056] 根据当前模板特征与当前目标图像的该一组目标特征中的每个目标特征之间的 特征间相似度, 从当前目标图像的该一组目标特征中选择与当前模板特征最接 近的多个目标特征。 这里的多个目标特征为当前目标图像的该一组目标特征中 的一部分;
[0057] 计算当前模板特征与该多个目标特征之间的多个特征间相似度的加权平均值; [0058] 从该多个特征间相似度中获得与该加权平均值最接近的特征间相似度, 并以与 该加权平均值最接近的特征间相似度对应的目标特征为与当前模板特征匹配的 匹配目标特征。
[0059] 一些实施例中, 相似度计算单元 70从当前目标图像的该一组目标特征中选择与 当前模板特征最接近的三个目标特征, 计算当前模板特征与这三个目标特征间 的特征间相似度的加权平均值, 并以这三个目标特征中与当前模板特征的特征 间相似度与该加权平均值最接近的那个目标特征为与当前模板特征相匹配的匹 配目标特征。
[0060] 图 5的实施例中, 匹配单元 72可以计算模板图像的该一组模板特征与当前目标 图像的这些匹配目标特征之间的特征间相似度的和, 以该和作为当前目标图像 与模板图像的相似度。 [0061] 上述实施例的图像匹配方法和装置中, 通过模板特征与目标特征之间的相似度 分别计算模板图像与每个目标图像之间的图像相似度来进行图像匹配, 可以保 证图像匹配过程中特征的不冗余性, 保证图像的正确匹配, 提高图像匹配的准 确度。
[0062] 本领域技术人员可以理解, 上述实施方式中各种方法的全部或部分步骤可以通 过程序来指令相关硬件完成, 该程序可以存储于一计算机可读存储介质中, 存 储介质可以包括: 只读存储器、 随机存储器、 磁盘或光盘等。
[0063] 以上应用了具体个例对本发明进行阐述, 只是用于帮助理解本发明, 并不用以 限制本发明。 对于本发明所属技术领域的技术人员, 依据本发明的思想, 还可 以做出若干简单推演、 变形或替换。
技术问题
问题的解决方案
发明的有益效果

Claims

权利要求书
[权利要求 1] 一种图像匹配方法, 其特征在于, 包括步骤:
获取一帧模板图像;
获取多帧目标图像;
根据所述模板图像获取一组模板特征, 所述一组模板特征包括多个模 板特征;
基于每帧目标图像的像素灰度特征, 从每帧目标图像中提取一组目标 特征, 并且所述一组目标特征包括多个目标特征; 根据模板图像的所述一组模板特征和每帧目标图像的一组目标特征, 计算模板图像与每帧目标图像的图像相似度, 获得多个图像相似度; 根据所述多个图像相似度, 获得所述多个图像相似度的最大值; 获得所述最大值对应的目标图像, 以所述最大值对应的目标图像为与 所述模板图像匹配的图像。
[权利要求 2] 如权利要求 1所述的方法, 其特征在于, 根据所述目标图像中获取一 组模板特征的步骤包括:
接收用户的输入并根据用户的输入获得所述一组模板特征; 和 /或
根据所述模板图像的像素灰度特征从所述模板图像中提取所述一组模 板特征。
[权利要求 3] 如权利要求 1所述的方法, 其特征在于, 从每帧目标图像中提取一组 目标特征的步骤包括: 使用最大稳定极值区域法、 尺度不变特征变换 法、 海森检测子法、 哈里斯仿射法或者直方图属性关联图法从每帧目 标图像中提取一组目标特征。
[权利要求 4] 如权利要求 1所述的方法, 其特征在于, 根据模板图像的所述一组模 板特征和每帧目标图像的一组目标特征, 计算模板图像与每帧目标图 像的图像相似度, 获得多个图像相似度的步骤包括:
对于每帧目标图像, 执行步骤:
获取模板图像的所述一组模板特征中的每个模板特征与当前目标图像 的所述一组目标特征中的每个目标特征之间的特征间相似度;
根据所述特征间相似度, 从当前目标图像的所述一组目标特征中搜索 出与模板图像的所述一组模板特征中的每个模板特征相匹配的匹配目 标特征;
根据所述一组模板特征与当前目标图像的所述匹配目标特征之间的特 征间相似度计算当前目标图像与模板图像的相似度。
[权利要求 5] 如权利要求 4所述的方法, 其特征在于, 根据所述特征间相似度, 从 当前目标图像的所述一组目标特征中搜索出与模板图像的所述一组模 板特征中的每个模板特征相匹配的匹配目标特征的步骤包括: 对于模板图像的所述一组模板特征中的每个模板特征, 执行步骤: 根据当前模板特征与当前目标图像的所述一组目标特征中的每个目标 特征之间的特征间相似度, 从当前目标图像的所述一组目标特征中的 目标特征中选择与当前模板特征最接近的多个目标特征, 其中所述多 个目标特征为当前目标图像的所述一组目标特征中的一部分; 计算当前模板特征与所述多个目标特征之间的多个特征间相似度的加 权平均值;
从所述多个特征间相似度中获得与所述加权平均值最接近的特征间相 似度, 并以与所述加权平均值最接近的特征间相似度对应的目标特征 为与当前模板特征匹配的匹配目标特征。
[权利要求 6] 如权利要求 5所述的方法, 其特征在于, 从当前目标图像的所述一组 目标特征点中的目标特征中选择与当前模板特征最接近的多个目标特 征的步骤包括: 从当前目标图像的所述一组目标特征中的目标特征中 选择与当前模板特征最接近的三个目标特征。
[权利要求 7] 如权利要求 4所述的方法, 其特征在于, 根据所述一组模板特征与当 前目标图像的所述匹配目标特征之间的特征间相似度计算当前目标图 像与模板图像的相似度的步骤包括: 计算所述一组模板特征与当前目 标图像的所述匹配目标特征之间的特征间相似度的和, 以所述和作为 当前目标图像与模板图像的相似度。
[权利要求 8] 如权利要求 1-7中任意一项所述的方法, 其特征在于:
所述模板特征为模板特征点, 所述目标特征为目标特征点, 所述特征 间相似度为特征点间相似度, 所述匹配目标特征为匹配目标特征点; 和 /或
所述模板特征为模板特征边, 所述目标特征为目标特征边, 所述特征 间相似度为特征边间相似度, 所述匹配目标特征为匹配目标特征边。
[权利要求 9] 一种图像匹配装置, 其特征在于, 包括:
第一图像获取单元, 所述第一图像获取单元用于获取模板图像; 第二图像获取单元, 所述第二图像获取单元用于获取多帧目标图像; 模板特征获取单元, 所述模板特征获取单元用于根据所述模板图像获 取一组模板特征, 其中所述一组模板特征包括多个模板特征; 目标特征提取单元, 所述目标特征提取单元用于基于每帧目标图像的 像素灰度特征从每帧目标图像中提取一组目标特征, 并且所述一组目 标特征包括多个目标特征;
相似度计算单元, 所述相似度计算单元用于根据模板图像的所述一组 模板特征和每帧目标图像的一组目标特征, 计算模板图像与每帧目标 图像的图像相似度, 获得多个图像相似度;
匹配单元, 所述匹配单元根据所述多个图像相似度, 获得所述多个图 像相似度的最大值, 并获得所述最大值对应的目标图像, 以所述最大 值对应的目标图像为与所述模板图像匹配的图像。
[权利要求 10] 如权利要求 9所述的装置, 其特征在于, 所述模板特征获取单元用于 接收用户的输入并根据用户的输入获得所述一组模板特征和 /或根据 所述模板图像的像素灰度特征从所述模板图像中提取所述一组模板特 征。
[权利要求 11] 如权利要求 9所述的装置, 其特征在于: 所述目标特征提取单元使用 最大稳定极值区域法、 尺度不变特征变换法、 海森检测子法、 哈里斯 仿射法或者直方图属性关联图法从每帧目标图像中提取所述一组目标 特征。
[权利要求 12] 如权利要求 9所述的装置, 其特征在于, 所述相似度计算单元对于每 帧目标图像, 执行步骤:
获取模板图像的所述一组模板特征中的每个模板特征与当前目标图像 的所述一组目标特征中的每个目标特征之间的特征间相似度; 根据所述特征间相似度, 从当前目标图像的所述一组目标特征中搜索 出与模板图像的所述一组模板特征中的每个模板特征相匹配的匹配目 标特征;
根据所述一组模板特征与当前目标图像的所述匹配目标特征之间的特 征间相似度计算当前目标图像与模板图像的相似度。
[权利要求 13] 如权利要求 12所述的装置, 其特征在于, 根据所述特征间相似度, 从 当前目标图像的所述一组目标特征中搜索出与模板图像的所述一组模 板特征中的每个模板特征相匹配的匹配目标特征吋, 所述相似度计算 单元对于模板图像的所述一组模板特征点中的每个模板特征, 执行步 骤:
根据当前模板特征与当前目标图像的所述一组目标特征中的每个目标 特征之间的特征间相似度, 从当前目标图像的所述一组目标特征中选 择与当前模板特征最接近的多个目标特征, 其中所述多个目标特征为 当前目标图像的所述一组目标特征中的一部分; 计算当前模板特征与所述多个目标特征之间的多个特征间相似度的加 权平均值;
从所述多个特征间相似度中获得与所述加权平均值最接近的特征间相 似度, 并以与所述加权平均值最接近的特征间相似度对应的目标特征 为与当前模板特征匹配的匹配目标特征。
[权利要求 14] 如权利要求 13所述的装置, 其特征在于, 所述相似度计算单元从当前 目标图像的所述一组目标特征中选择与当前模板特征最接近的三个目 标特征。
[权利要求 15] 如权利要求 12所述的装置, 其特征在于: 所述相似度计算单元计算所 述一组模板特征与当前目标图像的所述匹配目标特征之间的特征间相 似度的和, 以所述和作为当前目标图像与模板图像的相似度。
[权利要求 16] 如权利要求 9至 15中任意一项所述的装置, 其特征在于:
所述模板特征为模板特征点, 所述目标特征为目标特征点, 所述特征 间相似度为特征点间相似度, 所述匹配目标特征为匹配目标特征点; 和 /或
所述模板特征为模板特征边, 所述目标特征为目标特征边, 所述特征 间相似度为特征边间相似度, 所述匹配目标特征为匹配目标特征边。
PCT/CN2016/070779 2016-01-13 2016-01-13 一种图像匹配方法和装置 WO2017120794A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/749,545 US10699156B2 (en) 2016-01-13 2016-01-13 Method and a device for image matching
PCT/CN2016/070779 WO2017120794A1 (zh) 2016-01-13 2016-01-13 一种图像匹配方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/070779 WO2017120794A1 (zh) 2016-01-13 2016-01-13 一种图像匹配方法和装置

Publications (1)

Publication Number Publication Date
WO2017120794A1 true WO2017120794A1 (zh) 2017-07-20

Family

ID=59310638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2016/070779 WO2017120794A1 (zh) 2016-01-13 2016-01-13 一种图像匹配方法和装置

Country Status (2)

Country Link
US (1) US10699156B2 (zh)
WO (1) WO2017120794A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299304A (zh) * 2018-10-25 2019-02-01 科大讯飞股份有限公司 目标图像检索方法及***

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
CN110544202B (zh) * 2019-05-13 2022-06-07 燕山大学 一种基于模板匹配与特征聚类的视差图像拼接方法及***
CN110705634B (zh) * 2019-09-29 2023-02-28 五邑大学 一种鞋跟型号识别方法、装置及存储介质
CN112598088B (zh) * 2021-03-04 2021-06-01 常州微亿智造科技有限公司 一种工业部件视觉多目标鲁棒模板获取的方法
CN113111212B (zh) * 2021-04-01 2024-05-17 广东拓斯达科技股份有限公司 一种图像匹配方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102005047A (zh) * 2010-11-15 2011-04-06 无锡中星微电子有限公司 图像配准***及其方法
CN102324030A (zh) * 2011-09-09 2012-01-18 广州灵视信息科技有限公司 一种基于图像块特征的目标跟踪方法及跟踪***
CN103116630A (zh) * 2013-02-03 2013-05-22 苏州市职业大学 一种基于sift种子区域增长的彩色图像检索方法
CN103530655A (zh) * 2013-05-24 2014-01-22 Tcl集团股份有限公司 一种台标识别方法及***
CN103604417A (zh) * 2013-11-15 2014-02-26 南京师范大学 物方信息约束的多视影像双向匹配策略
US20140334733A1 (en) * 2013-05-07 2014-11-13 Picscout (Israel) Ltd. Efficient image matching for large sets of images
CN104462481A (zh) * 2014-12-18 2015-03-25 浪潮(北京)电子信息产业有限公司 一种基于颜色和形状的综合图像检索方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095967A (ja) * 2012-11-08 2014-05-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20160012594A1 (en) * 2014-07-10 2016-01-14 Ditto Labs, Inc. Systems, Methods, And Devices For Image Matching And Object Recognition In Images Using Textures

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102005047A (zh) * 2010-11-15 2011-04-06 无锡中星微电子有限公司 图像配准***及其方法
CN102324030A (zh) * 2011-09-09 2012-01-18 广州灵视信息科技有限公司 一种基于图像块特征的目标跟踪方法及跟踪***
CN103116630A (zh) * 2013-02-03 2013-05-22 苏州市职业大学 一种基于sift种子区域增长的彩色图像检索方法
US20140334733A1 (en) * 2013-05-07 2014-11-13 Picscout (Israel) Ltd. Efficient image matching for large sets of images
CN103530655A (zh) * 2013-05-24 2014-01-22 Tcl集团股份有限公司 一种台标识别方法及***
CN103604417A (zh) * 2013-11-15 2014-02-26 南京师范大学 物方信息约束的多视影像双向匹配策略
CN104462481A (zh) * 2014-12-18 2015-03-25 浪潮(北京)电子信息产业有限公司 一种基于颜色和形状的综合图像检索方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299304A (zh) * 2018-10-25 2019-02-01 科大讯飞股份有限公司 目标图像检索方法及***

Also Published As

Publication number Publication date
US20180307940A1 (en) 2018-10-25
US10699156B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
WO2017120794A1 (zh) 一种图像匹配方法和装置
US8331650B2 (en) Methods, systems and apparatus for defect detection
RU2668717C1 (ru) Генерация разметки изображений документов для обучающей выборки
TWI485650B (zh) 用於多相機校準之方法及配置
US10740386B2 (en) Multi-stage image matching techniques
CN105678778A (zh) 一种图像匹配方法和装置
US20190333242A1 (en) Method and apparatus for three-dimensional object pose estimation, device and storage medium
CN111095075B (zh) 用于电子显微镜的全自动、无模板粒子拾取
CN110120013A (zh) 一种点云拼接方法及装置
CN109993028A (zh) 人脸辨识装置及方法、提升影像辨识率的方法
WO2015176502A1 (zh) 一种图像特征的估计方法和设备
CN110866873A (zh) 内腔镜图像的高光消除方法及装置
TW201828156A (zh) 圖像識別方法、度量學習方法、圖像來源識別方法及裝置
Roth et al. Wide-baseline image matching with projective view synthesis and calibrated geometric verification
Wu et al. Text detection using delaunay triangulation in video sequence
CN111178266B (zh) 一种生成人脸关键点的方法及装置
JP5216631B2 (ja) 特徴量抽出装置
US10140727B2 (en) Image target relative position determining method, device, and system thereof
Vahdati et al. Detecting gan-generated synthetic images using semantic inconsistencies
JP2007140729A (ja) 物品の位置及び姿勢を検出する方法および装置
CN114119952A (zh) 一种基于边缘信息的图像匹配方法及装置
CN110599456B (zh) 一种医学图像的特定区域的提取方法
JP6946912B2 (ja) 推定プログラム、推定装置、及び推定方法
Kong et al. SimLocator: robust locator of similar objects in images
WO2014178241A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16884357

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15749545

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16884357

Country of ref document: EP

Kind code of ref document: A1