CN111709434A - 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 - Google Patents

一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 Download PDF

Info

Publication number
CN111709434A
CN111709434A CN202010597667.XA CN202010597667A CN111709434A CN 111709434 A CN111709434 A CN 111709434A CN 202010597667 A CN202010597667 A CN 202010597667A CN 111709434 A CN111709434 A CN 111709434A
Authority
CN
China
Prior art keywords
matching
template
feature
image
nearest neighbor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010597667.XA
Other languages
English (en)
Other versions
CN111709434B (zh
Inventor
杨宪强
张智浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202010597667.XA priority Critical patent/CN111709434B/zh
Publication of CN111709434A publication Critical patent/CN111709434A/zh
Application granted granted Critical
Publication of CN111709434B publication Critical patent/CN111709434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,属于计算机视觉、图像处理领域,解决了现有的基于最邻近点匹配的方法存在,检测目标出现较大尺度缩放时检测准确度不够的问题。本发明通过对模板图像和被搜索图像的像素点提取特征;对像素点间进行最近邻特征匹配;根据初步匹配的相关性系数初步筛选搜索位置;对不同尺度,所有初步筛选搜索位置进行模板匹配相关性计算,并获得最优匹配结果。本发明适用于图像匹配使用。

Description

一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法
技术领域
本发明属于计算机视觉、图像处理领域,
背景技术
模板匹配是一种模式识别方法,通过模板在被搜索图像上的平移,并计算模板图像与覆盖的被搜索图像区域的相似度来识别目标。常用的模板匹配方法往往预先假定了模板与目标间的变换关系,如平移、旋转、缩放、仿射等,然后搜索获得最优的变换关系。但是在现实场景拍摄的图像中,会出现遮挡、模糊或复杂形变等情况,模板与目标间的变换关系不能用简单的模型表达。
近年学者们提出基于最近邻点匹配的方法,提高了对复杂形变情况的鲁棒性,但是一般均假定了搜索窗口与模板大小相同,在检测目标出现较大尺度缩放时检测准确度不够的问题。
发明内容
本发明目的是为了解决现有的基于最邻近点匹配的方法存在,检测目标出现较大尺度缩放时检测准确度不够的问题,提供了一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法。
本发明所述一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,该方法具体包括:
步骤一、对模板图像T和被搜索图像S分别进行像素特征提取,获取模板特征集FT和目标特征集FS
步骤二、在模板特征集FT中搜索目标特征集FS中的每个目标特征的最邻近特征,获取每个目标特征在模板特征集FT中的最邻近特征;
步骤三、利用目标特征集FS中每个目标特征的最邻近特征,计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数;
步骤四、利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选,获取匹配像素点坐标集;
步骤五、对被搜索图像S的尺寸进行缩放,计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数,获取相关系数最大的像素点的坐标及对应的缩放尺寸,将所述相关系数最大的像素点的坐标及对应的缩放尺寸作为模板匹配最优的检测结果,完成一次图像匹配。
进一步地,本发明中,模板特征集FT和被搜索图像S的特征为颜色特征或深度特征。
进一步地,本发明中,像素点的深度特征的提取采用VGG19神经网络模型实现。
进一步地,本发明中,步骤二中获取每个目标特征在模板特征集FT中的最邻近特征的方法为FLANN快速最近邻搜索库方法。
进一步地,本发明中,步骤三中所述计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数的具体方法为:
通过公式:
Figure BDA0002557920590000021
计算获得搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),其中|{}|为计算集合中点的个数,(nnx(i″s,j″s),nny(i″s,j″s))为特征fs(i″s,j″s)在FT中最近邻特征的像素坐标,(i″t,j″t)为模板图像的像素点集P中的点;
P={(i″t,j″t),i″t=0,1,...,w-1,j″t=0,1,...,h-1},
Q为被搜索图像重叠区域的像素点集,
Q={(i″s,j″s),i″s=i″sl,i″sl+1,...,i″sr,j″s=j″sl,j″sl+1,...,j″sr},
i″sl=max(is-w2,0),
i″sr=min(is+w-1-w2,W-1),
j″sl=max(js-h2,0),
j″sr=min(js+h-1-h2,H-1),
(is,js)为搜索位置坐标点,w是模板图像宽度,当w为偶数,w2=w/2,当w为奇数,w2=(w-1)/2,当h为偶数,h2=h/2,当h为奇数,h2=(h-1)/2,W为被搜索图像S的宽度,H为被搜索图像S的高度。
进一步地,本发明中,步骤四中利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选的具体方法为:
S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}
其中,C0m为所有初始搜索位置相关系数的最大值,C0(i′s,j′s)为坐标点(i′s,j′s)的初始匹配相关系数,(i′s,j′s)为搜索位置坐标点。
进一步地,本发明中,步骤五中所述计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数的具体方法为:
通过公式:
Figure BDA0002557920590000031
计算获得尺度为α,搜索位置坐标点为(i′s,j′s)时模板匹配相关系数C(α,i′s,j′s),其中,尺度α的选取范围为0.5到2,步长为0.1,其中,Q′为被搜索图像重叠区域的像素点集;
Q′={(i″′s,j″′s),i″′s=i″′sl,i″′sl+1,...,i″′sr,j″′s=j″′sl,j″′sl+1,...,j″′sr},
i″′sl=max(i′s-w1,0),
Figure BDA0002557920590000032
j″′sl=max(js-h1,0),
Figure BDA0002557920590000033
Figure BDA0002557920590000034
Figure BDA0002557920590000035
为向下取整函数,
Figure BDA0002557920590000036
Ι[]为指示函数。
本发明主要用于当对象物存在复杂形变和较大尺度缩放时,实现用模板在被搜索图像中搜寻目标。本方法是通过对模板图像和被搜索图像的像素点提取特征;对像素点间进行最近邻特征匹配;根据初步匹配的相关性系数初步筛选搜索位置;对不同尺度,所有初步筛选搜索位置进行模板匹配相关性计算,并获得最优匹配结果。本发明能够提高现实场景图像中目标存在复杂形变和较大尺度缩放时模板匹配的准确度。
附图说明
图1为本发明所述方法的流程图;
图2为现实场景中拍摄的图像,绿色矩形框区域为模板图像;
图3为现实场景中拍摄的图像,绿色矩形框区域为目标的真实区域,红色矩形框区域为该方法的模板匹配结果;
图4为模板图像与搜索覆盖子图的相关性分数热度图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
具体实施方式一:下面结合图1说明本实施方式,本实施方式所述一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,该方法具体包括:
步骤一、对模板图像T和被搜索图像S分别进行像素特征提取,获取模板特征集FT和目标特征集FS
步骤二、在模板特征集FT中搜索目标特征集FS中的每个目标特征的最邻近特征,获取每个目标特征在模板特征集FT中的最邻近特征;
步骤三、利用目标特征集FS中每个目标特征的最邻近特征,计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数;
步骤四、利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选,获取匹配像素点坐标集;
步骤五、对被搜索图像S的尺寸进行缩放,计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数,获取相关系数最大的像素点的坐标及对应的缩放尺寸,将所述相关系数最大的像素点的坐标及对应的缩放尺寸作为模板匹配最优的检测结果,完成一次图像匹配。
进一步地,本实施方式中,步骤一所述的像素特征为颜色特征或深度特征。
进一步地,本实施方式中,深度特征的提取采用VGG19神经网络模型实现。
实施方式采用的VGG19网络是一个经典的神经网络模型,在ImageNet数据集上预训练获得参数后,进行提取图像特征。它相比于传统特征提取方法更能获得图像的高层语义。
进一步地,本实施方式中,步骤二中获取每个目标特征在模板特征集FT中的最邻近特征的方法为FLANN快速最近邻搜索库方法。
进一步地,本实施方式中,步骤三中所述计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数的具体方法为:
通过公式:
Figure BDA0002557920590000051
计算获得搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),其中|{}|为计算集合中点的个数,(nnx(i″s,j″s),nny(i″s,j″s))为特征fs(i″s,j″s)在FT中最近邻特征的像素坐标,(i″t,j″t)为模板图像的像素点集P中的点;
P={(i″t,j″t),i″t=0,1,...,w-1,j″t=0,1,...,h-1},
Q为被搜索图像重叠区域的像素点集,
Q={(i″s,j″s),i″s=i″sl,i″sl+1,...,i″sr,j″s=j″sl,j″sl+1,...,j″sr},
i″sl=max(is-w2,0),
i″sr=min(is+w-1-w2,W-1),
j″sl=max(js-h2,0),
j″sr=min(js+h-1-h2,H-1),
(is,js)为搜索位置坐标点,w是模板图像宽度,当w为偶数,w2=w/2,当w为奇数,w2=(w-1)/2,当h为偶数,h2=h/2,当h为奇数,h2=(h-1)/2,W为被搜索图像S的宽度,H为被搜索图像S的高度。
进一步地,本实施方式中,步骤四中利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选的具体方法为:
S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}
其中,C0m为所有初始搜索位置相关系数的最大值,C0(i′s,j′s)为坐标点(i′s,j′s)的初始匹配相关系数,(i′s,j′s)为搜索位置坐标点。
进一步地,本实施方式中,步骤五中所述计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数的具体方法为:
通过公式:
Figure BDA0002557920590000061
计算获得尺度为α,搜索位置坐标点为(i′s,j′s)时模板匹配相关系数C(α,i′s,j′s),其中,尺度α的选取范围为0.5到2,步长为0.1,其中,Q′为被搜索图像重叠区域的像素点集;
Q′={(i″′s,j″′s),i″′s=i″′sl,i″′sl+1,...,i″′sr,j″′s=j″′sl,j″′sl+1,...,j″′sr},
i″′sl=max(i′s-w1,0),
Figure BDA0002557920590000062
j″′sl=max(js-h1,0),
Figure BDA0002557920590000063
Figure BDA0002557920590000064
Figure BDA0002557920590000065
为向下取整函数,
Figure BDA0002557920590000066
Ι[]为指示函数。
本发明中在具体实施时,如图2至4所示,先分别对模板图像T和被搜索图像S中的每个像素点提取特征,
获得特征集合:
FT={ft(it,jt),it=0,1,...,w-1,jt=0,1,...,h-1}
FS={fs(is,js),is=0,1,...,W-1,js=0,1,...,H-1}
其中,模板图像T为宽度w,高度h的三通道图像,被搜索图像S为宽度W,高度H的三通道图像,ft(it,jt)为模板图像坐标点(it,jt)处提取的特征,fs(is,js)为被搜索图像坐标点(is,js)处提取的特征。特征可以是颜色特征或深度特征,其中,像素点的颜色特征为以该像素点为中心的3×3图像块的RGB颜色值所排列成的27维向量,像素点的深度特征通过VGG19神经网络模型的网络层conv1_2和conv3_4连接获得,VGG19网络模型参数是在ImageNet数据集上预训练获得。
然后,对特征集合FS中的每个特征,在特征集合FT中搜索获得其最近邻的特征,其中特征fs(is,js)在FT中最近邻特征的像素坐标为(nnx(is,js),nny(is,js))。
最近邻特征搜索方法采用FLANN快速最近邻搜索库。
再后,将被搜索图像S中每个坐标点作为初始搜索位置,对每个初始搜索位置,计算初始匹配相关系数,其中搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),并计算所有初始搜索位置相关系数的最大值C0m;然后筛选模板匹配搜索位置,筛选后的搜索位置坐标集合为S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}。
最后,对不同尺度,计算所有筛选后的搜索位置的模板匹配的相关系数,其中尺度为α时,搜索位置坐标点(i′s,j′s)的模板匹配相关系数为C(α,i′s,j′s),尺度α的选取范围从0.5到2,步长0.1;然后模板匹配相关系数的最大值对应的尺度αm和坐标(ism,jsm)即为模板匹配最优的检测结果,即
Figure BDA0002557920590000071
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其他所述实施例中。

Claims (7)

1.一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,该方法具体包括:
步骤一、对模板图像T和被搜索图像S分别进行像素特征提取,获取模板特征集FT和目标特征集FS
步骤二、在模板特征集FT中搜索目标特征集FS中的每个目标特征的最邻近特征,获取每个目标特征在模板特征集FT中的最邻近特征;
步骤三、利用目标特征集FS中每个目标特征的最邻近特征,计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数;
步骤四、利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选,获取匹配像素点坐标集;
步骤五、对被搜索图像S的尺寸进行缩放,计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数,获取相关系数最大的像素点的坐标及对应的缩放尺寸,将所述相关系数最大的像素点的坐标及对应的缩放尺寸作为模板匹配最优的检测结果,完成一次图像匹配。
2.根据权利要求1所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,步骤一所述的像素特征为颜色特征或深度特征。
3.根据权利要求2所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,深度特征的提取采用VGG19神经网络模型实现。
4.根据权利要求1所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,步骤二中获取每个目标特征在模板特征集FT中的最邻近特征的方法为FLANN快速最近邻搜索库方法。
5.根据权利要求1、2或4所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,步骤三中所述计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数的具体方法为:
通过公式:
Figure FDA0002557920580000011
计算获得搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),其中|{}|为计算集合中点的个数,(nnx(i″s,j″s),nny(i″s,j″s))为特征fs(i″s,j″s)在FT中最近邻特征的像素坐标,(i″t,j″t)为模板图像的像素点集P中的点;
P={(i″t,j″t),i″t=0,1,...,w-1,j″t=0,1,...,h-1},
Q为被搜索图像重叠区域的像素点集,
Q={(i″s,j″s),i″s=i″sl,i″sl+1,...,i″sr,j″s=j″sl,j″sl+1,...,j″sr},
i″sl=max(is-w2,0),
i″sr=min(is+w-1-w2,W-1),
j″sl=max(js-h2,0),
j″sr=min(js+h-1-h2,H-1),
(is,js)为搜索位置坐标点,w是模板图像宽度,当w为偶数,w2=w/2,当w为奇数,w2=(w-1)/2,当h为偶数,h2=h/2,当h为奇数,h2=(h-1)/2,W为被搜索图像S的宽度,H为被搜索图像S的高度。
6.根据权利要求5所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,步骤四中利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选的具体方法为:
S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}
计算实现,其中,S′为匹配像素点坐标集,C0m为所有初始搜索位置相关系数的最大值,C0(i′s,j′s)为坐标点(i′s,j′s)的初始匹配相关系数,(i′s,j′s)为搜索位置坐标点。
7.根据权利要求6所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,步骤五中所述计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数的具体方法为:
通过公式:
Figure FDA0002557920580000021
计算获得尺度为α搜索位置坐标点为(i′s,j′s)时模板匹配相关系数C(α,i′s,j′s),其中,尺度α的选取范围为0.5到2,步长为0.1,其中,Q′为被搜索图像重叠区域的像素点集;
Q′={(i″′s,j″′s),i″′s=i″′sl,i″′sl+1,...,i″′sr,j″′s=j″′sl,j″′sl+1,...,j″′sr},
i″′sl=max(i′s-w1,0),
Figure FDA0002557920580000031
j″′sl=max(js-h1,0),
Figure FDA0002557920580000032
Figure FDA0002557920580000033
Figure FDA0002557920580000034
为向下取整函数,
Figure FDA0002557920580000035
Ι[]为指示函数。
CN202010597667.XA 2020-06-28 2020-06-28 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 Active CN111709434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010597667.XA CN111709434B (zh) 2020-06-28 2020-06-28 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010597667.XA CN111709434B (zh) 2020-06-28 2020-06-28 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法

Publications (2)

Publication Number Publication Date
CN111709434A true CN111709434A (zh) 2020-09-25
CN111709434B CN111709434B (zh) 2022-10-04

Family

ID=72543704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010597667.XA Active CN111709434B (zh) 2020-06-28 2020-06-28 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法

Country Status (1)

Country Link
CN (1) CN111709434B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966725A (zh) * 2021-02-08 2021-06-15 深圳市优必选科技股份有限公司 匹配模板图像的方法、装置及终端设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680550A (zh) * 2015-03-24 2015-06-03 江南大学 一种通过图像特征点的轴承表面瑕疵检测的方法
CN104866806A (zh) * 2014-02-21 2015-08-26 深圳富泰宏精密工业有限公司 具有人脸定位辅助功能的自拍***及方法
CN104966047A (zh) * 2015-05-22 2015-10-07 浪潮电子信息产业股份有限公司 一种车牌识别的方法及装置
CN106407987A (zh) * 2016-08-31 2017-02-15 中国工程物理研究院激光聚变研究中心 基于图像互相关匹配的电光晶体光轴出露点提取方法
CN106886748A (zh) * 2016-12-28 2017-06-23 中国航天电子技术研究院 一种基于tld的适用于无人机的变尺度目标跟踪方法
CN107239792A (zh) * 2017-05-12 2017-10-10 大连理工大学 一种基于二进制描述子的工件识别方法及装置
CN108629769A (zh) * 2018-05-02 2018-10-09 山东师范大学 基于最佳兄弟相似度的眼底图像视盘定位方法及***
CN109271996A (zh) * 2018-08-21 2019-01-25 南京理工大学 基于surf特征和哈希感知算法的fpc图像自动配准方法
CN109389038A (zh) * 2018-09-04 2019-02-26 阿里巴巴集团控股有限公司 一种信息的检测方法、装置及设备
CN109766943A (zh) * 2019-01-10 2019-05-17 哈尔滨工业大学(深圳) 一种基于全局感知多样性度量的模板匹配方法及***
CN109800787A (zh) * 2018-12-14 2019-05-24 西安交通大学 基于相对特征距离误差度量的图像模板匹配方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866806A (zh) * 2014-02-21 2015-08-26 深圳富泰宏精密工业有限公司 具有人脸定位辅助功能的自拍***及方法
CN104680550A (zh) * 2015-03-24 2015-06-03 江南大学 一种通过图像特征点的轴承表面瑕疵检测的方法
CN104966047A (zh) * 2015-05-22 2015-10-07 浪潮电子信息产业股份有限公司 一种车牌识别的方法及装置
CN106407987A (zh) * 2016-08-31 2017-02-15 中国工程物理研究院激光聚变研究中心 基于图像互相关匹配的电光晶体光轴出露点提取方法
CN106886748A (zh) * 2016-12-28 2017-06-23 中国航天电子技术研究院 一种基于tld的适用于无人机的变尺度目标跟踪方法
CN107239792A (zh) * 2017-05-12 2017-10-10 大连理工大学 一种基于二进制描述子的工件识别方法及装置
CN108629769A (zh) * 2018-05-02 2018-10-09 山东师范大学 基于最佳兄弟相似度的眼底图像视盘定位方法及***
CN109271996A (zh) * 2018-08-21 2019-01-25 南京理工大学 基于surf特征和哈希感知算法的fpc图像自动配准方法
CN109389038A (zh) * 2018-09-04 2019-02-26 阿里巴巴集团控股有限公司 一种信息的检测方法、装置及设备
CN109800787A (zh) * 2018-12-14 2019-05-24 西安交通大学 基于相对特征距离误差度量的图像模板匹配方法
CN109766943A (zh) * 2019-01-10 2019-05-17 哈尔滨工业大学(深圳) 一种基于全局感知多样性度量的模板匹配方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
I. TALMI, R. MECHREZ AND L. ZELNIK-MANOR: ""Template Matching with Deformable Diversity Similarity", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
S. ORON, T. DEKEL, T. XUE, W. T. FREEMAN AND S. AVIDAN: "Best-Buddies Similarity—Robust Template Matching Using Mutual Nearest Neighbors", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966725A (zh) * 2021-02-08 2021-06-15 深圳市优必选科技股份有限公司 匹配模板图像的方法、装置及终端设备
CN112966725B (zh) * 2021-02-08 2024-01-16 深圳市优必选科技股份有限公司 匹配模板图像的方法、装置及终端设备

Also Published As

Publication number Publication date
CN111709434B (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
US11423701B2 (en) Gesture recognition method and terminal device and computer readable storage medium using the same
US9020195B2 (en) Object tracking device, object tracking method, and control program
CN110472625B (zh) 一种基于傅里叶描述子的象棋棋子视觉识别方法
CN110751154B (zh) 一种基于像素级分割的复杂环境多形状文本检测方法
CN114187665B (zh) 一种基于人体骨架热图的多人步态识别方法
CN108154151B (zh) 一种快速多方向文本行检测方法
CN112308128B (zh) 一种基于注意力机制神经网络的图像匹配方法
CN115661754B (zh) 一种基于维度融合注意力的行人重识别方法
CN112785626A (zh) 一种基于多尺度特征融合的孪生网络小目标跟踪方法
Zhao et al. Automatic registration of images with inconsistent content through line-support region segmentation and geometrical outlier removal
Al-Hammadi et al. Improving SURF based copy-move forgery detection using super resolution
CN111709434B (zh) 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法
CN109711420B (zh) 基于人类视觉注意机制的多仿射目标的检测与识别方法
Ihmeida et al. Image registration techniques and applications: Comparative study on remote sensing imagery
CN114898412A (zh) 一种针对低质量指纹、残缺指纹的识别方法
CN114333023A (zh) 基于角度估计的人脸步态多模态加权融合身份识别方法与***
CN111915645B (zh) 影像匹配方法、装置、计算机设备及计算机可读存储介质
CN111079585B (zh) 图像增强结合伪孪生卷积神经网络的行人再识别方法
CN111260555A (zh) 一种基于surf的改进图像拼接方法
CN115909401A (zh) 融合深度学习的牛脸识别方法、装置、电子设备和介质
CN112380966B (zh) 基于特征点重投影的单眼虹膜匹配方法
CN108304863B (zh) 一种利用学习不变特征变换的兵马俑图像匹配方法
CN111008955B (zh) 多尺度图像块匹配的快速复制粘贴篡改检测方法
CN112686200A (zh) 一种基于多方案并联关注机制的行人重识别方法及***
CN110781769A (zh) 一种快速行人检测与跟踪的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant