CN113222028B - 一种基于多尺度邻域梯度模型的图像特征点实时匹配方法 - Google Patents

一种基于多尺度邻域梯度模型的图像特征点实时匹配方法 Download PDF

Info

Publication number
CN113222028B
CN113222028B CN202110544319.0A CN202110544319A CN113222028B CN 113222028 B CN113222028 B CN 113222028B CN 202110544319 A CN202110544319 A CN 202110544319A CN 113222028 B CN113222028 B CN 113222028B
Authority
CN
China
Prior art keywords
point
image
matching
matrix
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110544319.0A
Other languages
English (en)
Other versions
CN113222028A (zh
Inventor
朱伟
杜瀚宇
董小舒
王幸鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 28 Research Institute
Original Assignee
CETC 28 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 28 Research Institute filed Critical CETC 28 Research Institute
Priority to CN202110544319.0A priority Critical patent/CN113222028B/zh
Publication of CN113222028A publication Critical patent/CN113222028A/zh
Application granted granted Critical
Publication of CN113222028B publication Critical patent/CN113222028B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于多尺度邻域梯度模型的图像特征点实时匹配方法,首先构建了多尺度特征图上下采样模型,生成多尺度图像序列和特征图像位置映射表序列;其次构建矩阵遍历模板和子块矩阵遍历模板,并分别计算其邻域梯度,并判断得到候选兴趣点向量;对候选兴趣向量计算得到多尺度特征图矩阵向量,对利用中心点像素特征进行特征点判定;最后对特征点向量重新匹配排序得到对比集向量,通过计算变换映射矩阵及匹配向量得到特征点匹配映射矩阵。本方法显著提升了复杂背景下的图像特征点实时匹配精度,可广泛应用于全景拼接、图像目标定位、目标跟踪等领域。

Description

一种基于多尺度邻域梯度模型的图像特征点实时匹配方法
技术领域
本发明涉及图像处理与计算机视觉领域,尤其涉及一种基于多尺度邻域梯度模型的图像特征点实时匹配方法。
背景技术
图像特征点匹配可广泛应用目标跟踪、图像联合定位、图像拼接等领域,受限于目标形态变化、运动背景干扰等复杂环境会造成目标特征点匹配效果大幅降低,现有的主要方法有基于SIFT、SURF、ORB、FAST等特征点匹配方法,由于光照变化、尺度变化、旋转变化、视角变化等影响,针对常规目标均能表现出优秀的性能,但对于复杂背景变化以及大场景高帧频要求场景,图像特征点匹配存在较多虚警,匹配精度会严重下降。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于多尺度邻域梯度模型的图像特征点实时匹配方法,包括如下步骤:
步骤1,构建多尺度特征图:对于原始图像,分别构建尺度特征图上采样图像Yi+1和下采样图像Zj+1,根据采样图像映射得到特征图映射表,生成多尺度图像序列ZV和位置映射表序列LV;
步骤2,提取候选兴趣点:在多尺度图像序列上分别按照水平、垂直方向遍历构建9*9矩阵窗口Xw和9个3*3子块矩阵SXi,计算矩阵SXi的邻域梯度,判断当前矩阵中心像素子块矩阵SX5是否为候选兴趣点,依次对图像进行全部窗口遍历得到候选兴趣点向量VT;
步骤3,进行特征点判定:对候选兴趣点向量VT通过位置映射表序列和多尺度图像序列计算得到多尺度特征图9*9窗口矩阵向量
Figure BDA0003073006610000011
和子块特征图3*3窗口矩阵向量
Figure BDA0003073006610000012
对当前中心点像素值
Figure BDA0003073006610000013
进行特征点判定,依次对候选兴趣点向量VT进行判定得到当前图像的特征点向量VTR;
步骤4,进行特征点匹配:分别提取两幅图像A、B的特征点向量VTR1、VTR2,分别计算向量VTR1、VTR2按照距离比值α从小到大进行重新匹配排序得到对比集向量PD;计算变换映射矩阵,对当前特征点进行匹配判断,计算当前特征点匹配映射矩阵。
步骤1包括:对于原始图像,分别构建尺度特征图上采样图像和下采样图像;
其中,多尺度特征图上采样第i+1层的图像Yi+1如下所示:
Figure BDA0003073006610000021
其中,Xi为第i层图像,i∈(1,2,3),函数Wup表示将图像Xi像素位置(x,y)映射到第i+1层图像的(2x+1,2y+1)位置,x,y分别表示横坐标和纵坐标;
Figure BDA0003073006610000022
为拉普拉斯高斯函数,h1为拉普拉斯高斯函数的尺度因子,
Figure BDA0003073006610000023
表示图像的卷积操作;
多尺度特征图下采样第j+1层的图像Zj+1如下所示:
Figure BDA0003073006610000024
其中,Xj为第j层图像,j∈(1,2,3),函数Wdw表示计算得到图像Xj的偶数行像素,
Figure BDA0003073006610000025
为拉普拉斯高斯函数,h2为拉普拉斯高斯函数的尺度因子;
根据上采样图像Yi+1和下采样图像Zj+1映射得到特征图映射表,生成多尺度图像序列生成多尺度图像序列ZV和位置映射表序列LV。
步骤2中,采用如下公式计算矩阵SXi的邻域梯度SXGi
SXGi=SXGxi+SXGyi
SXGxi=SXi(l+1,m)-SXi(l,m)
SXGyi=SXi(l,m+1)-SXi(l,m)
其中SXGxi、SXGyi分别为邻域水平梯度、垂直梯度,l、m分别为水平坐标和垂直坐标,i∈(1,2,...9)。
步骤2还包括:
采用如下公式对当前矩阵中心像素子块矩阵SX5进行判断:
Figure BDA0003073006610000026
其中LT为候选兴趣点标志位,N1表示子块邻域梯度比较数量统计阈值,LT=1表示当前矩阵中心像素点为候选兴趣点,LT=0表示当前像素点为非候选兴趣点;依次对原始图像X0进行全部窗口遍历得到候选兴趣点向量VT,候选兴趣点信息包括水平坐标、垂直坐标和像素值。
步骤3中,所述对当前中心点像素值
Figure BDA0003073006610000031
进行特征点判定,其中i∈(1,2,...7),具体包括:分别计算各子块矩阵
Figure BDA0003073006610000032
的最大像素值SXMaxj,其中j∈(1,2,...9),对当前中心点像素值
Figure BDA0003073006610000033
分别进行如下判断:
Figure BDA0003073006610000034
Figure BDA0003073006610000035
其中Uiw为第i层特征图特征点判断标志位,Tj表示子块邻域像素值对比结果,N2表示特征点判断阈值;根据多尺度特征图特征点判断结果进行决策半数投票,即满足
Figure BDA0003073006610000036
被判定为特征点;依次对候选兴趣点向量VT进行判定得到当前图像的特征点向量VTR。
步骤4包括:根据步骤1~步骤3,分别提取两幅图像A、B的特征点向量VTR1、VTR2,对特征点向量VTR1、VTR2按照距离比值α从小到大进行重新匹配排序,得到由候选匹配特征点向量组成的对比集二维向量PD;
距离比值α计算公式如下:
Figure BDA0003073006610000037
其中vtr1(xk,yk)、vtr2(xk,yk))分别为向量VTR1、VTR2在位置(xk,yk)的特征点,xk,yk分别为水平、垂直坐标,k表示向量VTR1、VTR2中特征点下标变量;γ函数用于计算两个向量的最近邻汉明距离,φ函数用于计算两个向量的次近邻汉明距离。
步骤4还包括:选取对比集向量PD中排序前面的4个候选匹配特征点向量构成候选匹配特征点集合{PD1,PD2,PD3,PD4},求解变换映射矩阵H1,根据H1计算其他特征点与映射点之间的误差ΔD,如果误差ΔD<ε,则将当前特征点判断为匹配点,全部完成对比集PD得到匹配集向量PT,向量PT的长度为VL2。其中ε为映射误差参数阈值。
步骤4中,H1的计算方式为:
Figure BDA0003073006610000041
Figure BDA0003073006610000042
其中PDn(x)、PDn'(x)分别为候选匹配特征点集合{PD1,PD2,PD3,PD4}中待匹配两幅图像A、B特征点向量的水平坐标,PDn(y)、PDn'(y)分别为候选匹配特征点集合{PD1,PD2,PD3,PD4}中待匹配两幅图像A、B特征点向量的垂直坐标,n∈(1,2,3,4);H1为最佳映射矩阵,其矩阵值为h11、h12、h13、h21、h22、h23、h31、h32、h33
如果VL2≥β·VL1,则判定为当前特征点匹配有效,生成最终映射矩阵H1,其中β为匹配点数量参数阈值;如果VL2<β·VL1,则继续将下一组PDk加入到候选映匹配组{PD1,PD2,PD3,PD4,...PDk},依次从候选映匹配组{PD1,PD2,PD3,PD4,...PDk}选取4个特征点向量构成候选匹配特征点集合{PU1,PU2,PU3,PU4}重复进行迭代计算得到匹配集向量PTm以及PTm向量长度VLm+1,判定是否满足VLm+1≥β·VL1,如果满足则终止迭代,得到当前特征点匹配映射矩阵Hm,其中PU1、PU2、PU3、PU4分别表示候选匹配特征点集合中第1、2、3、4个特征点向量。
步骤4中,根据如下公式计算当前特征点匹配映射矩阵Hm
Figure BDA0003073006610000043
Figure BDA0003073006610000044
其中Hm为第m次匹配中最佳映射矩阵,其矩阵值为hm11、hm12、hm13、hm21、hm22、hm23、hm31、hm32、hm33,hm33为Hm第3行第3列的元素;
其中PU(x)、PU'(x)分别为候选匹配特征点集合{PU1,PU2,PU3,PU4}中待匹配两幅图像A、B特征点向量的水平坐标;其中PU(y)、PU'(y)分别为候选匹配特征点集合{PU1,PU2,PU3,PU4}中待匹配两幅图像A、B特征点向量的垂直坐标。
有益效果:本发明是针对复杂背景变化以及大场景高帧频要求特征点匹配场景,提出了一种基于多尺度邻域梯度模型的图像特征点匹配方法,通过构建了多尺度特征图,大幅提升特征兴趣点的多尺度特征提取能力;其次构建了窗口邻域梯度表达模型,显著提升了复杂场景下图像特征点提取能力;最后综合利用多映射变换矩阵实现图像特征点高精度匹配。本发明方法对对空、对海、对地等多种复杂背景进行测试,均能有效对实现对图像特征点匹配,在国产化FT-2000平台上测试验证,处理平均帧频达到40Hz。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明方法流程图。
图2是本发明实施例中矩阵窗口和子块窗口构建示意图。
具体实施方式
如图1所示,本发明提供了一种复杂天空场景下的图像云背景检测方法,包括:
a)多尺度特征图构建。构建多尺度特征图上采样第i+1层的图像Yi+1和下采样第j+1层的图像Zj+1
Figure BDA0003073006610000051
Figure BDA0003073006610000052
其中,Xi为第i层图像,i∈(1,2,3),Xj为第j层图像,j∈(1,2,3),Wup函数为表示将图像Xi像素位置(x,y)映射到第i+1层图像的(2x+1,2y+1),
Figure BDA0003073006610000053
为拉普拉斯高斯函数,h1为拉普拉斯高斯函数的尺度因子,一般取值h1=1.5,
Figure BDA0003073006610000054
表示图像的卷积操作。Wdw函数为表示计算得到图像Xj的偶数行像素,
Figure BDA0003073006610000055
为拉普拉斯高斯函数,h2为拉普拉斯高斯函数的尺度因子,一般取值h2=0.8。
根据特征图上采样和下采样计算得到特征图像映射表MUi和MDj
MUi=LMap(Yi+1,Xi)
MDj=LMap(Zj+1,Xj)
其中MUi为上采样映射表,i∈(1,2,3),MDj为下采样映射表,j∈(1,2,3),LMap函数表示特征图到原图像的位置映射关系。根据特征图上采样和下采样多尺度特征图生成多尺度图像序列[Z1,Z2,Z3,X,Y1,Y2,Y3]和位置映射表序列[MU1,MU2,MU3,MD1,MD2,MD3]。
b)候选兴趣点提取。如图2所示,在原始图像X0上分别按照水平、垂直方向遍历构建9*9矩阵窗口Xw和9个3*3子块矩阵SXi,分别计算矩阵SXi的邻域梯度SXGi为:
SXGi=SXGxi+SXGyi
SXGxi=SXi(l+1,m)-SXi(l,m)
SXGyi=SXi(l,m+1)-SXi(l,m)
其中SXGxi、SXGyi为邻域水平梯度、垂直梯度,l、m分别为水平和垂直坐标,i∈(1,2,...9)。判断当前矩阵中心像素子块矩阵SX5满足下列要求:
Figure BDA0003073006610000061
其中LT为候选兴趣点标志位,N1表示子块邻域梯度比较数量统计阈值,一般N1=5,LT=1表示判断当前矩阵中心像素点为候选兴趣点,LT=0表示判断当前像素点为非候选兴趣点。依次对原始图像X0进行全部窗口遍历得到候选兴趣点向量VT,候选兴趣点信息包括水平坐标、垂直坐标及像素值。
c)特征点判定。对候选兴趣点向量VT通过位置映射表序列和多尺度图像序列计算得到多尺度特征图9*9窗口矩阵向量
Figure BDA0003073006610000062
和子块特征图3*3窗口矩阵向量
Figure BDA0003073006610000063
其中i∈(1,2,...7),分别计算各子块矩阵
Figure BDA0003073006610000064
的最大像素值SXMaxj,其中j∈(1,2,...9),对当前中心点像素值
Figure BDA0003073006610000065
分别进行如下判断:
Figure BDA0003073006610000071
Figure BDA0003073006610000072
其中Uiw为第i层特征图特征点判断标志位,Tj表示子块邻域像素值对比结果,N2表示特征点判断阈值,一般N2=6。根据多尺度特征图特征点判断结果进行决策半数投票,即满足
Figure BDA0003073006610000073
被判定为特征点。依次对候选兴趣点向量VT进行判定得到当前图像的特征点向量VTR。
d)特征点匹配。根据上述步骤分别提取两幅图像的特征点向量VTR1、VTR2,对特征点向量VTR1、VTR2按照距离比值α从小到大进行重新匹配排序,得到由候选匹配特征点向量组成的对比集向量PD,向量PD的长度为VL1。其中α计算方式为:
Figure BDA0003073006610000074
其中vtr1(xk,yk)、vtr2(xk,yk))分别为向量VTR1、VTR2在位置(xk,yk)的特征点,(xk,yk)为水平、垂直坐标,γ函数为计算两个向量的最近邻汉明距离,φ函数为计算两个向量的次近邻汉明距离。
选取对比集向量PD中排序前面的4个候选匹配特征点向量构成候选匹配特征点集合{PD1,PD2,PD3,PD4},求解变换映射矩阵H1,根据H1计算其他特征点与映射点之间的误差ΔD,若误差ΔD<ε,其中ε为映射误差参数阈值,一般取值ε=0.6,则将当前特征点判断为匹配点,全部完成对比集PD得到匹配集向量PT,向量PT的长度为VL2。其中H1的计算方式为:
Figure BDA0003073006610000075
Figure BDA0003073006610000076
其中PDn(x)、PDn'(x)分别为候选匹配特征点集合{PD1,PD2,PD3,PD4}中第n个特征点向量的水平坐标,PDn(y)、PDn'(y)分别为候选匹配特征点集合{PD1,PD2,PD3,PD4}中第n个特征点向量的垂直坐标,n∈(1,2,3,4)。H1为最佳映射矩阵,其矩阵值为h11、h12、h13、h21、h22、h23、h31、h32、h33
如果VL2≥β·VL1,则判定为当前特征点匹配有效,生成最终映射矩阵H1,其中β匹配点数量参数阈值;如果VL2<β·VL1,则继续将下一组PDk加入到候选映匹配组{PD1,PD2,PD3,PD4,...PDk},依次从候选映匹配组{PD1,PD2,PD3,PD4,...PDk}中选取4对{PU1,PU2,PU3,PU4}重复进行迭代计算得到PTm以及PTm向量长度VLm+1,因此判定是否满足VLm+1≥β·VL1,如果满足则终止迭代,得到当前特征点匹配映射矩阵Hm,其中PU1、PU2、PU3、PU4分别表示候选匹配特征点集合中第1、2、3、4个特征点元素。其中Hm的计算方式为:
Figure BDA0003073006610000081
Figure BDA0003073006610000082
其中PU(x)、PU'(x)分别为候选匹配特征点集合{PU1,PU2,PU3,PU4}中待匹配两幅图像A、B特征点向量的水平坐标;其中PU(y)、PU'(y)分别为候选匹配特征点集合{PU1,PU2,PU3,PU4}中待匹配两幅图像A、B特征点向量的垂直坐标。
本发明提供了一种基于多尺度邻域梯度模型的图像特征点实时匹配方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (9)

1.一种基于多尺度邻域梯度模型的图像特征点实时匹配方法,其特征在于,包括如下步骤:
步骤1,构建多尺度特征图:对于原始图像,分别构建尺度特征图上采样图像Yi+1和下采样图像Zj+1,根据采样图像映射得到特征图映射表,生成多尺度图像序列ZV和位置映射表序列LV;
步骤2,提取候选兴趣点:在多尺度图像序列上分别按照水平、垂直方向遍历构建9*9矩阵窗口Xw和9个3*3子块矩阵SXi,计算矩阵SXi的邻域梯度,判断当前矩阵中心像素子块矩阵SX5是否为候选兴趣点,依次对图像进行全部窗口遍历得到候选兴趣点向量VT;
步骤3,进行特征点判定:对候选兴趣点向量VT通过位置映射表序列和多尺度图像序列计算得到多尺度特征图9*9窗口矩阵向量
Figure FDA0003744382910000011
和子块特征图3*3窗口矩阵向量
Figure FDA0003744382910000012
对当前中心点像素值
Figure FDA0003744382910000013
进行特征点判定,依次对候选兴趣点向量VT进行判定得到当前图像的特征点向量VTR;
步骤4,进行特征点匹配:分别提取两幅图像A、B的特征点向量VTR1、VTR2,分别计算向量VTR1、VTR2按照距离比值α从小到大进行重新匹配排序得到对比集向量PD;计算变换映射矩阵,对当前特征点进行匹配判断,计算当前特征点匹配映射矩阵。
2.根据权利要求1所述的方法,其特征在于,步骤1包括:对于原始图像X0,分别构建尺度特征图上采样图像和下采样图像;
其中,多尺度特征图上采样第i+1层的图像Yi+1如下所示:
Figure FDA0003744382910000014
其中,Xi为第i层图像,i∈(1,2,3),函数Wup表示将图像Xi像素位置(x,y)映射到第i+1层图像的(2x+1,2y+1)位置;
Figure FDA0003744382910000015
为拉普拉斯高斯函数,h1为拉普拉斯高斯函数的尺度因子,
Figure FDA0003744382910000016
表示图像的卷积操作;
多尺度特征图下采样第j+1层的图像Zj+1如下所示:
Figure FDA0003744382910000017
其中,Xj为第j层图像,j∈(1,2,3),函数Wdw表示计算得到图像Xj的偶数行像素,
Figure FDA0003744382910000021
为拉普拉斯高斯函数,h2为拉普拉斯高斯函数的尺度因子;
根据上采样图像Yi+1和下采样图像Zj+1映射得到特征图映射表,生成多尺度图像序列ZV和位置映射表序列LV。
3.根据权利要求2所述的方法,其特征在于,步骤2中,采用如下公式计算矩阵SXi的邻域梯度SXGi
SXGi=SXGxi+SXGyi
SXGxi=SXi(l+1,m)-SXi(l,m)
SXGyi=SXi(l,m+1)-SXi(l,m)
其中SXGxi、SXGyi分别为邻域水平梯度、垂直梯度,l、m分别为水平坐标和垂直坐标,i∈(1,2,...9)。
4.根据权利要求3所述的方法,其特征在于,步骤2还包括:
采用如下公式对当前矩阵中心像素子块矩阵SX5进行判断:
Figure FDA0003744382910000022
其中LT为候选兴趣点标志位,N1表示子块邻域梯度比较数量统计阈值,LT=1表示当前矩阵中心像素点为候选兴趣点,LT=0表示当前像素点为非候选兴趣点;依次对原始图像X0进行全部窗口遍历得到候选兴趣点向量VT,候选兴趣点信息包括水平坐标、垂直坐标和像素值。
5.根据权利要求4所述的方法,其特征在于,步骤3中,所述对当前中心点像素值
Figure FDA0003744382910000023
进行特征点判定,其中i∈(1,2,...7),具体包括:分别计算各子块矩阵
Figure FDA0003744382910000024
的最大像素值SXMaxj,其中j∈(1,2,...9),对当前中心点像素值
Figure FDA0003744382910000025
分别进行如下判断:
Figure FDA0003744382910000026
Figure FDA0003744382910000027
其中Uiw为第i层特征图特征点判断标志位,Tj表示子块邻域像素值对比结果,N2表示特征点判断阈值;根据多尺度特征图特征点判断结果进行决策半数投票,即满足
Figure FDA0003744382910000031
被判定为特征点;依次对候选兴趣点向量VT进行判定得到当前图像的特征点向量VTR。
6.根据权利要求5所述的方法,其特征在于,步骤4包括:根据步骤1~步骤3,分别提取两幅图像A、B的特征点向量VTR1、VTR2,对特征点向量VTR1、VTR2按照距离比值α从小到大进行重新匹配排序,得到由候选匹配特征点向量组成的对比集二维向量PD;
距离比值α计算公式如下:
Figure FDA0003744382910000032
其中vtr1(xk,yk)、vtr2(xk,yk)分别为向量VTR1、VTR2在位置(xk,yk)的特征点,xk,yk分别为水平、垂直坐标,k表示向量VTR1、VTR2中特征点下标变量;γ函数用于计算两个向量的最近邻汉明距离,φ函数用于计算两个向量的次近邻汉明距离。
7.根据权利要求6所述的方法,其特征在于,步骤4还包括:选取对比集二维向量PD中排序前面的4个候选匹配特征点向量构成候选匹配特征点集合{PD1,PD2,PD3,PD4},求解变换映射矩阵H1,根据H1计算其他特征点与映射点之间的误差ΔD,如果误差ΔD<ε,则将当前特征点判断为匹配点,全部完成对比集PD得到匹配集向量PT,向量PT的长度为VL2,其中ε为映射误差参数阈值。
8.根据权利要求7所述的方法,其特征在于,步骤4中,H1的计算方式为:
Figure FDA0003744382910000033
Figure FDA0003744382910000034
其中PDn(x)、PDn'(x)分别为候选匹配特征点集合{PD1,PD2,PD3,PD4}中待匹配两幅图像A、B特征点向量的水平坐标,PDn(y)、PDn'(y)分别为候选匹配特征点集合{PD1,PD2,PD3,PD4}中待匹配两幅图像A、B特征点向量的垂直坐标,n∈(1,2,3,4);H1为最佳映射矩阵,其矩阵值为h11、h12、h13、h21、h22、h23、h31、h32、h33
如果VL2≥β·VL1,则判定为当前特征点匹配有效,生成最终映射矩阵H1,其中β为匹配点数量参数阈值;如果VL2<β·VL1,则继续将下一组PDk加入到候选映匹配组{PD1,PD2,PD3,PD4,...PDk},依次从候选映匹配组{PD1,PD2,PD3,PD4,...PDk}选取4个特征点向量构成候选匹配特征点集合{PU1,PU2,PU3,PU4}重复进行迭代计算得到匹配集向量PTm以及PTm向量长度VLm+1,判定是否满足VLm+1≥β·VL1,如果满足则终止迭代,得到当前特征点匹配映射矩阵Hm,其中PU1、PU2、PU3、PU4分别表示候选匹配特征点集合中第1、2、3、4个特征点向量。
9.根据权利要求8所述的方法,其特征在于,步骤4中,根据如下公式计算当前特征点匹配映射矩阵Hm
Figure FDA0003744382910000041
Figure FDA0003744382910000042
其中Hm为第m次匹配中最佳映射矩阵,其矩阵值为hm11、hm12、hm13、hm21、hm22、hm23、hm31、hm32、hm33,hm33为Hm第3行第3列的元素;
其中PU(x)、PU'(x)分别为候选匹配特征点集合{PU1,PU2,PU3,PU4}中待匹配两幅图像A、B特征点向量的水平坐标;PU(y)、PU'(y)分别为候选匹配特征点集合{PU1,PU2,PU3,PU4}中待匹配两幅图像A、B特征点向量的垂直坐标。
CN202110544319.0A 2021-05-19 2021-05-19 一种基于多尺度邻域梯度模型的图像特征点实时匹配方法 Active CN113222028B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110544319.0A CN113222028B (zh) 2021-05-19 2021-05-19 一种基于多尺度邻域梯度模型的图像特征点实时匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110544319.0A CN113222028B (zh) 2021-05-19 2021-05-19 一种基于多尺度邻域梯度模型的图像特征点实时匹配方法

Publications (2)

Publication Number Publication Date
CN113222028A CN113222028A (zh) 2021-08-06
CN113222028B true CN113222028B (zh) 2022-09-06

Family

ID=77092979

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110544319.0A Active CN113222028B (zh) 2021-05-19 2021-05-19 一种基于多尺度邻域梯度模型的图像特征点实时匹配方法

Country Status (1)

Country Link
CN (1) CN113222028B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116309597B (zh) * 2023-05-23 2023-08-01 成都工业学院 一种药盒混装缺陷的视觉在线检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015042772A1 (zh) * 2013-09-24 2015-04-02 中国科学院自动化研究所 一种遥感图像显著目标变化检测方法
WO2016062159A1 (zh) * 2014-10-20 2016-04-28 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN109949340A (zh) * 2019-03-04 2019-06-28 湖北三江航天万峰科技发展有限公司 基于OpenCV的目标尺度自适应跟踪方法
CN110148162A (zh) * 2019-04-29 2019-08-20 河海大学 一种基于复合算子的异源图像匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015042772A1 (zh) * 2013-09-24 2015-04-02 中国科学院自动化研究所 一种遥感图像显著目标变化检测方法
WO2016062159A1 (zh) * 2014-10-20 2016-04-28 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN109949340A (zh) * 2019-03-04 2019-06-28 湖北三江航天万峰科技发展有限公司 基于OpenCV的目标尺度自适应跟踪方法
CN110148162A (zh) * 2019-04-29 2019-08-20 河海大学 一种基于复合算子的异源图像匹配方法

Also Published As

Publication number Publication date
CN113222028A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN110276269B (zh) 一种基于注意力机制的遥感图像目标检测方法
CN111311666B (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
CN110287826B (zh) 一种基于注意力机制的视频目标检测方法
CN112232391B (zh) 一种基于U-net网络和SC-SAM注意力机制的大坝裂缝检测方法
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及***
CN108960135B (zh) 基于高分辨遥感图像的密集舰船目标精确检测方法
CN111368769B (zh) 基于改进锚点框生成模型的船舶多目标检测方法
CN111667506B (zh) 一种基于orb特征点的运动估计方法
CN111582062B (zh) 一种基于YOLOv3的目标跟踪中的重检测方法
CN109871823B (zh) 一种结合旋转框和上下文信息的卫星图像舰船检测方法
CN111476159A (zh) 一种基于双角回归的检测模型训练、检测方法及装置
CN107490356B (zh) 一种非合作目标旋转轴和旋转角测量方法
CN112883850A (zh) 一种基于卷积神经网络的多视角空天遥感图像匹配方法
CN108319961B (zh) 一种基于局部特征点的图像roi快速检测方法
CN111126494A (zh) 基于各向异性卷积的图像分类方法及***
CN115639248A (zh) 一种用于建筑外墙质量检测的***及方法
CN112614167A (zh) 一种结合单偏光与正交偏光图像的岩石薄片图像对齐方法
CN113222028B (zh) 一种基于多尺度邻域梯度模型的图像特征点实时匹配方法
CN115147418A (zh) 缺陷检测模型的压缩训练方法和装置
CN115829942A (zh) 基于非负性约束稀疏自编码器的电子电路缺陷检测方法
CN112884795A (zh) 一种基于多特征显著性融合的输电线路巡检前景与背景分割方法
CN117392545B (zh) 一种基于深度学习的sar图像目标检测方法
CN110717910B (zh) 基于卷积神经网络的ct图像目标检测方法及ct扫描仪
CN108765384B (zh) 一种联合流形排序和改进凸包的显著性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant