CN105160686B - 一种基于改进sift算子的低空多视角遥感影像匹配方法 - Google Patents

一种基于改进sift算子的低空多视角遥感影像匹配方法 Download PDF

Info

Publication number
CN105160686B
CN105160686B CN201510688554.XA CN201510688554A CN105160686B CN 105160686 B CN105160686 B CN 105160686B CN 201510688554 A CN201510688554 A CN 201510688554A CN 105160686 B CN105160686 B CN 105160686B
Authority
CN
China
Prior art keywords
mrow
msubsup
msub
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510688554.XA
Other languages
English (en)
Other versions
CN105160686A (zh
Inventor
邵振峰
李从敏
周维勋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201510688554.XA priority Critical patent/CN105160686B/zh
Publication of CN105160686A publication Critical patent/CN105160686A/zh
Application granted granted Critical
Publication of CN105160686B publication Critical patent/CN105160686B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于改进SIFT算子的低空多视角遥感影像匹配方法,首先采用优化的DoG算子对第一影像和第二影像进行特征点检测,然后利用基于局部区域采样模拟的SIFT描述子对特征点进行描述形成特征向量,最后采用NNDR策略形成初始匹配特征点,并利用基于极几何约束的RANSAC算法对匹配点进行提纯。本发明能够有效地解决低空遥感影像匹配中存在的多视角以及弱纹理等问题。

Description

一种基于改进SIFT算子的低空多视角遥感影像匹配方法
技术领域
本发明属于遥感影像处理技术领域,涉及一种遥感影像匹配方法,涉及一种基于改进SIFT算子的低空多视角遥感影像匹配方法。
背景技术
影像匹配一直是摄影测量和遥感领域中的研究重点和热点,是影像定向,正射影像制作,影像自动配准以及拼接、三维重建的关键步骤之一,直接影响到后续产品制作的精度和效果。与传统遥感影像相比,低空遥感影像的获取环境更加复杂,特别是从不同视角获取的影像,存在着严重的几何畸变、相似纹理、纹理断裂、阴影、遮挡等问题,大大减小了同一目标在具有重叠区域的不同影像上的相似性,给低空影像的匹配带来极大的困难。因此,如何从具有严重几何畸变的低空多视角影像中获得稳定可靠的匹配点具有重大意义。
影像匹配算法主要分为两类:基于影像灰度的匹配和基于影像特征的匹配。基于影像灰度的匹配方法直接对影像上一定窗口范围内的像素进行操作,通过窗口范围内像素的灰度相关性来进行同名点匹配,该类方法虽然在影像辐射和几何形变小的情况下能获得较高的匹配精度,然而其对影像的灰度变化比较敏感,不适应于低空多视角影像中的几何畸变、相似纹理、纹理断裂、阴影、遮挡等问题。基于影像特征的匹配方法通过提取影像中的点、线、面等几何特征来进行匹配,能较好地补充基于灰度的匹配方法的不足。
目前,基于特征的匹配方法中,应用最广泛的是Lowe提出的SIFT(ScaleInvariant Feature Transformation)算法,能较好地处理影像几何变形中的旋转、尺度缩放和平移变化的问题,但是在大视角影像对的问题上,仍然无法取得令人满意的效果。为了改善针对不同视角影像的匹配效果,学者们对SIFT算子进行多种研究和改进,提出了ASIFT(Affine-SITT),ISIFT(Iterative-SITT)以及MM-SIFT(Multi-resolution MSER basedSIFT)等多视角影像匹配方法。ASIFT根据相机仿射模型,对经度、纬度和尺度三个参数进行采样,以模拟影像视角变换,从而建立仿射空间影像,然后在所有模拟影像的上进行SIFT特征点检测和匹配,因而该方法具有完全仿射不变性,即使在较大的视角变化情况下,也能获得较好的匹配结果,与此同时,其时间复杂度随之增加,限制了其应用范围。为了平衡匹配结果和时间效率,ISIFT方法利用迭代估计的几何变换模型模拟其中一幅影像,然后利用仅有的一幅模拟影像与另一幅影像进行SIFT匹配,大大提高了匹配效率。但是当影像间几何畸变较大时,该算法会因几何模型求解失败而失效。MM-SIFT根据影像中对应局部区域满足同一个仿射模型的理论,对两幅影像中的局部椭圆区域进行圆形归一化,然后在归一化的椭圆区域内进行SIFT匹配。该方法大大提高了时间效率,而且在影像间存在大视角变化的情况下,仍然能够得到一些正确的匹配点,然而其对提取的局部区域依赖性大,其采用MSER算子提取局部区域时,并没有最佳阈值,且现有的区域分割算法用于多视角影像尚不成熟。
发明内容
针对现有影像匹配技术存在的不足,本发明的目的是提供一种时间效率高,且对影像几何畸变较稳定的基于SIFT改进的低空多视角影像匹配方法。
本发明所采用的技术方案是:一种基于改进SIFT算子的低空多视角遥感影像匹配方法,其特征在于,包括以下步骤:
步骤1:使用自适应阈值的DoG算子检测第一影像和第二影像中的特征点;
步骤2:基于改进的SIFT描述子对特征点进描述;
对于第一影像和第二影像上提取的特征点,在其邻域内分别采用基于圆形区域采样和基于椭圆区域采样的灰度值对特征点进行描述,最终形成128维特征向量;
步骤3:基于特征点对应的特征向量之间的最近邻距离与次近邻距离的比值(NNDR,Nearest Neighbor Distance Ratio)这一策略获取初始匹配点集;
步骤4:基于极几何约束的RANSAC算法对初始匹配点集进行提纯,得到最终匹配点。
作为优选,步骤1中所述的使用自适应阈值的DoG算子检测第一影像和第二影像中的特征点,是根据以特征点为中心的一定窗口范围内的灰度信息自适应确定阈值T_contrast,其表达式为:
其中,(m,n)是特征点在影像中的坐标,N是窗口大小,xkl是像素在DoG尺度空间的灰度值,是窗口范围内像素的灰度平均值,r由影像的尺度来决定,可按如下公式计算:
其中,Si为当前特征点所在的尺度,MI表示DoG尺度空间中影像的数量,σ0表示影像平滑的程度。
作为优选,步骤2中所述的采用基于圆形区域采样的灰度值对特征点进行描述,对于第一影像的任意特征点(xi,yi),其邻域内的圆形区域采样点的表达式为:
其中,rij为采样半径,θk为采样角度。
作为优选,步骤2中所述的采用基于椭圆区域采样的灰度值对特征点进行描述,对于第二影像的任意特征点(x′i,y′i),其邻域内的椭圆区域采样点(x′i jk,y′i jk)的表达式为:
x′i jk=x′i+aij cos(θk)cos(θ0)+bij cos(θk)sin(θ0);
y′i jk=y′i+aij sin(θk)sin(θ0)-bij cos(θk)cos(θ0);
其中,aij为椭圆采样长轴,bij为椭圆采样短轴,bij=aij/γ,γ≥1,θ0为椭圆方向,θk为采样角度。
作为优选,采样点的梯度计算表达式如下:
其中,d.(.,.)表示该点θ和γ方向的梯度值,m(.,.)表示该点的梯度方向,采样点的灰度值则采用双线性内插的方式求取,记为
作为优选,采用迭代求解的策略确定椭圆参数γ和θ0,具体步骤如下:
步骤2.1:从第一影像中随机选取M个特征点,其特征向量记为
步骤2.2:在第二影像中进行椭圆采样时,设γ=γs,θ0=0,获得所有特征点特征向量,记为使用最邻近最小距离方法匹配第一影像和第二影像,记正确匹配个数为n;
步骤2.3:改变γ和θ0值,其中γ∈[γse],θ0∈[0°,90°],获得多种模拟情况下的D′和相应的正确匹配点ni
步骤2.4:比较多种情况下的匹配结果,当获得max(ni)时,对应的γ*和θ*即为最优解;
步骤2.5:在第一影像中挑选max(ni)时的特征点作为初始点,重新进行步骤2.1-步骤2.5,直到γ*和θ*的值趋于稳定。
作为优选,步骤2中完成邻近点采样后,采样点的灰度值由双线性内插方法求取。
与现有技术相比,本发明具有如下特点和有益效果,
1、在特征点提取阶段采用自适应阈值,使得DoG算子能够适应不同纹理的影像,从而保证了后续匹配结果;
2、在特征描述阶段,采用椭圆采样的方式去模拟视角变化,增加了同一目标在不同视角影像上的相似性,大大改善了多视角及弱纹理区域的匹配效果;
3、采用对局部区域进行模拟而不是对整幅影像进行处理,在提高匹配精度的同时,兼顾了时间效率。
附图说明
图1:为本发明实施例的流程图;
图2:为本发明实施例中的圆形区域采样示意图;
图3:为本发明实施例中的椭圆区域采样示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
本发明提出的一种基于改进SIFT算子的低空多视角遥感影像匹配方法,首先采用优化的DoG算子在参考影像和待匹配影像上分别提取特征点;其次采用基于局部区域模拟的SIFT描述子进行特征描述;然后基于最近距离与次邻近距离的比值策略对特征点进行匹配,并采用基于极几何的RANSAC对初始匹配结果进行提纯,得到最终匹配点。
具体实施时,本发明可采用计算机软件技术实现自动运行流程。为详细说明本发明技术方案,请见图1,本发明提供的一种基于改进SIFT算子的低空多视角遥感影像匹配方法,包括以下步骤:
步骤1:使用自适应阈值的DoG算子检测第一影像和第二影像中的特征点;
为了适应不同细节的影像,本发明不采用原始DoG中的固定阈值,而是根据以特征点为中心的一定窗口范围内的灰度信息自适应确定阈值T_contrast,其表达式为:
其中,(m,n)是特征点在影像中的坐标,N是窗口大小,xkl是像素在DoG尺度空间的灰度值,是窗口范围内像素的灰度平均值,r由影像的尺度来决定,可按如下公式计算:
其中,Si为当前特征点所在的尺度,MI表示DoG尺度空间中影像的数量,σ0表示影像平滑的程度。
步骤2:基于改进的SIFT描述子对特征点进描述;
对于第一影像和第二影像上提取的特征点,在其邻域内分别采用基于圆形区域采样和基于椭圆区域采样的灰度值对特征点进行描述,最终形成128维特征向量;
本发明的研究对象是低空多视角遥感影像,由于成像条件的复杂性,不同视角影像之间存在着严重的几何畸变,使得整体影像不满足同一个仿射变换,然而,具有重叠区域的多视角影像对应的局部平面区域可以用同一个仿射变换表示。在影像几何中,圆和椭圆之间的关系可以用来刻画一个仿射变换,因此,本发明在特征描述阶段,一幅影像中的特征点描述范围采用圆形区域,另一幅影像中的描述范围采用模拟的椭圆区域,目的是模拟影像的视角变换,增加特征点邻域内的灰度信息的相似性,从而改善多视角影像的匹配效果。
当对其中一幅影像的特征点用圆形区域来描述时,对每一个特征点(xi,yi),其局部圆形描述区域的大小可用半径表示,其表达式如下。
其中,σi为特征点所在尺度。
与原始SIFT直接使用相邻整数坐标内的灰度值不同,本发明使用采样和插值的方式来获取邻域内的灰度信息,采样方式如图2所示。对局部圆形描述区域内的半径和角度的采样表达式分别为:
rij=jwi/s;
θk=kπ/180;
其中,s为总的半径采样次数,j=1,...,s,k为采样角度,k=1,...,360°/n,...,360°。
根据采样半径和采样角度,可计算采样点的坐标:
其中,rij为采样半径,θk为采样角度。
采样点的灰度值则采用双线性内插的方式求取,记为双线性插值是一种常见的方法,在这里不再赘述。
当对另外一幅影像采用椭圆区域描述特征点时,特征点椭圆区域包含的内容应该尽量与同名点圆形区域包含的内容相同以保证匹配效果。对于每一个特征点(x′i,y′i),根据长轴aij,短轴bij以及椭圆方向θ0三个椭圆参数,即可确定椭圆区域的采样范围。aij的计算方式与rij相同,设bij=aij/γ,则控制椭圆区域变化的参数为γ和θ0。对椭圆进行采样时,采样方式如图3所示,每一个采样点(x′i jk,y′i jk)的坐标可根据如下公式计算:
x′i jk=x′i+aij cos(θk)cos(θ0)+bij cos(θk)sin(θ0);
y′i jk=y′i+aij sin(θk)sin(θ0)-bij cos(θk)cos(θ0);
其中j=1,...,s,θ0∈[0°,180°],θk=kπ/180,k=1,...,360°/n,...,360°。
完成邻近点采样后,椭圆区域采样点的灰度值同样采用双线性内插的方式获取。
在计算梯度时,与原始SIFT不同,不使用相邻特征点,如(xi,yi),(xi,yi-1),(xi-1,yi)等,而是采用上述相邻采样点,如 等,以圆形描述区域为例,梯度具体计算表达式如下:
其中,d.(.,.)表示该点θ和γ方向的梯度值,m(.,.)表示该点的梯度方向。
根据以上公式获得的灰度梯度,可按照原始SIFT的计算方式计算梯度方向直方图,进而获得各特征点的特征向量。
上述基于局部区域模拟采样的SIFT描述子能否有效解决大视角下的几何形变问题,关键在于椭圆区域对圆形区域的模拟程度,即控制椭圆区域变化的参数为γ和θ0。本发明采用迭代策略求解γ和θ0的值,以保证匹配效果,具体步骤如下:
步骤2.1:从第一影像中随机选取M个特征点,其特征向量记为
步骤2.2:在第二影像中进行椭圆采样时,设γ=γs,θ0=0,获得所有特征点特征向量,记为使用最邻近最小距离方法匹配第一影像和第二影像,记正确匹配个数为n;
步骤2.3:改变γ和θ0值,其中γ∈[γse],θ0∈[0°,90°],获得多种模拟情况下的D′和相应的正确匹配点ni
步骤2.4:比较多种情况下的匹配结果,当获得max(ni)时,对应的γ*和θ*即为最优解;
步骤2.5:在第一影像中挑选max(ni)时的特征点作为初始点,重新进行步骤2.1-步骤2.5,直到γ*和θ*的值趋于稳定。
步骤3:采用NNDR匹配策略匹配特征点
采用最近邻与次近邻比值(NNDR,Nearest Neighbor Distance Ratio)的策略进行匹配,具体实施时,计算各特征描述符之间的欧式距离,对于每一个特征,如果与其最相近的两个特征的距离满足最小距离与次小距离的比值小于一定的阈值△,则认为该匹配对是一对正确的匹配对;
步骤4:利用基于极几何约束的RANSAC剔除错误匹配点
完成特征点匹配后,在初始匹配结果中,会存在一些错误匹配。传统方法是利用RANSAC(Random Sample Consensus)估计影像间的仿射变换矩阵来剔除错误匹配,但是对于大视角影像来说,整幅影像并不适用于同一个仿射变换,因此,在具体实施时,采用极几何约束的方法,通过估计影像像对之间的基本矩阵来剔除错误匹配。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (5)

1.一种基于改进SIFT算子的低空多视角遥感影像匹配方法,其特征在于,包括以下步骤:
步骤1:使用自适应阈值的DoG算子检测第一影像和第二影像中的特征点;
步骤2:基于改进的SIFT描述子对特征点进描述;
对于第一影像和第二影像上提取的特征点,在其邻域内分别采用基于圆形区域采样的灰度值和基于椭圆区域采样的灰度值对特征点进行描述,最终形成128维特征向量;
其中所述的采用基于椭圆区域采样的灰度值对特征点进行描述,对于第二影像的任意特征点(x′i,y′i),其邻域内的椭圆区域采样点的表达式为:
<mrow> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mo>&amp;prime;</mo> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> <mo>+</mo> <msub> <mi>a</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mn>0</mn> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>b</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mn>0</mn> </msub> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
<mrow> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mo>&amp;prime;</mo> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> <mo>+</mo> <msub> <mi>a</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mn>0</mn> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>b</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mn>0</mn> </msub> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中,aij为椭圆采样长轴,bij为椭圆采样短轴,bij=aij/γ,γ≥1,θ0为椭圆方向,θk为采样角度;
采用迭代求解的策略确定椭圆参数γ和θ0,具体步骤如下:
步骤2.1:从第一影像中随机选取M个特征点,其特征向量记为
步骤2.2:在第二影像中进行椭圆采样时,设γ=γs,θ0=0,获得所有特征点特征向量,记为使用最邻近距离方法匹配第一影像和第二影像,记正确匹配个数为n;
步骤2.3:改变γ和θ0值,其中γ∈[γse],θ0∈[0°,90°],获得多种模拟情况下的D′和相应的正确匹配点ni
步骤2.4:比较多种情况下的匹配结果,当获得max(ni)时,对应的γ*和θ*即为最优解,其中*为通用符;
步骤2.5:在第一影像中挑选max(ni)时的特征点作为初始点,重新进行步骤2.1-步骤2.5,直到γ*和θ*的值趋于稳定;
步骤3:基于特征点对应的特征向量之间的最近邻距离与次近邻距离的比值这一策略获取初始匹配点集;
步骤4:基于极几何约束的RANSAC算法对初始匹配点集进行提纯,得到最终匹配点。
2.根据权利要求1所述的基于改进SIFT算子的低空多视角遥感影像匹配方法,其特征在于:步骤1中所述的使用自适应阈值的DoG算子检测第一影像和第二影像中的特征点,是根据以特征点为中心的一定窗口范围内的灰度信息自适应确定阈值T_contrast,其表达式为:
<mrow> <mi>T</mi> <mo>_</mo> <mi>c</mi> <mi>o</mi> <mi>n</mi> <mi>t</mi> <mi>r</mi> <mi>a</mi> <mi>s</mi> <mi>t</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>4</mn> <mo>&amp;CenterDot;</mo> <msup> <mi>r</mi> <mn>2</mn> </msup> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mi>m</mi> <mo>-</mo> <mi>r</mi> </mrow> <mrow> <mi>i</mi> <mo>=</mo> <mi>m</mi> <mo>+</mo> <mi>r</mi> </mrow> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mi>n</mi> <mo>-</mo> <mi>r</mi> </mrow> <mrow> <mi>j</mi> <mo>=</mo> <mi>n</mi> <mo>+</mo> <mi>r</mi> </mrow> </munderover> <msqrt> <mrow> <mfrac> <mn>1</mn> <msup> <mi>N</mi> <mn>2</mn> </msup> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mi>i</mi> <mo>-</mo> <mfrac> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> </mrow> <mrow> <mi>k</mi> <mo>=</mo> <mi>i</mi> <mo>+</mo> <mfrac> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> </mrow> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mi>j</mi> <mo>-</mo> <mfrac> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> </mrow> <mrow> <mi>l</mi> <mo>=</mo> <mi>j</mi> <mo>+</mo> <mfrac> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> </mrow> </munderover> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> </msub> <mo>-</mo> <msub> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mi>N</mi> </msub> <mo>)</mo> </mrow> </mrow> </msqrt> <mo>;</mo> </mrow>
其中,(m,n)是特征点在影像中的坐标,N是窗口大小,xkl是像素在DoG尺度空间的灰度值,是窗口范围内像素的灰度平均值,r由影像的尺度来决定,按如下公式计算:
<mrow> <mi>r</mi> <mo>=</mo> <mn>4</mn> <mo>&amp;CenterDot;</mo> <msub> <mi>&amp;sigma;</mi> <mn>0</mn> </msub> <mo>&amp;CenterDot;</mo> <msup> <mn>2</mn> <mfrac> <mrow> <mn>2</mn> <msub> <mi>S</mi> <mi>i</mi> </msub> </mrow> <msub> <mi>M</mi> <mi>I</mi> </msub> </mfrac> </msup> <mo>;</mo> </mrow>
其中,Si为当前特征点所在的尺度,MI表示DoG尺度空间中影像的数量,σ0表示影像平滑的程度。
3.根据权利要求1所述的基于改进SIFT算子的低空多视角遥感影像匹配方法,其特征在于:步骤2中所述的采用基于圆形区域采样的灰度值对特征点进行描述,对于第一影像的任意特征点(xi,yi),其邻域内的圆形区域采样点的表达式为:
<mrow> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>=</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>r</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
<mrow> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>=</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>r</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;theta;</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中,rij为采样半径,θk为采样角度。
4.根据权利要求1所述的基于改进SIFT算子的低空多视角遥感影像匹配方法,其特征在于:步骤2中所述的基于区域采样的特征点梯度计算表达式如下:
<mrow> <msub> <mi>d</mi> <mi>&amp;theta;</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>I</mi> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mi>I</mi> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
<mrow> <msub> <mi>d</mi> <mi>&amp;gamma;</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mi>I</mi> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mi>I</mi> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
<mrow> <mi>m</mi> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mrow> <msubsup> <mi>d</mi> <mi>&amp;theta;</mi> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>d</mi> <mi>&amp;gamma;</mi> <mn>2</mn> </msubsup> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> </msubsup> <mo>)</mo> </mrow> </mrow> </msqrt> <mo>;</mo> </mrow>
其中,表示特征点在θ方向的梯度值,表示特征点在γ方向的梯度值,表示特征点的梯度方向,采样点的灰度值则采用双线性内插的方式求取,记为其中*为通用符。
5.根据权利要求1所述的基于改进SIFT算子的低空多视角遥感影像匹配方法,其特征在于:步骤2中完成邻近点采样后,采样点的灰度值由双线性内插方法求取。
CN201510688554.XA 2015-10-21 2015-10-21 一种基于改进sift算子的低空多视角遥感影像匹配方法 Active CN105160686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510688554.XA CN105160686B (zh) 2015-10-21 2015-10-21 一种基于改进sift算子的低空多视角遥感影像匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510688554.XA CN105160686B (zh) 2015-10-21 2015-10-21 一种基于改进sift算子的低空多视角遥感影像匹配方法

Publications (2)

Publication Number Publication Date
CN105160686A CN105160686A (zh) 2015-12-16
CN105160686B true CN105160686B (zh) 2017-08-25

Family

ID=54801528

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510688554.XA Active CN105160686B (zh) 2015-10-21 2015-10-21 一种基于改进sift算子的低空多视角遥感影像匹配方法

Country Status (1)

Country Link
CN (1) CN105160686B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469415A (zh) * 2015-12-28 2016-04-06 云南师范大学 多视角遥感图像融合方法
CN107909094A (zh) * 2017-10-31 2018-04-13 天津大学 一种自适应阈值多目标sift匹配算法实现方法
CN108021886B (zh) * 2017-12-04 2021-09-14 西南交通大学 一种无人机重复纹理影像局部显著特征点匹配方法
CN109579847B (zh) 2018-12-13 2022-08-16 歌尔股份有限公司 同步定位与地图构建中关键帧提取方法、装置和智能设备
CN109784223B (zh) * 2018-12-28 2020-09-01 珠海大横琴科技发展有限公司 一种基于卷积神经网络的多时相遥感影像匹配方法及***
CN110856112B (zh) * 2019-11-14 2021-06-18 深圳先进技术研究院 一种群智感知的多源信息融合室内定位方法及***
CN111739079B (zh) * 2020-06-18 2022-10-11 东华理工大学 一种基于语义特征多源低空立体像对快速匹配方法
CN115019181B (zh) * 2022-07-28 2023-02-07 北京卫星信息工程研究所 遥感图像旋转目标检测方法、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101140624A (zh) * 2007-10-18 2008-03-12 清华大学 图像匹配方法
CN103400384A (zh) * 2013-07-22 2013-11-20 西安电子科技大学 结合区域匹配和点匹配的大视角图像匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101140624A (zh) * 2007-10-18 2008-03-12 清华大学 图像匹配方法
CN103400384A (zh) * 2013-07-22 2013-11-20 西安电子科技大学 结合区域匹配和点匹配的大视角图像匹配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Invariant matching method for different viewpoint angle images;Min Chen 等;《APPLIED OPTICS》;20130131;第52卷(第1期);第96-104页 *
Robust Affi ne-Invariant Line Matching for High Resolution Remote Sensing Images;Min Chen 等;《Photogrammetric Engineering & Remote Sensing》;20130831;第79卷(第8期);正文第754页左栏第3段,右栏第1段 *
结合区域匹配和点匹配的大视角图像匹配方法;陈月玲;《中国优秀硕士学位论文全文数据库 信息科技辑》;20141115(第11期);正文第11页第2-3段,第13页第2-3段,第27页第2-4段、第8-9段,第29页第7段,第30页第3段,第34页第3段,图3.2 *

Also Published As

Publication number Publication date
CN105160686A (zh) 2015-12-16

Similar Documents

Publication Publication Date Title
CN105160686B (zh) 一种基于改进sift算子的低空多视角遥感影像匹配方法
CN111795704B (zh) 一种视觉点云地图的构建方法、装置
CN108764048B (zh) 人脸关键点检测方法及装置
CN103727930B (zh) 一种基于边缘匹配的激光测距仪与相机相对位姿标定方法
CN110569878B (zh) 一种基于卷积神经网络的照片背景相似度聚类方法及计算机
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN108052942B (zh) 一种飞机飞行姿态的视觉图像识别方法
GB2581374A (en) 3D Face reconstruction system and method
CN105096317A (zh) 一种复杂背景中的高性能相机全自动标定方法
WO2019011958A1 (en) INVARIANT FACE ALIGNMENT SYSTEM AND METHOD FOR INSTALLATION
CN104200461A (zh) 基于互信息图像选块和sift特征的遥感图像配准方法
CN104881029B (zh) 基于一点ransac和fast算法的移动机器人导航方法
Urban et al. Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN107490356B (zh) 一种非合作目标旋转轴和旋转角测量方法
CN103700101A (zh) 一种非刚性脑图像配准方法
CN110334762A (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN110222661B (zh) 一种用于运动目标识别及跟踪的特征提取方法
CN108550165A (zh) 一种基于局部不变特征的图像匹配方法
CN107516322A (zh) 一种基于对数极空间的图像物体大小和旋转估计计算方法
CN112163588A (zh) 基于智能进化的异源图像目标检测方法、存储介质及设备
CN104899892A (zh) 一种快速的星图图像星点提取方法
CN112883850A (zh) 一种基于卷积神经网络的多视角空天遥感图像匹配方法
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、***及设备
Zhao et al. Probabilistic spatial distribution prior based attentional keypoints matching network

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant