CN106447704A - 基于显著区域特征和边缘度的可见光‑红外图像配准方法 - Google Patents

基于显著区域特征和边缘度的可见光‑红外图像配准方法 Download PDF

Info

Publication number
CN106447704A
CN106447704A CN201610890293.4A CN201610890293A CN106447704A CN 106447704 A CN106447704 A CN 106447704A CN 201610890293 A CN201610890293 A CN 201610890293A CN 106447704 A CN106447704 A CN 106447704A
Authority
CN
China
Prior art keywords
formula
region
image
rho
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610890293.4A
Other languages
English (en)
Other versions
CN106447704B (zh
Inventor
张艳宁
陈妍佳
张秀伟
黄梅娇
李飞
符志鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201610890293.4A priority Critical patent/CN106447704B/zh
Publication of CN106447704A publication Critical patent/CN106447704A/zh
Application granted granted Critical
Publication of CN106447704B publication Critical patent/CN106447704B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于显著区域特征和边缘度的可见光‑红外图像配准方法,用于解决现有可见光‑红外图像配准方法提取的图像间特征相似度低导致配准精度差的技术问题。技术方案是采用基于自适应局部对比度的显著性区域检测方法从待配准图像对中提取显著区域,利用Zernike旋转不变矩描述显著区域形状特征,保证了所利用特征的平移、灰度、尺度和旋转不变性,通过RANSAC求取同名点对估计得到初始变换参数;最后利用边缘度构造的三维联合直方图对初始变换参数进行优化得到最终结果。该方法通过异源图像间相似度较高的显著区域和边缘度特征及Zernike矩的不变性,提高了图像配准的精度。

Description

基于显著区域特征和边缘度的可见光-红外图像配准方法
技术领域
本发明涉及一种可见光-红外图像配准方法,特别是涉及一种基于显著区域特征和边缘度的可见光-红外图像配准方法。
背景技术
多源图像配准技术是指将不同类型的传感器针对同一场景,从不同时间、从不同角度所获得的两幅或多幅图像数据进行预处理后,采用一定的算法、模型将它们的互补性信息或优势信息结合起来,变换到同一坐标系下的过程。
将多源图像中的数据进行可选择性的有机结合,能够更加全面真实的反映出事物本质信息和特征的多源融合技术的需求日益增多。多源图像配准为多源图像提供了统一的空间基准,是多源图像融合的基础,同时也可用于图像拼接、目标检测、运动估计、特征匹配等应用,具有非常重要的研究和实用价值。
可见光和红外图像间的边缘方向基本保持一致,且克服了梯度带来的差异。
文献1“J.H.Lee,Y.S.Kim,D.Lee,etal.Robust CCD and IR image registrationusing gradient-based statistical information,IEEE Signal Process.Lett.17(4)(2010)347–350”公开了一种基于边缘度构造三维联合直方图的可见光-红外图像配准方法。该方法首先计算图像边缘度和梯度信息,然后构建三维联合直方图,根据信息熵作为相似性测度进行优化得到图像变换矩阵。文献所述方法在平均目标配准误差(TargetRegistration Error)和配准成功率上明显优于其他方法,但由于构建三维联合直方图计算量较大,优化搜索空间大,受初始值影响容易陷入局部最优解,导致配准结果适应度不高。
人类的视觉容易被场景或图像中的较显著区域所吸引,对其他区域“视而不见”,称该区域具有显著性。
文献2“Cheng M M,Zhang G X,Mitra N J,et al.Global contrast basedsalient region detection[C].Computer Vision and Pattern Recognition(CVPR),2011IEEE Conference on.IEEE,2011:409-416”中分别基于全局直方图统计对比度和局部区域对比度进行了显著性区域的检测。其方法在正确率和召回率上明显优于其他方法,简单高效,适合于对图像进行显著性区域检测与分割。在对多源图像的显著性区域进行检测分割后,得到的相对应显著性区域的形状大体上相似。基于此,可利用Zernike不变矩对显著性区域的形状进行分析比较。1979年,根据正交多项式理论,M.R.Teague提出了Zernike矩,Zernike矩能够很容易地构造图像的任意高阶矩,并能够使用较少的矩来重建图像,且具有平移、灰度、尺度和旋转不变性。
发明内容
为了克服现有可见光-红外图像配准方法提取的图像间特征相似度低导致配准精度差的不足,本发明提供一种基于显著区域特征和边缘度的可见光-红外图像配准方法。该方法采用基于自适应局部对比度的显著性区域检测方法从待配准图像对中提取显著区域,利用Zernike旋转不变矩描述显著区域形状特征,保证了所利用特征的平移、灰度、尺度和旋转不变性,通过RANSAC求取同名点对估计得到初始变换参数;最后利用边缘度构造的三维联合直方图对初始变换参数进行优化得到最终结果。该方法通过异源图像间相似度较高的显著区域和边缘度特征及Zernike矩的不变性,提高了图像配准的精度。
本发明解决其技术问题所采用的技术方案是:一种基于显著区域特征和边缘度的可见光-红外图像配准方法,其特点是包括以下步骤:
步骤一、基于改进的局部对比度的显著性区域检测。
首先,使用基于图的图像分割算法将输入图像分割成若干区域,计算各区域的颜色直方图,则区域rk显著性值S(rk)的计算方法为式(1)。
式中,ω(ri)为区域ri的权值,Dr(rk,ri)为区域rk和ri之间的颜色距离度量,其计算方法见式(2)。
式中,f(ck,i)为第i个颜色ck,i在第k个区域rk的所有颜色中出现的概率,该概率密度函数即为归一化的颜色直方图。D(c1,i,c2,j)为颜色c1,i和颜色c2,j的Lab空间颜色距离。
其次,考虑空间影响,将空间信息作为权值代入式(1)中,则区域rk的显著性值S(rk)为:
式中,DS(rk,ri)为区域rk和ri的质心的欧氏距离;σS是控制空间权值大小的阈值,σS越小,空间权值影响越大,较远区域的对比度对当前区域的显著性值影响较小。由于可见光图像和红外图像分辨率不一致,因此采用自适应的空间权值σS,计算公式如式(4):
式中,Dang是图像对角线的长度,num是区域数量。
步骤二、基于Zernike矩的显著性区域形状特征描述。
Zernike矩是基于Zernike多项式构造出来的,m阶n次的Zernike多项式的定义范围为x2+y2≤1。其定义为式(5)。
Vmn(x,y)=Vmn(ρ,θ)=Rmn(ρ)ejnθ (5)
式中,m为非负整数,m-|n|为偶数且m≥|n|;ρ为原点到点(x,y)的矢量长度;θ为x轴与ρ矢量逆时针方向夹角;Rmn(ρ)为点(x,y)的径向多项式,计算公式如下所示:
由此给出Zernike矩的定义为式(9)。
将Zernike矩的实部和虚部分别记为Cmn和Smn,则:
将Zernike矩用于处理二维图像数据,因此需要对式(10)和式(11)进行离散化。引入两个新的参数(r,σ),分别定义为:
r=max(|x|,|y|) (12)
对于N×N的图像f(x,y),以图像中心为坐标原点,则图像中的坐标值都满足-N/2≤(x、y)≤N/2。由式(12)和式(13)得知,r和σ的取值范围分别为1≤r≤N/2,1≤σ≤8r。则式(6)和式(7)分别改写为式(14)和式(15)。
θ=4πσr (15)
经过新的变换,式(10)和式(11)可分别离散化为式(16)和式(17)。
综上所述,Zernike矩计算方法如下:
①确定图像f(x,y)的大小,从而确定式(16)和式(17)中N的值以及r和σ的取值范围;
②利用式(8)计算出Rmn(ρ)的值,并结合式(16)和式(17)计算出Zernike矩的实部Cmn和虚部Smn
③对Cmn和Smn求模,得到Zernike矩的幅值|Zmn|。
由于尺度差异问题,还使用区域rk最小外接矩形的对角线lk对|Zmn|尺度归一化,计算方法如式(18):
将Zernike矩用于显著性图中各显著性区域的形状分析,由于Zernike矩能够构造任意高阶,但考虑到计算复杂度,采用前36阶Zernike矩对区域特征进行描述。
综上所述,对区域rk的Zernike矩描述子为:其中m∈{0,1,2,3,4,5,6,7},m-|n|为偶数且m≥|n|。
步骤三、基于形状特征相似性度量和RANSAC的同名点求取和初始变换参数估计。
(1)同名点求取。
通过对图像各显著性区域计算质心和Zernike矩描述后,产生两组未匹配的质心点。在匹配时,正确同名点所对应的Zernike矩最具相似性,同时,由于得到的匹配点对中存在误匹配对,因此,利用RANSAC算法对匹配点对进行筛选,剔除错误的匹配点对。
表示图像Ip中的第k个区域,参考图像为I1,待配准图像为I2,对于区域和区域其Zernike矩描述子分别为则定义两区域的相似距离为式(19):
相似距离越小,则区域和区域越相似,匹配度越高。将相似距离最小的两个区域认为是匹配区域,其对应的质心为匹配点对。区域rk的质心定义为式(20):
式中,(x,y)为区域rk中的像素坐标,f(x,y)为像素值。即为区域rk的质心坐标。由此得到一组匹配点对集合,但由于其中仍然包含误匹配对,因此接下来采用RANSAC算法将其中的错误匹配点对剔除。
根据误差度量函数把所有数据分为内点和外点。内点的集合又称为一致集,经过多次随机采样,当一致集达到最大时,则对应的模型即为所求结果。RANSAC算法的步骤如下:
①从候选点对集合S中随机抽取一个含有n个点对的样本集P,并估计初始化模型;
②对集合S中的剩余点对计算变换模型,与初始化模型M的距离小于误差阈值τ的点对标记为内点,形成一致集S*;
③重复上述步骤,直到达到最大采样次数N,或者集合S*的元素个数大于某一个阈值T。
④根据最大一致集S*,计算变换模型的参数。
RANSAC算法包含了四个输入参数:随机抽样数n、误差阈值τ、最大采样次数N和最优一致集阈值T。
1)随机抽样数n需要满足变换模型估计的最小配置要求,n取4组不共线的数据点对。
2)误差阈值τ对RANSAC性能有很大的影响,根据期望的内点概率来进行设置。τ为经验值,经验值取7,
3)最大采样次数N只要足够大,就能够保证匹配的正确性,N的取值计算公式如式(21)所示。
其中,n为随机抽样数;ω为数据局内点的概率;p表示迭代过程中从数据集内随机选取出的点均为局内点的概率。通常数据中局内点的概率ω是未知的,但能够通过自动更新ω来自适应决定所需要采样的次数。
4)较大的一致集S*使得变换模型参数更为精确,为了得到表征数据集S的正确模型,对T不做限制,最大一致集S*取局内点最多的一致集。
(2)初始变换参数估计。
获得筛选后的正确同名点对后,选择合适的变换模型并进行变换模型参数估计。对于透视投影变换模型,待配准图像I2中匹配点(x',y')经其变换后得到配准后图像中点(x,y)的计算公式如式(22)所示,对应的参数矩阵H0为式(23):
式中,H0为待配准图像I2到参考图像I1坐标系的变换矩阵,至少使用4对不共线同名点对计算出H0中所有未知量的值。
步骤四、基于边缘特征的变换参数优化求解。
(1)边缘特征。
采用边缘度的概念。对于一个结构张量Qρ,其定义式如下式(24):
式中,*是卷积算子,Kρ表示一个标准差为ρ的二维高斯核,Ix和Iy分别表示x和y方向的梯度分量。通过在每个像素上对Qρ特征值分解,得到分别表示最大和最小的亮度变化的特征向量ω1和ω2,ω1和ω2分别对应两个特征值μ1和μ2,μ1≥μ2≥0。边缘度C的定义如下式(25):
C的取值范围是[0,1],ε为设定的阈值,用来防止同向区域像素取值过大。由此得到可见光-红外图像的边缘度图,它对边缘描述比常规的边缘检测方法差异更小,增加了可见光和红外图像边缘的相似性,提高了正确配准的概率。
边缘像素点(x,y)处的广义梯度向量流通过求取下式(26)的能量函数最小值得到:
式中,为像素点(x,y)处的梯度值,g(C)=e-C/K,C为边缘度,K为梯度场平滑程度的正则化因子,K取1。
(2)相似性度量。
当两幅图像配准时,边缘度的互信息越大,广义梯度向量流的方向误差不确定性越小,配准精度越高。因此,定义如下相似性度量函数(27):
F(S,T)=M(CS,CT)-H(D|CS,CT) (27)
式中,M(·)表示互信息,H(·)表示Shannon熵,CS和CT分别表示图像S和图像T的边缘度,D为CS和CT相应像素之间方向差异,其计算公式如下式(28):
式中,分别是图像S和图像T的广义梯度向量流。然后,以上一步估计得到的初始配准参数H0为初值,相似性度量函数(27)为目标函数,采用单纯形法进行优化搜索,当F(S,T)达到最大值时,配准精度最高,以此时的H为最终变换矩阵。
最后,以H为变换矩阵对待配准图像进行图像变换,然后与参考图像加权融合,得到最终结果。
本发明的有益效果是:该方法采用基于自适应局部对比度的显著性区域检测方法从待配准图像对中提取显著区域,利用Zernike旋转不变矩描述显著区域形状特征,保证了所利用特征的平移、灰度、尺度和旋转不变性,通过RANSAC求取同名点对估计得到初始变换参数;最后利用边缘度构造的三维联合直方图对初始变换参数进行优化得到最终结果。该方法通过异源图像间相似度较高的显著区域和边缘度特征及Zernike矩的不变性,提高了图像配准的精度。由于利用基于自适应局部区域对比度的显著性区域检测方法,使得异源图像间的图像区域特征相似度更高。在对检测出的显著性区域进行形状分析时,利用了Zernike矩进行形状分析,保证了所利用特征的平移、灰度、尺度和旋转不变性。最后加入图像的边缘信息,使用边缘度对配准结果优化求解,使得配准结果更加精确。在真实的可见光-红外图像数据集上的试验表明,本发明所获得的可见光-红外图像配准精度达到了实际应用的需求。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于显著区域特征和边缘度的可见光-红外图像配准方法具体步骤如下:
1、基于改进的局部对比度的显著性区域检测。
首先,使用基于图的图像分割算法将输入图像分割成若干区域,计算各区域的颜色直方图,则区域rk显著性值S(rk)的计算方法为式(1)。
式中,ω(ri)为区域ri的权值,Dr(rk,ri)为区域rk和ri之间的颜色距离度量,其计算方法见式(2)。
式中,f(ck,i)为第i个颜色ck,i在第k个区域rk的所有颜色中出现的概率,该概率密度函数即为归一化的颜色直方图。D(c1,i,c2,j)为颜色c1,i和颜色c2,j的Lab空间颜色距离。由于每个小区域中包含的颜色种类较少,故采用稀疏直方图来提高计算效率。
其次,考虑空间影响,将空间信息作为权值代入式(1)中,则区域rk的显著性值S(rk)为:
式中,DS(rk,ri)为区域rk和ri的质心的欧氏距离;σS是控制空间权值大小的阈值,σS越小,空间权值影响越大,较远区域的对比度对当前区域的显著性值影响较小。由于可见光图像和红外图像分辨率不一致,因此采用自适应的空间权值σS,计算公式如下(4):
式中,Dang是图像对角线的长度,num是区域数量。
2、基于Zernike矩的显著性区域形状特征描述。
Zernike矩是基于Zernike多项式构造出来的,m阶n次的Zernike多项式的定义范围为x2+y2≤1。其定义为式(5)。
Vmn(x,y)=Vmn(ρ,θ)=Rmn(ρ)ejnθ (5)
式中,m为非负整数,m-|n|为偶数且m≥|n|;ρ为原点到点(x,y)的矢量长度;θ为x轴与ρ矢量逆时针方向夹角;Rmn(ρ)为点(x,y)的径向多项式,它们的计算公式如下所示:
由此给出Zernike矩的定义为式(9)。
将Zernike矩的实部和虚部分别记为Cmn和Smn,则:
将Zernike矩用于处理二维图像数据,因此需要对式(10)和式(11)进行离散化。引入两个新的参数(r,σ),分别定义为:
r=max(|x|,|y|) (12)
对于N×N的图像f(x,y),以图像中心为坐标原点,则图像中的坐标值都满足-N/2≤(x、y)≤N/2。由式(12)和式(13)可知,r和σ的取值范围分别为1≤r≤N/2,1≤σ≤8r。则式(6)和式(7)可分别改写为式(14)和式(15)。
θ=4πσr (15)
经过新的变换,式(10)和式(11)可分别离散化为式(16)和式(17)。
综上所述,Zernike矩计算方法如下:
①确定图像f(x,y)的大小,从而确定式(16)和式(17)中N的值以及r和σ的取值范围;
②利用式(8)计算出Rmn(ρ)的值,并结合式(16)和式(17)计算出Zernike矩的实部Cmn和虚部Smn
③对Cmn和Smn求模,得到Zernike矩的幅值|Zmn|。
由于尺度差异问题,还使用区域rk最小外接矩形的对角线lk对|Zmn|尺度归一化,计算方法如式(18):
本发明将Zernike矩用于显著性图中各显著性区域的形状分析,由于Zernike矩可以构造任意高阶,但考虑到计算复杂度,本发明采用前36阶Zernike矩对区域特征进行描述。
综上所述,本发明中对区域rk的Zernike矩描述子为:其中m∈{0,1,2,3,4,5,6,7},m-|n|为偶数且m≥|n|。
3、基于形状特征相似性度量和RANSAC的同名点求取和初始变换参数估计。
(1)同名点求取。
通过对图像各显著性区域计算质心和Zernike矩描述后,产生两组未匹配的质心点。在匹配时,正确同名点所对应的Zernike矩最具相似性,同时,由于得到的匹配点对中存在误匹配对,因此,利用RANSAC算法对匹配点对进行筛选,剔除错误的匹配点对。
表示图像Ip中的第k个区域,参考图像为I1,待配准图像为I2,对于区域和区域其Zernike矩描述子分别为则定义两区域的相似距离为式(19):
相似距离越小,则区域和区域越相似,匹配度越高。将相似距离最小的两个区域认为是匹配区域,其对应的质心为匹配点对。区域rk的质心定义为式(20):
式中,(x,y)为区域rk中的像素坐标,f(x,y)为像素值。即为区域rk的质心坐标。由此得到一组匹配点对集合,但由于其中仍然包含误匹配对,因此接下来采用RANSAC算法将其中的错误匹配点对剔除。
RANSAC的基本思想是随机选择一组样本计算变换模型,并根据误差度量函数把所有数据分为内点(Inlier)和外点(Outlier)。内点的集合又称为一致集,经过多次随机采样,当一致集达到最大时,则对应的模型即为所求结果。RANSAC算法的基本步骤如下:
①从候选点对集合S中随机抽取一个含有n个点对的样本集P,并估计初始化模型;
②对集合S中的剩余点对计算变换模型,与初始化模型M的距离小于误差阈值τ(又称为误差容忍度)的点对标记为内点,形成一致集S*;
③重复上述步骤,直到达到最大采样次数N,或者集合S*的元素个数大于某一个阈值T。
④根据最大一致集S*,计算变换模型的参数。
根据上述的RANSAC算法基本步骤可以看出,该算法包含了四个输入参数:随机抽样数n、误差阈值τ、最大采样次数N和最优一致集阈值T。
1)随机抽样数n需要满足变换模型估计的最小配置要求,本发明中n取4组不共线的数据点对。
2)误差阈值τ对RANSAC性能有很大的影响,可以根据期望的内点概率来进行设置。τ为经验值,本发明中取7,
3)最大采样次数N只要足够大,就可以保证匹配的正确性,N的取值计算公式如式(21)所示。
其中,n为随机抽样数;ω为数据局内点的概率;p表示迭代过程中从数据集内随机选取出的点均为局内点的概率。通常数据中局内点的概率ω是未知的,但可以通过自动更新ω来自适应决定所需要采样的次数。
4)较大的一致集S*可以使得变换模型参数更为精确,为了得到表征数据集S的正确模型,本发明中对T不做限制,最大一致集S*取局内点最多的一致集。
(2)初始变换参数估计。
获得筛选后的正确同名点对后,需要选择合适的变换模型并进行变换模型参数估计。对于透视投影变换模型,待配准图像I2中匹配点(x',y')经其变换后得到配准后图像中点(x,y)的计算公式如式(22)所示,对应的参数矩阵H0为式(23):
式中,H0为待配准图像I2到参考图像I1坐标系的变换矩阵,至少使用4对不共线同名点对计算出H0中所有未知量的值。
4、基于边缘特征的变换参数优化求解。
(1)边缘特征。
一般的边缘提取算法对于边缘对比度很敏感,为了解决这个问题,本发明采用边缘度的概念。对于一个结构张量Qρ,其定义式如下式(24):
式中,“*”是卷积算子,Kρ表示一个标准差为ρ的二维高斯核,Ix和Iy分别表示x和y方向的梯度分量。通过在每个像素上对Qρ特征值分解,得到分别表示最大和最小的亮度变化的特征向量ω1和ω2,它们分别对应了两个特征值μ1和μ21≥μ2≥0)。边缘度C的定义如下式(25):
C的取值范围是[0,1],ε为设定的阈值,用来防止同向区域像素取值过大。由此可得到可见光-红外图像的边缘度图,它对边缘描述比常规的边缘检测方法差异更小,增加了可见光和红外图像边缘的相似性,提高了正确配准的概率。
边缘像素点(x,y)处的广义梯度向量流可以通过求取下式(26)的能量函数最小值得到:
式中,为像素点(x,y)处的梯度值,g(C)=e-C/K,C为边缘度,K为梯度场平滑程度的正则化因子,本发明中K取1。
(2)相似性度量。
当两幅图像配准时,边缘度的互信息越大,广义梯度向量流的方向误差不确定性越小,配准精度越高。因此,定义如下相似性度量函数(27):
F(S,T)=M(CS,CT)-H(D|CS,CT) (27)
式中,M(·)表示互信息,H(·)表示Shannon熵,CS和CT分别表示图像S和图像T的边缘度,D为CS和CT相应像素之间方向差异,其计算公式如下式(28):
式中,分别是图像S和图像T的广义梯度向量流。然后,以上一步估计得到的初始配准参数H0为初值,相似性度量函数(27)为目标函数,采用单纯形法进行优化搜索,当F(S,T)达到最大值时,配准精度最高,以此时的H为最终变换矩阵。
最后,以H为变换矩阵对待配准图像进行图像变换,然后与参考图像加权融合,得到最终结果。

Claims (1)

1.一种基于显著区域特征和边缘度的可见光-红外图像配准方法,其特征在于包括以下步骤:
步骤一、基于改进的局部对比度的显著性区域检测;
首先,使用基于图的图像分割算法将输入图像分割成若干区域,计算各区域的颜色直方图,则区域rk显著性值S(rk)的计算方法为式(1);
S ( r k ) = Σ r k ≠ r i ω ( r i ) D r ( r k , r i ) - - - ( 1 )
式中,ω(ri)为区域ri的权值,Dr(rk,ri)为区域rk和ri之间的颜色距离度量,其计算方法见式(2);
D r ( r 1 , r 2 ) = Σ i = 1 n 1 Σ j = 1 n 2 f ( c 1 , i ) f ( c 2 , j ) D ( c 1 , i , c 2 , j ) - - - ( 2 )
式中,f(ck,i)为第i个颜色ck,i在第k个区域rk的所有颜色中出现的概率,该概率密度函数即为归一化的颜色直方图;D(c1,i,c2,j)为颜色c1,i和颜色c2,j的Lab空间颜色距离;
其次,考虑空间影响,将空间信息作为权值代入式(1)中,则区域rk的显著性值S(rk)为:
S ( r k ) = Σ r k ≠ r i exp ( - D S ( r k , r i ) σ S 2 ) ω ( r i ) D r ( r k , r i ) - - - ( 3 )
式中,DS(rk,ri)为区域rk和ri的质心的欧氏距离;σS是控制空间权值大小的阈值,σS越小,空间权值影响越大,较远区域的对比度对当前区域的显著性值影响较小;由于可见光图像和红外图像分辨率不一致,因此采用自适应的空间权值σS,计算公式如式(4):
σ s = D ‾ / D a n g D ‾ = Σ r k ≠ r i D s ( r k , r i ) / ( n u m - 1 ) - - - ( 4 )
式中,Dang是图像对角线的长度,num是区域数量;
步骤二、基于Zernike矩的显著性区域形状特征描述;
Zernike矩是基于Zernike多项式构造出来的,m阶n次的Zernike多项式的定义范围为x2+y2≤1;其定义为式(5);
Vmn(x,y)=Vmn(ρ,θ)=Rmn(ρ)ejnθ (5)
式中,m为非负整数,m-|n|为偶数且m≥|n|;ρ为原点到点(x,y)的矢量长度;θ为x轴与ρ矢量逆时针方向夹角;Rmn(ρ)为点(x,y)的径向多项式,计算公式如下所示:
&rho; = x 2 + y 2 ( - 1 < x , y < 1 ) - - - ( 6 )
&theta; = a r c t a n ( y x ) ( - 1 < x , y < 1 ) - - - ( 7 )
R m n ( &rho; ) = &Sigma; s = 0 ( m - | n | ) / 2 ( - 1 ) s ( m - s ) ! &rho; m - 2 s s ! ( m + | n | 2 - s ) ! ( m + | n | 2 - s ) ! - - - ( 8 )
由此给出Zernike矩的定义为式(9);
Z m n = m + 1 &pi; &Integral; 0 1 &Integral; 0 2 &pi; &lsqb; V m n ( &rho; , &theta; ) &rsqb; f ( &rho; , &theta; ) &rho; d y d x d &rho; d &theta; = m + 1 &pi; &Integral; &Integral; R m n ( &rho; ) e j n &theta; f ( &rho; , &theta; ) d &rho; d &theta; - - - ( 9 )
将Zernike矩的实部和虚部分别记为Cmn和Smn,则:
C m n = 2 m + 2 &pi; &Integral; 0 1 &Integral; 0 2 &pi; R m n ( &rho; ) c o s ( n &theta; ) f ( &rho; , &theta; ) &rho; d &rho; d &theta; - - - ( 10 )
S m n = 2 m + 2 &pi; &Integral; 0 1 &Integral; 0 2 &pi; R m n ( &rho; ) s i n ( n &theta; ) f ( &rho; , &theta; ) &rho; d &rho; d &theta; - - - ( 11 )
将Zernike矩用于处理二维图像数据,因此需要对式(10)和式(11)进行离散化;引入两个新的参数(r,σ),分别定义为:
r=max(|x|,|y|) (12)
&sigma; = 2 ( r - x ) y | y | + x y r , r = | x | &sigma; = 2 y - x y r , r = | x | - - - ( 13 )
对于N×N的图像f(x,y),以图像中心为坐标原点,则图像中的坐标值都满足-N/2≤(x、y)≤N/2;由式(12)和式(13)得知,r和σ的取值范围分别为1≤r≤N/2,1≤σ≤8r;则式(6)和式(7)分别改写为式(14)和式(15);
&rho; = 2 r N - - - ( 14 )
θ=4πσr (15)
经过新的变换,式(10)和式(11)可分别离散化为式(16)和式(17);
C m n = 2 m + 2 N 2 &Sigma; r = 1 N / 2 R m n ( 2 r N ) &Sigma; &sigma; = 1 8 r cos &pi; n &sigma; 4 r f ( r , &sigma; ) - - - ( 16 )
S m n = - 2 m + 2 N 2 &Sigma; r = 1 N / 2 R m n ( 2 r N ) &Sigma; &sigma; = 1 8 r s i n &pi; n &sigma; 4 r f ( r , &sigma; ) - - - ( 17 )
综上所述,Zernike矩计算方法如下:
①确定图像f(x,y)的大小,从而确定式(16)和式(17)中N的值以及r和σ的取值范围;
②利用式(8)计算出Rmn(ρ)的值,并结合式(16)和式(17)计算出Zernike矩的实部Cmn和虚部Smn
③对Cmn和Smn求模,得到Zernike矩的幅值|Zmn|;
由于尺度差异问题,还使用区域rk最小外接矩形的对角线lk对|Zmn|尺度归一化,计算方法如式(18):
| Z m n &prime; | = | Z m n | l k - - - ( 18 )
将Zernike矩用于显著性图中各显著性区域的形状分析,由于Zernike矩能够构造任意高阶,但考虑到计算复杂度,采用前36阶Zernike矩对区域特征进行描述;
综上所述,对区域rk的Zernike矩描述子为:其中m∈{0,1,2,3,4,5,6,7},m-|n|为偶数且m≥|n|;
步骤三、基于形状特征相似性度量和RANSAC的同名点求取和初始变换参数估计;
(1)同名点求取;
通过对图像各显著性区域计算质心和Zernike矩描述后,产生两组未匹配的质心点;在匹配时,正确同名点所对应的Zernike矩最具相似性,同时,由于得到的匹配点对中存在误匹配对,因此,利用RANSAC算法对匹配点对进行筛选,剔除错误的匹配点对;
表示图像Ip中的第k个区域,参考图像为I1,待配准图像为I2,对于区域和区域其Zernike矩描述子分别为则定义两区域的相似距离为式(19):
相似距离越小,则区域和区域越相似,匹配度越高;将相似距离最小的两个区域认为是匹配区域,其对应的质心为匹配点对;区域rk的质心定义为式(20):
m p q = &Sigma; ( x , y ) &Element; r k x p y q f ( x , y )
x &OverBar; = m 10 / m 00 y &OverBar; = m 01 / m 00 - - - ( 20 )
式中,(x,y)为区域rk中的像素坐标,f(x,y)为像素值;即为区域rk的质心坐标;由此得到一组匹配点对集合,但由于其中仍然包含误匹配对,因此接下来采用RANSAC算法将其中的错误匹配点对剔除;
根据误差度量函数把所有数据分为内点和外点;内点的集合又称为一致集,经过多次随机采样,当一致集达到最大时,则对应的模型即为所求结果;RANSAC算法的步骤如下:
①从候选点对集合S中随机抽取一个含有n个点对的样本集P,并估计初始化模型;
②对集合S中的剩余点对计算变换模型,与初始化模型M的距离小于误差阈值τ的点对标记为内点,形成一致集S*;
③重复上述步骤,直到达到最大采样次数N,或者集合S*的元素个数大于某一个阈值T;
④根据最大一致集S*,计算变换模型的参数;
RANSAC算法包含了四个输入参数:随机抽样数n、误差阈值τ、最大采样次数N和最优一致集阈值T;
1)随机抽样数n需要满足变换模型估计的最小配置要求,n取4组不共线的数据点对;
2)误差阈值τ对RANSAC性能有很大的影响,根据期望的内点概率来进行设置;τ为经验值,经验值取7,
3)最大采样次数N只要足够大,就能够保证匹配的正确性,N的取值计算公式如式(21)所示;
N = l o g ( 1 - p ) l o g ( 1 - &omega; n ) - - - ( 21 )
其中,n为随机抽样数;ω为数据局内点的概率;p表示迭代过程中从数据集内随机选取出的点均为局内点的概率;通常数据中局内点的概率ω是未知的,但能够通过自动更新ω来自适应决定所需要采样的次数;
4)较大的一致集S*使得变换模型参数更为精确,为了得到表征数据集S的正确模型,对T不做限制,最大一致集S*取局内点最多的一致集;
(2)初始变换参数估计;
获得筛选后的正确同名点对后,选择合适的变换模型并进行变换模型参数估计;对于透视投影变换模型,待配准图像I2中匹配点(x',y')经其变换后得到配准后图像中点(x,y)的计算公式如式(22)所示,对应的参数矩阵H0为式(23):
x = a 11 x &prime; + a 12 y &prime; + a 13 a 31 x &prime; + a 32 y &prime; + 1 y = a 21 x &prime; + a 22 y &prime; + a 23 a 31 x &prime; + a 32 y &prime; + 1 - - - ( 22 )
H 0 = a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 1 - - - ( 23 )
式中,H0为待配准图像I2到参考图像I1坐标系的变换矩阵,至少使用4对不共线同名点对计算出H0中所有未知量的值;
步骤四、基于边缘特征的变换参数优化求解;
(1)边缘特征;
采用边缘度的概念;对于一个结构张量Qρ,其定义式如下式(24):
Q &rho; = K &rho; * I x 2 K &rho; * I x I y K &rho; * I x I y K &rho; * I y 2 - - - ( 24 )
式中,*是卷积算子,Kρ表示一个标准差为ρ的二维高斯核,Ix和Iy分别表示x和y方向的梯度分量;通过在每个像素上对Qρ特征值分解,得到分别表示最大和最小的亮度变化的特征向量ω1和ω2,ω1和ω2分别对应两个特征值μ1和μ2,μ1≥μ2≥0;边缘度C的定义如下式(25):
C = ( &mu; 1 - &mu; 2 ) / &mu; 1 , if&mu; 1 > &epsiv; 0 , o t h e r w i s e - - - ( 25 )
C的取值范围是[0,1],ε为设定的阈值,用来防止同向区域像素取值过大;由此得到可见光-红外图像的边缘度图,它对边缘描述比常规的边缘检测方法差异更小,增加了可见光和红外图像边缘的相似性,提高了正确配准的概率;
边缘像素点(x,y)处的广义梯度向量流通过求取下式(26)的能量函数最小值得到:
E ( u , v ) = &Integral; &Integral; { g ( C ) ( u x 2 + u y 2 + v x 2 + v y 2 ) + &lsqb; 1 - g ( C ) &rsqb; &CenterDot; | v &RightArrow; - &dtri; f | 2 } d x d y - - - ( 26 )
式中,为像素点(x,y)处的梯度值,g(C)=e-C/K,C为边缘度,K为梯度场平滑程度的正则化因子,K取1;
(2)相似性度量;
当两幅图像配准时,边缘度的互信息越大,广义梯度向量流的方向误差不确定性越小,配准精度越高;因此,定义如下相似性度量函数(27):
F(S,T)=M(CS,CT)-H(D|CS,CT) (27)
式中,M(·)表示互信息,H(·)表示Shannon熵,CS和CT分别表示图像S和图像T的边缘度,D为CS和CT相应像素之间方向差异,其计算公式如下式(28):
D = a r c c o s ( v &RightArrow; S &CenterDot; v &RightArrow; T | v &RightArrow; S | &CenterDot; | v &RightArrow; T | ) - - - ( 28 )
式中,分别是图像S和图像T的广义梯度向量流;然后,以上一步估计得到的初始配准参数H0为初值,相似性度量函数(27)为目标函数,采用单纯形法进行优化搜索,当F(S,T)达到最大值时,配准精度最高,以此时的H为最终变换矩阵;
最后,以H为变换矩阵对待配准图像进行图像变换,然后与参考图像加权融合,得到最终结果。
CN201610890293.4A 2016-10-13 2016-10-13 基于显著区域特征和边缘度的可见光-红外图像配准方法 Active CN106447704B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610890293.4A CN106447704B (zh) 2016-10-13 2016-10-13 基于显著区域特征和边缘度的可见光-红外图像配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610890293.4A CN106447704B (zh) 2016-10-13 2016-10-13 基于显著区域特征和边缘度的可见光-红外图像配准方法

Publications (2)

Publication Number Publication Date
CN106447704A true CN106447704A (zh) 2017-02-22
CN106447704B CN106447704B (zh) 2019-04-19

Family

ID=58174820

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610890293.4A Active CN106447704B (zh) 2016-10-13 2016-10-13 基于显著区域特征和边缘度的可见光-红外图像配准方法

Country Status (1)

Country Link
CN (1) CN106447704B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107255471A (zh) * 2017-05-25 2017-10-17 北京环境特性研究所 结冰河流红外图像的检测方法
CN107464252A (zh) * 2017-06-30 2017-12-12 南京航空航天大学 一种基于混合特征的可见光与红外异源图像识别方法
CN108133493A (zh) * 2018-01-10 2018-06-08 电子科技大学 一种基于区域划分和渐变映射的异源图像配准优化方法
CN108742678A (zh) * 2018-06-01 2018-11-06 妙智科技(深圳)有限公司 图像配准方法、装置及计算机可读存储介质
CN109064502A (zh) * 2018-07-11 2018-12-21 西北工业大学 基于深度学习和人工设计特征相结合的多源图像配准方法
CN109300148A (zh) * 2018-09-19 2019-02-01 西北工业大学 基于方法协同的多源图像配准方法
CN109544521A (zh) * 2018-11-12 2019-03-29 北京航空航天大学 一种人体安检中被动毫米波图像与可见光图像的配准方法
CN109559296A (zh) * 2018-10-08 2019-04-02 广州市本真网络科技有限公司 基于全卷积神经网络和互信息的医学图像配准方法及***
CN110689554A (zh) * 2019-09-25 2020-01-14 深圳大学 用于红外图像序列的背景运动估计方法、装置及存储介质
CN110796691A (zh) * 2018-08-03 2020-02-14 中国科学院沈阳自动化研究所 一种基于形状上下文和hog特征的异源图像配准方法
CN110852978A (zh) * 2019-08-28 2020-02-28 北京联合大学 一种用于显著图融合前的外点移除方法
CN111968164A (zh) * 2020-08-19 2020-11-20 上海交通大学 一种基于双平面x光追踪的植入物自动配准定位方法
CN112541932A (zh) * 2020-11-30 2021-03-23 西安电子科技大学昆山创新研究院 基于双光相机不同焦距变换参数的多源图像配准方法
CN112652003A (zh) * 2020-10-29 2021-04-13 西北工业大学 一种基于ransac测度优化的三维点云配准方法
CN112950685A (zh) * 2021-03-12 2021-06-11 南京航空航天大学 一种红外与可见光图像配准方法、***及存储介质
CN113671499A (zh) * 2021-08-06 2021-11-19 南京航空航天大学 一种基于提取回波矩阵图的sar与光学图像相配准方法
CN113781375A (zh) * 2021-09-10 2021-12-10 厦门大学 一种基于多曝光融合的车载视觉增强方法
CN117746156A (zh) * 2023-12-29 2024-03-22 北京鸿鹄云图科技股份有限公司 一种智能图形识别与测量方法及***
CN118096738A (zh) * 2024-04-23 2024-05-28 易事特智能化***集成有限公司 一种新能源光伏组件故障检测方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8417060B2 (en) * 2006-03-20 2013-04-09 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods for multi-point descriptors for image registrations
CN104732529A (zh) * 2015-03-05 2015-06-24 北京空间机电研究所 一种遥感图像形状特征配准方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8417060B2 (en) * 2006-03-20 2013-04-09 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods for multi-point descriptors for image registrations
CN104732529A (zh) * 2015-03-05 2015-06-24 北京空间机电研究所 一种遥感图像形状特征配准方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JAE HAK LEE ET AL: "Robust CCD and IR Image Registration Using Gradient-Based Statistical Information", 《IEEE SIGNAL PROCESSING LETTERS》 *
MING-MING CHENG ET AL: "Global Contrast Based Salient region detection", 《COMPUTER VISION & PATTERN RECOGNITION》 *
张秀伟 等: "可见光-热红外视频运动目标融合检测的研究进展及展望", 《红外与毫米波学报》 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107255471B (zh) * 2017-05-25 2019-08-13 北京环境特性研究所 结冰河流红外图像的检测方法
CN107255471A (zh) * 2017-05-25 2017-10-17 北京环境特性研究所 结冰河流红外图像的检测方法
CN107464252A (zh) * 2017-06-30 2017-12-12 南京航空航天大学 一种基于混合特征的可见光与红外异源图像识别方法
CN108133493A (zh) * 2018-01-10 2018-06-08 电子科技大学 一种基于区域划分和渐变映射的异源图像配准优化方法
CN108133493B (zh) * 2018-01-10 2021-10-22 电子科技大学 一种基于区域划分和渐变映射的异源图像配准优化方法
CN108742678A (zh) * 2018-06-01 2018-11-06 妙智科技(深圳)有限公司 图像配准方法、装置及计算机可读存储介质
CN108742678B (zh) * 2018-06-01 2022-02-18 妙智科技(深圳)有限公司 图像配准方法、装置及计算机可读存储介质
CN109064502A (zh) * 2018-07-11 2018-12-21 西北工业大学 基于深度学习和人工设计特征相结合的多源图像配准方法
CN110796691B (zh) * 2018-08-03 2023-04-11 中国科学院沈阳自动化研究所 一种基于形状上下文和hog特征的异源图像配准方法
CN110796691A (zh) * 2018-08-03 2020-02-14 中国科学院沈阳自动化研究所 一种基于形状上下文和hog特征的异源图像配准方法
CN109300148B (zh) * 2018-09-19 2021-05-18 西北工业大学 基于方法协同的多源图像配准方法
CN109300148A (zh) * 2018-09-19 2019-02-01 西北工业大学 基于方法协同的多源图像配准方法
CN109559296A (zh) * 2018-10-08 2019-04-02 广州市本真网络科技有限公司 基于全卷积神经网络和互信息的医学图像配准方法及***
CN109544521A (zh) * 2018-11-12 2019-03-29 北京航空航天大学 一种人体安检中被动毫米波图像与可见光图像的配准方法
CN110852978A (zh) * 2019-08-28 2020-02-28 北京联合大学 一种用于显著图融合前的外点移除方法
CN110689554B (zh) * 2019-09-25 2022-04-12 深圳大学 用于红外图像序列的背景运动估计方法、装置及存储介质
CN110689554A (zh) * 2019-09-25 2020-01-14 深圳大学 用于红外图像序列的背景运动估计方法、装置及存储介质
CN111968164A (zh) * 2020-08-19 2020-11-20 上海交通大学 一种基于双平面x光追踪的植入物自动配准定位方法
CN112652003A (zh) * 2020-10-29 2021-04-13 西北工业大学 一种基于ransac测度优化的三维点云配准方法
CN112652003B (zh) * 2020-10-29 2024-04-12 西北工业大学 一种基于ransac测度优化的三维点云配准方法
CN112541932B (zh) * 2020-11-30 2024-03-26 西安电子科技大学昆山创新研究院 基于双光相机不同焦距变换参数的多源图像配准方法
CN112541932A (zh) * 2020-11-30 2021-03-23 西安电子科技大学昆山创新研究院 基于双光相机不同焦距变换参数的多源图像配准方法
CN112950685A (zh) * 2021-03-12 2021-06-11 南京航空航天大学 一种红外与可见光图像配准方法、***及存储介质
CN112950685B (zh) * 2021-03-12 2024-04-26 南京航空航天大学 一种红外与可见光图像配准方法、***及存储介质
CN113671499A (zh) * 2021-08-06 2021-11-19 南京航空航天大学 一种基于提取回波矩阵图的sar与光学图像相配准方法
CN113781375A (zh) * 2021-09-10 2021-12-10 厦门大学 一种基于多曝光融合的车载视觉增强方法
CN113781375B (zh) * 2021-09-10 2023-12-08 厦门大学 一种基于多曝光融合的车载视觉增强方法
CN117746156A (zh) * 2023-12-29 2024-03-22 北京鸿鹄云图科技股份有限公司 一种智能图形识别与测量方法及***
CN118096738A (zh) * 2024-04-23 2024-05-28 易事特智能化***集成有限公司 一种新能源光伏组件故障检测方法及***
CN118096738B (zh) * 2024-04-23 2024-06-25 易事特智能化***集成有限公司 一种新能源光伏组件故障检测方法及***

Also Published As

Publication number Publication date
CN106447704B (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
CN106447704A (zh) 基于显著区域特征和边缘度的可见光‑红外图像配准方法
Zuo et al. A robust approach to reading recognition of pointer meters based on improved mask-RCNN
Sirmacek et al. A probabilistic framework to detect buildings in aerial and satellite images
Berg et al. Shape matching and object recognition using low distortion correspondences
CN103310453B (zh) 一种基于子图像角点特征的快速图像配准方法
CN101980250B (zh) 基于降维局部特征描述子和隐条件随机场的目标识别方法
CN105069811B (zh) 一种多时相遥感图像变化检测方法
CN107392215A (zh) 一种基于sift算法的重图检测方法
CN111695522A (zh) 一种平面内的旋转不变人脸检测方法、装置及存储介质
CN113361542B (zh) 一种基于深度学习的局部特征提取方法
CN109118528A (zh) 基于区域分块的奇异值分解图像匹配算法
CN102651132B (zh) 一种基于交叉视觉皮质模型的医学图像配准方法
Berg et al. Shape matching and object recognition
Zhao et al. Aliked: A lighter keypoint and descriptor extraction network via deformable transformation
CN108550165A (zh) 一种基于局部不变特征的图像匹配方法
CN113516693B (zh) 一种快速通用的图像配准方法
CN105488541A (zh) 增强现实***中基于机器学习的自然特征点识别方法
CN107644227A (zh) 一种用于商品图像搜索的融合多视角的仿射不变描述子
Jahrer et al. Learned local descriptors for recognition and matching
CN107330928A (zh) 基于改进形状上下文的图像特征匹配方法
CN103336964B (zh) 一种基于模值差镜像不变性的sift图像匹配方法
Tang et al. Research on 3D human pose estimation using RGBD camera
Changjie et al. Algorithm of remote sensing image matching based on corner-point
CN110765993B (zh) 基于ai算法的sem图形量测方法
Jiao et al. Robust localization for planar moving robot in changing environment: A perspective on density of correspondence and depth

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Zhang Xiuwei

Inventor after: Chen Yanjia

Inventor after: Zhang Yanning

Inventor after: Huang Meijiao

Inventor after: Li Fei

Inventor after: Fu Zhipeng

Inventor before: Zhang Yanning

Inventor before: Chen Yanjia

Inventor before: Zhang Xiuwei

Inventor before: Huang Meijiao

Inventor before: Li Fei

Inventor before: Fu Zhipeng

GR01 Patent grant
GR01 Patent grant