CN109360179B - 一种图像融合方法、装置及可读存储介质 - Google Patents
一种图像融合方法、装置及可读存储介质 Download PDFInfo
- Publication number
- CN109360179B CN109360179B CN201811214128.2A CN201811214128A CN109360179B CN 109360179 B CN109360179 B CN 109360179B CN 201811214128 A CN201811214128 A CN 201811214128A CN 109360179 B CN109360179 B CN 109360179B
- Authority
- CN
- China
- Prior art keywords
- image
- map
- fusion
- structural similarity
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 70
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 30
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims 2
- 238000010586 diagram Methods 0.000 abstract description 16
- 238000013528 artificial neural network Methods 0.000 abstract description 7
- 230000007547 defect Effects 0.000 abstract description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 12
- 238000000034 method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000001559 infrared map Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000191 radiation effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像融合方法、装置及可读存储介质,应用于图像处理技术领域,图像融合方法包括:首先得到配准后的第一图像和第二图像;经过卷积神经网络训练后分类输出第一得分图和第二得分图;对第一得分图和第二得分图的对应像素进行比较,得到二值图;得到第一融合图像;计算第一结构相似度图,以及计算第二结构相似度图;获得第一结构相似度图和第二结构相似度图的差异图;基于差异图、第一图像和第二图像,得到第二融合图像。应用本发明实施例,通过双通道卷积神经网络得到红外与可见光图像的融合图像,卷积神经网络作为深度学习的算法,可以自动选择图像特征,改善特征提取的单一性,避免了现有红外图像与可见光图像融合方法的缺陷。
Description
技术领域
本发明涉及人图像融合技术领域,尤其涉及一种图像融合方法、装置及可读存储介质。
背景技术
红外传感器对目标区域的红外热特征敏感,它可以昼夜工作并克服光照的困难来发现目标,但是其往往缺乏丰富的细节信息,背景模糊;而可见光图像包含更为丰富的纹理特征和细节信息,但其成像条件对光照的要求较高。若将红外图像与可见光图像的互补信息进行有效融合,获得的融合图像信息更丰富、鲁棒性更强,为后续的图像分割、检测、识别奠定了良好的基础。因此红外和可见光图像融合技术被广泛应用于军事和安全监控领域。
图像融合分为:像素级、特征级和决策级。像素级的图像融合最为基础且融合的图像信息更丰富。基于多尺度变换(MST)和稀疏表示(SR)的图像融合方法是像素级图像融合方法中最普遍的方法,该类方法中图像特征提取器是需要手动设计的,运算效率低;同时提取到的单一的图像特征并非能很好的应用于各类复杂的图像环境,容易在灰度均匀的区域误判。
发明内容
本发明实施例的目的在于提供一种图像融合方法、装置及可读存储介质,通过双通道卷积神经网络得到红外与可见光图像的融合图像,卷积神经网络作为深度学习的算法,可以自动选择图像特征,改善特征提取的单一性,避免了现有红外图像与可见光图像融合方法的缺陷。具体技术方案如下:
为达到上述目的,本发明实施例提供了一种图像融合方法,包括:
对红外图像与可见光图像进行配准,得到配准后的第一图像和第二图像,其中,所述第一图像为所述红外图像中的部分图像、所述第二图像为可见光图像为所述可见光图像中的部分图像;
将所述第一图像和所述第二图像输入到训练好的卷积神经网络中,经过所述卷积神经网络训练后分类输出第一得分图和第二得分图;
对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图;
基于所述二值图、所述第一图像和所述第二图像,得到第一融合图像;
计算所述第一图像与所述第一融合图像的第一结构相似度图,以及计算第二图像与所述第一融合图像的第二结构相似度图;
获得所述第一结构相似度图和所述第二结构相似度图的差异图;
基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像。
一种实现方式中,所述对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图的步骤,包括:
针对所述第一得分图上的第一像素点,判断是否大于第二像素点的像素值,其中,所述第一像素点为所述第一得分图上的任意一个像素点,所述第二像素点为所述第二得分图上与所述第一像素点对应的像素点;
如果是,则在所述二值图上第三像素点的像素值为1;否则,第三像素点的像素值为0,其中,所述第三像素点为所述二值图上与所述第一像素点对应位置的像素点。
一种实现方式中,所述第一融合图像的具体表达公式为:
F1(x,y)=D1(x,y)A(x,y)+(1-D1(x,y)B(x,y))
其中,D1为二值图,A为第一图像,B为第二图像,F1为第一融合图像,x、y为构成像素点的坐标值。
一种实现方式中,所述获得所述第一结构相似度图和所述第二结构相似度图的差异图的步骤,包括:
获得所述第一结构相似度图和所述第二结构相似度图的差值;
将所述差值的绝对值作为所述第一结构相似度图和所述第二结构相似度图的差异图。
一种实现方式中,所述基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像的步骤包括:
基于目标区域,去除所述差异图中与目标无关的区域,得到目标特征提取图像;
根据所述目标特征提取图像、所述第一图像和所述第二图像,得到第二融合图像。
一种实现方式中,所述第二融合图像的具体表达公式为:
F2(x,y)=D2(x,y)A(x,y)+(1-D2(x,y)B(x,y))
其中,D2为目标特征提取图像,A为第一图像,B为第二图像,x、y为构成像素点的坐标值,F2为第二融合图像。
将该二值图当作决策图,采用加权融合规则得到初次融合图像,最后使用SSIM提取出目标区域的显著图,再次融合,得到最终的融合图像;
一种实现方式中,所述卷积神经网络的训练步骤,包括:
从第一图像集抽取尺寸为32×32的第一数量张原始图像,并加入第二图像集中的第二数量张可见光图像;
将所述原始图像和所述可见光图像转换成灰度图,并将以上灰度图像切分成16×16的子块,作为高分辨率图像集;
对所述第一图像集中的第一数量张原始图像进行高斯模糊处理,并加入第二图像集中的第二数量的红外光图像,再将所述第一数量张原始图像和所述第二数量红外光图像均切分成16×16的子块,作为模糊图像集。
将卷积神经网络结构在制作好的模糊图像集和高分辨率图像集上进行训练。
一种实现方式中,所述卷积神经网络,为双通道网络,每一个通道都由5层的卷积神经网络构成,包括3个卷积层,1个最大池化层,以及1个全连接层,最后的输出层是1个softmax分类器。
此外,本发明实施例还提供了一种图像融合装置,包括:
配准模块,用于对红外图像与可见光图像进行配准,得到配准后的第一图像和第二图像,其中,所述第一图像为所述红外图像中的部分图像、所述第二图像为可见光图像为所述可见光图像中的部分图像;
分类模块,用于将所述第一图像和所述第二图像输入到训练好的卷积神经网络中,经过所述卷积神经网络训练后分类输出第一得分图和第二得分图;
比较模块,用于对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图;
第一融合模块,用于基于所述二值图、所述第一图像和所述第二图像,得到第一融合图像;
计算模块,用于计算所述第一图像与所述第一融合图像的第一结构相似度图,以及计算第二图像与所述第一融合图像的第二结构相似度图;
获得模块,用于获得所述第一结构相似度图和所述第二结构相似度图的差异图;
第二融合模块,用于基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像。
以及,提供一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项图像融合方法的步骤。
应用本发明实施例提供的一种图像融合方法、装置及可读存储介质,通过卷积神经网络得到红外与可见光图像的融合图像,自动选择图像特征,改善特征提取的单一性,避免了现有红外图像与可见光图像融合方法的缺陷。针对二元分割并没有完全将目标区域与背景区域准确分割,从而导致后期的融合图像出现了阴影的情况,根据红外和可见光源图像与初始融合图像的结构相似性的差异来获得显著性目标区域图,采取二次融合步骤来改善融合图像质量,基于显著性的融合方法可以保持突出目标区域的完整性,并提高融合图像的视觉质量,从而能更好的服务于后续的图像理解与识别等。
附图说明
图1为本发明实施例提供的图像融合方法的流程示意图;
图2是本发明实施例提供的第一种效果示意图;
图3是本发明实施例提供的第二种效果示意图;
图4是本发明实施例提供的第三种效果示意图;
图5是本发明实施例提供的第四种效果示意图;
图6是本发明实施例提供的第五种效果示意图;
图7是本发明实施例提供的第六种效果示意图;
图8是本发明实施例提供的第七种效果示意图;
图9是本发明实施例提供的第八种效果示意图;
图10是本发明实施例提供的第九种效果示意图;
图11是本发明实施例提供的第十种效果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在图像处理技术中,红外图像中具有目标的热辐射效应较大,与可见光图像灰度差异较大甚至相反;红外图像背景灰度不具有明显的热感效应对比度低,与可见光图像相比,缺乏光谱信息,但是同样包含细节信息。因此,在对图像进行融合时只有更多的去保留原图像的信息才能进一步的提高融合效果。
参见图1,本发明实施例提供了一种图像融合方法,包括如下步骤:
S101,对红外图像与可见光图像进行配准,得到配准后的第一图像和第二图像,其中,所述第一图像为所述红外图像中的部分图像、所述第二图像为可见光图像为所述可见光图像中的部分图像。
需要说明的是,几何配准是指将不同时间、不同波段、不同遥感器***所获得的同一地区的图像(数据),经几何变换使同名像点在位置上和方位上完全叠合的操作。具体的几何配准过程为现有技术,本发明实施例在此不做赘述。
可以理解的是,滑动窗口是在图像处理中常用到的图像处理工具,具体的,滑动窗口的大小可以为3*3、5*5或者是16*16等,本发明实施例在此不做具体限定。
示例性的,以第一图像为例,16*16的滑动窗口可以从左上角的第一个像素点开始,将其作为16*16滑动窗口的第一个中心像素点,然后依次移动该16*16滑动窗口。所以第一图像中的任意一个像素点均有作为中心像素点的机会,那么依次类推,对于第二图像也是如此,所以按照这种原则,可以计算第一图像中的任意一个中心像素点,与第二图像中对应中心像素点的结构相似度。
定义滑窗尺寸为16×16,步长为1,输入的已配准的红外图像与可见光图像,分别在红外图像与可见光图像做从左到右,从上到下的滑动操作,得到红外图像子块第一图像,如图2所示;可见光图像子块第二图像,如图3所示。
S102,将所述第一图像和所述第二图像输入到训练好的卷积神经网络中,经过所述卷积神经网络训练后分类输出第一得分图和第二得分图。
需要说明的是,在机器学习中,卷积神经网络是一种深度前馈人工神经网络,已成功地应用于图像识别。卷积神经网络是一种前馈神经网络,人工神经元可以响应周围单元,可以进行大型图像处理,包括卷积层和池化层。
一种实现方式中,所述卷积神经网络的训练步骤,包括:从第一图像集抽取尺寸为32×32的第一数量张原始图像,并加入第二图像集中的第二数量张可见光图像;将所述原始图像和所述可见光图像转换成灰度图,并将以上灰度图像切分成16×16的子块,作为高分辨率图像集;对所述第一图像集中的第一数量张原始图像进行高斯模糊处理,并加入第二图像集中的第二数量的红外光图像,再将所述第一数量张原始图像和所述第二数量红外光图像均切分成16×16的子块,作为模糊图像集。
示例性的,从Cifar-10图像集抽取尺寸为32×32的2000张原始的清晰图像,并加入TNO_Image_Fusion_Datase图像集中的200张可见光图像,然后转换成灰度图并将图像全部切分成16×16的子块,作为高分辨率图像集;其次对来自Cifar-10图像子块全部进行高斯模糊处理(由于红外光图像背景区域较可见光图像分辨率低),并加入TNO_Image_Fusion_Datase图像集中的200张红外光图像(全部切成16×16的子块),作为模糊图像集。
采用双通道网络,每一个通道都由5层的卷积神经网络构成,包括3个卷积层,1个最大池化层,以及1个全连接层,最后的输出层是1个softmax分类器。输入图像块大小为16×16,卷积层的卷积核尺寸设为3×3,步长设为1;最大池化层卷积核尺寸2×2,步长为2,激活函数为Relu。动量和权重衰减分别设为0.9和0.0005,学习率为0.0001。
可以理解的是,将所述第一图像输入到训练好的卷积神经网络中,经过所述卷积神经网络对第一图像中的每一个像素点进行训练,得到对每一个像素点的得分,从而在对第一图像中的所有像素点进行训练后得到所有像素点的得分,从而得到训练后的第一得分图SA,同理,可以获得第二图像对应的第二得分图SB。具体过程参见图4所示,在卷积神经网络经过两次卷积、最大池化、卷积和全连接后输出训练后的图像。
S103,对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图。
具体的,针对所述第一得分图上的第一像素点,判断是否大于第二像素点的像素值,其中,所述第一像素点为所述第一得分图上的任意一个像素点,所述第二像素点为所述第二得分图上与所述第一像素点对应的像素点;如果是,则在所述二值图上第三像素点的像素值为1;否则,第三像素点的像素值为0,其中,所述第三像素点为所述二值图上与所述第一像素点对应位置的像素点。
对于二值图T,将第一得分图和第二得分图进行逐个像素比较,若任意一个像素点,位置为(m,n),其值为SA的像素点值大于SB的对应像素点值,则该像素点在二值图对应的位置(m,n)处值为1,反之,则该像素点在二值图对应的位置得0,如下公式所示,示例性的,基于图2和图3,在通过图4所示的神经网络后得到的二值图如图5所示。
这样就得到了一张目标区域与背景区域的二值图,其中,白色区域表示红外图像的目标区域,黑色区域即为背景区域,该二值图可作为图像融合的决策图。
S104,基于所述二值图、所述第一图像和所述第二图像,得到第一融合图像。
将第一图像与第二图像根据二值图进行加权可得初次融合结果,初次融合的目的是将红外图像的目标区域与高分辨率的可见光图像的背景区域整合到一张图像,基于图2、图3和图5得到如图6所示的第一融合图像。
一种实现方式中,所述第一融合图像的具体表达公式为:
F1(x,y)=D1(x,y)A(x,y)+(1-D1(x,y)B(x,y))
其中,D1为二值图,A为第一图像,B为第二图像,F1为第一融合图像,x、y为构成像素点的坐标值。
S105,计算所述第一图像与所述第一融合图像的第一结构相似度图,以及计算第二图像与所述第一融合图像的第二结构相似度图。
红外图像与可见光图像像素间存在很强的关联性,这些关联性之中存在着大量的结构信息,图像结构相似度SSIM(structural similarity index)是一种用来评估图像质量的指标。从图像构成的角度来看,结构相似度指数将结构信息定义为亮度和对比度,以此来反映图像中物体的结构性。对于两幅图像C和D,则两幅图像的相似测量函数定义为:
其中,μa,μb是图像C和D的平均灰度,σa,μb是图像C和D的标准差,σab是图像C和D的协方差,C1,C2,C3是极小的正常数,目的是避免分母接近0时造成的不稳定。α,β,γ>0,是用来调整亮度、对比度、结构函数的权重。
因此,计算第一图像A与第一融合图像F1的第一结构相似度图SAF,示例性的,基于图2和图6得到如图7所示的第一结构相似度图,计算第二图像B与第一融合图像F1的第二结构相似度图SBF,基于图3和图6得到如图8所示的第二结构相似度图。
S106,获得所述第一结构相似度图和所述第二结构相似度图的差异图。
一种实现方式中,所述获得所述第一结构相似度图和所述第二结构相似度图的差异图的步骤,包括:获得所述第一结构相似度图和所述第二结构相似度图的差值;将所述差值的绝对值作为所述第一结构相似度图和所述第二结构相似度图的差异图。具体的,第一结构相似度图和第二结构相似度图差异图为:
S=|SAF-SBF|
其中,第一结构相似度图SAF,第二结构相似度图SBF,S为差异图,示例性的,基于图7和图8得到的差异图如图9所示。
S107,基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像。
由于初次融合得到的第一融合图像并没有完全将目标区域与背景区域准确分割,导致后期的融合图像出现了阴影,因此采取二次融合步骤来改善融合图像质量。
一种实现方式中,所述基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像的步骤包括:基于目标区域,去除所述差异图中与目标无关的区域,得到目标特征提取图像;根据所述目标特征提取图像、所述第一图像和所述第二图像,得到第二融合图像。
示例性的,基于图9所示的差异图,得到如图10所示的目标特征提取图像。
一种实现方式中,所述第二融合图像的具体表达公式为:
F2(x,y)=D2(x,y)A(x,y)+(1-D2(x,y)B(x,y))
其中,D2为目标特征提取图像,A为第一图像,B为第二图像,x、y为构成像素点的坐标值,F2为第二融合图像。
将二次融合看作是基于显著性目标提取的红外图像与可见光图像融合。差异图S包含了红外图像的显著性区域。采用形态学图像处理方法,去除差异图中与目标无关的区域,得到目标特征提取图,可以理解的是目标区域即为由红外传感器提取到的目标人物的红外图,因此,增强了目标区域的显著性,从而可以改善融合图像中保留的细节信息,如图11所示,基于图10和图2、图3获得的第二融合图像。
采用二元分割的思想,通过双通道卷积神经网络得到红外与可见光图像的融合图像,卷积神经网络作为深度学习的算法,可以自动选择图像特征,改善特征提取的单一性,避免了现有红外图像与可见光图像融合方法的缺陷(多数需要手动设计提取特征且特征提取单一、容易丢失)。其次,针对二元分割并没有完全将目标区域与背景区域准确分割,从而导致后期的融合图像出现了阴影的情况,根据红外和可见光源图像与初始融合图像的结构相似性的差异来获得显著性目标区域图,采取二次融合步骤来改善融合图像质量,基于显著性的融合方法可以保持突出目标区域的完整性,并提高融合图像的视觉质量,从而能更好的服务于后续的图像理解与识别等。
此外,本发明实施例还提供了一种图像融合装置,包括:
配准模块,用于对红外图像与可见光图像进行配准,得到配准后的第一图像和第二图像,其中,所述第一图像为所述红外图像中的部分图像、所述第二图像为可见光图像为所述可见光图像中的部分图像;
分类模块,用于将所述第一图像和所述第二图像输入到训练好的卷积神经网络中,经过所述卷积神经网络训练后分类输出第一得分图和第二得分图;
比较模块,用于对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图;
第一融合模块,用于基于所述二值图、所述第一图像和所述第二图像,得到第一融合图像;
计算模块,用于计算所述第一图像与所述第一融合图像的第一结构相似度图,以及计算第二图像与所述第一融合图像的第二结构相似度图;
获得模块,用于获得所述第一结构相似度图和所述第二结构相似度图的差异图;
第二融合模块,用于基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像。
以及,提供一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项图像融合方法的步骤。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (6)
1.一种图像融合方法,其特征在于,包括:
对红外图像与可见光图像进行配准,得到配准后的第一图像和第二图像,其中,所述第一图像为所述红外图像中的部分图像、所述第二图像为可见光图像为所述可见光图像中的部分图像;
将所述第一图像和所述第二图像输入到训练好的卷积神经网络中,经过所述卷积神经网络训练后分类输出第一得分图和第二得分图;
对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图;基于所述二值图、所述第一图像和所述第二图像,得到第一融合图像,所述第一融合图像的具体表达公式为:F1(x,y)=D1(x,y)A(x,y)+(1-D1(x,y)B(x,y))
其中,D1为二值图,A为第一图像,B为第二图像,F1为第一融合图像,x、y为构成像素点的坐标值;
计算所述第一图像与所述第一融合图像的第一结构相似度图,以及计算第二图像与所述第一融合图像的第二结构相似度图;
获得所述第一结构相似度图和所述第二结构相似度图的差异图;基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像;
所述获得所述第一结构相似度图和所述第二结构相似度图的差异图的步骤,包括:
获得所述第一结构相似度图和所述第二结构相似度图的差值;
将所述差值的绝对值作为所述第一结构相似度图和所述第二结构相似度图的差异图;
所述基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像的步骤包括:
基于目标区域,去除所述差异图中与目标无关的区域,得到目标特征提取图像;
根据所述目标特征提取图像、所述第一图像和所述第二图像,得到第二融合图像;
所述第二融合图像的具体表达公式为:F2(x,y)=D2(x,y)A(x,y)+(1-D2(x,y)B(x,y))
其中,D2为目标特征提取图像,A为第一图像,B为第二图像,x、y为构成像素点的坐标值,F2为第二融合图像。
2.根据权利要求1所述的一种图像融合方法,其特征在于,所述对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图的步骤,包括:
针对所述第一得分图上的第一像素点,判断是否大于第二像素点的像素值,其中,所述第一像素点为所述第一得分图上的任意一个像素点,所述第二像素点为所述第二得分图上与所述第一像素点对应的像素点;
如果是,则在所述二值图上第三像素点的像素值为1;否则,第三像素点的像素值为0,其中,所述第三像素点为所述二值图上与所述第一像素点对应位置的像素点。
3.根据权利要求1所述的一种图像融合方法,其特征在于,所述卷积神经网络的训练步骤,包括:
从第一图像集抽取尺寸为32×32的第一数量张原始图像,并加入第二图像集中的第二数量张可见光图像;
将所述原始图像和所述可见光图像转换成灰度图,并将以上灰度图像切分成16×16的子块,作为高分辨率图像集;
对所述第一图像集中的第一数量张原始图像进行高斯模糊处理,并加入第二图像集中的第二数量的红外光图像,再将所述第一数量张原始图像和所述第二数量红外光图像均切分成16×16的子块,作为模糊图像集。
4.根据权利要求1或3所述的一种图像融合方法,其特征在于,所述卷积神经网络,为双通道网络,每一个通道都由5层的卷积神经网络构成,包括3个卷积层,1个最大池化层,以及1个全连接层,最后的输出层是1个softmax分类器。
5.一种图像融合装置,其特征在于,包括:
配准模块,用于对红外图像与可见光图像进行配准,得到配准后的第一图像和第二图像,其中,所述第一图像为所述红外图像中的部分图像、所述第二图像为可见光图像为所述可见光图像中的部分图像;
分类模块,用于将所述第一图像和所述第二图像输入到训练好的卷积神经网络中,经过所述卷积神经网络训练后分类输出第一得分图和第二得分图;
比较模块,用于对所述第一得分图和所述第二得分图的对应像素进行比较,得到二值图;
第一融合模块,用于基于所述二值图、所述第一图像和所述第二图像,得到第一融合图像,所述第一融合图像的具体表达公式为:F1(x,y)=D1(x,y)A(x,y)+(1-D1(x,y)B(x,y))
其中,D1为二值图,A为第一图像,B为第二图像,F1为第一融合图像,x、y为构成像素点的坐标值;
计算模块,用于计算所述第一图像与所述第一融合图像的第一结构相似度图,以及计算第二图像与所述第一融合图像的第二结构相似度图;
获得模块,用于获得所述第一结构相似度图和所述第二结构相似度图的差异图;
第二融合模块,用于基于所述差异图、所述第一图像和所述第二图像,得到第二融合图像;
所述获得模块具体用于:获得所述第一结构相似度图和所述第二结构相似度图的差值;将所述差值的绝对值作为所述第一结构相似度图和所述第二结构相似度图的差异图;
所述第二融合模块具体用于:基于目标区域,去除所述差异图中与目标无关的区域,得到目标特征提取图像;根据所述目标特征提取图像、所述第一图像和所述第二图像,得到第二融合图像;所述第二融合图像的具体表达公式为:
F2(x,y)=D2(x,y)A(x,y)+(1-D2(x,y)B(x,y))
其中,D2为目标特征提取图像,A为第一图像,B为第二图像,x、y为构成像素点的坐标值,F2为第二融合图像。
6.一种可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至4中任一项所述的图像融合方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811214128.2A CN109360179B (zh) | 2018-10-18 | 2018-10-18 | 一种图像融合方法、装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811214128.2A CN109360179B (zh) | 2018-10-18 | 2018-10-18 | 一种图像融合方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109360179A CN109360179A (zh) | 2019-02-19 |
CN109360179B true CN109360179B (zh) | 2022-09-02 |
Family
ID=65345711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811214128.2A Active CN109360179B (zh) | 2018-10-18 | 2018-10-18 | 一种图像融合方法、装置及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109360179B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415200B (zh) * | 2019-07-26 | 2022-03-08 | 西南科技大学 | 一种骨水泥植入体ct图像层间插值方法 |
CN110555820A (zh) * | 2019-08-28 | 2019-12-10 | 西北工业大学 | 基于卷积神经网络和动态引导滤波的图像融合方法 |
CN112683787A (zh) * | 2019-10-17 | 2021-04-20 | 神讯电脑(昆山)有限公司 | 物件表面检测***及其基于人工神经网络的检测方法 |
CN112686274B (zh) * | 2020-12-31 | 2023-04-18 | 上海智臻智能网络科技股份有限公司 | 目标对象的检测方法及设备 |
CN113378009B (zh) * | 2021-06-03 | 2023-12-01 | 上海科技大学 | 基于二元决策图的二值神经网络定量分析方法 |
CN114782296B (zh) * | 2022-04-08 | 2023-06-09 | 荣耀终端有限公司 | 图像融合方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103700075A (zh) * | 2013-12-25 | 2014-04-02 | 浙江师范大学 | 基于Tetrolet变换的多通道卫星云图融合方法 |
US8755597B1 (en) * | 2011-02-24 | 2014-06-17 | Exelis, Inc. | Smart fusion of visible and infrared image data |
CN106530266A (zh) * | 2016-11-11 | 2017-03-22 | 华东理工大学 | 一种基于区域稀疏表示的红外与可见光图像融合方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673396B (zh) * | 2009-09-07 | 2012-05-23 | 南京理工大学 | 基于动态目标检测的图像融合方法 |
CN103578092A (zh) * | 2013-11-11 | 2014-02-12 | 西北大学 | 一种多聚焦图像融合方法 |
CN103793896B (zh) * | 2014-01-13 | 2017-01-18 | 哈尔滨工程大学 | 一种红外图像与可见光图像的实时融合方法 |
CN106709477A (zh) * | 2017-02-23 | 2017-05-24 | 哈尔滨工业大学深圳研究生院 | 一种基于自适应得分融合与深度学习的人脸识别方法及*** |
CN107194904B (zh) * | 2017-05-09 | 2019-07-19 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
CN107578432B (zh) * | 2017-08-16 | 2020-08-14 | 南京航空航天大学 | 融合可见光与红外两波段图像目标特征的目标识别方法 |
-
2018
- 2018-10-18 CN CN201811214128.2A patent/CN109360179B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8755597B1 (en) * | 2011-02-24 | 2014-06-17 | Exelis, Inc. | Smart fusion of visible and infrared image data |
CN103700075A (zh) * | 2013-12-25 | 2014-04-02 | 浙江师范大学 | 基于Tetrolet变换的多通道卫星云图融合方法 |
CN106530266A (zh) * | 2016-11-11 | 2017-03-22 | 华东理工大学 | 一种基于区域稀疏表示的红外与可见光图像融合方法 |
Non-Patent Citations (3)
Title |
---|
Adaptive Fusion of Multimodal Surveillance Image Sequences in Visual Sensor Networks;Dejan Drajic等;《IEEE Transactions on Consumer Electronics》;20071130;第53卷(第4期);第1456-1462页 * |
基于Contourlet的图像融合方法;王建等;《微处理机》;20161031(第5期);第43-47页 * |
基于多尺度分析的图像融合技术研究;马丽娟;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20180215(第02期);第I138-1545页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109360179A (zh) | 2019-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360179B (zh) | 一种图像融合方法、装置及可读存储介质 | |
CN110119728B (zh) | 基于多尺度融合语义分割网络的遥感图像云检测方法 | |
CN107680054B (zh) | 雾霾环境下多源图像融合方法 | |
CN110941594B (zh) | 一种视频文件的拆分方法、装置、电子设备及存储介质 | |
CN109948566B (zh) | 一种基于权重融合与特征选择的双流人脸反欺诈检测方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN110298297B (zh) | 火焰识别方法和装置 | |
CN107909081B (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN111611874B (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN105930822A (zh) | 一种人脸抓拍方法及*** | |
CN110298227B (zh) | 一种基于深度学习的无人机航拍图像中的车辆检测方法 | |
CN108305260B (zh) | 一种图像中角点的检测方法、装置及设备 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN107944354B (zh) | 一种基于深度学习的车辆检测方法 | |
CN108320294B (zh) | 一种二代身份证照片的人像背景智能全自动替换方法 | |
CN111160407A (zh) | 一种深度学习目标检测方法及*** | |
CN113361326B (zh) | 一种基于计算机视觉目标检测的智慧电厂管控*** | |
CN113435407B (zh) | 一种输电***的小目标识别方法及装置 | |
CN112614136A (zh) | 一种红外小目标实时实例分割方法及装置 | |
CN113221956B (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN116030396B (zh) | 一种用于视频结构化提取的精确分割方法 | |
CN110969164A (zh) | 基于深度学习端对端的低照度成像车牌识别方法及装置 | |
CN105608683B (zh) | 一种单幅图像去雾方法 | |
Widyantara et al. | Gamma correction-based image enhancement and canny edge detection for shoreline extraction from coastal imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |