CN113269704A - 一种红外与可见光图像融合方法 - Google Patents
一种红外与可见光图像融合方法 Download PDFInfo
- Publication number
- CN113269704A CN113269704A CN202110724273.0A CN202110724273A CN113269704A CN 113269704 A CN113269704 A CN 113269704A CN 202110724273 A CN202110724273 A CN 202110724273A CN 113269704 A CN113269704 A CN 113269704A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- visible light
- infrared
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 238000001914 filtration Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000005284 excitation Effects 0.000 claims description 4
- 230000000946 synaptic effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000191 radiation effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
Description
技术领域
本发明涉及图像融合技术领域,具体涉及一种红外与可见光图像融合方法。
背景技术
红外和可见光图像融合是计算机视觉中的重要部分,该技术产生具有鲁棒性的单幅图像,在实际生活需求中能够提供极大的选择决策权。红外图像可以根据目标物体的热辐射效应识别出需要辨识的跟踪目标,并且红外传感器能够全天候工作,基本不受外界环境的干扰;相比之下,可见光图像在纹理和细节方面有较高的空间识别度,能够很好地勾勒出目标物体的轮廓框架,符合人体视觉***感知。因此将这两种典型的图像相互结合是很有必要的,为了满足在方面的生产及工作需求,大量研究人员致力于融合技术的提升,并且尝试着将其应用于民用和军用领域,如目标识别、目标跟踪、遥感等。
一般情况下,图像融合可以分为三个方面:决策级融合、特征级融合、像素极融合。而现阶段,研究和应用最多的是像数级图像融合,根据不同的融合理论,可以初略的分为几个方面,如:多尺度融合、基于显著性特征提取、稀疏变换、神经网络和其他。总的来说,每个融合算法策略都具有各自的优点和不足,通常情况下,存在以下几个层面的不足:1.提取图像特征信息过程过于复杂;2.算法的稳定性不是很好,有人造伪影的现象出现。为了尽可能克服上述两点,本专利提出了EPF(edge-preserving filtering)域内红外与可见光融合算法。该算法首先基于EPF技术提取不同尺度信息;其次采用EA(energy attribute)融合策略以及PA-PCNN(parameter adaptive fusion pulse coupled neural network)模型进行多尺度信息融合;最后重构源图像。
发明内容
本发明所要解决的问题是提供一种红外与可见光图像融合方法,本方法实现的图像融合方法能将红外与可见光图像中的优势信息进行融合,并且适用于以图像融合为背景下的目标识别***。
本发明为解决上述问题所提供的技术方案为:一种红外与可见光图像融合方法,所述方法包括以下步骤:
(1)、利用多尺度保边滤波技术(edge-preserving filtering,EPF)对红外与可见光图像多尺度分解,得到红外图像的细节层基础层BSA和粗糙层以及可见光图像的细节层基础层BSB,粗糙层
(3)、对红外与可见光图像的基础层BSA和BSB利用显著性能量融合规则(EA)得到融合后的基础层图像BS;
进一步的,步骤1采用一种新颖的多尺度保边滤波技术,该技术联合滑动窗口滤波器和高斯滤波器对输入图像进行快速提取各个尺度的不同特征信息。
进一步的,步骤2通过改变PA-PCNN模型的输入参数值,以局部像素信息值作为输入点,更加适应于以提取细节信息的PA-PCNN模型。
进一步的,步骤1中EPF域内的多尺度分解具体步骤为:
式(1-3):
进一步的,步骤2对细节层和粗糙层进行PA-PCNN融合具体步骤如下:
(1)在进行PA-PCNN之前,利用修正的细节拉普拉斯函数对细节层和粗糙层图像进行局部细节信息提取,提升细节层和粗糙层的融合质量;DSML函数表达式如下式(4-5):
(2)将(1)预处理后的各尺度图像代入PA-PCNN模型进行融合,PA-PCNN的数学描述如下:
Fij[n]=Sij[n]=DSMLI (6)
αf=log(1/σ(S)) (11)
其中,DSMLI上一步预处理后的各个尺度图像,Fij[n]和Lij[n]分别为第n次迭代中(i,j)位置上的神经元的馈入输入和连接输入,Sij为输入的图像,VL为连接输入幅度,Lij[n]为内部激励阈值,Wijkl为突触权重常量,αf为指数衰减系数,Yij[n]为着火条件,β为神经元的链接强度,αe和VE分别为模型输出Eij[n]的指数衰减系数和幅度值;σ(S)为图像S的标准差,其取值范围为[0,1],S'和Smax分别为输入图像的归一化阈值和图像最大强度。
进一步的,步骤3对基础层进行EA融合具体步骤如下:
(1)利用基础层图像的平均值和中位值得到基础层图像的固有特性值:
PA=μA+MeA (15)
PB=μB+MeB (16)
其中,μ表示BS的平均值,Me表示BS的中位值;
(2)计算基础层图像各自的能量函数值:
其中,α表示调制参数;
(3)通过加权平均得到融合后的基础层BS:
进一步的,步骤4图像重构的融合图像F由式(20)得到
F=FSi+CSi+BS (20)
与现有的技术相比,本发明的优点是:本发明提出了一种新的红外与可见光图像融合方法,在该方法当中,首先,我们采用一种新颖的多尺度EPF分解技术,减小了传统的多尺度分解的复杂度,得到源图像对应的细节层,粗糙层和基础层;其次,利用改进的PA-PCNN模型对细节层和粗糙层进行融合,而基础层选择EA融合规则进行融合;最后通过上述处理后的各个尺度的图像进行重构得到融合图像。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明的融合流程图。
附图标注:A:红外图像,B:可见光图像,EPF:多尺度保边滤波技术(edge-preserving filtering,EPF),红外图像的细节层图像,可见光图像的细节层图像,BSA:红外图像的基础层图像,BSB:可见光图像的基础层图像,红外图像的粗糙层图像,可见光图像的粗糙层图像,PA-PCNN:参数自适应融合脉冲耦合神经网络(parameter adaptive fusion pulse coupled neural network,PA-PCNN),EA:显著性能量融合规则,FSi:细节层融合图像,BS:基础层融合图像,CSi:粗糙层融合图像,F:融合图像。
图2是本发明所用的EPF模型图。
附图标注:I:输入图像,I∈{A,B},GF:高斯滤波,Ig1,Ig2,和Ig3分别是输入图像经过高斯滤波得到的图像;SWF:滑动窗口滤波,Is1,Is2和Is3分别是输入图像经过滑动保边滤波得到的图像;FS1,FS2和FS3分别为输入图像的细节层图像,CS1,CS2和CS3分别为输入图像的粗糙层图像,BS:基础层图像。
图3是本发明所用的PA-PCNN模型图。
附图标注:Fij[n]:第n次迭代中(i,j)位置上的神经元的馈入输入,Lij[n]:第n次迭代中(i,j)位置上的神经元的连接输入,Sij:输入的图像,VL:连接输入幅度,Lij[n]:内部激励阈值,Wijkl:突触权重常量,αf:指数衰减系数,Yij[n]:着火条件,β:神经元的链接强度,αe:模型输出Eij[n]的指数衰减系数,VE:模型输出Eij[n]的幅度值。
具体实施方式
以下将配合附图及实施例来详细说明本发明的实施方式,藉此对本发明如何应用技术手段来解决技术问题并达成技术功效的实现过程能充分理解并据以实施。
一种红外与可见光图像融合方法:
Step 1:EPF域内的多尺度分解;
具体步骤如下式(1-3):
Step 2:对细节层和粗糙层进行PA-PCNN融合;
具体步骤如下:
(1)在进行PA-PCNN之前,本发明利用修正的细节拉普拉斯函数(DSML)对细节层和粗糙层图像进行局部细节信息提取,从而提升细节层和粗糙层的融合质量。DSML函数表达式如下式(4-5):
(2)将(1)预处理后的各尺度图像代入PA-PCNN模型进行融合,PA-PCNN的数学描述如下:
Fij[n]=Sij[n]=DSMLI (6)
αf=log(1/σ(S)) (11)
其中,DSMLI上一步预处理后的各个尺度图像,Fij[n]和Lij[n]分别为第n次迭代中(i,j)位置上的神经元的馈入输入和连接输入,Sij为输入的图像,VL为连接输入幅度,Lij[n]为内部激励阈值,Wijkl为突触权重常量,αf为指数衰减系数,Yij[n]为着火条件,β为神经元的链接强度,αe和VE分别为模型输出Eij[n]的指数衰减系数和幅度值;σ(S)为图像S的标准差,其取值范围为[0,1],S'和Smax分别为输入图像的归一化阈值和图像最大强度。
Step 3:对基础层进行EA融合;
对基础层BSA和BSB利用显著性能量融合规则EA融合得到BSF。
具体步骤如下:
(1)利用基础层图像的平均值和中位值得到基础层图像的固有特性值:
PA=μA+MeA (15)
PB=μB+MeB (16)
其中,μ表示BS的平均值,Me表示BS的中位值。
(2)计算基础层图像各自的能量函数值:
其中,α表示调制参数。
(3)通过加权平均得到融合后的基础层BS:
Step 4:图像重构;
融合图像F由式(20)得到
F=FSi+CSi+BS (20)
本发明的有益效果是:本文提出的一种红外和可见光图像融合算法,本发明提出了一种新的红外与可见光图像融合方法,在该方法当中,首先,我们采用一种新颖的多尺度EPF分解技术,减小了传统的多尺度分解的复杂度,得到源图像对应的细节层,粗糙层和基础层;其次,利用改进的PA-PCNN模型对细节层和粗糙层进行融合,而基础层选择EA融合规则进行融合;最后通过上述处理后的各个尺度的图像进行重构得到融合图像。该方法不仅能够避免传统多尺度算法的复杂度,而且将EPF技术与PA-PCNN模型进行结合,很好的规避了人造伪影的产生,并且能够运用于以图像融合为背景下的目标识别***。
以上仅就本发明的最佳实施例作了说明,但不能理解为是对权利要求的限制。本发明不仅局限于以上实施例,其具体结构允许有变化。凡在本发明独立权利要求的保护范围内所作的各种变化均在本发明保护范围内。
Claims (7)
2.根据权利要求1所述的一种红外与可见光图像融合方法,其特征是:步骤1采用一种多尺度保边滤波技术,该技术联合滑动窗口滤波器和高斯滤波器对输入图像进行快速提取各个尺度的不同特征信息。
3.根据权利要求1所述的一种红外与可见光图像融合方法,其特征是:步骤2通过改变PA-PCNN模型的输入参数值,以局部像素信息值作为输入点,更加适应于以提取细节信息的PA-PCNN模型。
5.根据权利要求1所述的一种红外与可见光图像融合方法,其特征是:步骤2对细节层和粗糙层进行PA-PCNN融合具体步骤如下:
(1)在进行PA-PCNN之前,利用修正的细节拉普拉斯函数对细节层和粗糙层图像进行局部细节信息提取,提升细节层和粗糙层的融合质量;DSML函数表达式如下式(4-5):
(2)将(1)预处理后的各尺度图像代入PA-PCNN模型进行融合,PA-PCNN的数学描述如下:
Fij[n]=Sij[n]=DSMLI (6)
αf=log(1/σ(S)) (11)
其中,DSMLI上一步预处理后的各个尺度图像,Fij[n]和Lij[n]分别为第n次迭代中(i,j)位置上的神经元的馈入输入和连接输入,Sij为输入的图像,VL为连接输入幅度,Lij[n]为内部激励阈值,Wijkl为突触权重常量,αf为指数衰减系数,Yij[n]为着火条件,β为神经元的链接强度,αe和VE分别为模型输出Eij[n]的指数衰减系数和幅度值;σ(S)为图像S的标准差,其取值范围为[0,1],S'和Smax分别为输入图像的归一化阈值和图像最大强度。
7.根据权利要求1所述的一种红外与可见光图像融合方法,其特征是:步骤4图像重构的融合图像F由式(20)得到
F=FSi+CSi+BS (20)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110724273.0A CN113269704B (zh) | 2021-06-29 | 2021-06-29 | 一种红外与可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110724273.0A CN113269704B (zh) | 2021-06-29 | 2021-06-29 | 一种红外与可见光图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113269704A true CN113269704A (zh) | 2021-08-17 |
CN113269704B CN113269704B (zh) | 2022-07-29 |
Family
ID=77236146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110724273.0A Active CN113269704B (zh) | 2021-06-29 | 2021-06-29 | 一种红外与可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113269704B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115187584A (zh) * | 2022-08-24 | 2022-10-14 | 哈尔滨工业大学 | 神经胶质瘤分级中的多模脑图像融合方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050271967A1 (en) * | 2004-06-08 | 2005-12-08 | Konica Minolta Holdings, Inc. | Electrophotographic photoreceptor and an image forming method employing the same |
CN107194904A (zh) * | 2017-05-09 | 2017-09-22 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
CN108053382A (zh) * | 2017-12-25 | 2018-05-18 | 北京航空航天大学 | 一种视觉特性去雾稳像探测*** |
CN108389158A (zh) * | 2018-02-12 | 2018-08-10 | 河北大学 | 一种红外和可见光的图像融合方法 |
CN108985365A (zh) * | 2018-07-05 | 2018-12-11 | 重庆大学 | 基于深度子空间切换集成学习的多源异构数据融合方法 |
CN109215003A (zh) * | 2018-07-09 | 2019-01-15 | 上海海事大学 | 一种图像融合方法及装置 |
CN110021002A (zh) * | 2018-01-10 | 2019-07-16 | 青柠优视科技(北京)有限公司 | 一种图像融合方法及装置 |
CN110796629A (zh) * | 2019-10-28 | 2020-02-14 | 杭州涂鸦信息技术有限公司 | 一种图像融合方法及*** |
CN110930311A (zh) * | 2018-09-19 | 2020-03-27 | 杭州萤石软件有限公司 | 一种提高红外图像与可见光图像融合的信噪比方法与装置 |
CN111489319A (zh) * | 2020-04-17 | 2020-08-04 | 电子科技大学 | 基于多尺度双边滤波和视觉显著性的红外图像增强方法 |
US20200348491A1 (en) * | 2017-10-19 | 2020-11-05 | Sony Corporation | Imaging apparatus and method, and image processing apparatus and method |
CN112017139A (zh) * | 2020-09-14 | 2020-12-01 | 南昌航空大学 | 一种红外与可见光图像感知融合方法 |
CN112288758A (zh) * | 2020-05-25 | 2021-01-29 | 国网江苏省电力有限公司常州供电分公司 | 一种电力设备红外与可见光图像配准方法 |
WO2021077706A1 (zh) * | 2019-10-21 | 2021-04-29 | 浙江宇视科技有限公司 | 图像融合方法、装置、存储介质及电子设备 |
CN112950518A (zh) * | 2021-03-19 | 2021-06-11 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示嵌套滚动引导图像滤波的图像融合方法 |
-
2021
- 2021-06-29 CN CN202110724273.0A patent/CN113269704B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050271967A1 (en) * | 2004-06-08 | 2005-12-08 | Konica Minolta Holdings, Inc. | Electrophotographic photoreceptor and an image forming method employing the same |
CN107194904A (zh) * | 2017-05-09 | 2017-09-22 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
US20200348491A1 (en) * | 2017-10-19 | 2020-11-05 | Sony Corporation | Imaging apparatus and method, and image processing apparatus and method |
CN108053382A (zh) * | 2017-12-25 | 2018-05-18 | 北京航空航天大学 | 一种视觉特性去雾稳像探测*** |
CN110021002A (zh) * | 2018-01-10 | 2019-07-16 | 青柠优视科技(北京)有限公司 | 一种图像融合方法及装置 |
CN108389158A (zh) * | 2018-02-12 | 2018-08-10 | 河北大学 | 一种红外和可见光的图像融合方法 |
CN108985365A (zh) * | 2018-07-05 | 2018-12-11 | 重庆大学 | 基于深度子空间切换集成学习的多源异构数据融合方法 |
CN109215003A (zh) * | 2018-07-09 | 2019-01-15 | 上海海事大学 | 一种图像融合方法及装置 |
CN110930311A (zh) * | 2018-09-19 | 2020-03-27 | 杭州萤石软件有限公司 | 一种提高红外图像与可见光图像融合的信噪比方法与装置 |
WO2021077706A1 (zh) * | 2019-10-21 | 2021-04-29 | 浙江宇视科技有限公司 | 图像融合方法、装置、存储介质及电子设备 |
CN112767289A (zh) * | 2019-10-21 | 2021-05-07 | 浙江宇视科技有限公司 | 图像融合方法、装置、介质及电子设备 |
CN110796629A (zh) * | 2019-10-28 | 2020-02-14 | 杭州涂鸦信息技术有限公司 | 一种图像融合方法及*** |
CN111489319A (zh) * | 2020-04-17 | 2020-08-04 | 电子科技大学 | 基于多尺度双边滤波和视觉显著性的红外图像增强方法 |
CN112288758A (zh) * | 2020-05-25 | 2021-01-29 | 国网江苏省电力有限公司常州供电分公司 | 一种电力设备红外与可见光图像配准方法 |
CN112017139A (zh) * | 2020-09-14 | 2020-12-01 | 南昌航空大学 | 一种红外与可见光图像感知融合方法 |
CN112950518A (zh) * | 2021-03-19 | 2021-06-11 | 中国科学院长春光学精密机械与物理研究所 | 基于潜在低秩表示嵌套滚动引导图像滤波的图像融合方法 |
Non-Patent Citations (3)
Title |
---|
WEI LI等: "Infrared and Visible Image Fusion via Multi-scale Edge-preserving Filtering and Pulse-couple Neural Network", 《2021 7TH INTERNATIONAL CONFERENCE ON COMPUTER AND COMMUNICATIONS (ICCC)》 * |
段兴旺等: "基于RPCA模型的红外与可见光图像融合", 《中国科技论文》 * |
王烈等: "自适应PCNN与信息提取的红外与可见光图像融合", 《计算机工程与应用》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115187584A (zh) * | 2022-08-24 | 2022-10-14 | 哈尔滨工业大学 | 神经胶质瘤分级中的多模脑图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113269704B (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Multi-focus image fusion with a natural enhancement via a joint multi-level deeply supervised convolutional neural network | |
CN107153816B (zh) | 一种用于鲁棒人脸识别的数据增强方法 | |
CN112419212B (zh) | 一种基于侧窗引导滤波的红外与可见光图像融合方法 | |
CN112184646B (zh) | 基于梯度域导向滤波和改进pcnn的图像融合方法 | |
CN110060273B (zh) | 基于深度神经网络的遥感影像滑坡测图方法 | |
CN107729872A (zh) | 基于深度学习的人脸表情识别方法及装置 | |
Panigrahy et al. | Parameter adaptive unit-linking dual-channel PCNN based infrared and visible image fusion | |
CN110189286B (zh) | 一种基于ResNet的红外与可见光图像融合方法 | |
CN114581560B (zh) | 基于注意力机制的多尺度神经网络红外图像彩色化方法 | |
CN108537777A (zh) | 一种基于神经网络的作物病害识别方法 | |
CN109034184A (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN112017139B (zh) | 一种红外与可见光图像感知融合方法 | |
CN113808036B (zh) | 基于Retinex模型的低照度图像增强与去噪方法 | |
CN113269704B (zh) | 一种红外与可见光图像融合方法 | |
Luo et al. | Infrared and visible image fusion based on visibility enhancement and hybrid multiscale decomposition | |
CN107516083A (zh) | 一种面向识别的远距离人脸图像增强方法 | |
CN115689960A (zh) | 一种夜间场景下照度自适应的红外与可见光图像融合方法 | |
Gao et al. | Improving the performance of infrared and visible image fusion based on latent low-rank representation nested with rolling guided image filtering | |
CN113421200A (zh) | 基于多尺度变换与脉冲耦合神经网络的图像融合方法 | |
CN111179208A (zh) | 基于显著图与卷积神经网络的红外-可见光图像融合方法 | |
CN109191417A (zh) | 基于显著性检测与改进双通道的自适应融合方法及装置 | |
CN112949560A (zh) | 双通道特征融合下长视频表情区间连续表情变化识别方法 | |
CN115049570A (zh) | 一种低照度下的可见光与红外图像融合方法 | |
CN106530389B (zh) | 基于中波红外人脸图像的立体重构方法 | |
CN112184608A (zh) | 一种基于特征转移的红外与可见光图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |