CN111986240A - 基于可见光和热成像数据融合的落水人员检测方法及*** - Google Patents
基于可见光和热成像数据融合的落水人员检测方法及*** Download PDFInfo
- Publication number
- CN111986240A CN111986240A CN202010904133.7A CN202010904133A CN111986240A CN 111986240 A CN111986240 A CN 111986240A CN 202010904133 A CN202010904133 A CN 202010904133A CN 111986240 A CN111986240 A CN 111986240A
- Authority
- CN
- China
- Prior art keywords
- image
- visible light
- fusion
- infrared
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 78
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 238000001931 thermography Methods 0.000 title claims abstract description 27
- 206010013647 Drowning Diseases 0.000 title claims description 12
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000003287 optical effect Effects 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000007499 fusion processing Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 17
- 230000006872 improvement Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于可见光和热成像数据融合的落水人员检测方法及***,所述方法包括:使用双光摄像头同时获取可见光图像和红外图像,双光摄像头包括:光学摄像头和红外热成像摄像头;对红外图像和可见光图像进行图像配准;将配准后的红外图像和可见光图像输入预先训练好的融合网络,输出融合图像;将融合图像输入预先训练好的检测网络,输出是否有人员落水的检测结果。本发明的方法将可见光和红外图像进行融合,使得图像中既突出了人体,又包含一定的纹理特征,将会使得检测的准确率和召回率大大提升。
Description
技术领域
本发明涉及搜救领域,具体涉及基于可见光和热成像数据融合的落水人员检测方法及***。
背景技术
每年全世界都在发生着人员落水事件,船员意外落水、游客意外落水、船只翻船沉没等等原因,导致每年数以万计的人死于溺水。主要是水流湍急,水域面积大,落水人员难以被发现和定位。随着计算硬件的升级和人工智能算法的优化,图像处理和检测已经应用在解决各式各样的问题上,而落水人员检测这一问题仍亟待解决。
图像融合是一种增强技术,其目的是将不同类型传感器获取的图像进行组合,生成鲁棒性更强或信息更丰富的图像,以便于后续处理或帮助决策,红外与可见光图像融合在许多方面具有优势。
首先,它们的信号来自不同的形式,从而提供了不同方面的场景信息,即可见光图像捕捉反射光,而红外图像捕捉热辐射,因此,这种组合比单模态信号的信息更丰富。其次,红外和可见光图像呈现出几乎所有物体固有的特征,这些图像可以通过相对简单的设备获得。最后,红外图像和可见光图像具有互补的特性,从而产生鲁棒性强和信息丰富的融合图像。可见光图像通常具有较高的空间分辨率和可观的细节和明暗对比,因此,它们符合人类的视觉感知。然而,这些图像很容易受到恶劣条件的影响,如光照不足、雾和其他恶劣天气的影响。而描述物体热辐射的红外图像能够抵抗这些干扰,但通常分辨率较低,纹理较差。可见光和红外图像融合技术由于所利用图像的普遍存在性和互补性,比其他融合技术具有更广泛的应用领域。
对于人员检测,尤其是落水人员检测,可见光和红外图像融合具有很大的意义。首先,如果只使用可见光图像进行检测,人在水流湍急且不清澈的江中,再加上落水时露出水面的比例很小,落水人员几乎与江水融为一体,肉眼和摄像头都难以分辨,即使很优秀的检测算法也很难准确无遗漏地检测到,光线条件良好时尚且如此,黑夜或大雾条件下便完全无法检测。红外图像能够很好地区分人和背景,因为人体相比于江水温度较高,反映在红外图像上人体的亮度会高于江水,因此较为突出。但红外图像分辨率低且缺失纹理特征,只能获取到粗略的轮廓信息,如果画面中存在和落水人员形状相似的高温物体,很容易造成误判漏判。
发明内容
本发明的目的在于克服上述技术缺陷,本发明的实施例1提出一种基于可见光和热成像数据融合的落水人员检测方法,所述方法包括:
使用双光摄像头同时获取可见光图像和红外图像,双光摄像头包括:光学摄像头和红外热成像摄像头;
对红外图像和可见光图像进行图像配准;
将配准后的红外图像和可见光图像输入预先训练好的融合网络,输出融合图像;
将融合图像输入预先训练好的检测网络,输出是否有人员落水的检测结果。
作为上述方法的一种改进,所述对红外图像和可见光图像进行图像配准,具体包括:
分别提取红外图像的边缘图和可见光图像的边缘图;
将红外图像的边缘图和可见光图像的边缘图进行对齐,得到对齐的边缘图;
将红外图像和可见光图像分别按照对齐的边缘图进行图像转换,得到对齐后的红外图像和可见光图像。
作为上述方法的一种改进,所述融合网络包括依次连接的第一卷积层、密集块、融合层和多个级联的卷积层;
所述第一卷积层,用于分别提取对齐后的可见光图像和红外图像的深度特征,输出可见光图像的深度特征和红外图像的深度特征;
所述密集块包括可见光分支和红外分支;可见光分支包括三个依次连接的卷积层,红外分支包括三个依次连接的卷积层;其中,可见光图像的深度特征分别作为可见光分支的三个卷积层的输入,而且在可见光分支中,每个卷积层的输出级联为其后所有卷积层的输入;红外图像的深度特征分别作为红外分支的三个卷积层的输入,而且在红外分支中,每个卷积层的输出级联为其后所有卷积层的输入;
所述融合层,用于将可见光分支输出的可见光图像特征图和红外分支输出的红外图像特征图,应用L1范数和softmax运算进行融合,输出融合特征图;
所述多个级联的卷积层,用于构成解码器,将融合特征图转换为融合后的图片。
作为上述方法的一种改进,所述融合网络的损失函数Lfus由像素损失函数Lp和结构相似性损失函数Lssim加权得到:
Lfus=λLssim+Lp
Lp=‖O-I‖2
Lssim=1-SSIM(O,I)
其中,Lp表示输出图像O和输入图像I之间的欧几里得距离,SSIM(O,I)表示输出图像O和输入图像I之间的结构相似性,结构相似性包括三个分量:相关性、亮度损失和对比度失真,λ=1000。
作为上述方法的一种改进,所述检测网络为卷积神经网络CNN,其主干网络采用修改后的darknet-53,去除了最后的全连接层,并且用卷积实现下采样代替了池化层,形成一个使用了很多残差跳层的全卷积网络;
检测网络的输入为融合后的图片;其处理过程为:将融合后的图片划分成S×S个单元格,如果一个对象的中心落在某个单元格上,那么这个单元格负责预测这个物体;每个单元格需要预测多个边界框值,同时为每个边界框预测一个置信度,然后以每个单元格为单位进行预测分析;
检测网络的输出为三个不同尺度的特征图,从而采用多尺度来对不同尺寸的目标进行检测,最终输出预测的边界框、分类和置信度来对落水人员进行识别。
作为上述方法的一种改进,所述检测网络的损失函数Ldec为边界框带来误差的Lbox,类别带来的误差Lcls和置信度带来的误差Lobj的和:
Ldec=Lbox+Lcls+Lobj
其中,S表示横向单元格的数量,横向单元格的数量和纵向单元格的数量相同,B表示box,表示第i个网格的第j个anchor box是否负责这个物体,wi和hi为预测的第i个网格的宽和高,和为真实的第i个网格的宽和高;xi和yi为预测的第i个网格的中心坐标,和为真实的第i个网格的中心坐标;λcoord、λclass、λnobj和λobj均为参数;pi(c)为c类别的预测概率,为c类别的真实概率,classes为类别的集合;ci为预测的置信度,为真实的置信度,取值由单元格是否负责预测这个物体决定。
作为上述方法的一种改进,所述方法还包括:对融合网络和检测网络进行训练的步骤,具体包括:
建立训练集,用双光摄像头拍摄抓取可见光和红外图像,经过前述配准和融合过程得到融合的图像,对包含落水人员的图像进行标注;
两个网络的联合损失函数L为:
L=Lfus+Ldec
利用训练集,使用上述损失函数,利用梯度下降法训练得到网络的参数。
本发明的实施例2提出了一种基于可见光和热成像数据融合的落水人员检测***,所述***包括:红外热成像摄像头、光学摄像头、训练好的融合网络、训练好的检测网络、图像配准模块、融合模块和检测模块;
所述图像配准模块,用于同时获取红外热成像摄像头采集的红外图像,以及光学摄像头采集的可见光图像,并对红外图像和可见光图像进行图像配准;
所述融合模块,用于将配准后的红外图像和可见光图像输入训练好的融合网络,输出融合图像;
所述检测模块,用于将融合图像输入训练好的检测网络,输出是否有人员落水的检测结果。
本发明的优势在于:
本发明的方法及***将可见光和红外图像进行融合,使得图像中既突出了人体,又包含一定的纹理特征,将会使得检测的准确率和召回率大大提升。
附图说明
图1为本发明的图像配准的流程图;
图2为本发明的融合网络的示意图;
图3为本发明的融合网络的融合层的示意图;
图4为本发明的检测网络的示意图;
图5为采用多尺度来对不同尺寸的目标进行检测的示意图;
图6为本发明的检测-融合反向训练的示意图;
图7为本发明的基于可见光和热成像数据融合的落水人员检测方法的流程图。
具体实施方式
下面结合附图对本发明的技术方案进行详细的说明。
本发明的实施例1提供了基于可见光和热成像数据融合的落水人员检测方法,该方法包括:
步骤1)图像获取与配准
步骤1-1)图像获取
使用双光摄像头同时获取可见光图像和红外图像,双光摄像头包括:光学摄像头和红外热成像摄像头。
步骤1-2)图像配准
由于红外图像和可见光图像是由不同的传感器获取的,因此通常在大小、透视和视场上是不同的,上述双光摄像头也会带来视角的不同。然而成功的图像融合要求融合后的图像具有严格的几何对齐,因此在融合之前需要先对可见光和红外图像进行配准。红外图像与可见光图像的配准是一个多模式配准问题。
对于这里的配准问题,采用基于特征的配准方法,基于特征的方法首先提取两组显著结构,然后确定它们之间的正确对应关系,并据此估计空间变换,进而用于对给定的图像对进行对齐。
基于特征的方法的第一步是提取能够代表原始图像的稳健的公共特征。边缘信息是红外和可见光图像配准中最常用的选择之一,如图1所示,因为不同的配准方式可以很好地保留边缘信息的大小和方向。边缘映射可以离散为点集,解决点匹配问题的一个流行策略包括两个步骤:计算一组假定对应,然后通过几何约束去除异常值。通过在点处计算特征描述符,消除描述符差异过大的点之间的匹配,采用随机样本一致性(RANSAC)从假定的集合中去除假匹配,采用假设验证的方法,通过重新采样,试图获得最小可能的离群值无子集来估计给定参数模型。
步骤2)建立用于进行图像融合的融合网络
采用一种针对红外和可见光图像融合问题的深度学习体系结构。与传统的卷积网络相比,编码网络与卷积层,融合层和密集块相结合,其中每一层的输出彼此相连,使用此体系结构在编码过程中从源图像中获取更多有用的特征,选用合适的融合策略来融合特征,最后通过解码器重建融合图像。
如图2所示,融合之前先提取可见光图像和红外图像的深度特征,第一个卷积层提取粗糙特征,而后又三个卷积层(每个层的输出级联为随后的层的输入)组成密集块。这样的体系结构具有两个优点。首先,滤波器的大小和卷积运算的步幅分别为3×3和1。使用此策略,输入图像可以是任何大小;其次,密集块可以在编码网络中尽可能保留深度特征,并且该操作可以确保融合策略中使用所有显著特征。
如图3所示,在融合层应用L1范数和softmax运算。
融合层后包含多个卷积层(3×3卷积),融合层的输出将是卷积层的输入,多个卷积层,用于重建融合后的图像,构成解码器,将融合特征图转换为融合后的图片。使用这种简单有效的架构来重构最终融合的图像。
融合网络的损失函数由像素损失函数Lp和结构相似性损失函数Lssim加权得到:
Lp=‖O-I‖2
Lssim=1-SSIM(O,I)
Lfus=λLssim+Lp
其中O和I分别表示输出图像和输入图像。Lp是输出O和输入I之间的欧几里得距离,SSIM表示结构相似性,它表示两个图像的结构相似性,该指标主要由三部分组成:相关性和亮度损失和对比度失真,三个分量的乘积就是融合后图像的评估结果。由于像素损失和SSIM损失之间存在三个数量级的差异,因此在训练阶段,将λ设置为1000。
步骤3)建立进行落水人员检测的检测网络
采用卷积神经网络CNN进行落水人员的目标识别,检测网络的中心思想是将图片划分成S×S个单元格,如果一个对象的中心落在某个单元格上,那么这个单元格负责预测这个物体。每个单元格需要预测多个边界框值,同时为每个边界框预测一个置信度,此后以每个单元格为单位进行预测分析。
主干网络采用修改后的darknet-53,如图4所示。此网络分类精度高,计算速度快,网络层数也较少,去除全连接层,这里的网络是一个全卷积网络,大量使用残差的跳层连接,并且为了降低池化带来的梯度负面效果,舍弃了池化层,用卷积层的步长来实现降采样。在这个网络结构中,使用步长为2的卷积来进行降采样。
网络输出三个不同尺度的特征图,借鉴了FPN,采用多尺度来对不同尺寸的目标进行检测,越精细的单元就可以检测出越精细的物体。如图5所示。
在模型训练之前,首先需要制作融合图像的数据集,用双光摄像头拍摄抓取可见光和红外图像,经过前述配准和融合过程得到融合的图像,将其中的落水人员进行标注,制作成训练所需格式的数据集,挑选预训练模型进行训练,得到能够识别可见光红外融合图像中落水人员的算法模型。之后对模型的准确率等指标进行评估,从数据集、算法等方面进行优化,使其能够达到更好的识别效果。
检测网络的损失函数分为三个部分,边界框带来的Lbox,置信度带来的Lobj和类别带来的误差Lcls:
其中,S表示横向单元格的数量,横向单元格的数量和纵向单元格的数量相同,B表示box,表示第i个网格的第j个anchor box是否负责这个物体,wi和hi为预测的第i个网格的宽和高,和为真实的第i个网格的宽和高;xi和yi为预测的第i个网格的中心坐标,和为真实的第i个网格的中心坐标;λcoord、λclass、λnobj和λobj均为参数;pi(c)为c类别的预测概率,为c类别的真实概率,classes为类别的集合;ci为预测的置信度,为真实的置信度,取值由单元格是否负责预测这个物体决定。
损失函数为以上三个误差之和:
Ldec=Lbox+Lcls+Lobj
L=Lfus+Ldec
步骤4)检测-融合反向训练
常见可见光红外图像融合技术的目的在于使融合图像尽可能多的包含两种图像的信息,既不丢失红外图像中的对比度信息,又不丢失可见光图像中的纹理信息,也可以说是使得融合图像更加符合人类视觉***,因此初始融合过程的损失函数定义为像素损失函数和结构相似性损失函数的加权和。
而此本发明的方法的重点在于能够准确地检测出落水人员,图像融合的结果仅仅是一个中间过程,无论是图像融合还是检测过程,其优化都应以能够准确检测为最终目标。为了达到这一最终目标,应对图像融合的训练进行修正,使得检测过程的损失函数能够指导融合,在融合阶段便对最终检测结果进行优化。
如图6所示,首先在配准后的可见光或是红外图像上标注出落水人员,由于图像已配准对齐,融合后的目标位置不变,因此标注可复制到融合图像上作为groundtruth,融合图像经过检测网络后得到预测的边界框、分类和置信度,与标注对比计算得到检测误差,即Ldec,此损失函数不仅用来评估和优化检测网络,同时也用来评估和优化融合网络,相当于融合网络的损失函数做以下修正:
L=Lfus+Ldec
这样,有助于最终目标的实现。
步骤5)使用图像采集、图像配准、图像融合和目标检测,对落水人员进行检测,以便于后续的定位和救援。如图7所示。
本发明的实施例2提出了一种基于可见光和热成像数据融合的落水人员检测***,所述***包括:红外热成像摄像头、光学摄像头、训练好的融合网络、训练好的检测网络、图像配准模块、融合模块和检测模块;
所述图像配准模块,用于同时获取红外热成像摄像头采集的红外图像,以及光学摄像头采集的可见光图像,并对红外图像和可见光图像进行图像配准;
所述融合模块,用于将配准后的红外图像和可见光图像输入训练好的融合网络,输出融合图像;
所述检测模块,用于将融合图像输入训练好的检测网络,输出是否有人员落水的检测结果。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种基于可见光和热成像数据融合的落水人员检测方法,所述方法包括:
使用双光摄像头同时获取可见光图像和红外图像,双光摄像头包括:光学摄像头和红外热成像摄像头;
对红外图像和可见光图像进行图像配准;
将配准后的红外图像和可见光图像输入预先训练好的融合网络,输出融合图像;
将融合图像输入预先训练好的检测网络,输出是否有人员落水的检测结果。
2.根据权利要求1所述的基于可见光和热成像数据融合的落水人员检测方法,其特征在于,所述对红外图像和可见光图像进行图像配准,具体包括:
分别提取红外图像的边缘图和可见光图像的边缘图;
将红外图像的边缘图和可见光图像的边缘图进行对齐,得到对齐的边缘图;
将红外图像和可见光图像分别按照对齐的边缘图进行图像转换,得到对齐后的红外图像和可见光图像。
3.根据权利要求2所述的基于可见光和热成像数据融合的落水人员检测方法,其特征在于,所述融合网络包括依次连接的第一卷积层、密集块、融合层和多个级联的卷积层;
所述第一卷积层,用于分别提取对齐后的可见光图像和红外图像的深度特征,输出可见光图像的深度特征和红外图像的深度特征;
所述密集块包括可见光分支和红外分支;可见光分支包括三个依次连接的卷积层,红外分支包括三个依次连接的卷积层;其中,可见光图像的深度特征分别作为可见光分支的三个卷积层的输入,而且在可见光分支中,每个卷积层的输出级联为其后所有卷积层的输入;红外图像的深度特征分别作为红外分支的三个卷积层的输入,而且在红外分支中,每个卷积层的输出级联为其后所有卷积层的输入;
所述融合层,用于将可见光分支输出的可见光图像特征图和红外分支输出的红外图像特征图,应用L1范数和softmax运算进行融合,输出融合特征图;
所述多个级联的卷积层,用于构成解码器,将融合特征图转换为融合后的图片。
4.根据权利要求3所述的基于可见光和热成像数据融合的落水人员检测方法,其特征在于,所述融合网络的损失函数Lfus由像素损失函数Lp和结构相似性损失函数Lssim加权得到:
Lfus=λLssim+Lp
Lp=‖O-I‖2
Lssim=1-SSIM(O,I)
其中,Lp表示输出图像O和输入图像I之间的欧几里得距离,SSIM(O,I)表示输出图像O和输入图像I之间的结构相似性,结构相似性包括三个分量:相关性、亮度损失和对比度失真,λ=1000。
5.根据权利要求4所述的基于可见光和热成像数据融合的落水人员检测方法,其特征在于,所述检测网络为卷积神经网络CNN,其主干网络采用修改后的darknet-53,去除了最后的全连接层,并且用卷积实现下采样代替了池化层,形成一个使用了很多残差跳层的全卷积网络;
检测网络的输入为融合后的图片;其处理过程为:将融合后的图片划分成S×S个单元格,如果一个对象的中心落在某个单元格上,那么这个单元格负责预测这个物体;每个单元格需要预测多个边界框值,同时为每个边界框预测一个置信度,然后以每个单元格为单位进行预测分析;
检测网络的输出为三个不同尺度的特征图,从而采用多尺度来对不同尺寸的目标进行检测,最终输出预测的边界框、分类和置信度来对落水人员进行识别。
6.根据权利要求5所述的基于可见光和热成像数据融合的落水人员检测方法,其特征在于,所述检测网络的损失函数Ldec为边界框带来误差的Lbox,类别带来的误差Lcls和置信度带来的误差Lobj的和:
Ldec=Lbox+Lcls+Lobj
7.根据权利要求6所述的基于可见光和热成像数据融合的落水人员检测方法,其特征在于,所述方法还包括:对融合网络和检测网络进行训练的步骤,具体包括:
建立训练集,用双光摄像头拍摄抓取可见光和红外图像,经过前述配准和融合过程得到融合的图像,对包含落水人员的图像进行标注;
两个网络的联合损失函数L为:
L=Lfus+Ldec
利用训练集,使用上述损失函数,利用梯度下降法训练得到网络的参数。
8.一种基于可见光和热成像数据融合的落水人员检测***,其特征在于,所述***包括:红外热成像摄像头、光学摄像头、训练好的融合网络、训练好的检测网络、图像配准模块、融合模块和检测模块;
所述图像配准模块,用于同时获取红外热成像摄像头采集的红外图像,以及光学摄像头采集的可见光图像,并对红外图像和可见光图像进行图像配准;
所述融合模块,用于将配准后的红外图像和可见光图像输入训练好的融合网络,输出融合图像;
所述检测模块,用于将融合图像输入训练好的检测网络,输出是否有人员落水的检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010904133.7A CN111986240A (zh) | 2020-09-01 | 2020-09-01 | 基于可见光和热成像数据融合的落水人员检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010904133.7A CN111986240A (zh) | 2020-09-01 | 2020-09-01 | 基于可见光和热成像数据融合的落水人员检测方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111986240A true CN111986240A (zh) | 2020-11-24 |
Family
ID=73447224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010904133.7A Pending CN111986240A (zh) | 2020-09-01 | 2020-09-01 | 基于可见光和热成像数据融合的落水人员检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986240A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418181A (zh) * | 2020-12-13 | 2021-02-26 | 西北工业大学 | 一种基于卷积神经网络的人员落水检测方法 |
CN112560763A (zh) * | 2020-12-24 | 2021-03-26 | 国网上海市电力公司 | 一种融合红外和可见光图像的目标检测方法 |
CN112598637A (zh) * | 2020-12-21 | 2021-04-02 | 华能安阳能源有限责任公司 | 一种风电机组叶片巡检叶片区域路线自动飞行方法 |
CN112927139A (zh) * | 2021-03-23 | 2021-06-08 | 广东工业大学 | 一种双目热成像***及超分辨率图像获取方法 |
CN112990149A (zh) * | 2021-05-08 | 2021-06-18 | 创新奇智(北京)科技有限公司 | 基于多模态的高空安全带检测方法、装置、设备及存储介质 |
CN113255797A (zh) * | 2021-06-02 | 2021-08-13 | 通号智慧城市研究设计院有限公司 | 一种基于深度学习模型的危险品检测方法和*** |
CN113379658A (zh) * | 2021-06-01 | 2021-09-10 | 大连海事大学 | 一种无人机观测目标特征双光融合方法及*** |
CN113724250A (zh) * | 2021-09-26 | 2021-11-30 | 新希望六和股份有限公司 | 一种基于双光相机的动物目标计数方法 |
CN114359776A (zh) * | 2021-11-25 | 2022-04-15 | 国网安徽省电力有限公司检修分公司 | 一种融合光与热成像的火焰检测方法、装置 |
CN114937309A (zh) * | 2022-05-12 | 2022-08-23 | 吉林大学 | 基于可见光图像与红外图像融合的行人检测方法、模型、电子设备和计算机可读介质 |
CN115690578A (zh) * | 2022-10-26 | 2023-02-03 | 中国电子科技集团公司信息科学研究院 | 一种图像融合方法和目标识别方法及装置 |
CN115994911A (zh) * | 2023-03-24 | 2023-04-21 | 山东上水环境科技集团有限公司 | 一种基于多模态视觉信息融合的游泳馆目标检测方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107134144A (zh) * | 2017-04-27 | 2017-09-05 | 武汉理工大学 | 一种用于交通监控的车辆检测方法 |
CN108447036A (zh) * | 2018-03-23 | 2018-08-24 | 北京大学 | 一种基于卷积神经网络的低光照图像增强方法 |
CN108805070A (zh) * | 2018-06-05 | 2018-11-13 | 合肥湛达智能科技有限公司 | 一种基于嵌入式终端的深度学习行人检测方法 |
CN109188421A (zh) * | 2018-07-25 | 2019-01-11 | 江苏科技大学 | 一种用于无人搜救艇的海上搜救***及方法 |
CN110210539A (zh) * | 2019-05-22 | 2019-09-06 | 西安电子科技大学 | 多级深度特征融合的rgb-t图像显著性目标检测方法 |
CN110473154A (zh) * | 2019-07-31 | 2019-11-19 | 西安理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN110795991A (zh) * | 2019-09-11 | 2020-02-14 | 西安科技大学 | 一种基于多信息融合的矿用机车行人检测方法 |
CN110929577A (zh) * | 2019-10-23 | 2020-03-27 | 桂林电子科技大学 | 一种基于YOLOv3的轻量级框架改进的目标识别方法 |
CN110956094A (zh) * | 2019-11-09 | 2020-04-03 | 北京工业大学 | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 |
US20200143205A1 (en) * | 2017-08-10 | 2020-05-07 | Intel Corporation | Convolutional neural network framework using reverse connections and objectness priors for object detection |
CN111210464A (zh) * | 2019-12-30 | 2020-05-29 | 中国船舶重工集团公司第七一一研究所 | 基于卷积神经网络和图像融合的人员落水报警***及方法 |
CN111259814A (zh) * | 2020-01-17 | 2020-06-09 | 杭州涂鸦信息技术有限公司 | 一种活体检测方法及*** |
CN111539247A (zh) * | 2020-03-10 | 2020-08-14 | 西安电子科技大学 | 一种超光谱人脸识别方法、装置、电子设备及其存储介质 |
-
2020
- 2020-09-01 CN CN202010904133.7A patent/CN111986240A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107134144A (zh) * | 2017-04-27 | 2017-09-05 | 武汉理工大学 | 一种用于交通监控的车辆检测方法 |
US20200143205A1 (en) * | 2017-08-10 | 2020-05-07 | Intel Corporation | Convolutional neural network framework using reverse connections and objectness priors for object detection |
CN108447036A (zh) * | 2018-03-23 | 2018-08-24 | 北京大学 | 一种基于卷积神经网络的低光照图像增强方法 |
CN108805070A (zh) * | 2018-06-05 | 2018-11-13 | 合肥湛达智能科技有限公司 | 一种基于嵌入式终端的深度学习行人检测方法 |
CN109188421A (zh) * | 2018-07-25 | 2019-01-11 | 江苏科技大学 | 一种用于无人搜救艇的海上搜救***及方法 |
CN110210539A (zh) * | 2019-05-22 | 2019-09-06 | 西安电子科技大学 | 多级深度特征融合的rgb-t图像显著性目标检测方法 |
CN110473154A (zh) * | 2019-07-31 | 2019-11-19 | 西安理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN110795991A (zh) * | 2019-09-11 | 2020-02-14 | 西安科技大学 | 一种基于多信息融合的矿用机车行人检测方法 |
CN110929577A (zh) * | 2019-10-23 | 2020-03-27 | 桂林电子科技大学 | 一种基于YOLOv3的轻量级框架改进的目标识别方法 |
CN110956094A (zh) * | 2019-11-09 | 2020-04-03 | 北京工业大学 | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 |
CN111210464A (zh) * | 2019-12-30 | 2020-05-29 | 中国船舶重工集团公司第七一一研究所 | 基于卷积神经网络和图像融合的人员落水报警***及方法 |
CN111259814A (zh) * | 2020-01-17 | 2020-06-09 | 杭州涂鸦信息技术有限公司 | 一种活体检测方法及*** |
CN111539247A (zh) * | 2020-03-10 | 2020-08-14 | 西安电子科技大学 | 一种超光谱人脸识别方法、装置、电子设备及其存储介质 |
Non-Patent Citations (2)
Title |
---|
冉鑫等: "基于可见光视频图像处理的水上弱小目标检测方法", 《上海海事大学学报》 * |
谢春宇等: "基于深度学习的红外与可见光图像融合方法", 《指挥信息***与技术》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418181B (zh) * | 2020-12-13 | 2023-05-02 | 西北工业大学 | 一种基于卷积神经网络的人员落水检测方法 |
CN112418181A (zh) * | 2020-12-13 | 2021-02-26 | 西北工业大学 | 一种基于卷积神经网络的人员落水检测方法 |
CN112598637A (zh) * | 2020-12-21 | 2021-04-02 | 华能安阳能源有限责任公司 | 一种风电机组叶片巡检叶片区域路线自动飞行方法 |
CN112560763A (zh) * | 2020-12-24 | 2021-03-26 | 国网上海市电力公司 | 一种融合红外和可见光图像的目标检测方法 |
CN112927139A (zh) * | 2021-03-23 | 2021-06-08 | 广东工业大学 | 一种双目热成像***及超分辨率图像获取方法 |
CN112927139B (zh) * | 2021-03-23 | 2023-06-02 | 广东工业大学 | 一种双目热成像***及超分辨率图像获取方法 |
CN112990149A (zh) * | 2021-05-08 | 2021-06-18 | 创新奇智(北京)科技有限公司 | 基于多模态的高空安全带检测方法、装置、设备及存储介质 |
CN113379658A (zh) * | 2021-06-01 | 2021-09-10 | 大连海事大学 | 一种无人机观测目标特征双光融合方法及*** |
CN113379658B (zh) * | 2021-06-01 | 2024-03-15 | 大连海事大学 | 一种无人机观测目标特征双光融合方法及*** |
CN113255797A (zh) * | 2021-06-02 | 2021-08-13 | 通号智慧城市研究设计院有限公司 | 一种基于深度学习模型的危险品检测方法和*** |
CN113255797B (zh) * | 2021-06-02 | 2024-04-05 | 通号智慧城市研究设计院有限公司 | 一种基于深度学习模型的危险品检测方法和*** |
CN113724250A (zh) * | 2021-09-26 | 2021-11-30 | 新希望六和股份有限公司 | 一种基于双光相机的动物目标计数方法 |
CN114359776A (zh) * | 2021-11-25 | 2022-04-15 | 国网安徽省电力有限公司检修分公司 | 一种融合光与热成像的火焰检测方法、装置 |
CN114359776B (zh) * | 2021-11-25 | 2024-04-26 | 国网安徽省电力有限公司检修分公司 | 一种融合光与热成像的火焰检测方法、装置 |
CN114937309A (zh) * | 2022-05-12 | 2022-08-23 | 吉林大学 | 基于可见光图像与红外图像融合的行人检测方法、模型、电子设备和计算机可读介质 |
CN115690578A (zh) * | 2022-10-26 | 2023-02-03 | 中国电子科技集团公司信息科学研究院 | 一种图像融合方法和目标识别方法及装置 |
CN115994911A (zh) * | 2023-03-24 | 2023-04-21 | 山东上水环境科技集团有限公司 | 一种基于多模态视觉信息融合的游泳馆目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986240A (zh) | 基于可见光和热成像数据融合的落水人员检测方法及*** | |
CN108647655B (zh) | 基于轻型卷积神经网络的低空航拍影像电力线异物检测方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN111723748A (zh) | 一种红外遥感图像舰船检测方法 | |
CN111783590A (zh) | 一种基于度量学习的多类别小目标检测方法 | |
CN112733950A (zh) | 一种基于图像融合与目标检测结合的电力设备故障诊断方法 | |
Kim et al. | GAN-based synthetic data augmentation for infrared small target detection | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN109919026B (zh) | 一种水面无人艇局部路径规划方法 | |
CN112365462B (zh) | 一种基于图像的变化检测方法 | |
CN113159466B (zh) | 一种短时光伏发电功率预测***及方法 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN115393404A (zh) | 双光图像配准方法、装置及设备、存储介质 | |
CN115294655A (zh) | 一种基于非局部机制的多级模块特征的对抗生成行人再识别方法、装置和设备 | |
CN115861756A (zh) | 基于级联组合网络的大地背景小目标识别方法 | |
CN116994135A (zh) | 一种基于视觉与雷达融合的船舶目标检测方法 | |
Lari et al. | Automated building extraction from high-resolution satellite imagery using spectral and structural information based on artificial neural networks | |
CN117333948A (zh) | 一种融合时空注意力机制的端到端多目标肉鸡行为识别方法 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN115471782B (zh) | 一种面向无人艇的红外舰船目标检测方法及装置 | |
WO2023222643A1 (en) | Method for image segmentation matching | |
CN111353412A (zh) | 端到端的3D-CapsNet火焰检测方法及装置 | |
CN116385477A (zh) | 一种基于图像分割的杆塔图像配准方法 | |
CN115546668A (zh) | 海洋生物的检测方法、装置及无人机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201124 |
|
RJ01 | Rejection of invention patent application after publication |