CN107862705A - 一种基于运动特征和深度学习特征的无人机小目标检测方法 - Google Patents
一种基于运动特征和深度学习特征的无人机小目标检测方法 Download PDFInfo
- Publication number
- CN107862705A CN107862705A CN201711166232.4A CN201711166232A CN107862705A CN 107862705 A CN107862705 A CN 107862705A CN 201711166232 A CN201711166232 A CN 201711166232A CN 107862705 A CN107862705 A CN 107862705A
- Authority
- CN
- China
- Prior art keywords
- mrow
- candidate
- target
- region
- unmanned plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于运动特征和深度学习特征的无人机小目标检测方法,属于图像处理与计算机视觉技术领域。首先通过视频稳像算法对输入的视频数据集处理,补偿摄像头运动;分析图像中检测运动候选目标区域;将视频数据集分为两部分,利用训练数据集训练得到改进的候选区域生成网络模型;通过训练得到的基于深度特征的候选区域生成网络,通过该网络对测试集的视频图像生成候选目标;将候选目标区域进行融合;利用训练数据集训练得到基于双通道的深度神经网络的模型,并应用该模型得到识别结果。将基于多层深度特征的目标跟踪方法应用于上一步的识别结果,得到最终的无人机所在位置。本发明可准确检测出视频图像中的无人机,为后续无人机智能监控相关领域的研究提供支持。
Description
技术领域
本发明属于图像处理与计算机视觉技术领域,涉及一种基于运动特征和深度学习特征的无人机小目标检测方法。
背景技术
目前,随着商业无人机的可用性和成熟度急剧增长,无人机的销售成倍增长,在公共领域飞行的无人机已经屡见不鲜。无人机不仅出现在热门综艺的镜头里、浪漫求婚仪式上,还可以在农田上空喷洒农药、代替工人进行高空清洗作业,用于测绘拍摄、森林防火、军事侦察等等。但是,随着无人机的迅速发展,无人机造成的危险事故也在增长,给公共安全、隐私泄露、军事安全等方面带来了威胁。
近年来,检测无人机技术大致可以分为声音检测(Acoustics Detection)、射频检测(Radio Frequency)、雷达检测(Radar Detection)、视觉检测(Visual Detection)等。声音检测使用麦克风阵列来探测无人机飞行的转子噪声,然后将探测到的噪声与记录了所有无人机声音的数据库进行匹配,识别出该噪声是否属于无人机从而判断出是否有无人机靠近。声音检测的方法容易受到环境噪声的干扰,同时,构建无人机声音特征的数据库十分耗时。射频检测是通过无线接收器监控一定频率范围内的射频来检测无人机。这种方法很容易将未知的射频发射机误报为无人机。雷达检测是通过检测验证接收到的目标散射和反射的电磁波来判断是否是无人机。雷达设备的费用以及能源消耗十分的昂贵,并且易受到环境影响而产生盲区。视觉检测一般是通过一个或多个成像设备来检测无人机,利用某种方法分析图像序列来判断是否有无人机存在。基于视觉的无人机检测不易受到环境噪声的干扰,可以定位无人机所在位置,还可以辨别出无人机是否携带危险物品,甚至可以检测无人机的飞行轨迹、飞行速度等信息。因此,基于视觉的检测方法相比其他手段具有巨大的优势,同时也能弥补其他检测手段的不足。
目前基于视觉的无人机检测的研究工作较少。很显然,在越远的距离检测到无人机,对于提前规避无人机的危险更有利。无人机相比行人、飞机、车辆等目标大小更小,尤其是在远距离成像中,无人机的尺寸非常小,这使得基于视觉的无人机检测更加困难。因此,目前需要一种能有效检测视频中无人机小目标的检测算法。
发明内容
有鉴于此,本发明的目的在于提供一种基于运动特征和深度学习特征的无人机小目标检测方法,利用目标跟踪算法来跟踪无人机并滤除虚假目标,结合无人机尺寸小等特点,对卷积神经网络结构进行了改进,使深度学习算法适用于小目标的情况,并能够有效的检测出复杂场景中的无人机,提高了无人机检测的准确率。
为达到上述目的,本发明提供如下技术方案:
一种基于运动特征和深度学习特征的无人机小目标检测方法,该方法包括以下步骤:
S1:通过视频稳像算法对输入的视频的数据集进行处理,补偿摄像头运动;
S2:通过低秩矩阵分析方法从运动补偿后的视频图像中检测运动候选目标区域Ⅰ,并通过图像后处理模块去除运动候选目标区域Ⅰ中细小的噪声点;
S3:将视频的数据集分为训练集和测试集,利用训练集训练得到改进的候选区域生成网络模型;通过改进的区域生成网络模型对测试集的视频图像处理生成候选目标区域Ⅱ;
S4:将候选目标区域Ⅰ和候选目标区域Ⅱ进行融合得到候选目标区域Ⅲ;
S5:根据候选目标区域Ⅲ,利用训练集训练得到基于双通道的深度神经网络,然后将基于双通道的深度神经网络应用于测试集的候选目标得到识别结果;
S6:利用相关滤波算法预测目标的位置,跟踪匹配稳定的目标,滤除虚假目标,得到无人机所在位置。
进一步,步骤S1中,所述的视频稳像算法包括:
S11:利用SURF算法对每一帧图像提取特征点;
S12:通过得到的两帧图像之间的特征匹配点计算得到两帧之间的仿射变换模型;
S13:利用得到的仿射变换模型对当前帧进行补偿。
进一步,步骤S2中,利用低秩矩阵分析方法检测运动候选目标区域Ⅰ的过程包含以下步骤:
S21:将输入视频序列图像数据{f1,f2,...,fn}向量化构成图像矩阵其中n为视频帧数,fn为第n帧视频图像矩阵,为fn向量化后的图像矩阵;
S22:通过RPCA算法将矩阵C分解为低秩矩阵L和稀疏矩阵S,其中得到的低秩矩阵L表示目标背景,稀疏矩阵S表示得到的候选运动目标;
S23:利用形态学开闭运算对得到的候选运动目标进行噪声滤除处理,滤除运动候选区域中细小的噪声点。
进一步,步骤S3中,所述改进的候选区域生成网络模型包含依次连接的五个卷积层和两个全连接层,其中第一层卷积层与第二层卷积层之间、第二层卷积层与第三层卷积层之间以及第五层和第一全连接层之间均设置有池化层;
步骤S3具体为:
S31:将视频的数据集分为训练集和测试集;
S32:对于训练集的数据,提取图像中的人工标注的正样本,然后随机采样若干区域作为负样本;
S33:利用训练集的正负样本训练得到改进的候选区域生成网络模型;
S34:通过改进的区域生成网络模型对测试集的视频图像处理生成候选目标区域Ⅱ。
进一步,步骤S32中随机采样的区域的宽度和高度大小范围由正样本的宽度和高度决定,且负样本与正样本的重叠区域满足:
其中IoU为重叠率,rg为正样本区域,rn为随机采样负样本区域。
进一步,步骤S4中融合得到候选目标区域Ⅲ具体为:
S41:对候选目标区域Ⅰ进行密集采样得到密集种子候选区域;
S42:计算密集种子候选区域与候选目标区域Ⅱ之间的相似性,当满足
时合并两个候选区域,其中,Sim为密集种子候选区域与候选目标区域Ⅱ的相似度;
S43:遍历所有的候选目标区域Ⅰ得到最终的候选目标区域Ⅲ。
进一步,步骤S5中,所述基于双通道的深度神经网络包含前端模块和后端模块;
所述前端模块由两个并行的深度神经网络模型组成,其中一个以候选目标区域直接作为输入,经过一个6层卷积神经网络和1个全连接层;另一个以候选目标区域为中心,在原图目标区域上建立一个扩展区域作为输入,经过一个6层卷积神经网络和1个全连接层;
所述后端模块以前端模块得到的两个全连接层的输出作为输入,经过2个全连接层和1个softmax层得到每个候选区域的分类信息作为最终的分类结果;
步骤S5具体为:
S51:对于训练数据集,将步骤S4得到的候选目标区域Ⅲ的训练数据集分为正负样本,输入到基于双通道的深度神经网络训练得到最优权重;
S52:将最优权重应用到步骤S4得到的测试集的候选目标区域进行分类,得到最终的识别结果。
进一步,步骤S6具体包括:
S61:已知当前帧t的前一帧目标的中心位置(xt-1,yt-1),对于步骤S5中训练得到的改进的候选区域生成网络模型,将改进的候选区域生成网络模型的最后三层卷积层得到的卷积特征图阵列进行稀疏化,然后利用稀疏化后的特征图提取目标的深度特征;
S62:对改进的候选区域生成网络模型的最后三层卷积层的输出特征分别构造相关滤波器,由后向前,将每一层的特征与对应的相关滤波器进行卷积,计算相应的置信分数f,从而得到候选目标在当前帧的新的中心位置(xt,yt);
S63:在新的中心位置周围提取深度特征,更新相关滤波器的参数;
S64:考虑到无人机目标运动的稳定性和连续性,对于跟踪帧数少于阈值的候选目标区域轨迹进行滤除,最终得到的跟踪目标为无人机的检测结果。
进一步,构造相关滤波器的步骤为:
S621:设输出特征的大小为M×N×D,深度特征为x,构造相关滤波器的目标函数:
其中,w*为相关滤波器的目标函数,w为相关滤波器,xm,n为在(m,n)像素处的特征,λ为正则化参数λ(λ≥0),y(m,n)表示在(m,n)处像素的标签;
y(m,n)服从二维高斯分布:
其中σ为高斯内核的宽度;
S622:利用快速傅里叶变换将目标函数转换到频域,得到目标函数的最优解,
Y是y的傅里叶变换,⊙表示Hadamard积,Wd为目标函数的最优解,为深度特征x的傅里叶变换,i为第i通道,d为通道顺序,d∈{1,2,…,D};
S623:给定下一帧图像的候选目标区域,对于候选区域的深度特征z,对应相关滤波器的响应图为:
其中F-1表示傅里叶变换,表示深度特征z的傅里叶变换。
进一步,步骤S63中更新相关滤波器的参数满足:
Pt、Qt为中间变量,Wt为更新后的第t帧的相关滤波器的目标函数,t为视频帧号,η为学习率。
本发明的有益效果在于:
1)本发明提出了一种基于无人机运动特征和深度学习特征的方法检测无人机。该方法能在背景复杂且无人机较小的情况下有效的检测到目标。
2)本方法改进了传统的深度神经网络结构,有效的解决了现有的基于深度神经网络的目标检测算法不适用于小目标的问题。
3)本方法提出了一种基于多层深度特征和相关滤波器的在线跟踪算法,能较好的跟踪预测无人机轨迹并滤除虚假目标。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明基于运动特征和深度学习特征的无人机小目标检测方法的示意图;
图2为视频稳像算法示意图;
图3为卷积神经网络结构示意图;
图4为利用改进的区域生成网络生成候选目标示意图;
图5为基于双通道的深度神经网络示意图;
图6为基于深度特征的在线跟踪算法示意图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
在本发明中,基于运动特征的候选目标检测模块,对原始视频进行视频稳像后,通过低秩矩阵分析提取视频中的运动目标区域;
基于深度特征的候选目标检测模块,通过改进的区域生成网络模型对视频图像提取候选目标;
改进的候选区域生成网络是在传统的区域生成网络基础上修改了网络结构以及候选区域的尺度大小,并且更换了输出特征图的网络层;
候选区域融合模块是将步骤S2与S3得到的候选区域进行融合;
基于双通道的深度神经网络的候选目标识别模块是针对小目标的特点改进传统的深度神经网络模型对候选区域进行分类识别,得到最终的识别结果;
基于深度特征的在线跟踪算法改进了传统的基于人工特征的跟踪算法,利用卷积神经网络提取的目标的特征,更具有鲁棒性。
图1为本发明基于运动特征和深度学习特征的无人机小目标检测方法示意图,如图所示,本发明所述方法具体包括以下步骤:
步骤S1:首先通过视频稳像算法对输入的原始视频的数据集进行处理,补偿摄像头运动,其具体流程图如图2所示:
S101:利用SURF算法对图像提取关键点,构造SURF特征点描述符。
S102:计算两帧图像对应特征点的欧氏距离,然后选取最小的距离,设定阈值,当对应特征点距离小于阈值时,保留匹配点,否则剔除。
S103:将两帧图像进行双向匹配,通过重复S12步骤,当匹配的特征点对与步骤S12得到的结果一致时,得到最终的特征匹配点。
S104:将摄像头运动设定为仿射变换模型,根据上述步骤得到的特征匹配点,利用最小二乘法计算得到两帧图像之间的仿射变换模型。
S105:根据得到的仿射变换模型,通过当前帧与设定的基准帧配准,得到补偿过后的当前帧,保存到新的视频中,最终得到稳定的视频。
S106:计算得到的补偿后当前帧与基准帧之间的偏移度,若偏移度大于阈值,则更新当前帧为基准帧,否则继续读取下一帧。
步骤S2:通过低秩矩阵分析的方法对补偿后的视频检测运动候选目标区域,并通过图像后处理模块去除运动候选区域中细小的噪声点。
步骤S3:将数据集分为训练集和测试集,利用训练数据集训练得到改进的候选区域生成网络模型;通过训练得到的改进的区域生成网络对测试集的视频图像生成候选目标。改进的区域生成网络模型结构如图4所示:
在步骤S3中,利用数据集正负样本训练改进的候选区域生成网络模型;通过训练得到的改进的区域生成网络对测试集的视频图像生成候选目标,具体包括以下过程:
首先针对无人机的特点对传统的候选区域生成网络结构改进,得到改进的候选区域生成网络,改进的候选区域生成网络修改了网络结构和特征提取的尺度大小,并且更换了输出特征图的网络层;然后利用训练数据集训练得到改进的候选区域生成网络模型的最优权重;最后把最优权重应用到测试数据集上得到候选目标矩形框。
改进的区域生成网络主要在卷积神经网络(Convolutional Neural Network,CNN)的基础上额外增加了两个全卷积层,一个是区域分类层,用于判断候选区域是前景目标还是背景,另一个是区域边框回归层,用于预测候选区域的位置坐标。其中,卷积神经网络是由五个卷积层,三个池化层以及两个全连接层构成,如图3所示。传统的区域生成网络通常对最后一层卷积层产生的特征图进行处理,但是小目标往往更依赖浅层特征,因为浅层特征有更高的分辨率,因此,本方法将之改为第四个卷积层。区域生成网络通过滑动网络在第四个卷积层输出的特征图上滑动,这个滑动网络每次与特征图上9个不同尺度大小的窗口全连接,然后映射到一个低维向量,最后将这个低维向量送入到两个全连接层,得到候选目标的类别和位置。与传统的区域生成网络不同的是,方法中9个尺度大小相比原来的大小减小,更加有利于小目标的检测。
步骤S3具体为:
S31:将视频的数据集分为训练集和测试集;
S32:对于训练集的数据,提取图像中的人工标注的正样本,然后随机采样若干区域作为负样本;
S33:利用训练集的正负样本训练得到改进的候选区域生成网络模型;
S34:通过改进的区域生成网络模型对测试集的视频图像处理生成候选目标区域Ⅱ。
步骤S32中对图像进行负样本的采样,采样的区域的宽度和高度大小的范围由正样本的最大(最小)宽度和高度决定,并且负样本的区域与正样本的重叠率不能超过满足:
其中IoU为重叠率,rg为正样本区域,rn为随机采样负样本区域。
步骤S4:对步骤S2得到的候选目标区域进行密集采样得到更密集的候选目标框,然后与步骤S3得到的候选目标通过融合得到最终的候选目标。
具体融合方式包括:
S41:将步骤S2得到的运动候选区域作为种子候选区域,对种子候选区域进行进一步的密集采样,得到密集的种子候选区域;
S42:计算种子候选区域与步骤S3得到的候选区域之间的相似性,当相似性大于μ(μ∈[0.6,1])时,合并两个候选区域,遍历所有的种子候选区域得到最终的候选区域。区域A和区域B相似性Sim计算公式为:
步骤S5:根据本方法提出的一种针对小目标检测的基于双通道的深度神经网络模型,利用训练数据集训练得到该网络模型,然后将其应用于测试集的候选目标得到识别结果。基于双通道的深度神经网络模型结构如图5所示:
基于双通道的深度神经网络模型主要有两个部分组成,前端模块和后端模块。前端模块由两个并行的深度神经网络模型组成,一个以候选目标区域直接作为输入,经过6个卷积层和1个全连接层,得到4096维的特征;另一个以候选目标区域为中心,在原图上取4倍的目标区域的一个扩展区域作为输入,经过6个卷积层和1个全连接层,得到4096维的特征。后端模块以前端模块得到的两个4096的特征串起来作为输入,经过2个全连接层层和1个softmax层得到每个候选区域的分类信息作为最终的分类结果。
在步骤S5中,根据本方法提出的一种针对小目标检测的基于双通道的深度神经网络,利用训练数据集训练得到该网络模型,然后将其应用于测试集的候选目标得到识别结果,具体包括:
S51:对于训练数据集,将步骤S4得到的训练数据集的候选目标区域分为正负样本,输入改进的基于双通道的深度神经网络训练得到最优权重。
S52:将最优权重应用到步骤S4得到的测试数据集的候选目标区域进行分类,得到最终的识别结果。
步骤S6:将本方法提出的基于深度特征的目标跟踪方法应用于步骤S5的识别结果,利用相关滤波算法预测目标的位置,跟踪匹配的稳定目标从而滤除虚假目标,得到最终的无人机所在位置。基于深度特征的目标跟踪算法具体流程图如图6所示:
S601:输入当前帧前一帧的候选目标区域,利用步骤S5中训练得到的神经网络模型,首先将模型最后三层卷积层得到的卷积特征图阵列稀疏化,然后利用稀疏化后的特征图提取目标的深度特征;
S602:对上述每一卷积层输出特征分别构造相应的相关滤波器,由后向前,将每一层的特征与对应的相关滤波器进行卷积,计算相应的置信分数,从而得到该候选目标在当前帧的新位置;
S603:在候选目标新的中心位置周围提取深度特征,用以更新相关滤波器的参数。
S604:考虑到无人机目标运动的稳定性和连续性,对于跟踪帧数少于阈值的候选目标区域轨迹进行滤除,最终得到的跟踪目标为无人机的检测结果。
对于步骤S604中提到的阈值的取值范围为5-20。
在步骤S6中,所述对大小为M×N×D的输出特征分别构造相应的相关滤波器,具体包括:
首先,设大小为M×N×D的深度特征为x,构造相应相关滤波器的目标函数为:
其中,λ(λ≥0)为正则化参数;y(m,n)表示在(m,n)处像素的标签,标签服从二维高斯分布:
然后,利用快速傅里叶变换将目标函数转换到频域,可推导得到目标函数的最优解为:
其中,Y是y的傅里叶变换,⊙表示Hadamard积;
最后,当给定下一帧图像的候选目标区域后,对于候选区域的深度特征z,则对应相关滤波器的响应图为:
其中,F-1表示傅里叶反变换。
进一步,在步骤S6中,所述相关滤波器的参数Wd的更新策略,具体包括:
其中,t是视频帧号,η是学习率。
最后说明的是,以上优选实施例仅用以说明发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (10)
1.一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:该方法包括以下步骤:
S1:通过视频稳像算法对输入的视频的数据集进行处理,补偿摄像头运动;
S2:通过低秩矩阵分析方法从运动补偿后的视频图像中检测运动候选目标区域Ⅰ,并通过图像后处理模块去除运动候选目标区域Ⅰ中细小的噪声点;
S3:将视频的数据集分为训练集和测试集,利用训练集训练得到改进的候选区域生成网络模型;通过改进的区域生成网络模型对测试集的视频图像处理生成候选目标区域Ⅱ;
S4:将候选目标区域Ⅰ和候选目标区域Ⅱ进行融合得到候选目标区域Ⅲ;
S5:根据候选目标区域Ⅲ,利用训练集训练得到基于双通道的深度神经网络,然后将基于双通道的深度神经网络应用于测试集的候选目标得到识别结果;
S6:利用相关滤波算法预测目标的位置,跟踪匹配稳定的目标,滤除虚假目标,得到无人机所在位置。
2.根据权利要求1所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S1中,所述的视频稳像算法包括:
S11:利用SURF算法对每一帧图像提取特征点;
S12:通过得到的两帧图像之间的特征匹配点计算得到两帧之间的仿射变换模型;
S13:利用得到的仿射变换模型对当前帧进行补偿。
3.根据权利要求1所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S2中,利用低秩矩阵分析方法检测运动候选目标区域Ⅰ的过程包含以下步骤:
S21:将输入视频序列图像数据{f1,f2,...,fn}向量化构成图像矩阵其中n为视频帧数,fn为第n帧视频图像矩阵,为fn向量化后的图像矩阵;
S22:通过RPCA算法将矩阵C分解为低秩矩阵L和稀疏矩阵S,其中得到的低秩矩阵L表示目标背景,稀疏矩阵S表示得到的候选运动目标;
S23:利用形态学开闭运算对得到的候选运动目标进行噪声滤除处理,滤除运动候选区域中细小的噪声点。
4.根据权利要求1所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S3中,所述改进的候选区域生成网络模型包含依次连接的五个卷积层和两个全连接层,其中第一层卷积层与第二层卷积层之间、第二层卷积层与第三层卷积层之间以及第五层和第一全连接层之间均设置有池化层;
步骤S3具体为:
S31:将视频的数据集分为训练集和测试集;
S32:对于训练集的数据,提取图像中的人工标注的正样本,然后随机采样若干区域作为负样本;
S33:利用训练集的正负样本训练得到改进的候选区域生成网络模型;
S34:通过改进的区域生成网络模型对测试集的视频图像处理生成候选目标区域Ⅱ。
5.根据权利要求4所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S32中随机采样的区域的宽度和高度大小范围由正样本的宽度和高度决定,且负样本与正样本的重叠区域满足:
<mrow>
<mi>I</mi>
<mi>o</mi>
<mi>U</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>a</mi>
<mi>r</mi>
<mi>e</mi>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>g</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&cap;</mo>
<mi>a</mi>
<mi>r</mi>
<mi>e</mi>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>a</mi>
<mi>r</mi>
<mi>e</mi>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>g</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&cup;</mo>
<mi>a</mi>
<mi>r</mi>
<mi>e</mi>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>n</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo><</mo>
<mn>0.5</mn>
</mrow>
其中IoU为重叠率,rg为正样本区域,rn为随机采样负样本区域。
6.根据权利要求4所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S4中融合得到候选目标区域Ⅲ具体为:
S41:对候选目标区域Ⅰ进行密集采样得到密集种子候选区域;
S42:计算密集种子候选区域与候选目标区域Ⅱ之间的相似性,当满足
<mrow>
<mn>0.6</mn>
<mo><</mo>
<mi>S</mi>
<mi>i</mi>
<mi>m</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>A</mi>
<mo>&cap;</mo>
<mi>B</mi>
</mrow>
<mrow>
<mi>A</mi>
<mo>&cup;</mo>
<mi>B</mi>
</mrow>
</mfrac>
<mo><</mo>
<mn>1</mn>
</mrow>
时合并两个候选区域,其中,Sim为密集种子候选区域与候选目标区域Ⅱ的相似度;
S43:遍历所有的候选目标区域Ⅰ得到最终的候选目标区域Ⅲ。
7.根据权利要求6所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S5中,所述基于双通道的深度神经网络包含前端模块和后端模块;
所述前端模块由两个并行的深度神经网络模型组成,其中一个以候选目标区域直接作为输入,经过一个6层卷积神经网络和1个全连接层;另一个以候选目标区域为中心,在原图目标区域上建立一个扩展区域作为输入,经过一个6层卷积神经网络和1个全连接层;
所述后端模块以前端模块得到的两个全连接层的输出作为输入,经过2个全连接层和1个softmax层得到每个候选区域的分类信息作为最终的分类结果;
步骤S5具体为:
S51:对于训练数据集,将步骤S4得到的候选目标区域Ⅲ的训练数据集分为正负样本,输入到基于双通道的深度神经网络训练得到最优权重;
S52:将最优权重应用到步骤S4得到的测试集的候选目标区域进行分类,得到最终的识别结果。
8.根据权利要求4所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S6具体包括:
S61:已知当前帧t的前一帧目标的中心位置(xt-1,yt-1),对于步骤S5中训练得到的改进的候选区域生成网络模型,将改进的候选区域生成网络模型的最后三层卷积层得到的卷积特征图阵列进行稀疏化,然后利用稀疏化后的特征图提取目标的深度特征;
S62:对改进的候选区域生成网络模型的最后三层卷积层的输出特征分别构造相关滤波器,由后向前,将每一层的特征与对应的相关滤波器进行卷积,计算相应的置信分数f,从而得到候选目标在当前帧的新的中心位置(xt,yt);
S63:在新的中心位置周围提取深度特征,更新相关滤波器的参数;
S64:考虑到无人机目标运动的稳定性和连续性,对于跟踪帧数少于阈值的候选目标区域轨迹进行滤除,最终得到的跟踪目标为无人机的检测结果。
9.根据权利要求8所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:构造相关滤波器的步骤为:
S621:设输出特征的大小为M×N×D,深度特征为x,构造相关滤波器的目标函数:
<mrow>
<msup>
<mi>w</mi>
<mo>*</mo>
</msup>
<mo>=</mo>
<munder>
<mi>argmin</mi>
<mi>w</mi>
</munder>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
</mrow>
</munder>
<mo>|</mo>
<mo>|</mo>
<mi>w</mi>
<mo>&CenterDot;</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
</mrow>
</msub>
<mo>-</mo>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>w</mi>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>,</mo>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>&Element;</mo>
<mo>{</mo>
<mn>0</mn>
<mo>,</mo>
<mn>1</mn>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<mi>M</mi>
<mo>-</mo>
<mn>1</mn>
<mo>}</mo>
<mo>&times;</mo>
<mo>{</mo>
<mn>0</mn>
<mo>,</mo>
<mn>1</mn>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<mi>N</mi>
<mo>-</mo>
<mn>1</mn>
<mo>}</mo>
</mrow>
其中,w*为相关滤波器的目标函数,w为相关滤波器,xm,n为在(m,n)像素处的特征,λ为正则化参数λ(λ≥0),y(m,n)表示在(m,n)处像素的标签;
y(m,n)服从二维高斯分布:
<mrow>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>-</mo>
<mi>M</mi>
<mo>/</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>-</mo>
<mi>N</mi>
<mo>/</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中σ为高斯内核的宽度;
S622:利用快速傅里叶变换将目标函数转换到频域,得到目标函数的最优解,
Y是y的傅里叶变换,⊙表示Hadamard积,Wd为目标函数的最优解,为深度特征x的傅里叶变换,i为第i通道,d为通道顺序,d∈{1,2,…,D};
S623:给定下一帧图像的候选目标区域,对于候选区域的深度特征z,对应相关滤波器的响应图为:
其中F-1表示傅里叶变换,表示深度特征z的傅里叶变换。
10.根据权利要求9所述的一种基于运动特征和深度学习特征的无人机小目标检测方法,其特征在于:步骤S63中更新相关滤波器的参数满足:
<mrow>
<msubsup>
<mi>W</mi>
<mi>t</mi>
<mi>d</mi>
</msubsup>
<mo>=</mo>
<mfrac>
<msubsup>
<mi>P</mi>
<mi>t</mi>
<mi>d</mi>
</msubsup>
<mrow>
<msubsup>
<mi>Q</mi>
<mi>t</mi>
<mi>d</mi>
</msubsup>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
Pt、Qt为中间变量,Wt为更新后的第t帧的相关滤波器的目标函数,t为视频帧号,η为学习率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711166232.4A CN107862705B (zh) | 2017-11-21 | 2017-11-21 | 一种基于运动特征和深度学习特征的无人机小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711166232.4A CN107862705B (zh) | 2017-11-21 | 2017-11-21 | 一种基于运动特征和深度学习特征的无人机小目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107862705A true CN107862705A (zh) | 2018-03-30 |
CN107862705B CN107862705B (zh) | 2021-03-30 |
Family
ID=61702397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711166232.4A Active CN107862705B (zh) | 2017-11-21 | 2017-11-21 | 一种基于运动特征和深度学习特征的无人机小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862705B (zh) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549876A (zh) * | 2018-04-20 | 2018-09-18 | 重庆邮电大学 | 基于目标检测和人体姿态估计的坐姿检测方法 |
CN108846522A (zh) * | 2018-07-11 | 2018-11-20 | 重庆邮电大学 | 无人机***联合充电站部署及路由选择方法 |
CN108960190A (zh) * | 2018-07-23 | 2018-12-07 | 西安电子科技大学 | 基于fcn图像序列模型的sar视频目标检测方法 |
CN109145906A (zh) * | 2018-08-31 | 2019-01-04 | 北京字节跳动网络技术有限公司 | 目标对象的图像确定方法、装置、设备及存储介质 |
CN109255286A (zh) * | 2018-07-21 | 2019-01-22 | 哈尔滨工业大学 | 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法 |
CN109272530A (zh) * | 2018-08-08 | 2019-01-25 | 北京航空航天大学 | 面向空基监视场景的目标跟踪方法与装置 |
CN109325967A (zh) * | 2018-09-14 | 2019-02-12 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、介质以及设备 |
CN109325407A (zh) * | 2018-08-14 | 2019-02-12 | 西安电子科技大学 | 基于f-ssd网络滤波的光学遥感视频目标检测方法 |
CN109325490A (zh) * | 2018-09-30 | 2019-02-12 | 西安电子科技大学 | 基于深度学习和rpca的太赫兹图像目标识别方法 |
CN109359545A (zh) * | 2018-09-19 | 2019-02-19 | 北京航空航天大学 | 复杂低空环境下一种协同监视方法与装置 |
CN109410149A (zh) * | 2018-11-08 | 2019-03-01 | 安徽理工大学 | 一种基于并行特征提取的cnn去噪方法 |
CN109472191A (zh) * | 2018-09-17 | 2019-03-15 | 西安电子科技大学 | 一种基于时空上下文的行人重识别与追踪方法 |
CN109708659A (zh) * | 2018-12-25 | 2019-05-03 | 四川九洲空管科技有限责任公司 | 一种分布式智能光电低空防护*** |
CN109801317A (zh) * | 2018-12-29 | 2019-05-24 | 天津大学 | 基于卷积神经网络进行特征提取的图像匹配方法 |
CN109859241A (zh) * | 2019-01-09 | 2019-06-07 | 厦门大学 | 自适应特征选择和时间一致性鲁棒相关滤波视觉跟踪方法 |
CN109918988A (zh) * | 2018-12-30 | 2019-06-21 | 中国科学院软件研究所 | 一种结合成像仿真技术的可移植的无人机检测*** |
CN110262529A (zh) * | 2019-06-13 | 2019-09-20 | 桂林电子科技大学 | 一种基于卷积神经网络的无人机监控方法及*** |
CN110287955A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标区域确定模型训练方法、装置和计算机可读存储介质 |
CN110414375A (zh) * | 2019-07-08 | 2019-11-05 | 北京国卫星通科技有限公司 | 低空目标的识别方法、装置、存储介质及电子设备 |
CN110633597A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 一种可行驶区域检测方法和装置 |
CN110631588A (zh) * | 2019-09-23 | 2019-12-31 | 电子科技大学 | 一种基于rbf网络的无人机视觉导航定位方法 |
CN110706193A (zh) * | 2018-06-21 | 2020-01-17 | 北京京东尚科信息技术有限公司 | 图像处理方法和装置 |
CN110706252A (zh) * | 2019-09-09 | 2020-01-17 | 西安理工大学 | 运动模型引导下的机器人核相关滤波跟踪算法 |
CN111006669A (zh) * | 2019-12-12 | 2020-04-14 | 重庆邮电大学 | 一种无人机***任务协同及路径规划方法 |
CN111127509A (zh) * | 2018-10-31 | 2020-05-08 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN111242974A (zh) * | 2020-01-07 | 2020-06-05 | 重庆邮电大学 | 一种基于孪生网络和反向传播的车辆实时跟踪方法 |
CN111247526A (zh) * | 2020-01-02 | 2020-06-05 | 香港应用科技研究院有限公司 | 使用迭代模板匹配的目标跟踪方法及*** |
CN111508002A (zh) * | 2020-04-20 | 2020-08-07 | 北京理工大学 | 一种小型低飞目标视觉检测跟踪***及其方法 |
CN111781599A (zh) * | 2020-07-16 | 2020-10-16 | 哈尔滨工业大学 | 基于CV-EstNet的SAR运动舰船目标速度估算方法 |
CN112288655A (zh) * | 2020-11-09 | 2021-01-29 | 南京理工大学 | 一种基于mser区域匹配和低秩矩阵分解的海面图像稳像方法 |
CN112487892A (zh) * | 2020-11-17 | 2021-03-12 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于置信度的无人机对地探测方法及*** |
CN114511793A (zh) * | 2020-11-17 | 2022-05-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于同步检测跟踪的无人机对地探测方法及*** |
CN116954264A (zh) * | 2023-09-08 | 2023-10-27 | 杭州牧星科技有限公司 | 分布式高亚音速无人机集群控制***及其方法 |
CN117079196A (zh) * | 2023-10-16 | 2023-11-17 | 长沙北斗产业安全技术研究院股份有限公司 | 基于深度学习以及目标运动轨迹的无人机识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106991396A (zh) * | 2017-04-01 | 2017-07-28 | 南京云创大数据科技股份有限公司 | 一种基于智慧路灯伴侣的目标接力跟踪算法 |
-
2017
- 2017-11-21 CN CN201711166232.4A patent/CN107862705B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106991396A (zh) * | 2017-04-01 | 2017-07-28 | 南京云创大数据科技股份有限公司 | 一种基于智慧路灯伴侣的目标接力跟踪算法 |
Non-Patent Citations (3)
Title |
---|
张炜程等: ""森林背景下基于自适应区域生长法的烟雾检测"", 《重庆邮电大学学报( 自然科学版)》 * |
田超等: ""基于奇异值分解的红外弱小目标检测"", 《工程数学学报》 * |
黄晓明等: ""自然场景文本区域定位"", 《重庆邮电大学学报( 自然科学版)》 * |
Cited By (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549876A (zh) * | 2018-04-20 | 2018-09-18 | 重庆邮电大学 | 基于目标检测和人体姿态估计的坐姿检测方法 |
CN110633597A (zh) * | 2018-06-21 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 一种可行驶区域检测方法和装置 |
CN110706193A (zh) * | 2018-06-21 | 2020-01-17 | 北京京东尚科信息技术有限公司 | 图像处理方法和装置 |
CN110633597B (zh) * | 2018-06-21 | 2022-09-30 | 北京京东尚科信息技术有限公司 | 一种可行驶区域检测方法和装置 |
CN108846522B (zh) * | 2018-07-11 | 2022-02-11 | 重庆邮电大学 | 无人机***联合充电站部署及路由选择方法 |
CN108846522A (zh) * | 2018-07-11 | 2018-11-20 | 重庆邮电大学 | 无人机***联合充电站部署及路由选择方法 |
CN109255286A (zh) * | 2018-07-21 | 2019-01-22 | 哈尔滨工业大学 | 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法 |
CN109255286B (zh) * | 2018-07-21 | 2021-08-24 | 哈尔滨工业大学 | 基于深度学习网络框架的无人机光学快速检测识别方法 |
CN108960190A (zh) * | 2018-07-23 | 2018-12-07 | 西安电子科技大学 | 基于fcn图像序列模型的sar视频目标检测方法 |
CN108960190B (zh) * | 2018-07-23 | 2021-11-30 | 西安电子科技大学 | 基于fcn图像序列模型的sar视频目标检测方法 |
CN109272530A (zh) * | 2018-08-08 | 2019-01-25 | 北京航空航天大学 | 面向空基监视场景的目标跟踪方法与装置 |
US10719940B2 (en) | 2018-08-08 | 2020-07-21 | Beihang University | Target tracking method and device oriented to airborne-based monitoring scenarios |
CN109272530B (zh) * | 2018-08-08 | 2020-07-21 | 北京航空航天大学 | 面向空基监视场景的目标跟踪方法与装置 |
CN109325407A (zh) * | 2018-08-14 | 2019-02-12 | 西安电子科技大学 | 基于f-ssd网络滤波的光学遥感视频目标检测方法 |
CN109325407B (zh) * | 2018-08-14 | 2020-10-09 | 西安电子科技大学 | 基于f-ssd网络滤波的光学遥感视频目标检测方法 |
CN109145906A (zh) * | 2018-08-31 | 2019-01-04 | 北京字节跳动网络技术有限公司 | 目标对象的图像确定方法、装置、设备及存储介质 |
CN109325967B (zh) * | 2018-09-14 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、介质以及设备 |
CN109325967A (zh) * | 2018-09-14 | 2019-02-12 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、介质以及设备 |
CN109472191A (zh) * | 2018-09-17 | 2019-03-15 | 西安电子科技大学 | 一种基于时空上下文的行人重识别与追踪方法 |
CN109472191B (zh) * | 2018-09-17 | 2020-08-11 | 西安电子科技大学 | 一种基于时空上下文的行人重识别与追踪方法 |
CN109359545B (zh) * | 2018-09-19 | 2020-07-21 | 北京航空航天大学 | 复杂低空环境下一种协同监视方法与装置 |
CN109359545A (zh) * | 2018-09-19 | 2019-02-19 | 北京航空航天大学 | 复杂低空环境下一种协同监视方法与装置 |
CN109325490A (zh) * | 2018-09-30 | 2019-02-12 | 西安电子科技大学 | 基于深度学习和rpca的太赫兹图像目标识别方法 |
CN109325490B (zh) * | 2018-09-30 | 2021-04-27 | 西安电子科技大学 | 基于深度学习和rpca的太赫兹图像目标识别方法 |
CN111127509B (zh) * | 2018-10-31 | 2023-09-01 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN111127509A (zh) * | 2018-10-31 | 2020-05-08 | 杭州海康威视数字技术股份有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN109410149A (zh) * | 2018-11-08 | 2019-03-01 | 安徽理工大学 | 一种基于并行特征提取的cnn去噪方法 |
CN109410149B (zh) * | 2018-11-08 | 2019-12-31 | 安徽理工大学 | 一种基于并行特征提取的cnn去噪方法 |
CN109708659A (zh) * | 2018-12-25 | 2019-05-03 | 四川九洲空管科技有限责任公司 | 一种分布式智能光电低空防护*** |
CN109801317A (zh) * | 2018-12-29 | 2019-05-24 | 天津大学 | 基于卷积神经网络进行特征提取的图像匹配方法 |
CN109918988A (zh) * | 2018-12-30 | 2019-06-21 | 中国科学院软件研究所 | 一种结合成像仿真技术的可移植的无人机检测*** |
CN109859241B (zh) * | 2019-01-09 | 2020-09-18 | 厦门大学 | 自适应特征选择和时间一致性鲁棒相关滤波视觉跟踪方法 |
CN109859241A (zh) * | 2019-01-09 | 2019-06-07 | 厦门大学 | 自适应特征选择和时间一致性鲁棒相关滤波视觉跟踪方法 |
CN110287955A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标区域确定模型训练方法、装置和计算机可读存储介质 |
CN110262529A (zh) * | 2019-06-13 | 2019-09-20 | 桂林电子科技大学 | 一种基于卷积神经网络的无人机监控方法及*** |
CN110262529B (zh) * | 2019-06-13 | 2022-06-03 | 桂林电子科技大学 | 一种基于卷积神经网络的无人机监控方法及*** |
CN110414375A (zh) * | 2019-07-08 | 2019-11-05 | 北京国卫星通科技有限公司 | 低空目标的识别方法、装置、存储介质及电子设备 |
CN110706252B (zh) * | 2019-09-09 | 2020-10-23 | 西安理工大学 | 运动模型引导下的机器人核相关滤波跟踪算法 |
CN110706252A (zh) * | 2019-09-09 | 2020-01-17 | 西安理工大学 | 运动模型引导下的机器人核相关滤波跟踪算法 |
CN110631588A (zh) * | 2019-09-23 | 2019-12-31 | 电子科技大学 | 一种基于rbf网络的无人机视觉导航定位方法 |
CN111006669A (zh) * | 2019-12-12 | 2020-04-14 | 重庆邮电大学 | 一种无人机***任务协同及路径规划方法 |
CN111247526B (zh) * | 2020-01-02 | 2023-05-02 | 香港应用科技研究院有限公司 | 跟踪二维平面上移动的目标物***置和方向的方法和*** |
CN111247526A (zh) * | 2020-01-02 | 2020-06-05 | 香港应用科技研究院有限公司 | 使用迭代模板匹配的目标跟踪方法及*** |
CN111242974B (zh) * | 2020-01-07 | 2023-04-11 | 重庆邮电大学 | 一种基于孪生网络和反向传播的车辆实时跟踪方法 |
CN111242974A (zh) * | 2020-01-07 | 2020-06-05 | 重庆邮电大学 | 一种基于孪生网络和反向传播的车辆实时跟踪方法 |
CN111508002A (zh) * | 2020-04-20 | 2020-08-07 | 北京理工大学 | 一种小型低飞目标视觉检测跟踪***及其方法 |
CN111781599A (zh) * | 2020-07-16 | 2020-10-16 | 哈尔滨工业大学 | 基于CV-EstNet的SAR运动舰船目标速度估算方法 |
CN112288655B (zh) * | 2020-11-09 | 2022-11-01 | 南京理工大学 | 一种基于mser区域匹配和低秩矩阵分解的海面图像稳像方法 |
CN112288655A (zh) * | 2020-11-09 | 2021-01-29 | 南京理工大学 | 一种基于mser区域匹配和低秩矩阵分解的海面图像稳像方法 |
CN112487892B (zh) * | 2020-11-17 | 2022-12-02 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于置信度的无人机对地探测方法及*** |
CN114511793A (zh) * | 2020-11-17 | 2022-05-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于同步检测跟踪的无人机对地探测方法及*** |
CN112487892A (zh) * | 2020-11-17 | 2021-03-12 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于置信度的无人机对地探测方法及*** |
CN114511793B (zh) * | 2020-11-17 | 2024-04-05 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于同步检测跟踪的无人机对地探测方法及*** |
CN116954264B (zh) * | 2023-09-08 | 2024-03-15 | 杭州牧星科技有限公司 | 分布式高亚音速无人机集群控制***及其方法 |
CN116954264A (zh) * | 2023-09-08 | 2023-10-27 | 杭州牧星科技有限公司 | 分布式高亚音速无人机集群控制***及其方法 |
CN117079196A (zh) * | 2023-10-16 | 2023-11-17 | 长沙北斗产业安全技术研究院股份有限公司 | 基于深度学习以及目标运动轨迹的无人机识别方法 |
CN117079196B (zh) * | 2023-10-16 | 2023-12-29 | 长沙北斗产业安全技术研究院股份有限公司 | 基于深度学习以及目标运动轨迹的无人机识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107862705B (zh) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862705A (zh) | 一种基于运动特征和深度学习特征的无人机小目标检测方法 | |
Wu et al. | Using popular object detection methods for real time forest fire detection | |
CN107016357B (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN104378582B (zh) | 一种基于ptz摄像机巡航的智能视频分析***及方法 | |
Zhao et al. | SVM based forest fire detection using static and dynamic features | |
CN107292339A (zh) | 基于特征融合的无人机低空遥感影像高分地貌分类方法 | |
CN107767405A (zh) | 一种融合卷积神经网络的核相关滤波目标跟踪方法 | |
CN105760849B (zh) | 基于视频的目标对象行为数据获取方法及装置 | |
CN106650600A (zh) | 一种基于视频图像分析的森林烟火检测方法 | |
CN108346159A (zh) | 一种基于跟踪-学习-检测的视觉目标跟踪方法 | |
Li et al. | A method of cross-layer fusion multi-object detection and recognition based on improved faster R-CNN model in complex traffic environment | |
CN110533695A (zh) | 一种基于ds证据理论的轨迹预测装置及方法 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
CN108764142A (zh) | 基于3dcnn的无人机影像森林烟雾检测和分类方法 | |
CN106845385A (zh) | 视频目标跟踪的方法和装置 | |
CN106485245A (zh) | 一种基于可见光和红外图像的全天候目标实时跟踪方法 | |
CN107230267B (zh) | 基于人脸识别算法的幼儿园智能签到方法 | |
KR102160591B1 (ko) | 화재 상황 감지 모델을 위한 화재 상황 생성 시스템 및 그 최적화 방법 | |
CN110110649A (zh) | 基于速度方向的可选择性人脸检测方法 | |
CN106570490B (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
CN107689052A (zh) | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 | |
CN109255286A (zh) | 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法 | |
CN107025420A (zh) | 视频中人体行为识别的方法和装置 | |
CN110348437A (zh) | 一种基于弱监督学习与遮挡感知的目标检测方法 | |
JP7136500B2 (ja) | ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |