CN109858486B - 一种基于深度学习的数据中心云端目标识别方法 - Google Patents
一种基于深度学习的数据中心云端目标识别方法 Download PDFInfo
- Publication number
- CN109858486B CN109858486B CN201910076845.1A CN201910076845A CN109858486B CN 109858486 B CN109858486 B CN 109858486B CN 201910076845 A CN201910076845 A CN 201910076845A CN 109858486 B CN109858486 B CN 109858486B
- Authority
- CN
- China
- Prior art keywords
- module
- network
- neural network
- training
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的数据中心云端目标识别方法,目的是提高小目标的识别准确度及大图幅图像的检测效果。技术方案是构建包含维度聚类模块、功能模块的基于深度学习的数据中心云端目标识别***,构建的卷积神经网络的输出层中定义有聚焦损失函数,功能模块中包含分割检测函数,充分利用训练集待训练图片的特征,通过维度聚类模块提炼先验信息,聚焦损失函数使网络的训练侧重于小目标,利用分割检测函数分块检测大图幅图像。本发明维度聚类模块从训练集标签文件提取训练集的先验信息,提高了目标的定位准确度,聚焦损失函数提高了小目标的识别准确度,分割检测函数进一步提高了大图幅图像的检测速度和检测的准确度。
Description
技术领域
本发明涉及目标识别领域,尤其涉及一种基于深度学习的数据中心云端目标识别方法。
背景技术
近年来随着深度学习技术的发展,使得以原始数据作为输入,实现端到端(End-to-End)的学习过程成为可能。卷积神经网络(Convolutional Neural Networks,CNN)具有很强的特征提取和学习能力。因此,现有的基于深度学习的目标检测方法多基于卷积神经网络,通过对大规模数据进行训练、学习,获取其中最有效的深层特征,并通过建立相对复杂的网络结构,充分挖掘数据之间的关联,从而实现了端到端的目标识别。
如图1所示,现有的基于深度学习的目标检测***由输入输出模块、功能模块、解析模块、网络层模块、神经网络构建模块,cfg配置文件和网络权重文件构成。
cfg配置文件与解析模块相连,cfg配置文件记载构建卷积神经网络的网络参数供解析模块读取,该网络参数分为网络层参数及网络结构参数。网络层参数包括各网络层(卷积神经网络包括输入层、卷积层、池化层、全连接层以及输出层)的每个特征图的神经元个数(即层的大小)及特征图的个数(即层的维数),其中,卷积神经网络的输出层记载先验框的尺寸,先验框的尺寸根据普通图像的尺寸和比例设定(一般等于普通图像的尺寸和比例放大或缩小),该值是固定的;网络结构参数包括组成神经网络的各网络层的类型、数目及组合方式。
网络权重文件与神经网络构建模块、功能模块相连,网络权重文件存贮从功能模块接收的网络权重参数供神经网络构建模块读取。网络权重参数指神经网络层与层之间连接时的各神经元的输入输出关系的表达式的系数。
解析模块与cfg配置文件、网络层模块、神经网络构建模块相连,该模块从cfg配置文件读取构建神经网络的网络参数,将网络参数解析为网络层参数和网络结构参数,并将网络层参数发给网络层模块,将网络结构参数发送给神经网络构建模块。
网络层模块与解析模块、神经网络构建模块相连,该模块从解析模块接收网络层参数,利用网络层参数实例化各网络层,将实例化后的网络层发送给神经网络构建模块;其中,卷积神经网络的输出层中定义了损失函数,损失函数是度量卷积神经网络的输出的预测值与真实值之间的差距的函数。损失函数的值越小,就代表模型拟合的越好。常用的损失函数有0-1损失函数、绝对值损失函数、平方损失函数和交叉熵损失函数等。现有的用于目标识别的卷积神经网络所采用的损失函数是基于平方损失函数的形式,主要适用于普通图像的识别(普通图像中待测目标尺寸占全图的比例较高、目标数目较少,分布较稀疏),未对大小目标进行区分。
CNN使用训练函数进行训练,训练函数对CNN的训练分为两个阶段:前向传播和反向传播。在前向传播阶段,依次调用每个层的Forward(前向传播)函数,得到逐层的输出,最后一层(即输出层)输出预测值,损失函数将预测值与样本真实值比较得到损失函数值;然后输出层的Backward(反向传播)函数计算权重参数更新值,依次调用每个层的Backward(反向传播)函数,通过反向传播逐层到达第一层,网络权重参数在反向传播结束时一起更新。随着训练进行,网络权重参数不断更新,损失函数值不断减少,即网络输出的预测值与真实值误差也越来越小。当损失函数的值不再减少时,表示训练完成,得到网络权重参数。选择不同的损失函数,将会使得神经网络的训练侧重方向不同,训练过程中各层的权重的更新值也就会不同,最后神经网络模型的检测效果也就会不同。
神经网络构建模块与解析模块、网络层模块、网络权重文件、功能模块相连,该模块从解析模块接收网络结构参数,从网络层模块接收实例化后的网络层,根据网络结构参数将各网络层组合,构建神经网络的基本框架。神经网络构建模块还从网络权重文件获取网络权重参数,为神经网络的基本框架赋予权重参数,完成神经网络的搭建,将神经网络发送给功能模块。
输入输出模块与功能模块相连,输入输出模块从用户提供的测试集中读取待测图像,将待测图像转化为功能模块可以识别和处理的结构体(如image、data和box结构体),将这些结构体发送给功能模块;并从功能模块接收识别结果,将识别结果输出给用户。
功能模块与输入输出模块、神经网络构建模块、网络权重文件相连,功能模块调用训练函数(参见文献Jake Bouvrie.Notes on Convolutional Neural Networks[J].2006.11,译为:卷积神经网络笔记,)训练神经网络,将网络权重参数存贮到网络权重文件;功能模块调用检测函数,利用神经网络进行目标识别,得到神经网络对图像的识别结果,将识别结果发送给输入输出模块。
现有的基于深度学习的目标识别***进行目标识别的方法为:
1)解析模块从cfg配置文件读取网络参数,将网络层参数送入网络层模块,将网络结构参数发送给神经网络构建模块;
2)网络层模块从解析模块接收网络层参数,定义并实现各网络层,输出网络层到神经网络构建模块;
3)神经网络构建模块从解析模块接收网络结构参数,从网络层模块接收网络层,根据网络结构参数将网络层按照次序组合,构建神经网络的基本框架。神经网络构建模块再从网络权重文件中获取网络权重参数,为神经网络的基本框架赋予权重,完成神经网络的搭建,神经网络构建模块将神经网络发送给功能模块;
4)输入输出模块接收用户输入的待测图像,并将待测图像放缩为固定尺寸M*M(一般设为416*416),再转化为功能模块可以识别和处理的结构体,如image、data和box结构体,输入输出模块将这些结构体输入功能模块。功能模块调用训练函数训练神经网络,得到网络权重参数,将网络权重参数存贮到网络权重文件中;功能模块调用检测函数,利用神经网络进行目标检测,图像的预测结果由神经网络输出层计算并得到,针对目标位置的预测是采用先验框加位置偏移量得到的(具体检测原理参见文献Joseph Redmon.YOLO9000Better,Faster,Stronger[C].Hawaii Convention Center.2017,pp7263-7271.译作YOLO9000,更好,更快,更强,CVPR2017会议论文,第3页第1行-第4页第4行。),得到神经网络对图像的识别结果后,将识别结果传给输入输出模块,由输入输出模块将识别结果输出给用户。
然而,现有的基于深度学习的目标识别方法存在着如下技术问题:
1)现有的目标检测方法对于目标框位置的预测是基于先验框基础上预测位置的相对偏移量得到的,预设定的先验框是根据普通图像的尺寸和比例设定的,该值是固定的,保存在cfg文件中。然而实际情况中,很多目标的尺寸与比例相差较大,先验框的值不宜直接套用预设定的固定的先验框尺寸,目标识别的准确度不高;
2)现有的目标检测方法中的损失函数是针对普通图像设计的,通常图像中待测目标尺寸占全图的比例较高,且目标数目少,分布较稀疏。然而实际情况中很多航拍图像(如遥感图像)待测目标往往占全图比例很小,且分布比较密集,这就导致训练时网络对目标和背景的训练侧重失衡,对小目标训练不充分,小目标识别不准确;
3)现有识别方法的输入输出模块对所有输入的图像都要进行尺寸归一化的预处理,每张图像都要缩放到M*M(一般为几百乘几百,YOLOv2中是416*416)的尺寸。然而一些图像如遥感图像,往往尺寸达到几千乘以几千,甚至几万乘以几万,而其中的目标尺寸通常只有几十个像素。若是直接输入神经网络进行检测,尺寸归一化会令图像失去很多细节信息,大部分目标都会变成一个点,大图幅图像的检测效果大打折扣。
鉴于此,如何解决小目标和大图幅图像识别准确度低的问题,有效提高小目标的识别准确度及大图幅图像的检测效果成为本领域研究人员亟待解决的问题。
发明内容
本发明要解决的技术问题是提出一种基于深度学习的数据中心云端目标识别方法,充分利用训练集待训练图片的特征,通过维度聚类模块提炼先验信息,利用分割检测函数分块检测大图幅图像,解决小目标和大图幅图像识别准确度低的问题,有效提高小目标的识别准确度及大图幅图像的检测效果。
本发明的技术方案是:
第一步,构建基于深度学习的数据中心云端目标识别***。基于深度学习的数据中心云端目标识别***由云端服务器、客户端组成。客户端上安装有远程登录软件,客户端中存储着待测任务所需要的数据集,数据集包括测试集待测图片(测试集中待检测的图片)、训练集待训练图片(训练集中用来训练神经网络的图片)、训练集标签文件,训练集标签文件记录了训练集待训练图片中目标的标记框信息,包括标记框的位置坐标、宽、高及目标的类别(如飞机,船)。客户端通过远程登录软件登录云端服务器,将数据集上传到云端服务器,在开始训练和测试前向云端服务器发送训练指令、检测指令,对云端服务器进行远程训练、检测;云端服务器进行神经网络训练和目标识别,根据客户端的指令调度云端服务器的计算资源和存储资源,并将神经网络的训练进度信息以及识别结果发送给客户端。
云端服务器除安装有输入输出模块、功能模块、解析模块、网络层模块、神经网络构建模块、cfg配置文件、网络权重文件,还安装有维度聚类模块。
维度聚类模块与客户端、cfg配置文件相连,该模块从客户端接收训练集标签文件,维度聚类模块对训练集标签文件中的标记框信息进行提炼分析,计算得到先验框尺寸,将先验框尺寸写入到cfg配置文件中。
cfg配置文件与维度聚类模块、解析模块相连,cfg配置文件除了记载构建卷积神经网络的网络参数外,还将从维度聚类模块接收的先验框尺寸作为网络的输出层参数(属于网络层参数)存贮。
解析模块与cfg配置文件、网络层模块、神经网络构建模块相连。该模块从cfg配置文件读取构建神经网络的网络参数,解析网络参数为网络层参数和网络结构参数,并将网络层参数发送给网络层模块,将网络结构参数发送给神经网络构建模块。
网络层模块与解析模块、神经网络构建模块相连,该模块从解析模块接收网络层参数,利用网络层参数实例化各网络层,并将实例化后的网络层发送给神经网络构建模块。与图1所示的网络层模块不同的是,卷积神经网络的输出层中定义的损失函数为聚焦损失函数,聚焦损失函数是基于交叉熵损失函数改进的,针对检测目标的检测难易程度进行了区分,增加了小目标等难检测目标在损失函数中所占的权重,增强了对于小目标的检测效果(聚焦损失函数的具体原理参见文献Lin T Y,Goyal P,Girshick R,He K.Focal Lossfor Dense Object Detection[C].ICCV2017论文arXiv preprint arXiv:1708.02002,2018:1-10,译为:针对密集目标检测的聚焦损失函数))。聚焦损失函数是针对实际情况的航拍图像设计的,这类图像待测目标通常占全图比例很小、分布比较密集。
神经网络构建模块与解析模块、网络层模块、网络权重文件、功能模块相连。神经网络构建模块从解析模块接收网络结构参数,从网络层模块接收网络层,根据网络结构参数将网络层按照次序组合,构建神经网络的基本框架。神经网络构建模块还从网络权重文件读取网络权重参数,为神经网络的基本框架赋予权重参数,完成神经网络的搭建,神经网络构建模块将神经网络发送给功能模块。
网络权重文件与神经网络构建模块、功能模块相连,网络权重文件存贮从功能模块接收的网络权重参数,供神经网络构建模块读取。
输入输出模块与功能模块相连,输入输出模块从客户端接收测试集待测图像,将待测图像转化为程序可以识别和处理的结构体(如image、data和box结构体),并将这些结构体发送给功能模块。
功能模块与输入输出模块、神经网络构建模块、网络权重文件、客户端相连,与图1一样,功能模块中也有训练函数和检测函数,功能模块调用训练函数训练神经网络,将网络权重参数发送给网络权重文件;与图1不一样的是检测函数发生了变化,变成了分割检测函数,功能模块调用分割检测函数利用神经网络进行目标检测,得到神经网络对图像的识别结果,将识别结果发送给输入输出模块。
第二步,云端服务器的维度聚类模块、解析模块、网络层模块以及神经网络构建模块相互配合,构建神经网络的基本框架,方法为:
2.1维度聚类模块从客户端接收训练集标签文件,从训练集标签文件读取标记框信息,求出先验框尺寸,方法为:
2.1.1维度聚类模块从训练集标签文件获得训练集待训练图片(多个待训练图片)中目标的标记框信息(这些标记框信息是由用户标记好了的),以各个标记框的宽和高的构成的二元组(wi,hi)作为元素(w表示宽,h表示高,i表示标记框序号),构成集合S,集合S中的元素个数为N,N为待训练图片中标记框的个数,i∈[1,N];
2.1.2维度聚类模块设定聚类中心数目为k,k为正整数,定义最大迭代次数为Num,Num一般为10到100之间的整数,初始化第一聚类中心集合C1为空集,设C1中元素的当前数目为N',N'初始值为0。
2.1.3初始化k个聚类中心,方法是:
2.1.3.1维度聚类模块从S中随机选择一个元素(wl,hl),l∈[1,N],将其设为第一个聚类中心,加入集合C1,令变量N'=1;
2.1.3.2令变量m=1,n=1;
2.1.3.3维度聚类模块计算S中的元素(wm,hm)与C1中的元素(wn,hn)的距离d((wm,hm),(wn,hn)):
d((wm,hm),(wn,hn))=1-IOU((wm,hm),(wn,hn))
其中,对于维度聚类模块计算S中任意一个元素(a,b)(a、b分别为标记框的宽wm和高hm)和C1中任意一个元素(c,d)(c、d分别为聚类中心的宽wn和高hn)的矩形框交并比IOU的计算方式如下:
若a≥c,b≥d,则
若a≥c,b≤d,则
若a≤c,b≥d,则
若a≤c,b≤d,则
2.1.3.4若n<N',令n=n+1,转2.1.3.3;若n=N',则转2.1.3.5;
2.1.3.5若m<N,令m=m+1,n=1,转2.1.3.3;若m=N,则转2.1.3.6;
2.1.3.6令变量m=1,n=1,D(wm,hm)=1;D(wm,hm)是S中的任意元素(wm,hm)与C1中的任意元素(wn,hn)距离的最小值;
2.1.3.7若d((wm,hm),(wn,hn))<D(wm,hm),则令D(wm,hm)=d((wm,hm),(wn,hn)),转2.1.3.8;否则直接转2.1.3.8;
2.1.3.8若n<N',令n=n+1,转2.1.3.7;若n=N',则转2.1.3.9;
2.1.3.9若m<N,令m=m+1,n=1,D(wm,hm)=1,转2.1.3.7;若m=N,转2.1.3.10;
2.1.3.10维度聚类模块计算最小距离和
2.1.3.11维度聚类模块采取按权重分配概率的方法选择第N'+1个聚类中心:
2.1.3.11.1用SUM乘以随机值random(random∈[0,1])得到值r,初始化取和变量cur=0,令m=1;
2.1.3.11.2维度聚类模块计算cur=cur+D(wm,hm)
2.1.3.11.3若cur≤r,令m=m+1,转2.1.3.11.2;若cur>r,把S中的元素(wm,hm)加入集合C1,令N'=N'+1,转2.1.3.12;
2.1.3.12若N'<k,转步骤2.1.2.2;若N'=k,得到第一聚类中心集合C1,转2.1.4。
2.1.4令迭代次数t=1,维度聚类模块迭代计算产生第t+1聚类中心集合,步骤如下:
2.1.4.1维度聚类模块根据S中各个元素与Ct中k个聚类中心的距离远近,将S中各元素划归最近聚类中心所属的聚类,方法是:
对于S中每个元素,Ct中都有一个聚类中心与之距离d最小。将与第一个聚类中心(w1,h1)距离最小的元素划分为一个集合C1,将与第二个聚类中心(w2,h2)距离最小的元素划分为一个集合C2,以此类推,得到k个集合,表示为C1,C2,…,Cp,…,Ck,p∈[1,k]。
2.1.4.2分别求出C1,C2,…,Cp,…,Ck中各元素的均值(w1',h1')(w'2,h2'),…,(w'p,h'p),…,(w'k,h'k),其中w'p为Cp中各元素的横坐标的算术平均值,h'p为Cp中各元素的纵坐标的算术平均值,得到的k个均值作为第t+1聚类中心集合Ct+1,t=t+1;
2.1.4.3若t<Num,转步骤2.1.4.1;若t=Num,将此时的Ct+1中k个元素作为先验框的宽和高写入cfg配置文件,转2.2。
2.2解析模块从cfg配置文件接收构建神经网络的网络参数,解析网络参数为网络层参数和网络结构参数,并将网络层参数发给网络层模块,将网络结构参数发送给神经网络构建模块。
2.4网络层模块从解析模块接收网络层参数,利用网络层参数实例化各网络层,在输出层中定义聚焦损失函数,并将网络层发送给神经网络构建模块。
2.5神经网络构建模块从解析模块接收网络结构参数,从网络层模块接收网络层,根据网络结构参数将网络层组合,构建神经网络的基本框架。
第三步,云端服务器和客户端相互配合进行神经网络的训练,完成神经网络的搭建,方法是:
3.1功能模块从客户端获取训练指令;
3.2输入输出模块、功能模块、神经网络构建模块训练神经网络的基本框架,方法是:
3.2.1输入输出模块从客户端接收训练集待测图片,将训练集待测图片转化为程序可以识别和处理的结构体,如image、data和box结构体。
3.2.2输入输出模块将结构体发送给功能模块。
3.2.3神经网络构建模块以随机数作为输入,初始化神经网络的网络权重参数,为神经网络的基本框架赋予权重参数,完成初始的神经网络搭建。
3.2.4神经网络构建模块将初始的神经网络发送给功能模块;
3.2.5功能模块利用结构体训练神经网络,方法是:功能模块将结构体作为输入,调用初始的神经网络输出层中的聚焦损失函数,采用聚焦损失函数指导神经网络进行训练,并生成训练好的网络权重参数(网络权重参数更新的具体原理和方法参见文献JakeBouvrie.Notes on Convolutional Neural Networks[J].2006.11,译为:卷积神经网络笔记)。
3.3功能模块将训练好的网络权重参数存贮到网络权重文件。
3.4神经网络构建模块从网络权重文件中读取训练好的网络权重参数,将训练好的网络权重参数赋予神经网络的基本框架,完成神经网络的搭建。
第四步,云端服务器和客户端相互配合对待测图像进行目标检测识别,方法是:
4.1功能模块从客户端接收检测指令;
4.2功能模块、输入输出模块、功能模块、神经网络构建模块相互配合进行目标检测识别,方法是:
4.2.1输入输出模块从客户端接收测试集待测图片P,将待测图片P转化为功能模块可以识别和处理的结构体,如image、data和box结构体;
4.2.2功能模块从输入输出模块接收结构体,并从神经网络构建模块接收神经网络;
4.2.3功能模块调用分割检测函数,利用结构体对测试集待测图片P进行分割检测,方法如下:
4.2.3.1假设P的宽和高为W和H,以左上角为坐标原点(0,0),令m=0,n=0,M为神经网络输入层的大小,一般为100至1000之间;
4.2.3.2分割检测函数利用神经网络对宽的坐标为区间[m,m+M],高的坐标为区间[n,n+M]范围内的切片进行目标检测,图像的预测结果由神经网络输出层计算并得到,针对目标位置的预测是采用先验框加位置偏移量得到的,得到宽坐标为区间[m,m+M],高的坐标为区间[n,n+M]范围内各切片的识别结果,即各目标的位置坐标与类别;
4.2.3.3若m<W-M,则m=m+M,转4.2.3.2;若W-M≤m≤W,转4.2.3.4;
4.2.3.4分割检测函数利用神经网络对宽的坐标为区间[m,W],高的坐标为区间[n,n+M]范围内的切片进行目标检测,得到宽的坐标为区间[m,W],高的坐标为区间[n,n+M]范围内的各切片的识别结果,m=0;
4.2.3.5若n<H-M,则n=n+M,转4.2.3.2;若H-M≤n≤H,转4.2.3.6;
4.2.3.6分割检测函数利用神经网络对宽的坐标为区间[m,m+M],高的坐标为区间[n,H]范围内的切片进行目标检测,得到宽的坐标为区间[m,m+M],高的坐标为区间[n,H]范围内的各切片的识别结果;
4.2.3.7若m<W-M,则m=m+M,转4.2.3.6;若W-M≤m≤W,转4.2.3.8;
4.2.3.8分割检测函数利用神经网络对宽的坐标为区间[m,W],高的坐标为区间[n,H]范围内的切片进行目标检测,得到宽的坐标为区间[m,W],高的坐标为区间[n,H]范围内的各切片的识别结果;
4.2.3.9分割检测函数将4.2.3.2中的宽坐标为区间[m,m+M],高坐标为区间[n,n+M]范围内的各切片识别结果,4.2.3.4中宽坐标为区间[m,W],高坐标为区间[n,n+M]范围内的各切片识别结果,4.2.3.6中宽坐标为区间[m,m+M],高坐标为区间[n,H]范围内的各切片识别结果,4.2.3.8中宽坐标为区间[m,W],高坐标为区间[n,H]范围内的各切片识别结果进行整合,得出整幅图像P(宽和高分别为W和H)的识别结果。
4.2.4功能模块将P的识别结果传给输入输出模块;
4.3输入输出模块将P的识别结果输出给客户端。
采用本发明可以达到以下技术效果:
1.本发明第二步通过设计维度聚类模块,能够从训练集标签文件提取训练集的先验信息,计算先验框尺寸,提高了目标的定位准确度;
2.本发明添加了聚焦损失函数取代了现有的损失函数,使网络的训练侧重于图像中的小目标,提高了小目标的识别准确度;
3.本发明针对大图幅图像检测信息丢失严重的情况,采用分割检测函数,提高了大图幅图像的检测速度和检测的准确度。
附图说明
图1为现有的基于深度学习的目标识别方法的架构图;
图2为本发明的总体流程图。
图3为本发明设计的基于深度学习的数据中心云端目标识别方法的架构图。
具体实施方式
图2为本发明的总体流程图。如图2所示,本发明包括以下步骤:
第一步,构建基于深度学习的数据中心云端目标识别***。基于深度学习的数据中心云端目标识别***如图3所示,由云端服务器、客户端组成。客户端上安装有远程登录软件,客户端中存储着待测任务所需要的数据集,数据集包括测试集待测图片、训练集待训练图片、训练集标签文件。客户端通过远程登录软件登录云端服务器,将数据集上传到云端服务器,在开始训练和测试前向云端服务器发送训练指令、检测指令,对云端服务器进行远程训练、检测;云端服务器进行神经网络训练和目标识别,根据客户端的指令调度云端服务器的计算资源和存储资源,并将神经网络的训练进度信息以及识别结果发送给客户端。
云端服务器除安装有输入输出模块、功能模块、解析模块、网络层模块、神经网络构建模块、cfg配置文件、网络权重文件,还安装有维度聚类模块。
维度聚类模块与客户端、cfg配置文件相连,该模块从客户端接收训练集标签文件,维度聚类模块对训练集标签文件中的标记框信息进行提炼分析,计算得到先验框尺寸,将先验框尺寸写入到cfg配置文件中。
cfg配置文件与维度聚类模块、解析模块相连,cfg配置文件除了记载构建卷积神经网络的网络参数外,还将从维度聚类模块接收的先验框尺寸作为网络的输出层参数存贮。
解析模块与cfg配置文件、网络层模块、神经网络构建模块相连。该模块从cfg配置文件读取构建神经网络的网络参数,解析网络参数为网络层参数和网络结构参数,并将网络层参数发送给网络层模块,将网络结构参数发送给神经网络构建模块。
网络层模块与解析模块、神经网络构建模块相连,该模块从解析模块接收网络层参数,利用网络层参数实例化各网络层,并将实例化后的网络层发送给神经网络构建模块。与图1所示的网络层模块不同的是,卷积神经网络的输出层中定义的损失函数为聚焦损失函数,聚焦损失函数是基于交叉熵损失函数改进的,针对检测目标的检测难易程度进行了区分,增加了小目标等难检测目标在损失函数中所占的权重,增强了对于小目标的检测效果。
神经网络构建模块与解析模块、网络层模块、网络权重文件、功能模块相连。神经网络构建模块从解析模块接收网络结构参数,从网络层模块接收网络层,根据网络结构参数将网络层按照次序组合,构建神经网络的基本框架。神经网络构建模块还从网络权重文件读取网络权重参数,为神经网络的基本框架赋予权重参数,完成神经网络的搭建,神经网络构建模块将神经网络发送给功能模块。
网络权重文件与神经网络构建模块、功能模块相连,网络权重文件存贮从功能模块接收的网络权重参数,供神经网络构建模块读取。
输入输出模块与功能模块相连,输入输出模块从客户端接收测试集待测图像,将待测图像转化为程序可以识别和处理的结构体(如image、data和box结构体),并将这些结构体发送给功能模块。
功能模块与输入输出模块、神经网络构建模块、网络权重文件、客户端相连,与图1一样,功能模块中也有训练函数和检测函数,功能模块调用训练函数训练神经网络,将网络权重参数发送给网络权重文件;与图1不一样的是检测函数发生了变化,变成了分割检测函数,功能模块调用分割检测函数利用神经网络进行目标检测,得到神经网络对图像的识别结果,将识别结果发送给输入输出模块。
第二步,云端服务器的维度聚类模块、解析模块、网络层模块以及神经网络构建模块相互配合,构建神经网络的基本框架,方法为:
2.1维度聚类模块从客户端接收训练集标签文件,从训练集标签文件读取标记框信息,求出先验框尺寸,方法为:
2.1.1维度聚类模块从训练集标签文件获得训练集待训练图片中目标的标记框信息,以各个标记框的宽和高的构成的二元组(wi,hi)作为元素(w表示宽,h表示高,i表示标记框序号),构成集合S,集合S中的元素个数为N,N为待训练图片中标记框的个数,i∈[1,N];
2.1.2维度聚类模块设定聚类中心数目为k,k为正整数,定义最大迭代次数为Num,Num一般为10到100之间的整数,初始化第一聚类中心集合C1为空集,设C1中元素的当前数目为N',N'初始值为0。
2.1.3初始化k个聚类中心,方法是:
2.1.3.1维度聚类模块从S中随机选择一个元素(wl,hl),l∈[1,N],将其设为第一个聚类中心,加入集合C1,令变量N'=1;
2.1.3.2令变量m=1,n=1;
2.1.3.3维度聚类模块计算S中的元素(wm,hm)与C1中的元素(wn,hn)的距离d((wm,hm),(wn,hn)):
d((wm,hm),(wn,hn))=1-IOU((wm,hm),(wn,hn))
其中,对于维度聚类模块计算S中任意一个元素(a,b)(a、b分别为标记框的宽wm和高hm)和C1中任意一个元素(c,d)(c、d分别为聚类中心的宽wn和高hn)的矩形框交并比IOU的计算方式如下:
若a≥c,b≥d,则
若a≥c,b≤d,则
若a≤c,b≥d,则
若a≤c,b≤d,则
2.1.3.4若n<N',令n=n+1,转2.1.3.3;若n=N',则转2.1.3.5;
2.1.3.5若m<N,令m=m+1,n=1,转2.1.3.3;若m=N,则转2.1.3.6;
2.1.3.6令变量m=1,n=1,D(wm,hm)=1;D(wm,hm)是S中的任意元素(wm,hm)与C1中的任意元素(wn,hn)距离的最小值;
2.1.3.7若d((wm,hm),(wn,hn))<D(wm,hm),则令D(wm,hm)=d((wm,hm),(wn,hn)),转2.1.3.8;否则直接转2.1.3.8;
2.1.3.8若n<N',令n=n+1,转2.1.3.7;若n=N',则转2.1.3.9;
2.1.3.9若m<N,令m=m+1,n=1,D(wm,hm)=1,转2.1.3.7;若m=N,转2.1.3.10;
2.1.3.10维度聚类模块计算最小距离和
2.1.3.11维度聚类模块采取按权重分配概率的方法选择第N'+1个聚类中心:
2.1.3.11.1用SUM乘以随机值random(random∈[0,1])得到值r,初始化取和变量cur=0,令m=1;
2.1.3.11.2维度聚类模块计算cur=cur+D(wm,hm)
2.1.3.11.3若cur≤r,令m=m+1,转2.1.3.11.2;若cur>r,把S中的元素(wm,hm)加入集合C1,令N'=N'+1,转2.1.3.12;
2.1.3.12若N'<k,转步骤2.1.2.2;若N'=k,得到第一聚类中心集合C1,转2.1.4。
2.1.4令迭代次数t=1,维度聚类模块迭代计算产生第t+1聚类中心集合,步骤如下:
2.1.4.1维度聚类模块根据S中各个元素与Ct中k个聚类中心的距离远近,将S中各元素划归最近聚类中心所属的聚类,方法是:
对于S中每个元素,Ct中都有一个聚类中心与之距离d最小。将与第一个聚类中心(w1,h1)距离最小的元素划分为一个集合C1,将与第二个聚类中心(w2,h2)距离最小的元素划分为一个集合C2,以此类推,得到k个集合,表示为C1,C2,…,Cp,…,Ck,p∈[1,k]。
2.1.4.2分别求出C1,C2,…,Cp,…,Ck中各元素的均值(w1',h1')(w'2,h2'),…,(w'p,h'p),…,(w'k,h'k),其中w'p为Cp中各元素的横坐标的算术平均值,h'p为Cp中各元素的纵坐标的算术平均值,得到的k个均值作为第t+1聚类中心集合Ct+1,t=t+1;
2.1.4.3若t<Num,转步骤2.1.4.1;若t=Num,将此时的Ct+1中k个元素作为先验框的宽和高写入cfg配置文件,转2.2。
2.2解析模块从cfg配置文件接收构建神经网络的网络参数,解析网络参数为网络层参数和网络结构参数,并将网络层参数发给网络层模块,将网络结构参数发送给神经网络构建模块。
2.4网络层模块从解析模块接收网络层参数,利用网络层参数实例化各网络层,在输出层中定义聚焦损失函数,并将网络层发送给神经网络构建模块。
2.5神经网络构建模块从解析模块接收网络结构参数,从网络层模块接收网络层,根据网络结构参数将网络层组合,构建神经网络的基本框架。
第三步,云端服务器和客户端相互配合进行神经网络的训练,完成神经网络的搭建,方法是:
3.1功能模块从客户端获取训练指令;
3.2输入输出模块、功能模块、神经网络构建模块训练神经网络的基本框架,方法是:
3.2.1输入输出模块从客户端接收训练集待测图片,将训练集待测图片转化为程序可以识别和处理的结构体。
3.2.2输入输出模块将结构体发送给功能模块。
3.2.3神经网络构建模块以随机数作为输入,初始化神经网络的网络权重参数,为神经网络的基本框架赋予权重参数,完成初始的神经网络搭建。
3.2.4神经网络构建模块将初始的神经网络发送给功能模块;
3.2.5功能模块利用结构体训练神经网络,方法是:功能模块将结构体作为输入,调用初始的神经网络输出层中的聚焦损失函数,采用聚焦损失函数指导神经网络进行训练,并生成训练好的网络权重参数。
3.3功能模块将训练好的网络权重参数存贮到网络权重文件。
3.4神经网络构建模块从网络权重文件中读取训练好的网络权重参数,将训练好的网络权重参数赋予神经网络的基本框架,完成神经网络的搭建。
第四步,云端服务器和客户端相互配合对待测图像进行目标检测识别,方法是:
4.1功能模块从客户端接收检测指令;
4.2功能模块、输入输出模块、功能模块、神经网络构建模块相互配合进行目标检测识别,方法是:
4.2.1输入输出模块从客户端接收测试集待测图片P,将待测图片P转化为功能模块可以识别和处理的结构体,如image、data和box结构体;
4.2.2功能模块从输入输出模块接收结构体,并从神经网络构建模块接收神经网络;
4.2.3功能模块调用分割检测函数,利用结构体对测试集待测图片P进行分割检测,方法如下:
4.2.3.1假设P的宽和高为W和H,以左上角为坐标原点(0,0),令m=0,n=0,M为神经网络输入层的大小,一般为100至1000之间;
4.2.3.2分割检测函数利用神经网络对宽的坐标为区间[m,m+M],高的坐标为区间[n,n+M]范围内的切片进行目标检测,图像的预测结果由神经网络输出层计算并得到,针对目标位置的预测是采用先验框加位置偏移量得到的,得到宽坐标为区间[m,m+M],高的坐标为区间[n,n+M]范围内各切片的识别结果,即各目标的位置坐标与类别;
4.2.3.3若m<W-M,则m=m+M,转4.2.3.2;若W-M≤m≤W,转4.2.3.4;
4.2.3.4分割检测函数利用神经网络对宽的坐标为区间[m,W],高的坐标为区间[n,n+M]范围内的切片进行目标检测,得到宽的坐标为区间[m,W],高的坐标为区间[n,n+M]范围内的各切片的识别结果,m=0;
4.2.3.5若n<H-M,则n=n+M,转4.2.3.2;若H-M≤n≤H,转4.2.3.6;
4.2.3.6分割检测函数利用神经网络对宽的坐标为区间[m,m+M],高的坐标为区间[n,H]范围内的切片进行目标检测,得到宽的坐标为区间[m,m+M],高的坐标为区间[n,H]范围内的各切片的识别结果;
4.2.3.7若m<W-M,则m=m+M,转4.2.3.6;若W-M≤m≤W,转4.2.3.8;
4.2.3.8分割检测函数利用神经网络对宽的坐标为区间[m,W],高的坐标为区间[n,H]范围内的切片进行目标检测,得到宽的坐标为区间[m,W],高的坐标为区间[n,H]范围内的各切片的识别结果;
4.2.3.9分割检测函数将4.2.3.2中的宽坐标为区间[m,m+M],高坐标为区间[n,n+M]范围内的各切片识别结果,4.2.3.4中宽坐标为区间[m,W],高坐标为区间[n,n+M]范围内的各切片识别结果,4.2.3.6中宽坐标为区间[m,m+M],高坐标为区间[n,H]范围内的各切片识别结果,
4.2.3.8中宽坐标为区间[m,W],高坐标为区间[n,H]范围内的各切片识别结果进行整合,得出整幅图像P(宽和高分别为W和H)的识别结果。
4.2.4功能模块将P的识别结果传给输入输出模块;
4.3输入输出模块将P的识别结果输出给客户端。
Claims (4)
1.一种基于深度学习的数据中心云端目标识别方法,其特征在于包括以下步骤:
第一步,构建基于深度学习的数据中心云端目标识别***;基于深度学习的数据中心云端目标识别***由云端服务器、客户端组成;客户端上安装有远程登录软件,客户端中存储着待测任务所需要的数据集,数据集包括测试集待测图片、训练集待训练图片、训练集标签文件,训练集标签文件记录训练集待训练图片中目标的标记框信息,包括标记框的位置坐标、宽、高及目标的类别;客户端通过远程登录软件登录云端服务器,将数据集上传到云端服务器,在开始训练和测试前向云端服务器发送训练指令、检测指令,对云端服务器进行远程训练、检测;云端服务器进行神经网络训练和目标识别,根据客户端的指令调度云端服务器的计算资源和存储资源,并将神经网络的训练进度信息以及识别结果发送给客户端;
云端服务器除安装有输入输出模块、功能模块、解析模块、网络层模块、神经网络构建模块、cfg配置文件、网络权重文件,还安装有维度聚类模块;
维度聚类模块与客户端、cfg配置文件相连,该模块从客户端接收训练集标签文件,维度聚类模块对训练集标签文件中的标记框信息进行提炼分析,计算得到先验框尺寸,将先验框尺寸写入到cfg配置文件中;
cfg配置文件与维度聚类模块、解析模块相连,cfg配置文件除了记载构建卷积神经网络的网络参数外,还将从维度聚类模块接收的先验框尺寸作为网络的输出层参数存贮;
解析模块与cfg配置文件、网络层模块、神经网络构建模块相连;该模块从cfg配置文件读取构建神经网络的网络参数,解析网络参数为网络层参数和网络结构参数,并将网络层参数发送给网络层模块,将网络结构参数发送给神经网络构建模块;
网络层模块与解析模块、神经网络构建模块相连,该模块从解析模块接收网络层参数,利用网络层参数实例化各网络层,并将实例化后的网络层发送给神经网络构建模块;卷积神经网络的输出层中定义的损失函数为聚焦损失函数;
神经网络构建模块与解析模块、网络层模块、网络权重文件、功能模块相连;神经网络构建模块从解析模块接收网络结构参数,从网络层模块接收网络层,根据网络结构参数将网络层按照次序组合,构建神经网络的基本框架;神经网络构建模块还从网络权重文件读取网络权重参数,为神经网络的基本框架赋予权重参数,完成神经网络的搭建,神经网络构建模块将神经网络发送给功能模块;
网络权重文件与神经网络构建模块、功能模块相连,网络权重文件存贮从功能模块接收的网络权重参数,供神经网络构建模块读取;
输入输出模块与功能模块相连,输入输出模块从客户端接收测试集待测图像,将待测图像转化为程序可以识别和处理的结构体,并将这些结构体发送给功能模块;
功能模块与输入输出模块、神经网络构建模块、网络权重文件、客户端相连,功能模块调用训练函数训练神经网络,将网络权重参数发送给网络权重文件;功能模块调用分割检测函数利用神经网络进行目标检测,得到神经网络对图像的识别结果,将识别结果发送给输入输出模块;
第二步,云端服务器的维度聚类模块、解析模块、网络层模块以及神经网络构建模块相互配合,构建神经网络的基本框架,方法为:
2.1维度聚类模块从客户端接收训练集标签文件,从训练集标签文件读取标记框信息,求出先验框尺寸,方法为:
2.1.1维度聚类模块从训练集标签文件获得训练集待训练图片中目标的标记框信息,以各个标记框的宽和高的构成的二元组(wi,hi)作为元素,构成集合S,集合S中的元素个数为N,N为待训练图片中标记框的个数,w表示宽,h表示高,i表示标记框的序号,i∈[1,N];
2.1.2维度聚类模块设定聚类中心数目为k,k为正整数,定义最大迭代次数为Num,初始化第一聚类中心集合C1为空集,设C1中元素的当前数目为N',N'初始值为0;
2.1.3初始化k个聚类中心,方法是:
2.1.3.1维度聚类模块从S中随机选择一个元素(wl,hl),l∈[1,N],将其设为第一个聚类中心,加入集合C1,令变量N'=1;
2.1.3.2令变量m=1,n=1;
2.1.3.3维度聚类模块计算S中的元素(wm,hm)与C1中的元素(wn,hn)的距离d((wm,hm),(wn,hn)):
d((wm,hm),(wn,hn))=1-IOU((wm,hm),(wn,hn))
其中,a、b分别为标记框的宽wm和高hm,c、d分别为聚类中心的宽wn和高hn,对于维度聚类模块计算S中任意一个元素(a,b)和C1中任意一个元素(c,d)的矩形框交并比IOU的计算方式如下:
若a≥c,b≥d,则
若a≥c,b≤d,则
若a≤c,b≥d,则
若a≤c,b≤d,则
2.1.3.4若n<N',令n=n+1,转2.1.3.3;若n=N',则转2.1.3.5;
2.1.3.5若m<N,令m=m+1,n=1,转2.1.3.3;若m=N,则转2.1.3.6;
2.1.3.6令变量m=1,n=1,D(wm,hm)=1;D(wm,hm)是S中的任意元素(wm,hm)与C1中的任意元素(wn,hn)距离的最小值;
2.1.3.7若d((wm,hm),(wn,hn))<D(wm,hm),则令D(wm,hm)=d((wm,hm),(wn,hn)),转2.1.3.8;否则直接转2.1.3.8;
2.1.3.8若n<N',令n=n+1,转2.1.3.7;若n=N',则转2.1.3.9;
2.1.3.9若m<N,令m=m+1,n=1,D(wm,hm)=1,转2.1.3.7;若m=N,转2.1.3.10;
2.1.3.10维度聚类模块计算最小距离和
2.1.3.11维度聚类模块采取按权重分配概率的方法选择第N'+1个聚类中心:
2.1.3.11.1用SUM乘以随机值random得到值r,random∈[0,1],初始化取和变量cur=0,令m=1;
2.1.3.11.2维度聚类模块计算cur=cur+D(wm,hm)
2.1.3.11.3若cur≤r,令m=m+1,转2.1.3.11.2;若cur>r,把S中的元素(wm,hm)加入集合C1,令N'=N'+1,转2.1.3.12;
2.1.3.12若N'<k,转步骤2.1.2.2;若N'=k,得到第一聚类中心集合C1,转2.1.4;
2.1.4令迭代次数t=1,维度聚类模块迭代计算产生第t+1聚类中心集合,步骤如下:
2.1.4.1维度聚类模块根据S中各个元素与Ct中k个聚类中心的距离远近,将S中各元素划归最近聚类中心所属的聚类,方法是:
将与第一个聚类中心(w1,h1)距离最小的元素划分为一个集合C1,将与第二个聚类中心(w2,h2)距离最小的元素划分为一个集合C2,以此类推,得到k个集合,表示为C1,C2,…,Cp,…,Ck,p∈[1,k];
2.1.4.2分别求出C1,C2,…,Cp,…,Ck中各元素的均值(w′1,h′1)(w'2,h'2),…,(w'p,h'p),…,(w'k,h'k),其中w'p为Cp中各元素的横坐标的算术平均值,h'p为Cp中各元素的纵坐标的算术平均值,得到的k个均值作为第t+1聚类中心集合Ct+1,t=t+1;
2.1.4.3若t<Num,转步骤2.1.4.1;若t=Num,将此时的Ct+1中k个元素作为先验框的宽和高写入cfg配置文件,转2.2;
2.2解析模块从cfg配置文件接收构建神经网络的网络参数,解析网络参数为网络层参数和网络结构参数,并将网络层参数发给网络层模块,将网络结构参数发送给神经网络构建模块;
2.4网络层模块从解析模块接收网络层参数,利用网络层参数实例化各网络层,在输出层中定义聚焦损失函数,并将网络层发送给神经网络构建模块;
2.5神经网络构建模块从解析模块接收网络结构参数,从网络层模块接收网络层,根据网络结构参数将网络层组合,构建神经网络的基本框架;
第三步,云端服务器和客户端相互配合进行神经网络的训练,完成神经网络的搭建,方法是:
3.1功能模块从客户端获取训练指令;
3.2输入输出模块、功能模块、神经网络构建模块训练神经网络的基本框架,生成训练好的网络权重参数;
3.3功能模块将训练好的网络权重参数存贮到网络权重文件;
3.4神经网络构建模块从网络权重文件中读取训练好的网络权重参数,将训练好的网络权重参数赋予神经网络的基本框架,完成神经网络的搭建;
第四步,云端服务器和客户端相互配合对待测图像进行目标检测识别,方法是:
4.1功能模块从客户端接收检测指令;
4.2功能模块、输入输出模块、功能模块、神经网络构建模块相互配合进行目标检测识别,方法是:
4.2.1输入输出模块从客户端接收测试集待测图片P,将待测图片P转化为功能模块可以识别和处理的结构体;
4.2.2功能模块从输入输出模块接收结构体,并从神经网络构建模块接收神经网络;
4.2.3功能模块调用分割检测函数,利用结构体对测试集待测图片P进行分割检测,得到P的识别结果,方法是:
4.2.3.1假设P的宽和高为W和H,以左上角为坐标原点(0,0),令m=0,n=0,M为神经网络输入层的大小;
4.2.3.2分割检测函数利用神经网络对宽的坐标为区间[m,m+M],高的坐标为区间[n,n+M]范围内的切片进行目标检测,图像的预测结果由神经网络输出层计算并得到,针对目标位置的预测是采用先验框加位置偏移量得到的,得到宽坐标为区间[m,m+M],高的坐标为区间[n,n+M]范围内各切片的识别结果,即各目标的位置坐标与类别;
4.2.3.3若m<W-M,则m=m+M,转4.2.3.2;若W-M≤m≤W,转4.2.3.4;
4.2.3.4分割检测函数利用神经网络对宽的坐标为区间[m,W],高的坐标为区间[n,n+M]范围内的切片进行目标检测,得到宽的坐标为区间[m,W],高的坐标为区间[n,n+M]范围内的各切片的识别结果,m=0;
4.2.3.5若n<H-M,则n=n+M,转4.2.3.2;若H-M≤n≤H,转4.2.3.6;
4.2.3.6分割检测函数利用神经网络对宽的坐标为区间[m,m+M],高的坐标为区间[n,H]范围内的切片进行目标检测,得到宽的坐标为区间[m,m+M],高的坐标为区间[n,H]范围内的各切片的识别结果;
4.2.3.7若m<W-M,则m=m+M,转4.2.3.6;若W-M≤m≤W,转4.2.3.8;
4.2.3.8分割检测函数利用神经网络对宽的坐标为区间[m,W],高的坐标为区间[n,H]范围内的切片进行目标检测,得到宽的坐标为区间[m,W],高的坐标为区间[n,H]范围内的各切片的识别结果;
4.2.3.9分割检测函数将宽坐标为区间[m,m+M],高坐标为区间[n,n+M]范围内的各切片识别结果、宽坐标为区间[m,W],高坐标为区间[n,n+M]范围内的各切片识别结果、宽坐标为区间[m,m+M],高坐标为区间[n,H]范围内的各切片识别结果、宽坐标为区间[m,W],高坐标为区间[n,H]范围内的各切片识别结果进行整合,得出整幅图像P的识别结果;
4.2.4功能模块将P的识别结果传给输入输出模块;
4.3输入输出模块将P的识别结果输出给客户端。
2.如权利要求1所述的一种基于深度学习的数据中心云端目标识别方法,其特征在于所述结构体指image、data和box结构体。
3.如权利要求1所述的一种基于深度学习的数据中心云端目标识别方法,其特征在于所述Num为10到100之间的整数,所述M为100至1000之间。
4.如权利要求1所述的一种基于深度学习的数据中心云端目标识别方法,其特征在于3.2步所述训练神经网络的基本框架的方法是:
3.2.1输入输出模块从客户端接收训练集待测图片,将训练集待测图片转化为程序可以识别和处理的结构体;
3.2.2输入输出模块将结构体发送给功能模块;
3.2.3神经网络构建模块以随机数作为输入,初始化神经网络的网络权重参数,为神经网络的基本框架赋予权重参数,完成初始的神经网络搭建;
3.2.4神经网络构建模块将初始的神经网络发送给功能模块;
3.2.5功能模块利用结构体训练神经网络,方法是:功能模块将结构体作为输入,调用初始的神经网络输出层中的聚焦损失函数,采用聚焦损失函数指导神经网络进行训练,并生成训练好的网络权重参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910076845.1A CN109858486B (zh) | 2019-01-27 | 2019-01-27 | 一种基于深度学习的数据中心云端目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910076845.1A CN109858486B (zh) | 2019-01-27 | 2019-01-27 | 一种基于深度学习的数据中心云端目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109858486A CN109858486A (zh) | 2019-06-07 |
CN109858486B true CN109858486B (zh) | 2019-10-25 |
Family
ID=66896159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910076845.1A Active CN109858486B (zh) | 2019-01-27 | 2019-01-27 | 一种基于深度学习的数据中心云端目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109858486B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633684A (zh) * | 2019-09-20 | 2019-12-31 | 南京邮电大学 | 一种基于深度学习的烟叶收购定级***及定级方法 |
CN110650153B (zh) * | 2019-10-14 | 2021-04-23 | 北京理工大学 | 一种基于聚焦损失深度神经网络的工控网络入侵检测方法 |
CN111274893B (zh) * | 2020-01-14 | 2022-11-08 | 中国人民解放军国防科技大学 | 基于部件分割与特征融合的飞行器图像细粒度识别方法 |
CN111339923A (zh) * | 2020-02-25 | 2020-06-26 | 盛视科技股份有限公司 | 一种车底检查方法和*** |
CN111461028A (zh) * | 2020-04-02 | 2020-07-28 | 杭州视在科技有限公司 | 复杂场景中的口罩检测模型训练及检测方法、介质及装置 |
CN111881764B (zh) * | 2020-07-01 | 2023-11-03 | 深圳力维智联技术有限公司 | 一种目标检测方法、装置、电子设备及存储介质 |
CN112989980A (zh) * | 2021-03-05 | 2021-06-18 | 华南理工大学 | 一种基于web云平台的目标检测***及方法 |
CN115019105A (zh) * | 2022-06-24 | 2022-09-06 | 厦门大学 | 点云分类模型的隐语义分析方法、装置、介质及设备 |
CN116503675B (zh) * | 2023-06-27 | 2023-08-29 | 南京理工大学 | 一种基于强聚类损失函数的多种类目标辨识方法及*** |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319972B (zh) * | 2018-01-18 | 2021-11-02 | 南京师范大学 | 一种针对图像语义分割的端到端差异网络学习方法 |
CN108509860A (zh) * | 2018-03-09 | 2018-09-07 | 西安电子科技大学 | 基于卷积神经网络的可可西里藏羚羊检测方法 |
CN109145939B (zh) * | 2018-07-02 | 2021-11-02 | 南京师范大学 | 一种小目标敏感的双通道卷积神经网络语义分割方法 |
CN109253722B (zh) * | 2018-08-22 | 2021-07-02 | 顺丰科技有限公司 | 融合语义分割的单目测距***、方法、设备及存储介质 |
-
2019
- 2019-01-27 CN CN201910076845.1A patent/CN109858486B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109858486A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109858486B (zh) | 一种基于深度学习的数据中心云端目标识别方法 | |
CN110532859B (zh) | 基于深度进化剪枝卷积网的遥感图像目标检测方法 | |
Zhou et al. | D-LinkNet: LinkNet with pretrained encoder and dilated convolution for high resolution satellite imagery road extraction | |
CN111797717B (zh) | 一种高速高精度的sar图像船只检测方法 | |
CN110245709B (zh) | 基于深度学习和自注意力的3d点云数据语义分割方法 | |
CN111832655B (zh) | 一种基于特征金字塔网络的多尺度三维目标检测方法 | |
CN108038445B (zh) | 一种基于多视角深度学习框架的sar自动目标识别方法 | |
CN114462555B (zh) | 基于树莓派的多尺度特征融合配电网设备识别方法 | |
CN110135267A (zh) | 一种大场景sar图像细微目标检测方法 | |
CN110443298B (zh) | 一种基于云-边缘协同计算的ddnn及其构建方法和应用 | |
CN113780211A (zh) | 一种基于改进型Yolov4-tiny的轻量级飞机检测方法 | |
CN110826428A (zh) | 一种高速的sar图像中船只检测方法 | |
CN113838064B (zh) | 一种基于分支gan使用多时相遥感数据的云去除方法 | |
CN113283409B (zh) | 基于EfficientDet和Transformer的航空图像中的飞机检测方法 | |
CN104700100A (zh) | 面向高空间分辨率遥感大数据的特征提取方法 | |
CN115512103A (zh) | 多尺度融合遥感图像语义分割方法及*** | |
CN111914615A (zh) | 基于立体视觉的消防区域可通过性分析*** | |
CN114998757A (zh) | 用于无人机航摄图像分析的目标检测方法 | |
CN111008979A (zh) | 一种鲁棒的夜晚图像语义分割方法 | |
CN112966555A (zh) | 一种基于深度学习和部件先验的遥感影像飞机识别方法 | |
CN116580322A (zh) | 一种地面背景下无人机红外小目标检测方法 | |
CN109657082A (zh) | 基于全卷积神经网络的遥感图像多标签检索方法及*** | |
CN111898756B (zh) | 一种多目标信息关联神经网络损失函数计算方法及装置 | |
CN117853955A (zh) | 一种基于改进YOLOv5的无人机小目标检测方法 | |
CN111339950A (zh) | 一种遥感图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |