CN107644224A - 一种基于darknet框架的物体检测*** - Google Patents

一种基于darknet框架的物体检测*** Download PDF

Info

Publication number
CN107644224A
CN107644224A CN201710916180.1A CN201710916180A CN107644224A CN 107644224 A CN107644224 A CN 107644224A CN 201710916180 A CN201710916180 A CN 201710916180A CN 107644224 A CN107644224 A CN 107644224A
Authority
CN
China
Prior art keywords
box
darknet
confidence
target
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710916180.1A
Other languages
English (en)
Inventor
周海明
林绿德
庄永军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sanbao innovation and intelligence Co., Ltd.
Original Assignee
QIHAN TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by QIHAN TECHNOLOGY Co Ltd filed Critical QIHAN TECHNOLOGY Co Ltd
Priority to CN201710916180.1A priority Critical patent/CN107644224A/zh
Publication of CN107644224A publication Critical patent/CN107644224A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于darknet框架的物体检测***,包括预处理单元、模型训练单元和定位识别单元,本***模型训练简单,整个***是端到端(输入图片,输出检测框)的,并且可以实现实时检测。该***采用全图信息来进行预测。与滑动窗口方法和region proposal‑based方法不同,网络模型在训练和预测过程中可以利用全图信息,对目标框的定位更加准确。***可以学习到目标的概括信息,并具有一定普适性。采用自然图片训练网络模型,然后采用艺术图像来预测,与比其它目标检测方法而言准确率高很多。该***可以适应于不同的应用场景和检测目标,只需要用相应的数据集对***进行训练即可。

Description

一种基于darknet框架的物体检测***
技术领域
本发明涉及一种检测***,具体是一种基于darknet框架的物体检测***。
背景技术
物体识别是计算机视觉中的一个研究方向,也是当前比较热门的研究领域。在人们的需求不断增长的今天,物体识别在安全、科技、经济方面正在起着举足轻重的作用,安防领域和交通监管部门也对物体识别提出了迫切的要求,所以研究物体识别对社会的未来有非常重要的意义。
传统目标检测***采用deformable parts models(DPM)方法,通过滑动框方法提出目标区域,然后采用分类器来实现识别。近期的R-CNN类方法采用region proposalmethods,首先生成潜在的边界盒,然后采用分类器识别边界盒所包含物体的类别。最后通过后处理方式来去除重复边界盒来进行优化。这类方法流程复杂,存在速度慢和训练困难的问题。
发明内容
本发明要解决的技术问题是提供一种基于darknet框架的物体检测***,以解决背景技术中提到的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于darknet框架的物体检测***,包括
模型训练单元,用于设计darknet网络模型,darknet网络模型为卷积层和池化层的交替连接,对训练参数(包括学习率、)进行调整,利用数据集训练得到模型的权重参数;
预处理单元,用于收集合适的图片集,对图片集中的每一张图片进行物体标注,然后将标注信息转换成darknet训练所需的标注格式,并按照一定的比例生成相应的训练、验证、测试图片集;和定位识别单元所述;
定位识别单元;对预处理单元收集到的图片进行识别处理;模型训练单元分别连接预处理单元和定位识别单元。
作为本发明的优选方案:所述定位识别单元的识别处理步骤具体是:首先将图像分割成S*S的格子,每个格子预测B个边界盒和边界盒的置信值C,置信值代表box包含一个目标的置信度,如果没有目标,置信值为零。每一个边界盒包含5个值:x,y,w,h和confidence。(x,y)代表与格子相关的盒子的中心。(w,h)为与全图信息相关的盒子的宽和高。confidence代表预测盒子的IOU和ground truth,最终输出S*S*(B*5+C)维向量。
作为本发明的优选方案:所述向量包含对图片预测的边界盒坐标信息,置信值以及每个格子的类别概率,每个边界盒的置信分数通过对应格子的类别概率和盒子的置信度相乘得到,该分数衡量了该类别出现在盒子中的概率以及该盒子与目标的吻合程度。针对网络的输出框信息和类别概率,对其进行非极大抑制处理和阈值处理舍弃重复框,得到最终的检测结果。
与现有技术相比,本发明的有益效果是:本***模型训练简单,整个***是端到端(输入图片,输出检测框)的,并且可以实现实时检测。该***采用全图信息来进行预测。与滑动窗口方法和region proposal-based方法不同,网络模型在训练和预测过程中可以利用全图信息,对目标框的定位更加准确。***可以学习到目标的概括信息,并具有一定普适性。采用自然图片训练网络模型,然后采用艺术图像来预测,与比其它目标检测方法而言准确率高很多。该***可以适应于不同的应用场景和检测目标,只需要用相应的数据集对***进行训练即可。
附图说明
图1是一种基于darknet框架的物体检测***和交互平台结构框图。
图2是卷积神经网络结构的示意图。
图3是一种基于darknet框架的物体检测***和交互平台流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-3,一种基于darknet框架的物体检测***,其包括预处理单元、模型训练单元和定位识别单元。
预处理单元:此步骤主要包括收集合适的图片集,对图片集中的每一张图片进行物体标注,然后将标注信息转换成darknet训练所需的标注格式,并按照一定的比例生成相应的训练、验证、测试图片集。
模型训练单元:设计darknet网络模型,darknet网络模型为卷积层和池化层的交替连接(具体可见2.2.2部分),对训练参数(包括学习率、)进行调整,利用数据集训练得到模型的权重参数。
定位识别单元:对于任意分辨率的一张图片,***首先将图像分割成S*S的格子,每个格子预测B个边界盒和边界盒的置信值C,置信值代表box包含一个目标的置信度,如果没有目标,置信值为零。每一个边界盒包含5个值:x,y,w,h和confidence。(x,y)代表与格子相关的盒子的中心。(w,h)为与全图信息相关的盒子的宽和高。confidence代表预测盒子的IOU和ground truth,最终输出S*S*(B*5+C)维向量。该向量包含对图片预测的边界盒坐标信息,置信值以及每个格子的类别概率,每个边界盒的置信分数通过对应格子的类别概率和盒子的置信度相乘得到,该分数衡量了该类别出现在盒子中的概率以及该盒子与目标的吻合程度。针对网络的输出框信息和类别概率,对其进行非极大抑制处理和阈值处理舍弃重复框,得到最终的检测结果。
本发明的工作原理是:如图2所示,网络模型采用前几层为卷积层和池化层的交替连接,后跟三个卷积层的方式,不采用全连接层。模型主要的计算量在于网络预测,而不同的计算层执行的计算如下:
卷积层计算:离散卷积的计算过程是利用卷积模板(卷积核、滤波器)在原图像上滑动,把对应位置上的元素相乘后加起来,得到最终的结果,即实现滑动-相乘-叠加的操作。
池化层计算:池化层主要是对图像不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值(或最大值)。根据不同的计算池化的方法,又分为平均池化和最大池化。并且池化层一般位于卷积层之后。
根据网络输出信息整合数据得到一系列盒子,并设置阈值,滤掉得分低的盒子,最后对保留的盒子进行非极大抑制处理,去除重复框,得到最终的检测结果。
基于darknet框架的物体检测***,能够进行高准确率快速检测以及实时目标检测。整个***采用端到端的设计思想,输入图片,经过***计算推断,即可得到图片的目标框及其所属类别;计算过程中,充分利用图片的全局信息进行计算推理,对检测框的定位准确,且针对不同数据集,利用数据集的先验信息,每个格子可预测多个目标框,最后选择置信度最高的目标框作为输出,该思想在训练中可加速模型收敛。

Claims (3)

1.一种基于darknet框架的物体检测***,其特征在于,包括
模型训练单元,用于设计darknet网络模型,darknet网络模型为卷积层和池化层的交替连接,对训练参数(包括学习率、)进行调整,利用数据集训练得到模型的权重参数;
预处理单元,用于收集合适的图片集,对图片集中的每一张图片进行物体标注,然后将标注信息转换成darknet训练所需的标注格式,并按照一定的比例生成相应的训练、验证、测试图片集;
定位识别单元;对预处理单元收集到的图片进行识别处理;
模型训练单元分别连接预处理单元和定位识别单元。
2.根据权利要求1所述的一种基于darknet框架的物体检测***,其特征在于,所述定位识别单元的识别处理步骤具体是:首先将图像分割成S*S的格子,每个格子预测B个边界盒和边界盒的置信值C,置信值代表box包含一个目标的置信度,如果没有目标,置信值为零。每一个边界盒包含5个值:x,y,w,h和confidence。(x,y)代表与格子相关的盒子的中心。(w,h)为与全图信息相关的盒子的宽和高。confidence代表预测盒子的IOU和groundtruth,最终输出S*S*(B*5+C)维向量。
3.根据权利要求2所述的一种基于darknet框架的物体检测***,其特征在于,所述向量包含对图片预测的边界盒坐标信息,置信值以及每个格子的类别概率,每个边界盒的置信分数通过对应格子的类别概率和盒子的置信度相乘得到,该分数衡量了该类别出现在盒子中的概率以及该盒子与目标的吻合程度。针对网络的输出框信息和类别概率,对其进行非极大抑制处理和阈值处理舍弃重复框,得到最终的检测结果。
CN201710916180.1A 2017-09-30 2017-09-30 一种基于darknet框架的物体检测*** Pending CN107644224A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710916180.1A CN107644224A (zh) 2017-09-30 2017-09-30 一种基于darknet框架的物体检测***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710916180.1A CN107644224A (zh) 2017-09-30 2017-09-30 一种基于darknet框架的物体检测***

Publications (1)

Publication Number Publication Date
CN107644224A true CN107644224A (zh) 2018-01-30

Family

ID=61123099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710916180.1A Pending CN107644224A (zh) 2017-09-30 2017-09-30 一种基于darknet框架的物体检测***

Country Status (1)

Country Link
CN (1) CN107644224A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106886795A (zh) * 2017-02-17 2017-06-23 北京维弦科技有限责任公司 基于图像中的显著物体的物体识别方法
CN107134144A (zh) * 2017-04-27 2017-09-05 武汉理工大学 一种用于交通监控的车辆检测方法
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106886795A (zh) * 2017-02-17 2017-06-23 北京维弦科技有限责任公司 基于图像中的显著物体的物体识别方法
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN107134144A (zh) * 2017-04-27 2017-09-05 武汉理工大学 一种用于交通监控的车辆检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JOSEPH REDMON ETC.: ""You Only Look Once:Unified, Real-Time Object Detection"", 《ARXIV.ORG》 *

Similar Documents

Publication Publication Date Title
CN108256431B (zh) 一种手部位置标识方法及装置
CN110188720A (zh) 一种基于卷积神经网络的目标检测方法及***
CN109308543A (zh) 基于ls-svm和实时大数据的地铁短期客流预测方法
CN104573706A (zh) 一种物体图像识别方法及其***
CN114970321A (zh) 一种基于动态轨迹流的场景流数字孪生方法及***
CN107369166A (zh) 一种基于多分辨率神经网络的目标跟踪方法及***
CN104050319B (zh) 一种实时在线验证复杂交通控制算法的方法
CN106845432A (zh) 一种人脸与人体共同检测的方法和设备
CN107689052A (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN113780270B (zh) 目标检测方法和装置
CN110348437A (zh) 一种基于弱监督学习与遮挡感知的目标检测方法
CN109948471A (zh) 基于改进InceptionV4网络的交通雾霾能见度检测方法
CN111428558A (zh) 一种基于改进YOLOv3方法的车辆检测方法
CN109190488A (zh) 基于深度学习YOLOv3算法的前车车门打开检测方法及装置
CN106874913A (zh) 一种菜品检测方法
CN113158835A (zh) 一种基于深度学习的交通事故智能检测方法
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及***
CN112685812A (zh) 一种动态监管方法、装置、设备及存储介质
CN110032952A (zh) 一种基于深度学习的道路边界点检测方法
CN106815563A (zh) 一种基于人体表观结构的人群数量预测方法
CN109376736A (zh) 一种基于深度卷积神经网络的视频小目标检测方法
CN110111370A (zh) 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法
CN114495421B (zh) 智能化开放式道路施工作业监测预警方法及***
CN114742280B (zh) 路况预测方法及相应的模型训练方法、装置、设备及介质
CN103605960B (zh) 一种基于不同焦距视频图像融合的交通状态识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20181108

Address after: 518000 Guangdong 28, Shenzhen, Futian District, Huafu street, No. 5001 Huanggang Road, Shenzhen Industrial upper city (two phase of the Southern District)

Applicant after: Shenzhen Sanbao innovation and intelligence Co., Ltd.

Address before: 518000 the 32-33 floor of block B, CNOOC building, Nanshan District Houhai road and Chuang Road Interchange, Shenzhen, Guangdong.

Applicant before: Qihan Technology Co., Ltd.

TA01 Transfer of patent application right
RJ01 Rejection of invention patent application after publication

Application publication date: 20180130

RJ01 Rejection of invention patent application after publication