CN111178206B - 一种基于改进yolo的建筑预埋件检测方法及*** - Google Patents

一种基于改进yolo的建筑预埋件检测方法及*** Download PDF

Info

Publication number
CN111178206B
CN111178206B CN201911328091.0A CN201911328091A CN111178206B CN 111178206 B CN111178206 B CN 111178206B CN 201911328091 A CN201911328091 A CN 201911328091A CN 111178206 B CN111178206 B CN 111178206B
Authority
CN
China
Prior art keywords
building
picture
yolo
embedded part
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911328091.0A
Other languages
English (en)
Other versions
CN111178206A (zh
Inventor
姜向远
邢金昊
于敦政
陈菲雨
贾磊
马思乐
陈纪旸
栾义忠
杜延丽
岳文斌
马晓静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201911328091.0A priority Critical patent/CN111178206B/zh
Publication of CN111178206A publication Critical patent/CN111178206A/zh
Application granted granted Critical
Publication of CN111178206B publication Critical patent/CN111178206B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本公开提供了一种基于改进YOLO的建筑预埋件检测方法及***,获取建筑预埋件的图片,并对图片中建筑预埋件进行标定,形成数据集,将数据集分为训练集和测试集;利用MobileNet网络代替YOLO检测算法中的Darknet53网络作为特征提取网络,构建改进YOLO检测模型,利用训练集训练所述改进YOLO检测模型,直到满足测试集的测试要求,得到最终的检测模型;获取待在建的建筑工地的空中图片,对图片进行翻转、不同尺度的仿射变换以及高斯模糊处理,作为输入图片,利用最终的检测模型对输入图片进行识别,得到预埋件检测结果。

Description

一种基于改进YOLO的建筑预埋件检测方法及***
技术领域
本公开属于建筑工程预埋件检测技术领域,涉及一种基于改进YOLO的建筑预埋件检测方法及***。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
随着经济飞速发展,作为基础产业的建筑业发展迅速,建筑市场的繁荣给众多建筑企业带来了机遇也带来了挑战,也为企业的建筑施工质量和效率提出了更高的要求。预埋件是现代建筑工程中应用非常广泛的一项技术,预埋件包括钢板、螺栓、接线盒等结构件以及接线管、排水管等预埋管。预埋件的施工质量直接影响着建筑工程的施工进度和结构安全,因此要牢牢把控。现阶段各种预埋件的位置检查均是由工人在灌注水泥之前现场检查的,然而对于施工面积比较大的工程项目,预埋件数量多、位置分散,如接线盒、管等预埋件走线复杂,不易检查,因此人工检查耗时费力,效率低下,且于高层建筑施工工程而言,工人攀高存在危险。利用无人机代替人工进行高层、大面积建筑工程的预埋件检测是一种新思路。
近年来无人机因尺寸小,重量轻、可搭载多种任务载荷等优势在民用、商业领域得到了快速推广,在建筑施工领域中也得到了推广,如用于基础施工测量,施工场地管理等方面。利用无人机在工程地点上空通过图像传输模块可以将云台相机拍摄的图像实时回传计算机进行图像处理,可以在较高视野快速定位预埋件位置,方便与建筑设计图纸进行对比,节省人力,加快预埋件检查速度,提高工程效率和质量。配合无人机回传影像信息进行预埋件的快速检测需要一种高效、准确的目标检测算法,传统目标检测算法如基于方向梯度直方图(Histogram of Oriented Gradient,HOG)特征提取的目标检测算法,基于支持向量机的目标检测算法等,这些算法没有针对目标选取合适的滑动窗口,计算的时间复杂度高,窗口冗余,检测效率较低。
据发明人了解,目前基于深度学习的目标检测算法越来越受到人们的重视,此类算法多利用数据集中的数据和标签来训练卷积神经网络(Convolutional NeuralNetworks,CNNs),可以分为两类:第一类一是基于区域的目标检测算法如RCNN(Regionswith CNN)、Faster R-CNN(Faster Regions with CNN)等,该类算法针对目标物***置预先提取出了候选区域,具有较高的检测精度,但是检测速度较慢;第二类是基于端到端学习的目标检测算法如YOLO(You Only Look Once),SSD(Single Shot MultiBox Detector)等,该类算法省略了候选区域生成步骤,将特征提取、目标分类和目标回归放在同一个卷积神经网络中实现,使目标检测速度大幅提升。但是基于深度学习的目标检测算法神经网络结构庞大而复杂,因此检测速度较慢。
发明内容
本公开为了解决上述问题,提出了一种基于改进YOLO的建筑预埋件检测方法及***,本公开能够有效降低网络模型的大小,减少了网络参数,提高了检测性能。
根据一些实施例,本公开采用如下技术方案:
一种基于改进YOLO的建筑预埋件检测方法,包括以下步骤:
获取建筑预埋件的图片,并对图片中建筑预埋件进行标定,形成数据集,将数据集分为训练集和测试集;
利用MobileNet网络代替YOLO检测算法中的Darknet53网络作为特征提取网络,构建改进YOLO检测模型,利用训练集训练所述改进YOLO检测模型,直到满足测试集的测试要求,得到最终的检测模型;
获取待在建的建筑工地的空中图片,对图片进行翻转、不同尺度的仿射变换以及高斯模糊处理,作为输入图片,利用最终的检测模型对输入图片进行识别,得到预埋件检测结果。
作为进一步的限定,在进行测试时,将目标检测看作回归问题,将输入的图片划分为S×S的网格,如果检测目标的中心存在于某个单元格的中心,这个单元格就负责预测这个目标;每个单元格会产生B个边界框,每个边界框包含物体的中心位置相对单元格位置的偏移以及边界框的宽度和高度以及目标的置信度。
作为进一步的限定,利用卷积神经网络提取目标物体的特征并预测,每一个单元格要给出C个类别概率值,表示该单元格负责预测的边界框中的目标属于每个类别的概率。单元格中存在物体的条件概率为Pr(class/object),识别到的物体是某一类别的概率是Pr(class),
Figure BDA0002328900350000041
表示预测边框和物体真实区域的交并比,则有:
Figure BDA0002328900350000042
作为进一步的限定,使用均方和误差作为损失函数来优化模型参数,即网络结构的输出向量和真实图像的对应向量的均方和误差。
作为进一步的限定,MobileNet网络利用深度级可分离卷积代替标准卷积,分解为深度卷积和1×1卷积。
作为进一步的限定,通过无人机搭载可见光摄像头获取待在建的建筑工地的空中图片。
一种基于改进YOLO的建筑预埋件检测***,包括:
数据获取模块,被配置为获取建筑预埋件的图片,并对图片中建筑预埋件进行标定,形成数据集,将数据集分为训练集和测试集;
模型构建、训练模块,被配置为利用MobileNet网络代替YOLO检测算法中的Darknet53网络作为特征提取网络,构建改进YOLO检测模型,利用训练集训练所述改进YOLO检测模型,直到满足测试集的测试要求,得到最终的检测模型;
检测识别模块,被配置为获取待在建的建筑工地的空中图片,对图片进行翻转、不同尺度的仿射变换以及高斯模糊处理,作为输入图片,利用最终的检测模型对输入图片进行识别,得到预埋件检测结果。
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行所述的一种基于改进YOLO的建筑预埋件检测方法的步骤。
一种终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行所述的一种基于改进YOLO的建筑预埋件检测方法的步骤。
与现有技术相比,本公开的有益效果为:
本公开能够有效降低网络模型的大小,减少了网络参数,提高了检测性能,有效检测识别预埋线盒和预埋管等物件,监测精度高。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1是深度可分离卷积结构示意图;
图2是改进YOLO神经网络结构示意图;
图3是SE-Block基本结构示意图;
图4是SEMoblieNet基本结构;
图5(a)-(b)是数据集样图;
图6(a)-(d)是四种方法检测效果对比示意图。
具体实施方式:
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
利用无人机(例如大疆经纬MATRICE 100型号)搭载可见光摄像头对在建的建筑工地进行了拍摄,数据集样图如图5(a)-(b)所示。为了保证数据的多样性,在拍摄过程中考虑了无人机的不同飞行姿态如悬停,升降,平稳飞行等。采用人工标定的方法,选取预埋件中比较有代表性的接线盒和排水管为检测目标进行标定,标定图片采用PASCAL VOC格式。因建筑工地背景复杂,在拍摄的过程中会出现各种钢筋和建筑原件等遮盖预埋件的情况出现,因此为了保证数据的有效性对于被遮挡面积超过50%的样本不进行标注。另外考虑到无人机在飞行过程中会出现倾斜飞行等姿态,为了使训练数据更加有效,提高网络泛化能力,本文对数据集图片进行了如下扩充操作:使用翻转矩阵分别将图片进行左右、上下翻转;不同尺度的仿射变换;高斯模糊处理。扩增之后的数据集共3590张图片,按照4:1的比例分成训练集和测试集。
YOLO v3采用了新的Darknet-53特征提取网络,Darknet借鉴了ResNet结构的思想,有53层卷积神经网络,网络层数的加深使得YOLO v3对于目标的特征提取能力更强。Darknet-53还去掉了网络中的池化层和全连接层,每个基础层中加入了BN(BatchNormalization)层和Leaky RELU层,并在网络中加入了残差模块,有利于解决深层网络出现的梯度消失或者梯度***的问题。但是由于Darknet-53网络结构度复杂性,网络有着大量的权重参数,使得算法对图像处理设备要求较高,且图片的检测速度也受到了影响。Tiny-YOLO是YOLO v3的简化版,其特征提取网络较为简单,去掉了残差网络,只有7个卷积层和6个池化层,减少了参数数量,对于设备的要求更低,有效提高了检测的速度,但是损失了检测精度。本文将特征提取网络替换为更加轻量化的神经网络MobileNet,利用更加高效的卷积计算方式在提升网络的复杂度的基础上加快了图像检测的速度。
在进行目标检测时,YOLO将目标检测看作回归问题,将输入的图片划分为S×S的网格,如果检测目标的中心存在于某个单元格的中心,那么这个单元格就负责预测这个目标。每个单元格会产生B个边界框(bounding boxes),每个边界框包含5个参数(x,y,w,h,Confidence),其中(x,y,w,h)是物体的中心位置相对单元格位置的偏移以及边界框的宽度和高度,Confidence是目标的置信度,反映边界框中是否有目标物体以及物***置的准确性,计算方式如下:
Figure BDA0002328900350000081
其中,Pr(object)表示边界框中是否含有目标,有则取1,无则取0;
Figure BDA0002328900350000082
表示预测边框和物体真实区域的交并比。
利用卷积神经网络提取目标物体的特征并预测,每一个单元格要给出C个类别概率值,表示该单元格负责预测的边界框中的目标属于每个类别的概率。单元格中存在物体的条件概率为,识别到的物体是某一类别的概率是,则有:
Figure BDA0002328900350000083
YOLO使用均方和误差作为损失函数来优化模型参数,即网络结构的输出向量和真实图像的对应向量的均方和误差。
公式如下:
Figure BDA0002328900350000084
其中,coordError代表预测数据、标定数据之间的误差;iouError表示交并比误差;classError表示分类误差。具体公式如下:
Figure BDA0002328900350000085
其中,参数λcoord表示损失误差的权重,增强了边界框在损失计算中的重要性;λnoobj表示分类损失函数的权重,可以减弱非目标区域对目标区域置信度计算的影响;
Figure BDA0002328900350000091
表示目标物体落入第i个单元格的第j个边界框中,如果落入边界框中则取1,反之则取0;
Figure BDA0002328900350000092
表示响应预测值。
MobileNet网络是Google提出的一种轻量而高效的卷积神经网络,它利用深度级可分离卷积(Depth Separable Convolution)代替标准卷积,可以分解为深度卷积(Depthwise Convolution)和1×1卷积(Pointwise Convolution)两个操作如图1,这种方式不仅在理论上具有更高的效率,而且大量的1×1卷积操作可以直接使用高度优化的矩阵相乘来完成,MobileNet中有约95%的乘加运算来自1×1卷积,因此能够大大提升运算效率。
改进YOLO网络结构如图2所示,采用416×416大小的图片输入,经过3×3的标准卷积后采用深度可分离卷积堆叠,在第5个深度可分离卷积之后输出X1,之后继续进行深度可分离卷积堆叠,分别在在第11个和13个深度可分离卷积输出X2,X3,将X1,X2,X3作为输入接入YOLO v3的网络中。
MobileNet的深度卷积操作虽然大大减少了网络参数规模,提升了网络的计算速度,但是其缺陷也很明显:深度卷积强调了局部感受野的特征参数,在一定程度上提升网络的表达能力,但是其忽略了各通道特征信息的相关性,其后虽然利用1×1卷积操作再将各通道上的特征相连接,但是无法完全弥补精度上的损失。考虑到描述物体的特征之间的相关性,以及特征有主要特征和非主要特征之分,本实施例在MobileNet网络中加入了Squeeze-and-Excitation模块。
Squeeze-and-Exitation网络(SE-Block)是由Hu Jie团队提出的用于物体特征的重要程度的网络模块,该模块的核心思想在于特征权重的学习,增大有效特征权重、减小无效或者效果小的特征权重,从而增强了网络的特征提取能力,在需要较少的额外计算成本的情况下给神经网络结构带来显著的性能改善。其模块基本结构如图3所示。
SE-Block功能先通过一个标准的卷积算子将任意输入
Figure BDA0002328900350000102
转换成一个
Figure BDA0002328900350000103
的特征映射。后续操作由压缩(Squeeze)、激发(Excitation)和权重分配(Scale)三个步骤完成,压缩操作即将全局空间信息进行压缩得到一个单通道描述器,通过全局平均池化(Global Average Pooling)产生每个通道的统计信息,统计量zc通过在空间维度H×W上压缩特征映射(Feature map)uc来实现,计算公式如下:
Figure BDA0002328900350000101
激发操作主要通过两个全连接层(Fully-connected layers)完成,第一个全连接层实现了特征映射的压缩,降低了计算量,在两个全连接层中加入了ReLU层,使得通道之间的非线性关系可以被学习。第二个全连接层将特征映射恢复至原通道数,经过Sigmoid函数归一化得到最终的特征映射重要性描述因子s,计算公式如下:
s=FExcitation(z,W)+σ(g(z,W))=σ(W2δ(W1z))
式中δ表示激活函数ReLU。权重分配即将激发操作得到的特征映射重要性描述因子s通过乘法逐通道加权至特征中,完成对原始特征的权重分配,计算公式如下:
Figure BDA0002328900350000111
本实施例将SE-Block模块嵌入MobileNet特征提取网络中,结合YOLO检测网络,提出了SEMobileNet-YOLO检测网络。SEMobileNet-YOLO网络结构与MobileNet-YOLO网络结构类似,其在每一对深度卷积和1×1卷积之后加入SE-Block模块,将输入的特征映射进行重要性权重分配,然后输入下一层,SEMobileNet基本结构如图4所示。
本实施例的具体实现在Ubuntu16.04LTS***,CPU为i9-9900K,内存为16GB,显卡为Nvidia Titan XP,开发框架为TensorFlow下的keras的环境下进行。训练参数设置如下:初始权重设置为0.001;权重衰减系数为0.0005;采用动量为0.9的动量梯度下降算法;批量处理参数(Batch Size)设置为16。初始学习率为10-3的情况下训练300个全数据集之后,然后用训练好的参数初始化网络,调整学习率为10-4再训练300个全数据集。学习率调整策略为当测试集的损失值经过连续3个全数据集(Epoch)训练没有下降时,将按照10%比例调整学习率;当测试集的损失值经过连续10个全数据集的训练都没有下降时,那么就提前中止训练。
在网络训练完成后,将测试集的图片输入网络进行检测。将改进之后的SEMobileNet-YOLO检测方法和MobileNet-YOLO、YOLO v3、tiny-YOLO进行比较,tiny-YOLO是YOLO v3的简化版,在牺牲检测精度的基础上大大提升了检测速度。当模型预测的目标边界框与手工标注的边界框交并比(IoU)≥0.5时并且目标识别准确时认为检测成功,否则认为目标漏检。最终得到的检测效果如图6(a)-(d)所示,灰色虚线框是标定时所画的标定框,白色实线框是算法检测的标定框。
本领域内的技术人员应明白,本公开的实施例可提供为方法、***、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。

Claims (9)

1.一种基于改进YOLO的建筑预埋件检测方法,其特征是:包括以下步骤:
获取建筑预埋件的图片,并对图片中建筑预埋件进行标定,形成数据集,将数据集分为训练集和测试集;
利用MobileNet网络代替YOLO检测算法中的Darknet53网络作为特征提取网络,构建改进YOLO检测模型,利用训练集训练所述改进YOLO检测模型,直到满足测试集的测试要求,得到最终的检测模型;
获取待在建的建筑工地的空中图片,对图片进行翻转、不同尺度的仿射变换以及高斯模糊处理,作为输入图片,利用最终的检测模型对输入图片进行识别,得到预埋件检测结果。
2.如权利要求1所述的一种基于改进YOLO的建筑预埋件检测方法,其特征是:在进行测试时,将目标检测看作回归问题,将输入的图片划分为S×S的网格,如果检测目标的中心存在于某个单元格的中心,这个单元格就负责预测这个目标;每个单元格会产生B个边界框,每个边界框包含物体的中心位置相对单元格位置的偏移以及边界框的宽度和高度以及目标的置信度。
3.如权利要求1所述的一种基于改进YOLO的建筑预埋件检测方法,其特征是:利用MobileNet网络提取目标物体的特征并预测,每一个单元格要给出C个类别概率值,表示该单元格负责预测的边界框中的目标属于每个类别的概率,单元格中存在物体的条件概率为Pr(class/object),Pr(object)表示边界框中是否含有目标,识别到的物体是某一类别的概率是Pr(class),
Figure FDA0004093583360000021
表示预测边框和物体真实区域的交并比,则有:
Figure FDA0004093583360000022
4.如权利要求1所述的一种基于改进YOLO的建筑预埋件检测方法,其特征是:使用均方和误差作为损失函数来优化模型参数,即网络结构的输出向量和真实图像的对应向量的均方和误差。
5.如权利要求1所述的一种基于改进YOLO的建筑预埋件检测方法,其特征是:MobileNet网络利用深度级可分离卷积代替标准卷积,分解为深度卷积和1×1卷积。
6.如权利要求1所述的一种基于改进YOLO的建筑预埋件检测方法,其特征是:通过无人机搭载可见光摄像头获取待在建的建筑工地的空中图片。
7.一种基于改进YOLO的建筑预埋件检测***,其特征是:包括:
数据获取模块,被配置为获取建筑预埋件的图片,并对图片中建筑预埋件进行标定,形成数据集,将数据集分为训练集和测试集;
模型构建、训练模块,被配置为利用MobileNet网络代替YOLO检测算法中的Darknet53网络作为特征提取网络,构建改进YOLO检测模型,利用训练集训练所述改进YOLO检测模型,直到满足测试集的测试要求,得到最终的检测模型;
检测识别模块,被配置为获取待在建的建筑工地的空中图片,对图片进行翻转、不同尺度的仿射变换以及高斯模糊处理,作为输入图片,利用最终的检测模型对输入图片进行识别,得到预埋件检测结果。
8.一种计算机可读存储介质,其特征是:其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行权利要求1-6任一项所述的一种基于改进YOLO的建筑预埋件检测方法的步骤。
9.一种终端设备,其特征是:包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行权利要求1-6任一项所述的一种基于改进YOLO的建筑预埋件检测方法的步骤。
CN201911328091.0A 2019-12-20 2019-12-20 一种基于改进yolo的建筑预埋件检测方法及*** Active CN111178206B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911328091.0A CN111178206B (zh) 2019-12-20 2019-12-20 一种基于改进yolo的建筑预埋件检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911328091.0A CN111178206B (zh) 2019-12-20 2019-12-20 一种基于改进yolo的建筑预埋件检测方法及***

Publications (2)

Publication Number Publication Date
CN111178206A CN111178206A (zh) 2020-05-19
CN111178206B true CN111178206B (zh) 2023-05-16

Family

ID=70647376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911328091.0A Active CN111178206B (zh) 2019-12-20 2019-12-20 一种基于改进yolo的建筑预埋件检测方法及***

Country Status (1)

Country Link
CN (1) CN111178206B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191696B (zh) * 2019-12-20 2023-04-07 山东大学 一种基于深度学习算法的钢筋分层方法及***
CN111709346B (zh) * 2020-06-10 2024-07-12 嘉应学院 基于深度学习和高分影像的历史建筑识别与检测方法
CN111986187A (zh) * 2020-08-26 2020-11-24 华中科技大学 基于改进Tiny-YOLOv3网络的航天电子焊点缺陷检测方法
CN112149761B (zh) * 2020-11-24 2021-06-22 江苏电力信息技术有限公司 一种基于YOLOv4改进算法的电力智慧工地违规行为检测方法
CN112487915B (zh) * 2020-11-25 2024-04-23 江苏科技大学 一种基于Embedded YOLO算法的行人检测方法
CN112699762A (zh) * 2020-12-24 2021-04-23 广东工业大学 一种适用于嵌入式设备的食材识别方法
CN113408394A (zh) * 2021-06-11 2021-09-17 通号智慧城市研究设计院有限公司 一种基于深度学习模型的安全帽佩戴检测方法及***
CN113327240A (zh) * 2021-06-11 2021-08-31 国网上海市电力公司 一种基于视觉引导的搭线方法、***及存储介质
CN113468992B (zh) * 2021-06-21 2022-11-04 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN114299366A (zh) * 2022-03-10 2022-04-08 青岛海尔工业智能研究院有限公司 一种图像检测方法、装置、电子设备及存储介质
CN115439436B (zh) * 2022-08-31 2023-07-28 成都建工第七建筑工程有限公司 一种建筑结构多类型质量缺陷移动感知***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109493609A (zh) * 2018-12-11 2019-03-19 杭州炬视科技有限公司 一种便携式未礼让行人自动识别抓拍的装置和方法
CN110084817A (zh) * 2019-03-21 2019-08-02 西安电子科技大学 基于深度学习的数字高程模型生产方法
CN110443208A (zh) * 2019-08-08 2019-11-12 南京工业大学 一种基于YOLOv2的车辆目标检测方法、***及设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190378013A1 (en) * 2018-06-06 2019-12-12 Kneron Inc. Self-tuning model compression methodology for reconfiguring deep neural network and electronic device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109493609A (zh) * 2018-12-11 2019-03-19 杭州炬视科技有限公司 一种便携式未礼让行人自动识别抓拍的装置和方法
CN110084817A (zh) * 2019-03-21 2019-08-02 西安电子科技大学 基于深度学习的数字高程模型生产方法
CN110443208A (zh) * 2019-08-08 2019-11-12 南京工业大学 一种基于YOLOv2的车辆目标检测方法、***及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ernin Niswatul Ukhwah等."Asphalt Pavement Pothole Detection using Deep learning method based on YOLO Neural Network".《2019 International Seminar on Intelligent Technology and Its Applications (ISITIA)》.2019,全文. *

Also Published As

Publication number Publication date
CN111178206A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN111178206B (zh) 一种基于改进yolo的建筑预埋件检测方法及***
CN113705478B (zh) 一种基于改进YOLOv5的红树林单木目标检测方法
CN110378222B (zh) 一种输电线路防震锤目标检测与缺陷识别方法及装置
CN112183414A (zh) 一种基于混合空洞卷积的弱监督遥感目标检测方法
CN111402227B (zh) 一种桥梁裂缝检测方法
Li et al. Automatic bridge crack identification from concrete surface using ResNeXt with postprocessing
CN112581443A (zh) 一种风力发电机叶片表面损伤轻量化识别方法
CN111079604A (zh) 面向大尺度遥感图像的微小目标快速检测方法
CN113408423A (zh) 适用于tx2嵌入式平台的水产品目标实时检测方法
CN115115924A (zh) 基于ir7-ec网络的混凝土图像裂缝类型迅捷智能识别方法
CN114596266B (zh) 一种基于ConcreteCrackSegNet模型的混凝土裂缝检测方法
CN116206185A (zh) 一种基于改进YOLOv7的轻量级小目标检测方法
CN110992307A (zh) 基于yolo的绝缘子定位识别方法及装置
CN115564950A (zh) 基于深度学习的小样本火箭弹粘接缺陷检测方法
CN109934151B (zh) 一种基于movidius计算芯片和Yolo face的人脸检测方法
CN114565842A (zh) 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及***
CN116152254A (zh) 工业泄露目标气体检测模型训练方法、检测方法、电子设备
CN114078209A (zh) 一种提升小目标检测精度的轻量级目标检测方法
CN116363532A (zh) 基于注意力机制和重参数化的无人机图像交通目标检测方法
CN110334775B (zh) 一种基于宽度学习的无人机线路故障识别方法和装置
CN117541534A (zh) 一种基于无人机和CNN-BiLSTM模型的输电线路巡检方法
CN116385911A (zh) 一种用于无人机巡检绝缘子的轻量型目标检测方法
CN113269717A (zh) 基于遥感图像的建筑物检测方法及装置
Wu et al. Research on asphalt pavement disease detection based on improved YOLOv5s
CN116206169A (zh) 一种智能煤矸石目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant