CN111062434A - 一种无人机巡检多尺度融合检测方法 - Google Patents
一种无人机巡检多尺度融合检测方法 Download PDFInfo
- Publication number
- CN111062434A CN111062434A CN201911283201.6A CN201911283201A CN111062434A CN 111062434 A CN111062434 A CN 111062434A CN 201911283201 A CN201911283201 A CN 201911283201A CN 111062434 A CN111062434 A CN 111062434A
- Authority
- CN
- China
- Prior art keywords
- scale
- residual error
- aerial vehicle
- unmanned aerial
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 28
- 238000007689 inspection Methods 0.000 title claims abstract description 22
- 238000001514 detection method Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 abstract description 6
- 238000013527 convolutional neural network Methods 0.000 abstract description 4
- 238000012546 transfer Methods 0.000 abstract description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 230000008034 disappearance Effects 0.000 abstract description 2
- 230000006872 improvement Effects 0.000 abstract description 2
- 239000011229 interlayer Substances 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种无人机巡检多尺度融合检测方法,包括以下步骤:数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;尺度空间残差信息融合;通过卷积神经网络模型的改进,借鉴了深度残差神经网络的思想,直接将每个密集模块中的所有层连接起来,使每一层的输入都包含了所有较早层的特征图,通过层间连接有效地解决了梯度问题,强化了特征的传递,更有效地解决了梯度消失问题,强化了特征的传递,更有效地复用了卷积神经网络的特征,大幅度减少参数数量,从而减少计算量。
Description
技术领域
本发明涉及图像处理技术领域,具体为一种无人机巡检多尺度融合检测方法。
背景技术
运用无人机进行缺陷识别,杆塔瓶口及以上位置、人工难以发现的缺陷占比78.5%。设备本体巡检效率和质量显著提高,并且极大降低了劳动强度,提升了巡检效率,确保了对电力设备状态的运行维护能力。因此,无人机应用为线路巡检智能化发展提供了有效的解决方案,与传统人工巡检协同配合,可用于电网日常巡检、设备基础资料收集、故障巡视、调查取证、灾情勘察、设备验收、勘测设计、清理异物等业务,具有迅速快捷、工作效率高、不受地域影响、巡检质量高、安全性好等优点。
但是由于硬件设备和成本的限制,无人机的分辨率固定,而且在无人机巡检过程中,由于运动模糊,或者光线、空气环境等因素,导致很多图片成像模糊,成为残缺图片,无法清晰的反映出巡检信息,为此,我们提出一种无人机巡检多尺度融合检测方法,将数量较多的残缺图片进行精度重建,从而可以清晰准确的展示出图片的内容和信息,用于解决上述提出的问题。
发明内容
本发明的目的在于提供一种无人机巡检多尺度融合检测方法,以解决上述背景技术中提出的由于硬件设备和成本的限制,无人机的分辨率固定,而且在无人机巡检过程中,由于运动模糊,或者光线、空气环境等因素,导致很多图片成像模糊,成为残缺图片,无法清晰的反映出巡检信息的问题。
为实现上述目的,本发明提供如下技术方案:一种无人机巡检多尺度融合检测方法,包括以下步骤:
步骤1:数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;
步骤2:尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;
步骤3:尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);
步骤4:损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;
步骤5:描点框:最终将较大的特征图分配给小目标更为准确的描点框。
优选的,所述在步骤1中,尺度空间的数量为4个,并按S1、S2、S3和S4代表。
优选的,所述在步骤2中,网络输出残差公式为:∫S(x)=WS×Hs+bs,其中H为残差学习网络输出的特征图,W为卷积的权值,b为偏置项。
优选的,所述在步骤3中,残差信息融合公式为:∫F(x)=m×∫S(x)+(1—m)×∫S(x),其中m表示尺度空间预测残差的权重。
优选的,所述在步骤3中,重建图像公式为:PF(x)=∫F(x)+x。
与现有技术相比,本发明提供了一种无人机巡检多尺度融合检测方法,具备以下有益效果:
通过卷积神经网络模型的改进,借鉴了深度残差神经网络的思想,直接将每个密集模块中的所有层连接起来,使每一层的输入都包含了所有较早层的特征图,通过层间连接有效地解决了梯度问题,强化了特征的传递,更有效地解决了梯度消失问题,强化了特征的传递,更有效地复用了卷积神经网络的特征,大幅度减少参数数量,从而减少计算量。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:一种无人机巡检多尺度融合检测方法,包括以下步骤:
步骤1:数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;
步骤2:尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;
步骤3:尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);
步骤4:损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;
步骤5:描点框:最终将较大的特征图分配给小目标更为准确的描点框。
实施例一:
数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;描点框:最终将较大的特征图分配给小目标更为准确的描点框。
实施例二:
在实施例一中,再加上下述工序:
在步骤1中,尺度空间的数量为4个,并按S1、S2、S3和S4代表。
数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;描点框:最终将较大的特征图分配给小目标更为准确的描点框。
实施例三:
在实施例二中,再加上下述工序:
在步骤2中,网络输出残差公式为:∫S(x)=WS×Hs+bs,其中H为残差学习网络输出的特征图,W为卷积的权值,b为偏置项。
数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;描点框:最终将较大的特征图分配给小目标更为准确的描点框。
实施例四:
在实施例三中,再加上下述工序:
在步骤3中,残差信息融合公式为:∫F(x)=m×∫S(x)+(1—m)×∫S(x),其中m表示尺度空间预测残差的权重。
数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;描点框:最终将较大的特征图分配给小目标更为准确的描点框。
实施例五:
在实施例四中,再加上下述工序:
在步骤3中,重建图像公式为:PF(x)=∫F(x)+x。
数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;描点框:最终将较大的特征图分配给小目标更为准确的描点框。
实施例六:
在实施例五中,再加上下述工序:
数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;描点框:最终将较大的特征图分配给小目标更为准确的描点框。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (6)
1.一种无人机巡检多尺度融合检测方法,其特征在于:包括以下步骤:
步骤1:数据集丰富:通过对图片采取翻转、平移、噪音化等手段,丰富数据集,形成不同的尺度空间;
步骤2:尺度空间特征提取:对于不同的尺度空间,进行图像块训练,得到其网络输出的残差;
步骤3:尺度空间残差信息融合:将不同尺度空间的残差信息进行融合,得到融合后的残差,并得到最终重建图像PF(x);
步骤4:损失函数:使用均方程差作为网络的损失函数,得到整体的损失函数;
步骤5:描点框:最终将较大的特征图分配给小目标更为准确的描点框。
2.根据权利要求1所述的一种无人机巡检多尺度融合检测方法,其特征在于:所述在步骤1中,尺度空间的数量为4个,并按S1、S2、S3和S4代表。
3.根据权利要求1所述的一种无人机巡检多尺度融合检测方法,其特征在于:所述在步骤2中,网络输出残差公式为:∫S(x)=WS×Hs+bs,其中H为残差学习网络输出的特征图,W为卷积的权值,b为偏置项。
4.根据权利要求1所述的一种无人机巡检多尺度融合检测方法,其特征在于:所述在步骤3中,残差信息融合公式为:∫F(x)=m×∫S(x)+(1-m)×∫S(x),其中m表示尺度空间预测残差的权重。
5.根据权利要求1所述的一种无人机巡检多尺度融合检测方法,其特征在于:所述在步骤3中,重建图像公式为:PF(x)=∫F(x)+x。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911283201.6A CN111062434A (zh) | 2019-12-13 | 2019-12-13 | 一种无人机巡检多尺度融合检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911283201.6A CN111062434A (zh) | 2019-12-13 | 2019-12-13 | 一种无人机巡检多尺度融合检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111062434A true CN111062434A (zh) | 2020-04-24 |
Family
ID=70301608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911283201.6A Pending CN111062434A (zh) | 2019-12-13 | 2019-12-13 | 一种无人机巡检多尺度融合检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111062434A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096561A (zh) * | 2016-06-16 | 2016-11-09 | 重庆邮电大学 | 基于图像块深度学习特征的红外行人检测方法 |
CN106295655A (zh) * | 2016-08-03 | 2017-01-04 | 国网山东省电力公司电力科学研究院 | 一种用于无人机巡检图像的输电线路部件自动提取方法 |
CN106599780A (zh) * | 2016-10-27 | 2017-04-26 | 国家电网公司 | 一种电网巡检图像智能识别方法及装置 |
CN108537731A (zh) * | 2017-12-29 | 2018-09-14 | 西安电子科技大学 | 基于压缩多尺度特征融合网络的图像超分辨率重建方法 |
CN108734660A (zh) * | 2018-05-25 | 2018-11-02 | 上海通途半导体科技有限公司 | 一种基于深度学习的图像超分辨率重建方法及装置 |
CN109191411A (zh) * | 2018-08-16 | 2019-01-11 | 广州视源电子科技股份有限公司 | 一种多任务图像重建方法、装置、设备和介质 |
CN109544501A (zh) * | 2018-03-22 | 2019-03-29 | 广东电网有限责任公司清远供电局 | 一种基于无人机多源图像特征匹配的输电设备缺陷检测方法 |
CN110119749A (zh) * | 2019-05-16 | 2019-08-13 | 北京小米智能科技有限公司 | 识别产品图像的方法和装置、存储介质 |
CN110188641A (zh) * | 2019-05-20 | 2019-08-30 | 北京迈格威科技有限公司 | 图像识别和神经网络模型的训练方法、装置和*** |
CN110245644A (zh) * | 2019-06-22 | 2019-09-17 | 福州大学 | 一种基于深度学习的无人机图像输电杆塔倒伏识别的方法 |
-
2019
- 2019-12-13 CN CN201911283201.6A patent/CN111062434A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096561A (zh) * | 2016-06-16 | 2016-11-09 | 重庆邮电大学 | 基于图像块深度学习特征的红外行人检测方法 |
CN106295655A (zh) * | 2016-08-03 | 2017-01-04 | 国网山东省电力公司电力科学研究院 | 一种用于无人机巡检图像的输电线路部件自动提取方法 |
CN106599780A (zh) * | 2016-10-27 | 2017-04-26 | 国家电网公司 | 一种电网巡检图像智能识别方法及装置 |
CN108537731A (zh) * | 2017-12-29 | 2018-09-14 | 西安电子科技大学 | 基于压缩多尺度特征融合网络的图像超分辨率重建方法 |
CN109544501A (zh) * | 2018-03-22 | 2019-03-29 | 广东电网有限责任公司清远供电局 | 一种基于无人机多源图像特征匹配的输电设备缺陷检测方法 |
CN108734660A (zh) * | 2018-05-25 | 2018-11-02 | 上海通途半导体科技有限公司 | 一种基于深度学习的图像超分辨率重建方法及装置 |
CN109191411A (zh) * | 2018-08-16 | 2019-01-11 | 广州视源电子科技股份有限公司 | 一种多任务图像重建方法、装置、设备和介质 |
CN110119749A (zh) * | 2019-05-16 | 2019-08-13 | 北京小米智能科技有限公司 | 识别产品图像的方法和装置、存储介质 |
CN110188641A (zh) * | 2019-05-20 | 2019-08-30 | 北京迈格威科技有限公司 | 图像识别和神经网络模型的训练方法、装置和*** |
CN110245644A (zh) * | 2019-06-22 | 2019-09-17 | 福州大学 | 一种基于深度学习的无人机图像输电杆塔倒伏识别的方法 |
Non-Patent Citations (3)
Title |
---|
丁文东等: "移动机器人视觉里程计综述", 《自动化学报》 * |
戴伟聪等: "遥感图像中飞机的改进YOLOv3实时检测算法", 《光电工程》 * |
汪家明等: "多尺度残差深度神经网络的卫星图像超分辨率算法", 《武汉工程大学学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rahman et al. | Autonomous vision-based primary distribution systems porcelain insulators inspection using UAVs | |
CN112183788B (zh) | 一种域自适应设备运检***和方法 | |
CN110827251A (zh) | 一种基于航拍图像的输电线路锁紧销缺陷检测方法 | |
Mittal et al. | Vision based railway track monitoring using deep learning | |
CN112184711A (zh) | 一种光伏组件缺陷检测和定位方法及*** | |
US20220046220A1 (en) | Multispectral stereo camera self-calibration algorithm based on track feature registration | |
Balasubramani et al. | Infrared thermography based defects testing of solar photovoltaic panel with fuzzy rule-based evaluation | |
CN110648310A (zh) | 基于注意力机制的弱监督铸件缺陷识别方法 | |
CN111223087B (zh) | 一种基于生成对抗网络的桥梁裂缝自动检测方法 | |
CN114743119B (zh) | 基于无人机的高铁接触网吊弦螺母缺陷检测方法 | |
CN105900418A (zh) | Oled堆叠膜的质量评估 | |
CN113837994B (zh) | 一种基于边缘检测卷积神经网络的光伏板缺陷诊断方法 | |
CN115861263A (zh) | 一种基于改进YOLOv5网络的绝缘子缺陷图像检测方法 | |
CN114332020A (zh) | 一种基于可见光图像的光伏板定位与缺陷检测方法及*** | |
Liao et al. | Using drones for thermal imaging photography and building 3D images to analyze the defects of solar modules | |
CN111735815A (zh) | 一种输电线路小金具缺陷检测方法、装置及存储介质 | |
CN115995058A (zh) | 基于人工智能的输电通道安全在线监测方法 | |
CN115546223A (zh) | 一种列车车下设备紧固螺栓的缺失检测方法和*** | |
Kumar et al. | Detection of concrete cracks using dual-channel deep convolutional network | |
CN114881931A (zh) | 基于双光融合的光伏面板缺陷检测方法、***、设备和计算机可读存储介质 | |
Han et al. | SSGD: A smartphone screen glass dataset for defect detection | |
CN114494875A (zh) | 一种电网设备可视检测方法、***、设备和介质 | |
CN111062434A (zh) | 一种无人机巡检多尺度融合检测方法 | |
CN114596244A (zh) | 基于视觉处理和多特征融合的红外图像识别方法及*** | |
CN117197530A (zh) | 一种基于改进YOLOv8模型及余弦退火学习率衰减法的绝缘子缺陷识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200424 |
|
RJ01 | Rejection of invention patent application after publication |