CN110084852A - 一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法 - Google Patents
一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法 Download PDFInfo
- Publication number
- CN110084852A CN110084852A CN201910322462.8A CN201910322462A CN110084852A CN 110084852 A CN110084852 A CN 110084852A CN 201910322462 A CN201910322462 A CN 201910322462A CN 110084852 A CN110084852 A CN 110084852A
- Authority
- CN
- China
- Prior art keywords
- support device
- puller bolt
- high iron
- accurate positioning
- iron catenary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,包括以下步骤:步骤1:获取高铁接触网支撑装置零部件的标记样本库;步骤2:构建基于改进Faster RCNN算法的深度卷积神经网络,深度卷积神经网络包括特征提取网络、ROI生成、样本分类与边框回归;步骤3:将搭建好的深度卷积神经网络进行训练;步骤4:采用训练好的深度卷积神经网络进行高铁接触网支撑装置套筒顶紧螺栓的精确定位;本发明可减少人工识别的巨大工作量,实现现场图像智能分析,并且实现了小尺度套筒顶紧螺栓的定位提取。
Description
技术领域
本发明涉及高速铁路图像智能检测技术领域,具体涉及一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法。
背景技术
截至2018年底,我国高铁运营总里程超过2.9万公里,已建成目前世界上最大的高速铁路运营网。与此同时,高铁已经成为中国最重要的交通手段之一,这对高铁的安全性能提出了更高的要求。接触网支撑装置作为高铁的架空接触网的主要设施,决定着接触网是否能够安全运行,而接触网作为高铁牵引供电***中的关键供电设施,主要承担高铁动车组的供电功能,它的可靠性将直接影响动车组的安全运行。
套筒顶紧螺栓作为接触网支撑装置零部件的一部分,由于其尺寸相比于其他零部件很小,加之在摄像机拍摄时,会有一定的光照和角度的影响,很难用传统的计算机视觉方法检测,目前依然停留在人工检测阶段,检测效率很低。如果套筒顶紧螺栓发生故障如缺失、破损等,会导致套筒顶紧螺栓与接触网支撑装置之间发生松动,进一步会对整个接触网支撑装置***造成严重的影响。
目前针对高铁接触网支持装置零部件的状态检测,已有基于成像技术的专用接触网检测车得到了初步应用。但接触网支持装置零部件的复杂性和多样性。给当前的检测车的进一步应用带来严峻的挑战;目前检测车的自动检测技术被广泛使用的模板匹配定位法对尺寸差异敏感,尤其是对套筒顶紧螺栓这类细小的零部件误定位率和漏定位率高,需人工进一步排查定位结果,影响故障的及时维修处理,在此过程中故障可能进一步发展成事故,甚至带来重大损失与不利影响。深度学习方法应用遍及人工智能各个领域,对于不同环境复杂背景下的检测有着良好的效果,对于套筒顶紧螺栓这类小目标,采用改进后的目标定位网络,可提高定位精确度。
发明内容
本发明针对现有技术存在的问题提供一种可减少人工识别的巨大工作量,实现现场图像智能分析的高铁接触网支撑装置套筒顶紧螺栓的精确定位方法。
本发明采用的技术方案是:一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,包括以下步骤:
步骤1:获取高铁接触网支撑装置零部件的标记样本库;
步骤2:构建基于改进Faster RCNN算法的深度卷积神经网络,深度卷积神经网络包括特征提取网络、ROI生成、样本分类与边框回归;
步骤3:将搭建好的深度卷积神经网络进行训练;
步骤4:采用训练好的深度卷积神经网络进行高铁接触网支撑装置套筒顶紧螺栓的精确定位。
进一步的,所述步骤2中图片输入特征提取网络,经卷积后得到卷积图,卷积图分为用于目标类别确定的辨别图和用于目标框定位的建议图;辨别图输入ROI下采样层进行特征信息提取;建议图经区域建议网络RPN,得到候选框的特征信息输入ROI下采样层。
进一步的,所述ROI生成过程如下:ROI下采样层将输入的ROI候选框统一下采样映射为特征图传入卷积块,经平均池化层输出张量;样本分类与边框回归过程如下:输出的张量经全连接层和激活函数,得到用于输出目标框的坐标和目标类别的向量。
进一步的,所述RPN中,anchor采用三种长宽比1:1、1:2、2:1。
进一步的,步骤3训练过程中,根据样本信息给每一个anchor分配一个标签,复合多个损失函数,优化损失函数结构,构建多任务损失函数:
式中:i为RPN网络输出的预测框的索引,pi为第i个预测框中某个检测目标的预测概率,为第i个预测框中某个检测目标的真实标签;ti是预测框的坐标;是对应预测框的真实框坐标;Lcls是二分类softmax损失函数;Lreg是smooth L1损失函数;λ是平衡权重;Ncls为类别个数;Nreg是预测框个数。
进一步的,所述步骤3训练过程中,根据多任务损失目标函数,采用反向传播算法和随机梯度下降方法进行迭代训练。
进一步的,所述步骤1标记样本库中包含各支撑装置所在位置的坐标值及其所述类别的标签信息。
进一步的,所述标记样本库包括以下类别图片:绝缘子、双套筒连接器、旋转双耳、承力索支撑底座、双耳套筒、防风拉线固定环、斜撑套筒、绝缘子底座、***支座、等电位线、斜拉线定位钩、套筒顶紧螺栓。
本发明的有益效果是:
(1)本发明利用基于改进的Faster RCNN的目标定位网络对高铁接触网支撑装置套筒顶紧螺栓进行学习和目标定位,可减少人工识别的巨大工作量,实现现场图像智能分析;
(2)本发明将原本同时用于分类和定位的卷积图分解为用于目标类别确定的辨别图和用于目标框定位的建议图,实现小尺度套筒顶紧螺栓的定位提取。
附图说明
图1为待分类检测的接触网支撑装置全局图像。
图2为高铁接触网支撑装置套筒顶紧螺栓的局部图像。
图3为本发明中改进的Faster RCNN示意图。
图4为本发明改进后的Faster RCNN网络结构示意图。
图5为本发明改进后的目标检测网络的精确率-召回率(PR)曲线图。
图6为本发明高铁接触网支撑装置套筒顶紧螺栓识别检测结果示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步说明。
一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,包括以下步骤:
步骤1:获取高铁接触网支撑装置零部件的标记样本库;
采用专用综合列检车对高速铁路接触网支撑及悬挂装置进行成像,专用综合列检车在一定运行速度下,对高速铁路接触网支撑装置进行上行和下行的高清图像储存,其全局图像如图1所示。
对采集的图像进行筛选,构建接触网支撑装置零部件的标记样本库。
标记样本库包括以下类别图片:绝缘子、双套筒连接器、旋转双耳、承力索支撑底座、双耳套筒、防风拉线固定环、斜撑套筒、绝缘子底座、***支座、等电位线、斜拉线定位钩、套筒顶紧螺栓。共包括上述十二类共5000余张图片,标记样本库中包含各支撑装置所在位置的坐标值,及其所属类别的标签信息;标记的套筒顶紧螺栓的局部图像如图2所示。
步骤2:构建基于改进Faster RCNN算法的深度卷积神经网络如图3所示,深度卷积神经网络包括特征提取网络、ROI生成、样本分类与边框回归;
网络采用ResNet-101的基础模型,共有101个可共享的卷积层或全连接层,还有一个1×1的卷积层用来对齐卷积通道,网络共分为三个部分,特征提取网络,ROI生成,样本分类与边框回归。
首先搭建特征提取网络,将图像作为输入,输出矩形目标建议框的集合,每个框有一个目标得分;改进的ResNet-101特征提取网络的block1部分卷积核的步数由2调整为1,为了更好的定位套筒顶紧螺栓这一小目标;将原本同时用于分类与定位的卷积图分解成两部分,用于目标类别确定的辨别图和用于目标框定位的建议图。将ResNet-101block3部分的输出作为建议图,将ResNet-101block2部分的输出作为辨别图,连接一个1×1的对齐卷积层直接作为感兴趣区域(ROI)下采样层的输入。
ROI下采样层的输入一部分来自辨别图,另一部分利用区域候选网络RPN接受建议图的输出。在RPN中,为了满足各零部件检测的需要,anchor使用三种长宽比(1:1、1:2、2:1),其尺度从{16,32,64,128}集合中进行选择。生成的ROI同样输入到ROI下采样层中。ROI下采样层将输入的ROI候选框统一下采样映射为7×7×1024的特征图再传入block4卷积块,再经过一个平均池化层,输出一个1×1×2048的张量。
进行样本分类与边框回归,上一步中生成的张量经过全连接层和激活函数,获得一个长度为1000的向量,用来输出目标框和目标类别,改进后完整的基于ResNet-101特征提取网络的Faster RCNN网络结构如图4所示。
搭建的基于改进Faster RCNN算法的深度卷积神经网络使用过程中可按照以下步骤进行:
S1:对整张图片输入到改进后的ResNet特征提取模块,得到特征图,并将其分成判别图和建议图两个部分。
S2:建议图卷积特征输入到RPN,得到候选框的特征信息,判别图卷积特征直接绕过RPN层,输入到ROI下采样层进行特征信息的提取。
S3:对候选框中提取出的特征,使用分类器判别是否属于一个特定类别。
S4:对于某一特征的候选框,用回归器进一步调整其位置,生成分类器模型。
步骤3:将搭建好的深度卷积神经网络进行训练;
将训练样本输入搭建好的改进Faster RCNN网络,完成模型的训练。在训练过程中,根据样本信息给每一个anchor分配一个标签,然后复合多个损失函数,优化损失函数结构,构建多任务损失函数如下:
式中:i为RPN网络输出的预测框的索引,pi为第i个预测框中某个检测目标的预测概率,为第i个预测框中某个检测目标的真实标签;ti是预测框的坐标;是对应预测框的真实框坐标;Lcls是二分类softmax损失函数;Lreg是smooth L1损失函数;λ是平衡权重;Ncls为类别个数;Nreg是预测框个数。
根据多任务损失目标函数,采用反向传播算法BP和随机梯度下降SGD的方法进行反复的迭代训练。
步骤4:采用训练好的深度卷积神经网络进行高铁接触网支撑装置套筒顶紧螺栓的精确定位。
下面以4C检测车现场采集图像中的高铁接触网支撑装置全局图像为例说明本发明方法。接触网图像在夜间拍摄时,容易受到光斑、拍摄角度等的干扰;并且在检测车获取的接触网支撑装置图像中,由于套筒顶紧螺栓目标较小,结构特征不明显,因此需要训练一个基于深度卷积神经网络的模型,完成套筒顶紧螺栓部件的识别工作。
在建立样本库的时候,保留零部件的坐标信息,并人工标记该框的类别,将其样本库设为计算机视觉领域中标准的VOC2007图像格式。本发明中整个训练和检测过程均在深度学习开源框架Tensorflow下运行,显卡(GPU)采用英伟达公司的GTX1080TI。反映该目标检测网络性能的PR(精确度-召回度)曲线如图5所示。其检测的结果如图6所示。训练过程总共经过约40000次迭代后基本收敛,最终该目标定位模型可获得很好的综合性能。
本发明基于改进Faster RCNN的目标定位网络对高铁接触网支撑装置套筒顶紧螺栓进行特征学习和目标定位,将原本同时用于分类和定位的卷积图分解成用于目标类别确定的辨别图和用于目标框定位的建议图,实现小尺度套筒顶紧螺栓的定位提取;减少人工识别的巨大工作量,具有较高的识别准确性。
Claims (8)
1.一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,包括以下步骤:
步骤1:获取高铁接触网支撑装置零部件的标记样本库;
步骤2:构建基于改进Faster RCNN算法的深度卷积神经网络,深度卷积神经网络包括特征提取网络、ROI生成、样本分类与边框回归;
步骤3:将搭建好的深度卷积神经网络进行训练;
步骤4:采用训练好的深度卷积神经网络进行高铁接触网支撑装置套筒顶紧螺栓的精确定位。
2.根据权利要求1所述的一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,所述步骤2中图片输入特征提取网络,经卷积后得到卷积图,卷积图分为用于目标类别确定的辨别图和用于目标框定位的建议图;辨别图输入ROI下采样层进行特征信息提取;建议图经区域建议网络RPN,得到候选框的特征信息输入ROI下采样层。
3.根据权利要求2所述的一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,所述ROI生成过程如下:ROI下采样层将输入的ROI候选框统一下采样映射为特征图传入卷积块,经平均池化层输出张量;样本分类与边框回归过程如下:输出的张量经全连接层和激活函数,得到用于输出目标框的坐标和目标类别的向量。
4.根据权利要求2所述的一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,所述RPN中,anchor采用三种长宽比1:1、1:2、2:1。
5.根据权利要求2所述的一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,步骤3训练过程中,根据样本信息给每一个anchor分配一个标签,复合多个损失函数,优化损失函数结构,构建多任务损失函数:
式中:i为RPN网络输出的预测框的索引,pi为第i个预测框中某个检测目标的预测概率,为第i个预测框中某个检测目标的真实标签;ti是预测框的坐标;是对应预测框的真实框坐标;Lcls是二分类softmax损失函数;Lreg是smooth L1损失函数;λ是平衡权重;Ncls为类别个数;Nreg是预测框个数。
6.根据权利要求5所述的一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,所述步骤3训练过程中,根据多任务损失目标函数,采用反向传播算法和随机梯度下降方法进行迭代训练。
7.根据权利要求1所述的一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,所述步骤1标记样本库中包含各支撑装置所在位置的坐标值及其所述类别的标签信息。
8.根据权利要求1所述的一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法,其特征在于,所述标记样本库包括以下类别图片:绝缘子、双套筒连接器、旋转双耳、承力索支撑底座、双耳套筒、防风拉线固定环、斜撑套筒、绝缘子底座、***支座、等电位线、斜拉线定位钩、套筒顶紧螺栓。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910322462.8A CN110084852A (zh) | 2019-04-22 | 2019-04-22 | 一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910322462.8A CN110084852A (zh) | 2019-04-22 | 2019-04-22 | 一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110084852A true CN110084852A (zh) | 2019-08-02 |
Family
ID=67415995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910322462.8A Pending CN110084852A (zh) | 2019-04-22 | 2019-04-22 | 一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110084852A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533725A (zh) * | 2019-09-06 | 2019-12-03 | 西南交通大学 | 一种基于结构推理网络的高铁接触网多种零部件定位方法 |
CN111383273A (zh) * | 2020-03-07 | 2020-07-07 | 西南交通大学 | 一种基于改进结构推理网络的高铁接触网零部件定位方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106919978A (zh) * | 2017-01-18 | 2017-07-04 | 西南交通大学 | 一种高铁接触网支撑装置零部件识别检测方法 |
CN107437245A (zh) * | 2017-06-26 | 2017-12-05 | 西南交通大学 | 基于深度卷积神经网络的高速铁路接触网故障诊断方法 |
CN107633267A (zh) * | 2017-09-22 | 2018-01-26 | 西南交通大学 | 一种高铁接触网支撑装置腕臂连接件紧固件识别检测方法 |
CN108509839A (zh) * | 2018-02-02 | 2018-09-07 | 东华大学 | 一种基于区域卷积神经网络高效的手势检测识别方法 |
-
2019
- 2019-04-22 CN CN201910322462.8A patent/CN110084852A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106919978A (zh) * | 2017-01-18 | 2017-07-04 | 西南交通大学 | 一种高铁接触网支撑装置零部件识别检测方法 |
CN107437245A (zh) * | 2017-06-26 | 2017-12-05 | 西南交通大学 | 基于深度卷积神经网络的高速铁路接触网故障诊断方法 |
CN107633267A (zh) * | 2017-09-22 | 2018-01-26 | 西南交通大学 | 一种高铁接触网支撑装置腕臂连接件紧固件识别检测方法 |
CN108509839A (zh) * | 2018-02-02 | 2018-09-07 | 东华大学 | 一种基于区域卷积神经网络高效的手势检测识别方法 |
Non-Patent Citations (1)
Title |
---|
吕洋: "基于生成对抗网络的接触网零部件故障检测", 《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533725A (zh) * | 2019-09-06 | 2019-12-03 | 西南交通大学 | 一种基于结构推理网络的高铁接触网多种零部件定位方法 |
CN110533725B (zh) * | 2019-09-06 | 2022-04-29 | 西南交通大学 | 一种基于结构推理网络的高铁接触网多种零部件定位方法 |
CN111383273A (zh) * | 2020-03-07 | 2020-07-07 | 西南交通大学 | 一种基于改进结构推理网络的高铁接触网零部件定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lian et al. | Deep-learning-based small surface defect detection via an exaggerated local variation-based generative adversarial network | |
CN110399816B (zh) | 一种基于Faster R-CNN的高速列车车底异物检测方法 | |
CN110414368B (zh) | 一种基于知识蒸馏的无监督行人重识别方法 | |
CN109784203B (zh) | 基于分层传播和激活的弱监督x光图像违禁品检查方法 | |
CN105069481B (zh) | 基于空间金字塔稀疏编码的自然场景多标记分类方法 | |
CN110555475A (zh) | 一种基于语义信息融合的少样本目标检测方法 | |
CN110059734A (zh) | 一种目标识别分类模型的训练方法、物体识别方法、装置、机器人和介质 | |
CN106919978A (zh) | 一种高铁接触网支撑装置零部件识别检测方法 | |
CN107346420A (zh) | 一种基于深度学习的自然场景下文字检测定位方法 | |
CN111950453A (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN114495029B (zh) | 一种基于改进YOLOv4的交通目标检测方法及*** | |
CN109508675A (zh) | 一种针对复杂场景的行人检测方法 | |
CN112069940A (zh) | 一种基于分阶段特征学习的跨域行人重识别方法 | |
CN109635676A (zh) | 一种从视频中定位音源的方法 | |
CN110378221A (zh) | 一种电网线夹自动检测与缺陷识别方法及装置 | |
CN105574063A (zh) | 基于视觉显著性的图像检索方法 | |
CN112381175A (zh) | 一种基于图像处理的电路板识别与分析方法 | |
CN111353487A (zh) | 用于变电站的设备信息提取方法 | |
CN108932712A (zh) | 一种转子绕组质量检测***及方法 | |
CN113313684B (zh) | 一种暗光条件下基于视频的工业缺陷检测*** | |
CN112668375A (zh) | 景区内游客分布分析***及方法 | |
CN110458794A (zh) | 用于轨道列车的配件质量检测方法及装置 | |
CN110084852A (zh) | 一种高铁接触网支撑装置套筒顶紧螺栓的精确定位方法 | |
CN111582154A (zh) | 基于多任务骨架姿态划分部件的行人重识别方法 | |
CN114140665A (zh) | 一种基于改进YOLOv5的密集小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190802 |