CN113506244A - 基于深度学习指示灯检测及颜色识别泛化能力提升算法 - Google Patents
基于深度学习指示灯检测及颜色识别泛化能力提升算法 Download PDFInfo
- Publication number
- CN113506244A CN113506244A CN202110629033.2A CN202110629033A CN113506244A CN 113506244 A CN113506244 A CN 113506244A CN 202110629033 A CN202110629033 A CN 202110629033A CN 113506244 A CN113506244 A CN 113506244A
- Authority
- CN
- China
- Prior art keywords
- indicator light
- color
- deep learning
- photos
- generalization capability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 36
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 title claims abstract description 29
- 230000006872 improvement Effects 0.000 title claims abstract description 17
- 230000006870 function Effects 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000012216 screening Methods 0.000 claims abstract description 9
- 238000002372 labelling Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 235000019580 granularity Nutrition 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000011897 real-time detection Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
- 238000004383 yellowing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于深度学习指示灯检测及颜色识别泛化能力提升算法,该算法包括以下步骤:收集需要识别的指示灯照片,并通过预先配置的标注方法对照片中指示灯的位置进行标注,保存标注结果;搭建深度学习神经网络,对已标注的照片进行特征提取得到标注数据,且对损失函数进行构建,并通过标注数据及损失函数对搭建的网络进行训练及方向推导,保存训练的模型;利用训练好的模型对需要识别的照片进行识别和检测,并将检测得到的色域与预先设定的颜色区域进行比较筛选和处理,得到指示灯颜色识别结果。有益效果:本发明识别速度更快,识别更为准确,对照片拍摄设备、指示灯、拍摄条件要求低,降低了算法算力要求,节省算法部署调试的时间。
Description
技术领域
本发明涉及视觉技术和图像处理技术领域,具体来说,涉及基于深度学习指示灯检测及颜色识别泛化能力提升算法。
背景技术
传统的指示灯检测及颜色识别方法一般有以下几种方法:
1.目测法,这种识别方法只适用于人眼实时观察,在缺乏人力及无人情况下无法完成任务,且人力成本相对较高。
2.基于传统图像算法的指示灯检测及颜色识别的识别方法,这种识别方法识别速度较慢,且对图像的质量要求较高,算法鲁棒性较低,存在较多误检、漏检,对于指示灯曝光及指示灯中心泛白泛黄的情况不能准确识别颜色。
3.基于纯深度学习的指示灯检测及颜色识别的识别方法,这种方法对各个颜色的知识灯数据量要求较高,且数据标注成本大,指示灯颜色标注过程中人眼不好界定,导致训练出的深度学习模型效果不佳。
因此,现设计基于深度学习指示灯检测及颜色识别泛化能力提升算法,解决上述问题。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出基于深度学习指示灯检测及颜色识别泛化能力提升算法,以克服现有相关技术所存在的上述技术问题。
为此,本发明采用的具体技术方案如下:
基于深度学习指示灯检测及颜色识别泛化能力提升算法,该算法包括以下步骤:
S1、收集需要识别的指示灯照片,并通过预先配置的标注方法对照片中指示灯的位置进行标注,保存标注结果;
S2、搭建深度学习神经网络,对已标注的照片进行特征提取得到标注数据,且对损失函数进行构建,并通过标注数据及损失函数对搭建的网络进行训练及方向推导,保存训练的模型;
S3、利用训练好的模型对需要识别的照片进行识别和检测,并将检测得到的色域与预先设定的颜色区域进行比较筛选和处理,得到指示灯颜色识别结果。
进一步的,所述S1中收集需要识别的指示灯照片,并通过预先配置的标注方法对照片中指示灯的位置进行标注,保存标注结果包括以下步骤:
S11、收集需要识别的指示灯照片,并对照片中指示灯的位置进行标注,标注内容包括指示灯的位置x1、y1、x2、y2,分别对应指示灯左上角的横纵坐标及指示灯右下角的横纵坐标;
S12、将标注结果保存为xml格式的文件,且每个xml文件与照片一一对应。
进一步的,所述S2中搭建深度学习神经网络,对已标注的照片进行特征提取得到标注数据,且对损失函数进行构建,并通过标注数据及损失函数对搭建的网络进行训练及方向推导,保存训练的模型包括以下步骤:
S21、搭建深度学习神经网络,并对已标注的照片进行特征提取得到标注数据;
S22、基于指示灯分类损失及指示灯框回归损失构建损失函数;
S23、通过标注数据及损失函数对搭建的网络进行训练及方向推导,训练过程中,采用包括但不限于Mosaic、Random Scale数据增强方法提高模型的泛化能力。
进一步的,所述S21中搭建深度学习神经网络包括配置Backbone、Neck及Head。
进一步的,所述配置Backbone包括以下步骤:
采用CSPNet实现跨阶段部分连接,实现在不同图像细粒度上聚合并形成图像特征,且减少网络的深度及网络的通道数,并采用Swish激活函数训练神经网络;
其中,所述Swish激活函数的函数表达式为f(x)=x*sigmoid(x)。
进一步的,所述配置Neck包括以下步骤:
采用BiFPN生成图像金字塔,同时混合并组合图像特征。
进一步的,所述BiFPN的结构来自主干网络的level3-7的特征{P3,P4,P5,P6,P7},并重复应用自上而下和自下而上的双向特征融合,具体公式如下:
Pout7=Conv(Pin7)
Pout6=Conv(Pin6+Resize(Pout7))
...
Pout3=Conv(Pin3+Resize(Pout4)),其中,Conv为卷积操作,Resize为特征图上采样或下采样操作,用于保证不同level的特征图具有相同的分辨率。
进一步的,所述配置Head包括以下步骤:
输出4个stage,下采样率分别为4、8、16、32,分别对应极小、小、中、大的指示灯;
输出通道中的数值分别对应指示灯的置信度及位置坐标值。
进一步的,所述S22中损失函数的具体公式如下:
L=Lobj(pi,pi*)+λ1pi*Lbox(ti,ti*),其中,Lobj为指示灯分类损失,采用二分类的softmax损失,pi表示预测anchor为指示灯的概率,pi*表示真值,正样本为1,负样本为0,Lbox为指示灯框回归损失,采用smooth L1回归函数,ti和ti*表示正样本对应的预测框位置和真实标注框的位置,λ1的值分别为0.25。
进一步的,所述S3中利用训练好的模型对需要识别的照片进行识别和检测,并将检测得到的色域与预先设定的颜色区域进行比较筛选和处理,得到指示灯颜色识别结果包括以下步骤:
S31、利用训练好的深度学习神经网络模型对需要识别的照片进行识别,并检测出指示灯的位置;
S32、将图片中检测到的指示灯区域从RGB色域转换至HSV色域,并将目标区域的HSV值与预先设定好的HSV颜色区间进行比较筛选,得到目标区域在各颜色区间下的二值图;
S33、将得到的二值图进行一次膨胀处理,提取二值图中满足条件区域的外轮廓,且统计外轮廓的面积,并取统计值最大颜色区间二值图对应的颜色作为指示灯颜色识别结果;
其中,预先设定好的HSV颜色区包含HSV三个通道的上限值及下限值。
本发明的有益效果为:
(1)本发明的技术方案采用速度更快的神经网络,可在边缘设备上基于CPU事实运行,对指示灯的识别效率大大增加。
(2)本发明的技术方案对指示灯的检测和颜色的识别更为准确,对斜着拍摄的照片,以及畸变较大的相机拍摄出的照片依然有较好的识别效果,可以对指示灯的位置进行矫正,对于一些畸变较大的相机,和一些拍摄角度不好的照片同样可以进行指示灯识别,并在准确率上大大提高,这样就使得不用每次拍摄指示灯的时候正对着拍摄,较少照片拍摄的次数,提高识别效率,即使是图片边缘的指示灯也能识别出来,对相机的畸变要求不高,降低购买相机的成本。
(3)本发明的技术方案对需要识别的指示灯类型没有要求,不用为了识别指示灯而特意更换指定的指示灯;且对需要识别的指示灯的图像拍摄条件要求较低,可以在不同的光线亮度及色彩的条件下进行识别。
(4)本发明的技术方案可以解决指示灯中心颜色过亮导致的颜色误差问题,提高指示灯的识别精度。
(5)本发明的技术方案在识别精度提升的同时,降低了算法算力要求,在算力不高的边缘设备上可以达到实时检测的效果,可以适当节省计算设备的成本;在图像质量较低的情况也可实现指示灯的准确识别,不需要在图像处理时循环往复的调节适应图片质量的参数,节省算法部署调试的时间。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的基于深度学习指示灯检测及颜色识别泛化能力提升算法的流程图;
图2是CSPNet的基本结构图;
图3是BiFPN的结构图。
具体实施方式
为进一步说明各实施例,本发明提供有附图,这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理,配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点,图中的组件并未按比例绘制,而类似的组件符号通常用来表示类似的组件。
根据本发明的实施例,提供了基于深度学习指示灯检测及颜色识别泛化能力提升算法,原理采用深度学习神经网络在相机拍摄的照片中提取指示灯特征并确定指示灯的位置,将检测到的指示灯区域的RGB色域图片转为HSV色域,并根据预先设定好的颜色阈值统计各个颜色区间的占比确定指示灯的颜色。本发明可用于各种需要指示灯检测及识别的场所,可实时检测指示灯的状态,并在指示灯状态异常后出发告警信息。本发明的技术方案依据已标注的图片中采集标注部分的特征进行训练,并把训练结果保存成模型,模型的质量与图片的标注质量和标注图片的数量有关,标注的越准确,标注的指示灯类型越多,已经训练的图片越多,模型的质量就越高,识别效果就越好。
现结合附图和具体实施方式对本发明进一步说明,如图1-3所示,根据本发明实施例的基于深度学习指示灯检测及颜色识别泛化能力提升算法,该算法包括以下步骤:
S1、收集需要识别的指示灯照片,并通过预先配置的标注方法对照片中指示灯的位置进行标注,保存标注结果:
收集大量需要识别的指示灯的照片,对照片中的指示灯的位置进行标注,标注内容包括指示灯的位置x1、y1、x2、y2,分别对应指示灯左上角的横纵坐标及指示灯右下角的横纵坐标,最后将标注结果保存为xml文件,每个xml文件与图片一一对应。照片数量越多,标注的位置越准确越好,指示灯种类越多,识别的鲁棒性越强。
S2、搭建深度学习神经网络,对已标注的照片进行特征提取得到标注数据,且对损失函数进行构建,并通过标注数据及损失函数对搭建的网络进行训练及方向推导,保存训练的模型(搭建深度学习神经网络,对已标注的照片进行特征提取,保存训练的模型):
分网络搭建、损失函数构建及反向推导训练三个大步骤;
其中,网络搭建分Backbone、Neck及Head3个部分:
网络的Backbone部分采用CSPNet(Cross Stage Partial Network)实现跨阶段部分连接,CSPNet可以提升CNN的学***滑且非单调,可以训练出比Relu更深的神经网络。
Neck部分采用BiFPN(金字塔网络)用于生成图像金字塔,混合并组合图像特征,其中BiFPN的结构如图3所示,BiFPN接受来自主干网络的level3-7的特征{P3,P4,P5,P6,P7},并重复应用自上而下和自下而上的双向特征融合,具体公式如下:
Pout7=Conv(Pin7)
Pout6=Conv(Pin6+Resize(Pout7))
...
Pout3=Conv(Pin3+Resize(Pout4))
其中Conv为卷积操作,Resize为特征图上采样或下采样操作,用于保证不同level的特征图具有相同的分辨率。
Head部分输出4个stage,下采样率分别为4、8、16、32,分别对应极小、小、中、大的指示灯,在stride32上一个feature map对应原图的32*32的感受野,可以用来检测较大的指示灯区域,同理stride16下16*16的感受野用来检测中等大小的指示灯,stride8下8*8的感受野用来检测较小的指示灯,stride4下4*4的感受野用来检测极小的指示灯。输出通道中的数值分别对应指示灯的置信度、位置坐标值。
损失函数构建:
损失函数部分基于objectness score(指示灯分类损失),bounding boxregression score(指示灯框回归损失)。具体函数如下:
L=Lobj(pi,pi*)+λ1pi*Lbox(ti,ti*).
其中Lobj为指示灯分类损失,采用二分类的softmax损失,pi表示预测anchor为指示灯的概率,pi*表示真值,正样本为1,负样本为0。Lbox为指示灯框回归损失,采用smoothL1回归函数,ti和ti*表示正样本对应的预测框位置和真实标注框的位置。λ1的值分别为0.25。
使用标注好的数据对搭建的网络进行训练,采用上述损失函数对搭建好的网络参数进行反向推导:
训练过程中,采用Mosaic、Random Scale等多种数据增强方法以此提高模型的泛化能力。
S3、利用训练好的模型对需要识别的照片进行识别和检测,并将检测得到的色域与预先设定的颜色区域进行比较筛选和处理,得到指示灯颜色识别结果:
利用训练好的深度学习神经网络模型对需要识别的图片进行识别,检测出指示灯的位置,将图片中检测到的指示灯区域从RGB色域转换至HSV色域,将目标区域的HSV值与预先设定好的HSV颜色区间(包括红、橙、黄、绿、蓝、紫、白色)进行比较筛选,其中预设的颜色区间包含HSV三个通道的上限值及下限值,筛选后得到目标区域在各颜色区间下的二值图,将得到的二值图进行一次膨胀处理,随后提取二值图中满足条件区域外轮廓并统计外轮廓的面积,取统计值最大颜色区间二值图对应的颜色作为指示灯颜色识别结果。
综上所述,本发明的技术方案采用速度更快的神经网络,可在边缘设备上基于CPU事实运行,对指示灯的识别效率大大增加。本发明的技术方案对指示灯的检测和颜色的识别更为准确,对斜着拍摄的照片,以及畸变较大的相机拍摄出的照片依然有较好的识别效果,可以对指示灯的位置进行矫正,对于一些畸变较大的相机,和一些拍摄角度不好的照片同样可以进行指示灯识别,并在准确率上大大提高,这样就使得不用每次拍摄指示灯的时候正对着拍摄,较少照片拍摄的次数,提高识别效率,即使是图片边缘的指示灯也能识别出来,对相机的畸变要求不高,降低购买相机的成本。本发明的技术方案对需要识别的指示灯类型没有要求,不用为了识别指示灯而特意更换指定的指示灯;且对需要识别的指示灯的图像拍摄条件要求较低,可以在不同的光线亮度及色彩的条件下进行识别。本发明的技术方案可以解决指示灯中心颜色过亮导致的颜色误差问题,提高指示灯的识别精度。本发明的技术方案在识别精度提升的同时,降低了算法算力要求,在算力不高的边缘设备上可以达到实时检测的效果,可以适当节省计算设备的成本;在图像质量较低的情况也可实现指示灯的准确识别,不需要在图像处理时循环往复的调节适应图片质量的参数,节省算法部署调试的时间。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,该算法包括以下步骤:
S1、收集需要识别的指示灯照片,并通过预先配置的标注方法对照片中指示灯的位置进行标注,保存标注结果;
S2、搭建深度学习神经网络,对已标注的照片进行特征提取得到标注数据,且对损失函数进行构建,并通过标注数据及损失函数对搭建的网络进行训练及方向推导,保存训练的模型;
S3、利用训练好的模型对需要识别的照片进行识别和检测,并将检测得到的色域与预先设定的颜色区域进行比较筛选和处理,得到指示灯颜色识别结果。
2.根据权利要求1所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述S1中收集需要识别的指示灯照片,并通过预先配置的标注方法对照片中指示灯的位置进行标注,保存标注结果包括以下步骤:
S11、收集需要识别的指示灯照片,并对照片中指示灯的位置进行标注,标注内容包括指示灯的位置x1、y1、x2、y2,分别对应指示灯左上角的横纵坐标及指示灯右下角的横纵坐标;
S12、将标注结果保存为xml格式的文件,且每个xml文件与照片一一对应。
3.根据权利要求1所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述S2中搭建深度学习神经网络,对已标注的照片进行特征提取得到标注数据,且对损失函数进行构建,并通过标注数据及损失函数对搭建的网络进行训练及方向推导,保存训练的模型包括以下步骤:
S21、搭建深度学习神经网络,并对已标注的照片进行特征提取得到标注数据;
S22、基于指示灯分类损失及指示灯框回归损失构建损失函数;
S23、通过标注数据及损失函数对搭建的网络进行训练及方向推导,训练过程中,采用包括但不限于Mosaic、Random Scale数据增强方法提高模型的泛化能力。
4.根据权利要求3所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述S21中搭建深度学习神经网络包括配置Backbone、Neck及Head。
5.根据权利要求4所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述配置Backbone包括以下步骤:
采用CSPNet实现跨阶段部分连接,实现在不同图像细粒度上聚合并形成图像特征,且减少网络的深度及网络的通道数,并采用Swish激活函数训练神经网络;
其中,所述Swish激活函数的函数表达式为f(x)=x*sigmoid(x)。
6.根据权利要求4所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述配置Neck包括以下步骤:
采用BiFPN生成图像金字塔,同时混合并组合图像特征。
7.根据权利要求6所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述BiFPN的结构来自主干网络的level3-7的特征{P3,P4,P5,P6,P7},并重复应用自上而下和自下而上的双向特征融合,具体公式如下:
Pout7=Conv(Pin7)
Pout6=Conv(Pin6+Resize(Pout7))
...
Pout3=Conv(Pin3+Resize(Pout4)),其中,Conv为卷积操作,Resize为特征图上采样或下采样操作,用于保证不同level的特征图具有相同的分辨率。
8.根据权利要求4所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述配置Head包括以下步骤:
输出4个stage,下采样率分别为4、8、16、32,分别对应极小、小、中、大的指示灯;
输出通道中的数值分别对应指示灯的置信度及位置坐标值。
9.根据权利要求3所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述S22中损失函数的具体公式如下:
L=Lobj(pi,pi*)+λ1pi*Lbox(ti,ti*),其中,Lobj为指示灯分类损失,采用二分类的softmax损失,pi表示预测anchor为指示灯的概率,pi*表示真值,正样本为1,负样本为0,Lbox为指示灯框回归损失,采用smooth L1回归函数,ti和ti*表示正样本对应的预测框位置和真实标注框的位置,λ1的值分别为0.25。
10.根据权利要求1所述的基于深度学习指示灯检测及颜色识别泛化能力提升算法,其特征在于,所述S3中利用训练好的模型对需要识别的照片进行识别和检测,并将检测得到的色域与预先设定的颜色区域进行比较筛选和处理,得到指示灯颜色识别结果包括以下步骤:
S31、利用训练好的深度学习神经网络模型对需要识别的照片进行识别,并检测出指示灯的位置;
S32、将图片中检测到的指示灯区域从RGB色域转换至HSV色域,并将目标区域的HSV值与预先设定好的HSV颜色区间进行比较筛选,得到目标区域在各颜色区间下的二值图;
S33、将得到的二值图进行一次膨胀处理,提取二值图中满足条件区域的外轮廓,且统计外轮廓的面积,并取统计值最大颜色区间二值图对应的颜色作为指示灯颜色识别结果;
其中,预先设定好的HSV颜色区包含HSV三个通道的上限值及下限值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110629033.2A CN113506244A (zh) | 2021-06-05 | 2021-06-05 | 基于深度学习指示灯检测及颜色识别泛化能力提升算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110629033.2A CN113506244A (zh) | 2021-06-05 | 2021-06-05 | 基于深度学习指示灯检测及颜色识别泛化能力提升算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113506244A true CN113506244A (zh) | 2021-10-15 |
Family
ID=78009031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110629033.2A Pending CN113506244A (zh) | 2021-06-05 | 2021-06-05 | 基于深度学习指示灯检测及颜色识别泛化能力提升算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113506244A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657716A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观损伤识别方法 |
CN110069986A (zh) * | 2019-03-13 | 2019-07-30 | 北京联合大学 | 一种基于混合模型的交通信号灯识别方法及*** |
US20190385340A1 (en) * | 2017-08-29 | 2019-12-19 | Guangdong Virtual Reality Technology Co., Ltd. | Method, device and system for identifying light spot |
US20200294201A1 (en) * | 2017-11-03 | 2020-09-17 | Siemens Aktiengesellschaft | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks |
WO2021018144A1 (zh) * | 2019-07-31 | 2021-02-04 | 浙江商汤科技开发有限公司 | 指示灯检测方法、装置、设备及计算机可读存储介质 |
CN112507815A (zh) * | 2020-11-24 | 2021-03-16 | 北京超维世纪科技有限公司 | 关于指针式仪器仪表盘刻度人工智能图像识别算法及*** |
-
2021
- 2021-06-05 CN CN202110629033.2A patent/CN113506244A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190385340A1 (en) * | 2017-08-29 | 2019-12-19 | Guangdong Virtual Reality Technology Co., Ltd. | Method, device and system for identifying light spot |
US20200294201A1 (en) * | 2017-11-03 | 2020-09-17 | Siemens Aktiengesellschaft | Segmenting and denoising depth images for recognition applications using generative adversarial neural networks |
CN109657716A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观损伤识别方法 |
CN110069986A (zh) * | 2019-03-13 | 2019-07-30 | 北京联合大学 | 一种基于混合模型的交通信号灯识别方法及*** |
WO2021018144A1 (zh) * | 2019-07-31 | 2021-02-04 | 浙江商汤科技开发有限公司 | 指示灯检测方法、装置、设备及计算机可读存储介质 |
CN112507815A (zh) * | 2020-11-24 | 2021-03-16 | 北京超维世纪科技有限公司 | 关于指针式仪器仪表盘刻度人工智能图像识别算法及*** |
Non-Patent Citations (2)
Title |
---|
李晓东;李志强;雷晓平;: "数字仪表彩色图像分割方法", 佛山科学技术学院学报(自然科学版), no. 05 * |
桂欣悦: "基于MATLAB的红绿灯识别***研究", 电子设计工程, vol. 28, no. 16, pages 1 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108446617B (zh) | 抗侧脸干扰的人脸快速检测方法 | |
CN111223088B (zh) | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 | |
CN107808376B (zh) | 一种基于深度学习的举手检测方法 | |
CN105701489B (zh) | 一种新型的数字提取和识别的方法及*** | |
CN102547079B (zh) | 夜景光源检测设备及夜景光源检测方法 | |
CN112507865B (zh) | 一种烟雾识别方法及识别装置 | |
CN112507815A (zh) | 关于指针式仪器仪表盘刻度人工智能图像识别算法及*** | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及*** | |
CN107944403A (zh) | 一种图像中的行人属性检测方法及装置 | |
CN112488083B (zh) | 基于heatmap提取关键点的交通信号灯的识别方法、装置、介质 | |
CN106096603A (zh) | 一种融合多特征的动态火焰检测方法及装置 | |
CN113673541B (zh) | 一种用于目标检测的图像样本生成方法及应用 | |
CN115082776A (zh) | 一种基于图像识别的电能表自动检测***及方法 | |
CN111860509A (zh) | 一种由粗到精的两阶段非约束车牌区域精准提取方法 | |
CN112733815A (zh) | 一种基于rgb室外道路场景图像的红绿灯识别方法 | |
CN115546763A (zh) | 基于视觉测距的交通信号灯识别网络训练方法及测试方法 | |
CN116152226A (zh) | 基于可融合的特征金字塔的换向器内侧图像缺陷检测方法 | |
CN109284759A (zh) | 一种基于支持向量机(svm)的魔方颜色识别方法 | |
CN113505808B (zh) | 基于深度学习用于配电类设施开关检测识别算法 | |
CN113537173B (zh) | 一种基于面部补丁映射的人脸图像真伪识别方法 | |
CN114529821A (zh) | 一种基于机器视觉的海上风电安全监测与预警方法 | |
TW202319959A (zh) | 影像辨識系統及其訓練方法 | |
CN112053407B (zh) | 一种交通执法影像中基于ai技术的车道线自动检测方法 | |
CN117975360A (zh) | 一种基于深度学习的堆放物判别方法及判别*** | |
CN117372876A (zh) | 一种多任务遥感影像道路损毁评估方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211015 |