CN110232316A - 一种基于改进的dsod模型的车辆检测与识别方法 - Google Patents
一种基于改进的dsod模型的车辆检测与识别方法 Download PDFInfo
- Publication number
- CN110232316A CN110232316A CN201910366444.XA CN201910366444A CN110232316A CN 110232316 A CN110232316 A CN 110232316A CN 201910366444 A CN201910366444 A CN 201910366444A CN 110232316 A CN110232316 A CN 110232316A
- Authority
- CN
- China
- Prior art keywords
- layer
- dsod
- model
- layers
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进的DSOD模型的车辆检测与识别方法,DSOD是在SSD算法的基础上进行改进的,可以简单理解为SSD+DenseNet=DSOD,采用proposal‑free的检测模型SSD,加入DenseNet的思想。DSOD模型分成两个部分:用于特征提取的Backbone,用于目标预测的Front‑end。Backbone子网络类似于DenseNet,由一层Stem block(主干模块),四层Dense blocks(Dense模块),两层Transition layers(过渡层),两层Transition w/o pooling layers(过渡w/o池化层),作用是用来提取图像特征。Front_end sub_network(前端检测子网络)是通过Dense Connetion实现边界框检测效果。
Description
技术领域
本发明涉及交通图像处理技术领域,尤其涉及一种基于改进的DSOD模型的车辆检测与识别方法。
背景技术
随着国民经济发展和人工智能技术的发展,智能驾驶汽车领域获得了空前的大发展。目标检测是智能驾驶汽车环境识别感知的关键一环,对道路前方目标车辆检测有助于做出安全准确的驾驶决策指令。日常驾驶场景下计算机视觉的目标检测任务中,道路情况相当复杂,各种大小行驶的车辆,车辆相互遮挡情况,晴雨天光照的变化等不利因素都影响着车辆目标检测效果的准确性。在目标检测领域中,传统的人工标注正、负样本方式制作训练样本成本比较高昂,使用HOG(Histogram of Oriented Gradient,方向梯度直方图)或Haar等人工特征进行图像的特征提取,再使用SVM(Support Vector Machine,支持向量机)来判别。但是花费了大量人力、物力制作训练的样本库训练出的分类识别效果不一定满足产品要求。而通过深度学习方法,尤其是深度卷积神经网络(Deep Convolutional NeuralNetworks,DCNN)的出现打破了图像语义表达的局限,通过丰富的特征表达信息进行匹配、评估和分类。比较有代表性的方法:R-CNN(Region-CNN)方法是利用选择性搜索(SelectiveSearch,SS)算法评测相邻图像子块的特征相似度,通过合并打分的候选框输入到卷积神经网络结构内部的分类器进行特征向量分类,达到目标检测定位的目的。Fast R-CNN方法则是设计一种RoI Pooling的池化层结构,解决将图像区域剪裁、缩放到相同尺寸大小的操作,仍然没有摆脱选择性搜索算法生成正负样本候选框的问题。Faster R-CNN方法属于两级检测,使用区域生成网络(Region Proposal Networks,RPN)来提取大量候选区域,对其进行分类和回归,得出目标的位置定位,但由于运算速度过慢,且内存消耗庞大。YOLO(Youonly look once,YOLO)方法属于一级检测,使用7*7的网络进行端对端的回归计算,预测每个网格内的边框坐标和每个类别置信度将目标的分类和定位合并处理,检测速度指标虽较快,但是简单的网络回归运算检测精度并不高。SSD(Single Shot MultiBox Detector,SSD)也是端到端的算法,引入不同卷积层检测结构预测,提升多尺度和多比例的检测能力,但低层特征语义信息的缺失导致小目标检测能力比较弱。
发明内容
为了克服上述背景技术所存在的不足,以及必须要通过在ImageNet分类任务上预训练的模型作为初始权重,本发明提供一种基于改进的DSOD模型的车辆检测与识别方法,本发明提供了一种从0开始训练的检测模型,而不是微调一个预训练的模型,并通过FocalLoss代替Softmax Loss降解目标检测过程中损失,即能准确地实现目标检测,又能提升模型结构的灵活性、学习偏置差异问题和问题域的不匹配。本发明能够对道路情况下汽车驾驶场景下的目标有效检测。
本发明解决其技术问题所采用的技术方案是:
步骤S1:通过KITTI公开数据集的车辆行驶视频图像安数据,并对训练数据集数据进行预处理;
步骤S2:以TensorFlow框架为基础,使用python编程语言搭建DSOD网络模型;
步骤S3:网络初始化,直接丢弃使用预训练模型来训练现有的数据集,通过训练数据集的迭代训练更新相关权重值;
步骤S4:网络初始化,不使用预训练模型来训练现有的数据集,直接通过训练数据集的迭代训练更新相关网络权重值;
步骤S5:通过汽车上的摄像机采集的道路上前方的图像,输入到网络进行检测,即可输出目标检测后的类别及坐标,从而达到目标检测功能。
本发明包括
通过引入DSOD模型,DSOD是在SSD算法的基础上进行改进的,可以简单理解为SSD+DenseNet=DSOD,采用proposal-free(自由建议框)的检测模型SSD,加入DenseNet的思想。DSOD模型可以从0开始训练数据,不需要预训练模型,而且效果可以和fine-tune(微调)的模型相当接近。DSOD模型分成两个部分(参考说明书附图图1):用于特征提取的Backbone(主干检测模块),用于目标预测的Front-end(前端检测模块)。Backbone子网络类似于DenseNet,如附图(1)所示,由一层Stem blocks(主干模块),四层Dense blocks(Dense模块),两层Transition layers(过渡层),两层Transition w/o pooling layers(过渡w/o池化层),作用是用来提取图像特征。Front_end sub_network是通过Dense Connetion实现边界框检测效果。
步骤S31:原始图像读取进来,需要经过6种不同尺寸的特征,Scale-1特征映射来自骨干子网的中间层,其具有最大分辨率(38*38)处理图像中的小对象。剩下的五个规模位于骨干子网的顶部。
步骤S32:一个具有瓶颈结构的平滑过渡层,1*1conv-layer(卷积层)用于减少特征映射的数量加上a在两个连续的之间采用3*3转换层特征图的比例。
步骤S33:每个虚线框内都有一个1*1的卷积和一个3*3的卷积操作,相当于一个bottleneck(瓶颈块)。卷积层特征图计算公式:
Do=K
1)输入的数据尺寸是Wi×Hi×Di(Wi,Hi是输入的图像尺寸宽和高,Di是输入图片的通道数)。
2)4个超参数:滤波器个数K,滤波器空间尺寸F,滑动步长S,零填充的数量P。
3)输出的数据尺寸是Wo×Ho×Do
4)由于参数共享,每个滤波器包含的权重数目为F×F×Do,一层卷积层一共有F×F×Do×K个权重和K个偏置。
1*1卷积在前的作用主要是为了降低channel(通道)个数从而降低3*3卷积计算量的作用。
步骤S34:每个bottleneck(瓶颈模块)的输入是前面所有bottleneck的输出的级联结果,即一半的特征图是从先前的尺度中学习的,带有一系列的卷积层,而其余的则是一半特征映射从连续的高分辨率特征映射中直接下采样,如附图(3)所示。由鉴于此两个卷积的通道数量应保持相同数量。
步骤S321:原始图像另一条并行处理的线是downsampling block(下采样模块),其中包括2*2 max pooling,stride=2(最大值池化起下采样作用)和一个1*1,stride=1Conv-layer(起降低channel个数的作用),池化层特征图计算公式:
Do=K
1)输入的数据尺寸是Wi×Hi×Di(Wi,Hi是输入的图像尺寸宽和高,Di是输入图片的通道数)。
2)2个超参数:滤波器空间尺寸F,滑动步长S。输出的数据尺寸是Wo×Ho×Do。实验证明,在卷积层之间引入最大池化的效果最好,而平均池化一般放在卷积神经网络的最后一层。
步骤S322:汇集层旨在连接期间将分辨率与当前大小匹配。1*1转换层用于减少数量渠道达到50%。
步骤S323:汇集层位于之前考虑降低计算成本,1*1转换层的下采样块实际上带来了每个使用来自其所有的多分辨率特征映射进行缩放先前的尺度,这与DenseNet中引入的密集分层连接基本相同,DenseNet结构示意图如附图(2)所示。对于每一个层只学习一半的新特征映射并重用以前剩下的一半。这种密集的预测结构即可以用更少的结果产生更准确的结参数比普通结构,又为了减少计算量。
步骤S41:就单级结构摒弃了提取特征建议的过程,只用一级就完成了识别/回归,虽然速度较快但准确率远远比不上两级结构,为此本发明引入了Focal Loss替代SoftmaxLoss,过调整loss的计算公式使单级结构在训练初始阶段提高正样本的分类概率。
与现有技术相比较,本发明引入了Focal Loss替代Softmax Loss,通过调整loss的计算公式使单级结构在训练初始阶段提高positive的分类概率。对于每一个层只学习一半的新特征映射并重用以前剩下的一半。这种密集的预测结构即可以用更少的结果产生更准确的结参数比普通结构,又为了减少计算量。而且可以跳过通过微调预训练模型的大数据高耗能训练的思维,改进的DSOD模型可以从0开始训练数据,不需要预训练模型,设计的模型结构的效果又可接近预训练模型上的检测效果,从而完成车辆目标检测的准确性和稳定性的要求。
附图说明
图1是本发明所提出的改进的DSOD网络结构;
图2是本发明所提出的结合在检测网络的DenseNet网络结构;
图3是本发明所提出的结合在检测网络的Dense Connection结构;
图4是本发明的目标检测过程的流程图。
如下具体实施例将结合上述附图进一步说明本发明。
具体实施方式
以下将结合附图对本发明提供的技术方案作进一步说明。
以下通过特定的具体事例以及结合相关图表说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与效果。本发明还可以通过另外不同类别方式的实施方式加以验证或应用。
本发明实施例以德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办的KITTI数据集为研究对象。KITTI数据集包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。
参见图1-4,本发明提供一种基于改进的DSOD网络的车辆检测与识别方法,具体包括以下步骤:
步骤S11:准备数据集,数据集包含含有车辆目标的图像以及对应的标注文件,训练集的图片需要标注车辆,行人,骑自行车的人三类目标,其中标注文件的标注信息必须和相对应的图像文件一一对应,顺序不能发生错误以免影响模型训练的效果。
步骤S21:以TensorFlow框架为基础,基于DSOD的深度卷积神经网络模型;
步骤S22:参照附图1所示的网络结构构建技术上的深度卷积神经网络模型,利用该模型处理输入图像,预测目标的类别和坐标。
步骤S23:本发明引入此层以增加密集块的数量,而不会降低最终的特征映射分辨率。在原始设计中在DenseNet中,每个过渡层都包含一个池化操作,用于对特征映射进行下采样。
步骤S24:如果想要保持相同的输出比例,密集块的数量是固定的(所有DenseNet架构中有4密集块)。增加网络深度的唯一方法是在原始DenseNet的每个块内添加层。没有池化层的转换消除了我们DSOD架构中密集块数量的这种限制,也可以用于标准的DenseNet。
本发明的DSOD整体结构框架解释如下:
步骤S221:Stem Block(骨干模块):借鉴于VGG结构的思想在一个3*3stride为2的卷积核和两个3*3stride为1的卷积核后紧接着采用一个2*2max pooling,stride为2最大值池化层。max pooling(最大值池化)主要功能是下采样,却又不会损坏识别结果,意味着卷积后的特征图中有对于物体不必要的冗余信息
步骤S222:Dense Block(Dense模块):利用DenseNet每层都可以直接访问损失函数和原始输入信号的梯度,从而导致隐含的深度监督。将前面层的特征图可以连接到现在层上。公式如下式所示:
xl=Hl([x0,x1...xl-1])
[x0,x1...xl-1]表示将0到l-1层的输出特征图做级联操作。级联操作是做通道的合并。而Resnet是做值的相加,通道数是不变的。
步骤S223:Hl(.)是一个复合函数,其中包括三个操作的组合:BN(批归一化),ReLU(非线性处理单元)和3*3Conv-layer(卷积操作层)。
步骤S224:由于串联操作要求特征图x0,x1...xl-1大小一致,而Pooling操作会改变特征图的大小,又不可或缺,于是借鉴了类似于VGG模型中的“卷积栈”的做法。每个DenseBlock的之间层称为transition layers(过渡层),由1*1Conv layers和2*2Max Pooling,stride为2组成。DenseNet的优点有减轻梯度消失,加强特征的传递,更有效地利用特征以及较少参数数量的网络,Dense Block则是很好地利用这一特性,可以更好的利用前面层的信息了。
步骤S225:Transition w/o Pooling Layer(过渡w/o池化层):一个1*1Convlayer,让特征图通道间的融合效果更好。
步骤S226:DSOD Prediction Layer(DSOD预测层):配合着附图3解释Dense网络级联操作,本发明引入DenseNet思想的特征融合操作。
步骤S31.原始图像读取进来,需要经过6种不同尺寸的特征,特征映射来自骨干子网的中间层,其具有最大分辨率(38*38)处理图像中的小对象。剩下的五个规模位于骨干子网的顶部。然后,一个具有瓶颈结构的平滑过渡层(1*1卷积层用于减少特征映射的数量加上在两个连续的之间采用3*3转换层特征图的比例。每个虚线框内都有一个1*1的卷积和一个3*3的卷积操作,相当于一个瓶颈模块。1*1卷积在前的作用主要是为了降低通道数从而降低3*3卷积计算量的作用。每个瓶颈模块的输入是前面所有瓶颈模块的输出的级联操作结果,即一半的特征图是从先前的尺度中学习的,带有一系列的卷积层,而其余的则是半特征映射从连续的高分辨率特征映射中直接下采样。由鉴于此两个卷积的通道数应保持相同数量。
步骤S32.原始图像另一条并行处理的线是downsampling block(下采样模块),其中包括2*2 max pooling,stride=2(最大值池化起下采样作用)和一个1*1,stride=1conv-layer(起降低通道个数的作用),汇集层旨在连接期间将分辨率与当前大小匹配。1*1转换层用于减少数量渠道达到50%。池化层位于之前考虑降低计算成本,1*1转换层的下采样块实际上带来了每个使用来自其所有的多分辨率特征映射进行缩放先前的尺度,这与DenseNet中引入的密集分层连接基本相同。对于每一个层只学习一半的新特征映射并重用以前剩下的一半。这种密集的预测结构即可以用更少的结果产生更准确的结参数比普通结构,又为了减少计算量。
步骤S41:每个规模DSOD特征图是从多个分辨率连接起来的,采用L2归一化技术将所有输出上的特征范数缩放到4。大多数训练策略遵循SSD,包括数据增加,规模和默认框和损失函数的宽高比(例如,平滑L1损失用于定位目的和softmax损失为了分类目的),本发明就单级结构摒弃了提取特征建议的过程,只用一级就完成了识别/回归,虽然速度较快但准确率远远比不上两级结构;
步骤S42:为此本发明引入了Focal Loss替代Softmax Loss,
Softmax Loss函数定义式:
其中Vi是分类器前级输出单元的输出,i表示类别索引,C为总的类别数,Si是当前元素的指数与所有元素指数和的比值。Softmax将分类的输出数值转化为相对概率。
过调整loss的计算公式使单级结构在训练初始阶段提高正样本的分类概率。
步骤S421:Focal Loss计算公式如下:
FL(pt)=-αt(1-pt)γlog(pt)
pt是不同类别的分类概率,γ是个大于0的值,αt是个[0,1]间的小数,γ和αt都是固定值,不参与训练。
步骤S422:无论是前景类还是背景类,pt越大,权重(1-pt)γ就越小。也就是说简单的例子可以通过权重进行抑制;
αt用于调节positive(正样本)和negative(负样本)的比例,前景类别使用αt时,对应的背景类别使用1-αt;
γ和αt的最优值是相互影响的,所以在评估准确度时需要把两者组合起来调节。
步骤S51:网络训练好以后,通过实际车载摄像机采集的车辆信息图像,输入到训练好的网络进行检测,即可输出目标类别和坐标。在调优过程中对网络输出的边界框预选值进行处理优化,对边界框进行置信度投票优化。
步骤S511:首先对检测出的结果进行非极大值抑制,得到局部区域的置信度最高的检测框(scorei,bboxi);
步骤S512:再利用领域中与其交并比IOU大于0.5的检测框(scorei,bboxi),对输出的bboxi值进行加权优化,计算如下:
scorei代表网络预测的置信度值,bboxi代表网络输出的目标边界框位置坐标。
为了克服上述背景技术所存在的不足,以及必须要通过在ImageNet分类任务上预训练的模型作为初始权重。其中通过Focal Loss代替Softmax Loss降解目标检测过程中损失,即能提升模型结构的灵活性、学习偏置差异问题和问题域的不匹配,又能准确地实现目标检测。从而提高对道路情况下汽车驾驶场景下的目标检测的准确性和稳定性。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所做的任何修改、等同替换和改进等,均在包含在本发明的保护范围之内。
Claims (1)
1.一种基于改进的DSOD模型的车辆检测与识别方法,其特征在于,该方法包括以下步骤:
步骤S1:采用KITTI公开数据集的车辆行驶视频图像,并对训练数据集数据进行预处理;
步骤S2:以TensorFlow框架为基础,使用Python编程语言搭建DSOD网络模型;
步骤S3:网络初始化,直接丢弃使用预训练模型来训练现有的数据集,通过训练数据集的迭代训练更新相关权重值;
步骤S4:网络初始化,直接丢弃使用预训练模型来训练现有的数据集,通过训练数据集的迭代训练更新相关权重值;
步骤S5:通过汽车上的摄像机采集的道路上前方的图像,输入到网络进行检测,即可输出目标检测后的类别及坐标,从而达到目标检测功能;
其中,改进的DSOD网络模型采用proposal-free的检测模型SSD,并加入DenseNet的思想,不需要预训练;
所述DSOD网络模型分成两个部分:用于特征提取的Backbone和用于目标预测的Front-end;Backbone子网络类似于DenseNet,由一层Stem block(主干模块),四层Dense blocks(Dense模块),两层Transition layers(过渡层),两层Transition w/o pooling layers(过渡w/o池化层),作用是用来提取图像特征;Front_end子网络通过Dense Connetion实现边界框检测效果;
所述步骤进一步S3包括:
步骤S31:原始图像读取进来,经过6种不同scale的特征,特征映射来自骨干子网的中间层;
步骤S32:一个具有瓶颈结构的平滑过渡层(1*1卷积层用于减少特征映射的数量加上在两个连续的之间采用3*3转换层特征图的比例;
步骤S33:每个虚线框内都有一个1*1的卷积和一个3*3的卷积操作,相当于一个bottleneck;
步骤S34:每个bottleneck的输入是前面所有bottleneck的输出的级联操作结果,即一半的特征图是从先前的尺度中学习的,而其余的则是半特征映射从连续的高分辨率特征映射中直接下采样;
所述步骤S32进一步包括:
步骤S321:原始图像另一条并行处理的线是downsampling block,其中包括2*2 maxpooling,stride=2和一个1*1,stride=1 conv;
步骤S322:汇集层旨在在连接期间将分辨率与当前大小匹配,1*1转换层用于减少数量渠道达到50%;汇集层位于之前考虑降低计算成本,1*1转换层的下采样块实际上带来了每个使用来自其所有的多分辨率特征映射进行缩放先前的尺度;
所述步骤S4进一步包括:
步骤S41:引入了Focal Loss替代Softmax Loss;
步骤S42:调整loss的计算公式使单级结构在训练初始阶段提高positive的分类概率,根据正负样本计算的损失,然后反向传播迭代训练,直至对道路情况下汽车驾驶场景下的目标检测的准确性和稳定性达到预计要求。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910366444.XA CN110232316A (zh) | 2019-05-05 | 2019-05-05 | 一种基于改进的dsod模型的车辆检测与识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910366444.XA CN110232316A (zh) | 2019-05-05 | 2019-05-05 | 一种基于改进的dsod模型的车辆检测与识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110232316A true CN110232316A (zh) | 2019-09-13 |
Family
ID=67861224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910366444.XA Pending CN110232316A (zh) | 2019-05-05 | 2019-05-05 | 一种基于改进的dsod模型的车辆检测与识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110232316A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826514A (zh) * | 2019-11-13 | 2020-02-21 | 国网青海省电力公司海东供电公司 | 一种基于深度学习的施工现场违章智能识别方法 |
CN110991421A (zh) * | 2019-12-24 | 2020-04-10 | 高新兴科技集团股份有限公司 | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 |
CN111126271A (zh) * | 2019-12-24 | 2020-05-08 | 高新兴科技集团股份有限公司 | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 |
CN111144407A (zh) * | 2019-12-22 | 2020-05-12 | 浪潮(北京)电子信息产业有限公司 | 一种目标检测方法、***、装置及可读存储介质 |
CN112132088A (zh) * | 2020-09-29 | 2020-12-25 | 动联(山东)电子科技有限公司 | 一种巡检点位漏巡识别方法 |
CN112465792A (zh) * | 2020-12-04 | 2021-03-09 | 北京华捷艾米科技有限公司 | 一种人脸质量的评估方法及相关装置 |
CN112487996A (zh) * | 2020-12-02 | 2021-03-12 | 重庆邮电大学 | 基于DenseNet121网络的驾驶行为识别方法 |
CN112528979A (zh) * | 2021-02-10 | 2021-03-19 | 成都信息工程大学 | 变电站巡检机器人障碍物判别方法及*** |
CN112818777A (zh) * | 2021-01-21 | 2021-05-18 | 上海电力大学 | 一种基于密集连接与特征增强的遥感图像目标检测方法 |
CN112926510A (zh) * | 2021-03-25 | 2021-06-08 | 深圳市商汤科技有限公司 | 异常驾驶行为识别方法及装置、电子设备和存储介质 |
CN112949578A (zh) * | 2021-03-30 | 2021-06-11 | 苏州科达科技股份有限公司 | 车灯状态识别方法、装置、设备及存储介质 |
CN115731436A (zh) * | 2022-09-21 | 2023-03-03 | 东南大学 | 基于深度学习融合模型的高速公路车辆图像检索方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184271A (zh) * | 2015-09-18 | 2015-12-23 | 苏州派瑞雷尔智能科技有限公司 | 一种基于深度学习的车辆自动检测方法 |
US9807473B2 (en) * | 2015-11-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Jointly modeling embedding and translation to bridge video and language |
CN109376576A (zh) * | 2018-08-21 | 2019-02-22 | 中国海洋大学 | 基于交替更新密集连通从零训练网络的目标检测方法 |
-
2019
- 2019-05-05 CN CN201910366444.XA patent/CN110232316A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184271A (zh) * | 2015-09-18 | 2015-12-23 | 苏州派瑞雷尔智能科技有限公司 | 一种基于深度学习的车辆自动检测方法 |
US9807473B2 (en) * | 2015-11-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Jointly modeling embedding and translation to bridge video and language |
CN109376576A (zh) * | 2018-08-21 | 2019-02-22 | 中国海洋大学 | 基于交替更新密集连通从零训练网络的目标检测方法 |
Non-Patent Citations (3)
Title |
---|
TSUNG-YI LIN 等: "Focal Loss for Dense Object Detection", 《ARXIV》 * |
ZHIQIANG SHEN 等: "DSOD: Learning Deeply Supervised Object Detectors from Scratch", 《ARXIV》 * |
陈冰曲 等: "基于改进型SSD算法的目标车辆检测研究", 《重庆理工大学学报(自然科学)》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826514A (zh) * | 2019-11-13 | 2020-02-21 | 国网青海省电力公司海东供电公司 | 一种基于深度学习的施工现场违章智能识别方法 |
CN111144407A (zh) * | 2019-12-22 | 2020-05-12 | 浪潮(北京)电子信息产业有限公司 | 一种目标检测方法、***、装置及可读存储介质 |
CN110991421B (zh) * | 2019-12-24 | 2023-08-25 | 高新兴科技集团股份有限公司 | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 |
CN110991421A (zh) * | 2019-12-24 | 2020-04-10 | 高新兴科技集团股份有限公司 | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 |
CN111126271A (zh) * | 2019-12-24 | 2020-05-08 | 高新兴科技集团股份有限公司 | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 |
CN111126271B (zh) * | 2019-12-24 | 2023-08-29 | 高新兴科技集团股份有限公司 | 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备 |
CN112132088A (zh) * | 2020-09-29 | 2020-12-25 | 动联(山东)电子科技有限公司 | 一种巡检点位漏巡识别方法 |
CN112132088B (zh) * | 2020-09-29 | 2024-01-12 | 动联(山东)电子科技有限公司 | 一种巡检点位漏巡识别方法 |
CN112487996A (zh) * | 2020-12-02 | 2021-03-12 | 重庆邮电大学 | 基于DenseNet121网络的驾驶行为识别方法 |
CN112465792A (zh) * | 2020-12-04 | 2021-03-09 | 北京华捷艾米科技有限公司 | 一种人脸质量的评估方法及相关装置 |
CN112818777A (zh) * | 2021-01-21 | 2021-05-18 | 上海电力大学 | 一种基于密集连接与特征增强的遥感图像目标检测方法 |
CN112528979B (zh) * | 2021-02-10 | 2021-05-11 | 成都信息工程大学 | 变电站巡检机器人障碍物判别方法及*** |
CN112528979A (zh) * | 2021-02-10 | 2021-03-19 | 成都信息工程大学 | 变电站巡检机器人障碍物判别方法及*** |
CN112926510A (zh) * | 2021-03-25 | 2021-06-08 | 深圳市商汤科技有限公司 | 异常驾驶行为识别方法及装置、电子设备和存储介质 |
CN112949578A (zh) * | 2021-03-30 | 2021-06-11 | 苏州科达科技股份有限公司 | 车灯状态识别方法、装置、设备及存储介质 |
CN115731436A (zh) * | 2022-09-21 | 2023-03-03 | 东南大学 | 基于深度学习融合模型的高速公路车辆图像检索方法 |
CN115731436B (zh) * | 2022-09-21 | 2023-09-26 | 东南大学 | 基于深度学习融合模型的高速公路车辆图像检索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232316A (zh) | 一种基于改进的dsod模型的车辆检测与识别方法 | |
CN108549926A (zh) | 一种用于精细化识别车辆属性的深度神经网络及训练方法 | |
CN107194346A (zh) | 一种汽车疲劳驾驶预测方法 | |
CN110097109A (zh) | 一种基于深度学习的道路环境障碍物检测***及方法 | |
CN109902806A (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN107886073A (zh) | 一种基于卷积神经网络的细粒度车辆多属性识别方法 | |
CN106096602A (zh) | 一种基于卷积神经网络的中文车牌识别方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN104134068B (zh) | 基于稀疏编码的监控车辆特征表示及分类方法 | |
Yin et al. | Research on highway vehicle detection based on faster R-CNN and domain adaptation | |
CN105335716A (zh) | 一种基于改进udn提取联合特征的行人检测方法 | |
CN108021889A (zh) | 一种基于姿态外形和运动信息的双通道红外行为识别方法 | |
CN110310241A (zh) | 一种融合深度区域分割的多大气光值交通图像去雾方法 | |
CN110163069A (zh) | 用于辅助驾驶的车道线检测方法 | |
CN111860269A (zh) | 一种多特征融合的串联rnn结构及行人预测方法 | |
CN107315990A (zh) | 一种基于xcs‑lbp特征以及级联aksvm的行人检测算法 | |
CN111462140A (zh) | 一种基于区块拼接的实时图像实例分割方法 | |
Rajendran et al. | Fast and accurate traffic sign recognition for self driving cars using retinanet based detector | |
CN114973199A (zh) | 一种基于卷积神经网络的轨道交通列车障碍物检测方法 | |
CN116740516A (zh) | 基于多尺度融合特征提取的目标检测方法及*** | |
Hasegawa et al. | Robust detection and recognition of japanese traffic sign in the complex scenes based on deep learning | |
CN110222822A (zh) | 黑盒预测模型内部特征因果图的构建方法 | |
Yildiz et al. | Hybrid image improving and CNN (HIICNN) stacking ensemble method for traffic sign recognition | |
CN114241458A (zh) | 一种基于姿态估计特征融合的驾驶员行为识别方法 | |
Dorrani | Traffic Scene Analysis and Classification using Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190913 |