CN109685780B - 一种基于卷积神经网络的零售商品识别方法 - Google Patents
一种基于卷积神经网络的零售商品识别方法 Download PDFInfo
- Publication number
- CN109685780B CN109685780B CN201811541070.2A CN201811541070A CN109685780B CN 109685780 B CN109685780 B CN 109685780B CN 201811541070 A CN201811541070 A CN 201811541070A CN 109685780 B CN109685780 B CN 109685780B
- Authority
- CN
- China
- Prior art keywords
- training
- level semantic
- target
- data set
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于卷积神经网络的零售商品识别方法,首先使用一个通用的粗粒度的数据集训练一个定制的yolov3目标检测器,接着输入待检测图像,得到一系列初级语义对象,然后根据一系列规则组合初级语义对象为高级语义对象,最后通过判断需检测的目标的属性与各个高级语义对象的属性间的相似度对比得到所需目标。本发明使得基于通用的粗粒度数据集训练得到的检测器在一定条件下也可用于完成细粒度分类任务;相比于传统方法直接采集目标类别的数据进行训练,本发明可极大地降低数据采集成本和在生产环境下使用的门槛。
Description
技术领域
本发明属于目标识别技术,具体涉及一种基于卷积神经网络的零售商品识别方法。
背景技术
在零售行业,传统的零售模式是通过人工扫描条形码或二维码对零售商品进行识别。近年来,随着深度学习方法在各个领域的应用不断深入,人工智能技术已经广泛的应用于人们的日常生活中,在零售行业的体现就是无人超市或便利店的出现。由于其不存在收银员,相比于传统超市大大节省了人力成本,同时相比于人工收银台,其无人版本所占的空间更小,从而允许店主在同样的空间内布置更多收银通道,直接提高了收银效率。而无人收银台的一个主要组件,商品检测器则依赖目标检测技术。
作为一个计算机视觉领域中长期存在的,基础的且具有挑战性的问题,目标检测在近几十年的研究中一直都是热点。目标检测的目标是在给定的图片里,从给定的类别(例如人类,汽车,自行车,狗和猫)中分辨出是否存在,存在几个目标实例。如果目标存在,返回每个目标实例的空间位置和大小。目标检测在人工智能和信息技术中,包括机器人视觉,消费级电子产品,安全领域,自动驾驶,人机交互,上下文依赖的图像检索,智能化视频监测,和增强现实等诸多领域有着十分广泛的应用。而在目标检测技术中,基于深度卷积网络(DCNN)的目标检测器拥有相对较好的效果。基于DCNN的目标检测器通常依赖大量的需检测目标的图像数据进行训练,由于数据收集能力的限制,就需要依赖对目标上下文信息进行显式编码。
物理世界中,视觉对象出现在特定的环境中,而且通常与其他相关对象共存。在心理学研究上有很确凿的证据表明,上下文在人类目标识别中起着至关重要的作用。人们已经认识到,尤其是当目标的外表特征因为过小的目标大小,遮挡,或较差的图像质量而表现不足时,适当的上下文建模有助于目标检测与识别。
目前在目标检测领域最先进的技术可以在不显式利用任何上下文信息的情况下检测目标。因为DCNN从多个抽象层次中学习层次表示,一般认为DCNN可以隐式的利用上下文信息,但是隐式上下文带来了一个问题:检测器对特定目标的识别能力极度依赖训练集。我们无法利用已有的训练结果来识别新的目标,即使其拥有与原目标相似的特征属性。因此在基于DCNN的检测器中寻找显式的上下文信息仍然是有价值的。
发明内容
发明目的:本发明的目的在于解决现有技术中存在的不足,提供一种基于卷积神经网络的零售商品识别方法,基于网络上公开的粗粒度数据集进行模型训练,从而完成针对特定目标的、细粒度的目标检测。
技术方案:本发明的一种基于卷积神经网络的零售商品识别方法,先利用通用的粗粒度数据集训练一个yolov3目标检测器,再向其中输入图像得到一系列粗粒度目标的类别和位置信息,然后根据事先定义的包含关系组合低级语义对象得到一系列高级语义对象;最后在这些对象中选取需要检测的细粒度目标;
具体包括以下步骤:
步骤1:从公开数据集的类别集合中按照如下规则筛选粒度合适的类别:1. 该类别与目标零售商品的外观或是包装外观相关(如盒子,瓶子等);2.该类别与目标零售商品的包装内容相关;3.类别名称不能包含任何品牌信息;然后将选取好的这些类别所对应的图片组成训练集(建议分类训练集中每个类别图片数量在1000张以上,类别数在30以上且图片大小不小于512*512像素);
步骤2:使用步骤1选取的训练集训练yolov3目标检测器,得到一个训练后目标检测器;
步骤3:将待检测图像输入步骤2中得到的训练后目标检测器,得到一系列低级语义对象的类别以及它们的位置;
步骤4:选取合适的μa,μb,确定包含关系:
步骤6:按照以下规则合并对象:
对于高级语义对象Ta,Tb,若存在Ta,Tb,ti,tj,ti∈Ta且tj∈Tb,或者 cti≠ctj,且则合并Ta,Tb为它们的并集,即 Tn+1=Ta∪Tb,从S’中删除Ta,Tb并添加Tn+1;其中,高级语义对象指低级语义对象的集合;
重复该步骤,直到高级语义对象集合中不存在满足以上所提到规则的对象对,即直至S′不再变化最终得到S″={To,To+1,...Tp};
步骤7:对于需检测的对象,人工给出其包含的低级语义对象类别,在步骤 6中得到的高级语义对象中检索,若人工给出的类别集合是某个高级语义对象的类别集合的子集,则它就是需要检测的目标。
进一步的,所述步骤1中公开数据集是指从网络公开数据集中筛选出分类数据集和目标检测数据集,其中分类数据集只需图像中所含的目标类别信息,目标检测数据集则需图像中目标的类别和边界框两个属性。
进一步的,所述步骤2的详细步骤为:
(2.1)训练特征提取器:首先在yolov3的特征提取器顶端加上一个全局平均池化层、两个线性层和一个softmax层,进而得到一个分类器;然后对该分类器进行训练,读取训练集图像为RGB图像做中心裁剪,归一化处理后输入网络,对于输出正确是否采用交叉熵损失函数进行衡量;持续训练直到精确度到90%以上结束;
(2.2)在已构建的卷积神经网络上进行修改:首先去掉最后的全局平均池化层、两个线性层和一个softmax层;然后从中提取3个尺度的特征映射,通过多个卷积层和上采样层相连接,最后输出一个52*52*(c+5b)的张量,其中c为数据集中的类别数,b为每个单元预测的边界框数量(一般取2),进而构成完整的 yolov3网络结构,其中特征提取部分各个卷积核的初始权值使用预训练步骤中得到的权值,使用步骤1中所得目标检测数据集训练新的网络,得到最终使用的目标检测器。
有益效果:本发明通过在现有的目标检测器的基础上对复杂目标的上下文信息进行显式建模,从而实现对细粒度目标的检测;使得使用公开的粗粒度数据集训练网络得到的检测器也可以完成一定条件下的细粒度分类任务。
综上所述,本发明直接采集目标类别的数据进行训练,极大降低了数据采集成本,也降低在生产环境下的使用门槛。
附图说明
图1为训练特征提取器时使用的网络结构;
图2为训练目标检测器时使用的网络结构;
图3为图1和图2中各个模板的细分结构示意图;
图4为实施例1中的识别流程图。
具体实施方式
下面对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
如图1至图3所示,本发明的一种基于卷积神经网络的零售商品识别方法,包括下述步骤:
步骤1:数据集的收集,从网络上已经公开的数据集(比如OpenIamge, ImageNet等)中筛选出分类数据集和目标检测数据集,其中分类数据集只需要图像中所含的目标类别信息,目标检测数据集则需要图像中目标的类别和边界框两个属性。在类别的选择上应选择语义化程度较低的类别(例如相对于“可乐瓶”,“雪碧瓶”等,“饮料瓶”或者“瓶子”明显是更好的选择)以获取更好的感知能力。这在ImageNet数据集中体现在类别的WordNet ID因尽可能靠近整棵WordNet 树的中部(该数据集的所有类别及其之间的关系是WordNet的一个子图)而像 Open Image则可以直接选取第二级分类的类别。
步骤2:训练特征提取器,首先在yolov3的特征提取器顶端加上一个全局平均池化层,两个线性层和一个softmax层得到一个分类器(此时网络的结构见图 1),对该分类器进行训练,读取训练集图像为RGB图像,深度为8位,缩放图像使其较短边长度为416,再做中心裁剪,得到416×416×3的张量,将取值在[0,255]的值归一化到[-0.5,0.5]再输入网络,对于输出正确是否采用交叉熵损失函数进行衡量。训练方法采用随机梯度下降(SGD),学习速率取0.01。持续训练直到top1精确度到90%以上结束。
步骤3:训练目标检测器,在步骤2中构建的卷积神经网络上进行修改:1. 去掉最后的全局平均池化层,两个线性层和一个softmax层;2.从中提取3个尺度的特征映射,通过多个卷积层和上采样层相连接,最后输出一个52×52× (c+5b)的张量,其中c为数据集中的类别数,b为每个单元预测的边界框数量 (一般取2),如上及构成完整的yolov3网络结构,具体结构见图2,其中特征提取部分各个卷积核的初始权值使用预训练步骤中得到的权值,使用步骤1中得到的目标检测数据集训练新的网络,得到可以使用的目标检测器。
步骤4:包含关系建模
定义低级语义对象为(c,B),其中c为低级语义对象的类别,B为低级语义对象边界框,定义边界框为(xlt,ylt,xrb,yrb)其中xlt,ylt,xrb,yrb分别为低级语义对象边界框的左上,右下坐标的x,y坐标值,且xrb≥xlt,ylt≥yrb
定义边框计算之间的计算A∩B和A∪B:对于低级语义对象 A=(ca,(xlta,ylta,xrba,yrba))和B=(cb,(xltb,yltb,xrbb,yrbb)):
A∪B=(min(xlta,xltb),max(xrba,xrbb),min(ylta,yltb),max(yrba,yrbb))
如果max(xlta,xltb)≤min(xrba,xrbb)且max(ylta,yltb)≤min(yrba,yrbb):
A∩B=(max(xlta,xltb),min(xrba,xrbb),max(ylta,yltb),min(yrba,yrbb))
否则A∩B不存在
定义边界框的面积S(B)=(xrb-xlt)(yrb-ylt)
定义包含关系:对于初级目标A、B:
步骤5:构建高级语义对象
从前几步可以得到一个包含低级语义对象的集合,其中每个低级语义对象包含一个类别和一个边界框。
对于集合S={t1,t2,...tn},构造S’={T1,T2...Tn},其中S为前几步得到的低级语义对象的集合,tk为低级语义对象,Tk={tk}。
步骤6:有价值目标提取
对于需要检测的高级目标,人工指定其所包含的低级目标类别,得到 Tt={c1,c2,...cn}。在S”中检索Ts={ts1,ts2,...tsn},若则Ts为需检测的目标。其边界框为其中ctsi为tsi的类别,Btsi为tsi的边界框。
实施例1:
本实施例以某商品为例,采用本发明的基于卷积神经网络的零售商品识别方法进行检测识别,如图4所示,通过对识别检测目标进行上下文信息进行显式建模,从而实现对细粒度目标的检测;使得使用公开的粗粒度数据集训练网络得到的检测器完成一定条件下的细粒度分类任务,最终能够精准快速的完成商品的识别。
Claims (5)
1.一种基于卷积神经网络的零售商品识别方法,其特征在于:先利用通用的粗粒度数据集训练一个yolov3目标检测器,再向其中输入图像得到一系列粗粒度目标的类别和位置信息,然后根据事先定义的包含关系组合低级语义对象得到一系列高级语义对象;最后在这些对象中选取需要检测的细粒度目标;
具体包括以下步骤:
步骤1:从公开数据集的类别集合中按照对应规则筛选粒度合适的类别,然后将选取好的类别所对应的图片组成训练集:
步骤2:使用步骤1选取的训练集训练yolov3目标检测器,得到一个训练后目标检测器;
步骤3:将待检测图像输入步骤2中得到的训练后目标检测器,得到一系列低级语义对象的类别以及它们的位置;
步骤4:选取合适的μa,μb,确定包含关系:
步骤6:按照以下规则合并对象:
对于高级语义对象Ta,Tb,若存在Ta,Tb,ti,tj,ti∈Ta且tj∈Tb,或者cti≠ctj,且则合并Ta,Tb为它们的并集,即Tn+1=Ta∪Tb,从S’中删除Ta,Tb并添加Tn+1;其中,高级语义对象指低级语义对象的集合;
重复该步骤,直到高级语义对象集合中不存在满足以上所提到规则的对象对,即直至S′不再变化最终得到S″={To,To+1,...Tp};
步骤7:对于需检测的对象,人工给出其包含的低级语义对象类别,在步骤6中得到的高级语义对象中检索,如果人工给出的类别集合是某个高级语义对象的类别集合的子集,则它就是需要检测的目标。
2.根据权利要求1所述的基于卷积神经网络的零售商品识别方法,其特征在于:所述步骤1中公开数据集是指从网络公开数据集中筛选出分类数据集和目标检测数据集,其中分类数据集只需图像中所含的目标类别信息,目标检测数据集则需图像中目标的类别和边界框两个属性。
3.根据权利要求1所述的基于卷积神经网络的零售商品识别方法,其特征在于:所述步骤1的分类训练集中每个类别图片数量在1000张以上,类别数在30以上且图片大小不小于512*512像素。
4.根据权利要求1所述的基于卷积神经网络的零售商品识别方法,其特征在于:所述步骤2的详细步骤为:
(2.1)训练特征提取器:首先在yolov3的特征提取器顶端加上一个全局平均池化层、两个线性层和一个softmax层,进而得到一个分类器;然后对该分类器进行训练,读取训练集图像为RGB图像做中心裁剪,归一化处理后输入网络,对于输出正确是否采用交叉熵损失函数进行衡量;持续训练直到精确度到90%以上结束;
(2.2)在已构建的卷积神经网络上进行修改:首先去掉最后的全局平均池化层、两个线性层和一个softmax层;然后从中提取3个尺度的特征映射,通过多个卷积层和上采样层相连接,最后输出一个52*52*(c+5b)的张量,其中c为数据集中的类别数,b为每个单元预测的边界框数量,进而构成完整的yolov3网络结构,其中特征提取部分各个卷积核的初始权值使用预训练步骤中得到的权值,使用步骤1中所得目标检测数据集训练新的网络,得到最终使用的目标检测器。
5.根据权利要求1所述的基于卷积神经网络的零售商品识别方法,其特征在于:步骤1中的筛选规则为:
(a)该类别与目标零售商品的外观或是包装外观相关;
(b)该类别与目标零售商品的包装内容相关;
(c)类别名称不能包含任何品牌信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811541070.2A CN109685780B (zh) | 2018-12-17 | 2018-12-17 | 一种基于卷积神经网络的零售商品识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811541070.2A CN109685780B (zh) | 2018-12-17 | 2018-12-17 | 一种基于卷积神经网络的零售商品识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109685780A CN109685780A (zh) | 2019-04-26 |
CN109685780B true CN109685780B (zh) | 2021-05-11 |
Family
ID=66186116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811541070.2A Active CN109685780B (zh) | 2018-12-17 | 2018-12-17 | 一种基于卷积神经网络的零售商品识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109685780B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119811B (zh) * | 2019-05-15 | 2021-07-27 | 电科瑞达(成都)科技有限公司 | 一种基于熵重要性准则模型的卷积核裁剪方法 |
CN110287369B (zh) * | 2019-06-25 | 2022-02-22 | 中科软科技股份有限公司 | 一种基于语义的视频检索方法及*** |
CN110414559B (zh) * | 2019-06-26 | 2021-09-03 | 武汉大学 | 智能零售柜商品目标检测统一框架的构建方法及商品识别方法 |
JP2021018470A (ja) * | 2019-07-17 | 2021-02-15 | 東芝テック株式会社 | 物品特定装置及びプログラム |
CN110751195B (zh) * | 2019-10-12 | 2023-02-07 | 西南交通大学 | 一种基于改进YOLOv3的细粒度图像分类方法 |
CN110992422B (zh) * | 2019-11-04 | 2023-11-07 | 浙江工业大学 | 一种基于3d视觉的药盒姿态估计方法 |
CN110909660A (zh) * | 2019-11-19 | 2020-03-24 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于目标检测的塑料瓶检测与定位方法 |
CN112929380B (zh) * | 2021-02-22 | 2022-04-15 | 中国科学院信息工程研究所 | 结合元学习与时空特征融合的木马通信检测方法及*** |
CN113344108A (zh) * | 2021-06-25 | 2021-09-03 | 视比特(长沙)机器人科技有限公司 | 一种商品识别与姿态估计方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133569A (zh) * | 2017-04-06 | 2017-09-05 | 同济大学 | 基于泛化多标记学习的监控视频多粒度标注方法 |
CN108596101A (zh) * | 2018-04-25 | 2018-09-28 | 上海交通大学 | 一种基于卷积神经网络的遥感图像多目标检测方法 |
CN108776807A (zh) * | 2018-05-18 | 2018-11-09 | 复旦大学 | 一种基于可跳层双支神经网络的图像粗细粒度分类方法 |
CN109002845A (zh) * | 2018-06-29 | 2018-12-14 | 西安交通大学 | 基于深度卷积神经网络的细粒度图像分类方法 |
CN109002834A (zh) * | 2018-06-15 | 2018-12-14 | 东南大学 | 基于多模态表征的细粒度图像分类方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9858525B2 (en) * | 2015-10-14 | 2018-01-02 | Microsoft Technology Licensing, Llc | System for training networks for semantic segmentation |
US11144889B2 (en) * | 2016-04-06 | 2021-10-12 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
-
2018
- 2018-12-17 CN CN201811541070.2A patent/CN109685780B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133569A (zh) * | 2017-04-06 | 2017-09-05 | 同济大学 | 基于泛化多标记学习的监控视频多粒度标注方法 |
CN108596101A (zh) * | 2018-04-25 | 2018-09-28 | 上海交通大学 | 一种基于卷积神经网络的遥感图像多目标检测方法 |
CN108776807A (zh) * | 2018-05-18 | 2018-11-09 | 复旦大学 | 一种基于可跳层双支神经网络的图像粗细粒度分类方法 |
CN109002834A (zh) * | 2018-06-15 | 2018-12-14 | 东南大学 | 基于多模态表征的细粒度图像分类方法 |
CN109002845A (zh) * | 2018-06-29 | 2018-12-14 | 西安交通大学 | 基于深度卷积神经网络的细粒度图像分类方法 |
Non-Patent Citations (2)
Title |
---|
Supermarket Commodity Identification Using Convolutional Neural Networks;Jingsong Li.et;《2016 2nd International Conference on Cloud Computing and Internet of Things (CCIOT)》;20161231;第115-119页 * |
基于深度学习的细粒度图像识别研究;陈鹤森;《中国优秀硕士学位论文全文数据库 信息科技辑》;20181115(第11期);第I138-362页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109685780A (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685780B (zh) | 一种基于卷积神经网络的零售商品识别方法 | |
CN111709310B (zh) | 一种基于深度学习的手势跟踪与识别方法 | |
US9720934B1 (en) | Object recognition of feature-sparse or texture-limited subject matter | |
Zhang et al. | Toward new retail: A benchmark dataset for smart unmanned vending machines | |
CN108345912A (zh) | 一种基于rgbd信息与深度学习的商品快速结算*** | |
CN109583315B (zh) | 一种面向智能视频监控的多通道快速人体姿态识别方法 | |
CN109583482A (zh) | 一种基于多特征融合与多核迁移学习的红外人体目标图像识别方法 | |
CN100561505C (zh) | 一种图像检测方法及装置 | |
WO2020134102A1 (zh) | 物品识别方法、装置、售货***和存储介质 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
Pandey et al. | Object detection with neural models, deep learning and common sense to aid smart mobility | |
CN105809205A (zh) | 一种高光谱图像的分类方法及其*** | |
Ghosh et al. | Automated detection and classification of pavement distresses using 3D pavement surface images and deep learning | |
Mewada et al. | Automatic room information retrieval and classification from floor plan using linear regression model | |
Hu et al. | Depth sensor based human detection for indoor surveillance | |
CN111882000A (zh) | 一种应用于小样本细粒度学习的网络结构及方法 | |
CN111428743B (zh) | 商品识别方法、商品处理方法、装置及电子设备 | |
CN111222530A (zh) | 一种细粒度图像分类方法、***、装置和存储介质 | |
Naosekpam et al. | UTextNet: a UNet based arbitrary shaped scene text detector | |
CN114255377A (zh) | 一种智能货柜的差异商品检测分类方法 | |
Zhang et al. | Fine detection and classification of multi-class barcode in complex environments | |
Diwate et al. | Optimization in object detection model using yolo. v3 | |
Miyata | Automatic recognition of speed limits on speed-limit signs by using machine learning | |
Wang et al. | Recognition and distance estimation of an irregular object in package sorting line based on monocular vision | |
CN113449629B (zh) | 基于行车视频的车道线虚实识别装置、方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |