CN114882182A - 一种基于车路协同感知***的语义地图构建方法 - Google Patents
一种基于车路协同感知***的语义地图构建方法 Download PDFInfo
- Publication number
- CN114882182A CN114882182A CN202210428195.4A CN202210428195A CN114882182A CN 114882182 A CN114882182 A CN 114882182A CN 202210428195 A CN202210428195 A CN 202210428195A CN 114882182 A CN114882182 A CN 114882182A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- point cloud
- data
- road
- traffic participant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于车路协同感知***的语义地图构建方法,涉及智能驾驶技术领域,解决了无人驾驶技术中单车感知范围较小语义地图误差较大的技术问题,其技术方案要点是利用车路协同感知的思想将车端和路侧感知设备检测的交通参与者数据进行匹配融合;利用RangeNet++网络对点云进行语义分割,再通过LeGO‑LOAM算法建立点云地图。对道路全量交通参与者进行检测识别,不仅能够为单车实时构建点云语义地图,还能够融合各车的点云语义地图形成大范围的语义地图,供区域内行驶的所有车辆使用,有较好的应用前景,且该方法所构建的地图算法结构简单,语义信息丰富,建图范围大,误差小,且具有较强的鲁棒性。
Description
技术领域
本申请涉及智能驾驶技术领域,具体涉及无人驾驶车路协同感知技术,尤其涉及一种基于车路协同感知***的语义地图构建方法。
背景技术
车辆数据的获取与信息处理是实现无人驾驶汽车自主行驶的关键技术之一。单车智能自动驾驶容易受到遮挡、恶劣天气等环境条件影响,在全量目标检测、轨迹预测、驾驶意图“博弈”等方面存在困难。而车路协同自动驾驶通过信息交互协同、协同感知与协同决策控制,可以极大地拓展单车的感知范围、提升感知的能力,引入高维数据为代表的新的智能要素,实现群体智能。可以从本质上解决单车智能自动驾驶遇到的技术瓶颈,提升自动驾驶能力。
目前,各国都将车路协同***发展作为了当前的研究热点。美国车路协同***(vehicle infrastructure integration,VII)是由美国联邦公路局,AASH—TO、各州运输部、汽车工业联盟、ITS American等组成的特殊联合机构,通过信息与通信技术实现汽车与道路设施的集成。日本的Smartway计划发展重点在整合日本各项ITS的功能及建立车上单元的共同平台,使道路与车辆能藉由lTS咨询的双向传输而成为Smartway与Smartcar,以减少交通事故和缓解交通拥堵。欧盟eSafety计划主要内容是:充分利用先进的信息与通信技术,加快安全***的研发与集成应用,为道路交通提供全面的安全解决方案。百度于2021年5月,联合清华大学智能产业研究院正式提出了Apollo Air计划,提出V2X车路云协同技术,能够提供全局视野,为自动驾驶与智能交通提供泛在连接技术与端到端应用服务,为城市交通提供全域感知能力。可以预见,车路协同智能技术应用与推广已经成为现代道路交通发展的必然选择。
如何通过车路协同感知***构建语义地图,使汽车不再依赖GPS,对车辆进行正确及时的规划、控制、决策是亟需解决的问题。
发明内容
本申请提供了一种基于车路协同感知***的语义地图构建方法,其技术目的是提高单车的感知范围,构建大范围的语义地图,供区域内行驶的所有车辆使用。
本申请的上述技术目的是通过以下技术方案得以实现的:
一种基于车路协同感知***的语义地图构建方法,包括:
S1:路侧感知设备基于图像与点云实例匹配算法对交通参与者进行实时检测,得到路端交通参与者数据,并获取道路线边界信息;
S2:将所述路端交通参与者数据转化为结构化数据集T1(m)后发送至车端;其中,m表示路端交通参与者的总数;
S3:车端的激光雷达对点云数据进行采集,通过RangeNet++网络对点云进行实时语义分割;
S4:对语义分割后的点云进行后处理操作,将经后处理操作的点云转化为深度图,得到车端交通参与者数据并将其转化为结构化数据集T2(n);其中,n表示车端交通参与者的总数;
S5:车端对结构化数据集T1(m)和结构化数据集T2(n)进行数据集成和数据匹配融合,得到全量交通参与者数据;
S6:通过LeGO-LOAM算法对语义分割后的点云建图,得到点云地图,然后将全量交通参与者数据在点云地图中进行可视化,得到全局点云语义地图。
本申请的有益效果在于:针对无人驾驶汽车提出一种基于车路协同感知***的语义地图构建方法,利用车路协同感知的思想将车端和路侧感知设备检测的交通参与者数据进行匹配融合;利用RangeNet++网络对点云进行语义分割,再通过LeGO-LOAM算法建立点云地图。
本车路协同***,对道路全量交通参与者进行检测识别,不仅能够为单车实时构建点云语义地图,还能够融合各车的点云语义地图形成大范围的语义地图,供区域内行驶的所有车辆使用,有较好的应用前景。实验证明,本申请所提出的方法所构建的地图算法结构简单,语义信息丰富,建图范围大,误差小,且具有较强的鲁棒性。
附图说明
图1为本申请所述方法的流程图;
图2为交通参与者匹配融合算法流程图;
图3为车路协同感知***示意图。
具体实施方式
下面将结合附图对本申请技术方案进行详细说明。
图1为本申请所述方法的流程图,如图1所示,该方法包括:
S1:路侧感知设备基于图像与点云实例匹配算法对交通参与者进行实时检测,得到路端交通参与者数据,并获取道路线边界信息。
具体地,图像与点云实例匹配算法包括:
先基于YOLACT算法对图像进行实例分割,对点云透视投影,随后对实例分割后的图像和透视投影后的点云进行实例匹配、目标点云聚类和三维模型拟合,融合检测结构,生成包围框,得到路端交通参与者数据。
道路线边界信息,由于路侧感知设备是定点设备,故可以结合GPS和物理测量等手段进行添加。
S2:将所述路端交通参与者数据转化为结构化数据集T1(m)后发送至车端;其中,m表示路端交通参与者的总数。
具体地,路侧感知设备可以通过TCP通信协议与车端进行通信。
结构化数据集T1(m)=(t11,t12,...,t1m),其中,t1m表示第m个路端交通参与者数据,t1m的参数表示为(x1m,y1m,z1m)表示第m个路端交通参与者的中心点坐标;l1m、ω1m、h1m分别表示第m个路端交通参与者包围框的长、宽、高;表示第m个路端交通参与者的方向夹角;c1m表示路端第m个检测目标的类别。
S3:车端的激光雷达对点云数据进行采集,通过RangeNet++网络对点云进行实时语义分割。
S4:对语义分割后的点云进行后处理操作,将经后处理操作的点云转化为深度图,得到车端交通参与者数据并将其转化为结构化数据集T2(n);其中,n表示车端交通参与者的总数。
对语义分割后的点云进行后处理操作包括:对点云缺失数据进行补偿,并对地面点进行移除,然后将点云转化为深度图,对点云进行聚类和三维模型拟合,最后得到车端交通参与者数据,将车端交通参与者数据转化为结构化数据集T2(n);其中,T2(n)=(t21,t22,...,t2n),其中,t2n表示第n个车端交通参与者数据,t2n的参数表示为(x2n,y2n,z2n)表示第n个车端交通参与者的中心点坐标;l2n、ω2n、h2n分别表示第n个车端交通参与者包围框的长、宽、高;表示第n个车端交通参与者的方向夹角;c2n表示车端第n个检测目标的类别。
通过激光雷达收集点云数据,将点云数据以0.2°的角分辨率转化为1800*64尺寸的无向图,即μmax=1800,kmax=64。点云中的每个点pμ,k由旋转索引μ和光束索引k来确定。rμ,k表示点pμ,k的测量距离,则在相邻光束的点云中,若点pμ,k上光束点的rμ,k比下光束点的rμ,k值小,则该点pμ,k为关键点,因为正常扫描到地面的情况下,上面线束扫描得到的距离肯定比下面线束的距离更远,由此可以初步得到关键点。
通过距离Hr、高度Hz和光束索引Hi对点云的分布密度进行估计,实现对关键点的初步聚类,以对关键点进行扩充;把每一列的相邻关键点聚类成一个容器并计算每个容器的高度和光束索引范围,若容器内关键点的个数小于2,则丢弃此容器,否则对每个容器在光束索引范围内的非关键点进行判断,决定是否将非关键点纳入该容器中转换为关键点,判断函数为:
其中,Hz表示高度,i表示点i,Hi表示点云的全部光束索引,zi表示点i在z轴上的坐标,pheight表示点云的高度。
找到关键点包围的一堆无效点,其中无效点是由于激光雷达的光束打在反射率较低的物体上(例如车玻璃或黑色物体),使得光束无法返回传感器,造成光束在那一时刻为无效值。若一个容器内的无效点数量小于30个,且无效点周围关键点的欧式距离不超过1.3m,则将这些无效点通过线性拟合方式进行模拟,从而对点云缺失数据进行补偿。
另外,通过RangeNet++网络的语义分割结果对地面点进行移除。
上述将点云转化为深度图,对点云进行聚类和三维模型拟合,最后得到车端交通参与者数据,将车端交通参与者数据转化为结构化数据集T2(n),包括:
将3D点云(x,y,z)映射为2D的深度图像(μ,ν),映射公式为:
其中:表示2D深度图的宽,h表示2D深度图的高;fup表示雷达垂直方向上的上视角范围,fdown表示雷达垂直方向上的下视角范围;f=fup+fdown表示垂直方向上的总视角范围;γ表示点到雷达的距离。
采用结合点云深度图断点的BFS聚类算法对点云进行聚类,最后对聚类结果采用凸包轮廓逼近算法从目标点云中拟合2D包围框,结合点云的高度信息得到3D包围框,并得到车端交通参与者的三维包围框结构化数据集T2(n)。
S5:车端对结构化数据集T1(m)和结构化数据集T2(n)进行数据集成和数据匹配融合,得到全量交通参与者数据。
具体地,数据集成包括路侧感知设备和车端的坐标***一、数据模型统一和分类分级统一。
数据匹配融合包括:对重复检测的路端交通参与者数据和车端交通参与者数据进行匹配,然后融合车端所缺失的交通参与者数据。具体流程如图2所示,包括:
S511:先将路端结构化数据集T1(m)和车端结构化数据集T2(n)的坐标系转化为世界坐标系,转化后的T1(m)和T2(n)分别表示为:
T1(m)=[xωm,yωm,zωm,lωm,ωωm,hωm,φωm,cωm];
T2(n)=[xωn,yωn,zωn,lωn,ωωn,hωn,φωn,cωn]。
那么数据匹配融合的问题就转化为两个矩阵的相似度问题,结构化数据包括的信息维度有空间位置、形状、方向和语义标签。
S512:根据车端结构化数据集T2(n)的空间位置坐标(xωn,yωn,zωn)构建KD数据结构,以路端结构化数据集T1(m)的空间位置坐标(xωm,yωm,zωm)为基准,基于KD树搜寻算法在T2(n)中搜索与结构化数据集T1(m)中的第1个数据t11的最邻近的两个车端交通参与者,随后对比路侧感知设备与车端交通参与者数据的相似度。
S513:相较于欧式距离,马氏距离能够解决不同维度之间的方差和相关性,具体为:
计算每两个维度之间的协方差,其中xw,yw之间的协方差计算公式为:
最终可以得到8*8的协方差矩阵∑,计算其逆矩阵∑-1,计算出t11与最邻近的两个车端交通参与者之间的马氏距离,表示为:
若小于预设阈值D,则认为存在重复检测的交通参与者,取距离最近的车端交通参与者与路端交通参与者进行匹配,匹配一致则确认存在重复检测的交通参与者,匹配不一致则将此路端交通参与者数据t11添加到车端结构化数据集T2(n)中;若MD大于预设阈值D则认为没有重复检测,将此路端交通参与者数据t11添加到车端结构化数据集T2(n)中。
重复步骤S511至S513,直至路端结构化数据集T1(m)中的全部数据都匹配完毕,得到最终的车端结构化数据集T2(n'),n'≥n。
S6:通过LeGO-LOAM算法对语义分割后的点云建图,得到点云地图,然后将全量交通参与者数据在点云地图中进行可视化,得到全局点云语义地图。该全局点云语义地图包括具有语义标签的全量交通参与者、道路线边界和LeGO-LOAM算法构建的点云地图。
图3为车路协同感知***示意图,如图3所示,在多车多路的大范围车路感知协同***中,路侧共享服务器融合了该路网下各路侧感知设备的交通参与者,将其发送给在该路网下行驶的汽车,与车端数据进行匹配融合,各车端再将融合结果反馈给路侧共享服务器进行数据匹配融合,从而实现该路网下所有交通参与者的实时检测。
行驶在该路网下的汽车构建局部点云语义地图,在线下进行点云地图的匹配融合形成全局点云语义地图。全局点云语义地图结合路侧共享服务器的融合结果即可得到该路网实时语义地图供所有车辆使用。
以上为本申请示范性实施例,本申请的保护范围由权利要求书及其等效物限定。
Claims (8)
1.一种基于车路协同感知***的语义地图构建方法,其特征在于,包括:
S1:路侧感知设备基于图像与点云实例匹配算法对交通参与者进行实时检测,得到路端交通参与者数据,并获取道路线边界信息;
S2:将所述路端交通参与者数据转化为结构化数据集T1(m)后发送至车端;其中,m表示路端交通参与者的总数;
S3:车端的激光雷达对点云数据进行采集,通过RangeNet++网络对点云进行实时语义分割;
S4:对语义分割后的点云进行后处理操作,将经后处理操作的点云转化为深度图,得到车端交通参与者数据并将其转化为结构化数据集T2(n);其中,n表示车端交通参与者的总数;
S5:车端对结构化数据集T1(m)和结构化数据集T2(n)进行数据集成和数据匹配融合,得到全量交通参与者数据;
S6:通过LeGO-LOAM算法对语义分割后的点云建图,得到点云地图,然后将全量交通参与者数据在点云地图中进行可视化,得到全局点云语义地图。
2.如权利要求1所述的语义地图构建方法,其特征在于,所述步骤S1中,所述图像与点云实例匹配算法包括:
先基于YOLACT算法对图像进行实例分割,对点云透视投影,随后对实例分割后的图像和透视投影后的点云进行实例匹配、目标点云聚类和三维模型拟合,融合检测结构,生成包围框,得到路端交通参与者数据。
4.如权利要求1所述的语义地图构建方法,其特征在于,所述步骤S4中,所述对语义分割后的点云进行后处理操作包括:对点云缺失数据进行补偿,并对地面点进行移除,然后将点云转化为深度图,对点云进行聚类和三维模型拟合,最后得到车端交通参与者数据,将车端交通参与者数据转化为结构化数据集T2(n);其中,T2(n)=(t21,t22,...,t2n),其中,t2n表示第n个车端交通参与者数据,t2n的参数表示为(x2n,y2n,z2n)表示第n个车端交通参与者的中心点坐标;l2n、ω2n、h2n分别表示第n个车端交通参与者包围框的长、宽、高;表示第n个车端交通参与者的方向夹角;c2n表示车端第n个检测目标的类别。
5.如权利要求4所述的语义地图构建方法,其特征在于,所述对点云缺失数据进行补偿包括:获取关键点,并对关键点进行扩充,将每一列的相邻关键点聚类成一个容器,若容器内关键点的个数小于2,则丢弃此容器,否则对每个容器在光束索引范围内的非关键点进行判断,决定是否将非关键点纳入该容器中转换为关键点,判断函数为:
获取关键点包围的无效点,若容器内的无效点数量小于30个,且无效点周围关键点的欧式距离不超过1.3m,则将这些无效点通过线性拟合方式进行模拟,从而对点云缺失数据进行补偿;
对地面点进行移除包括:通过RangeNet++网络的语义分割结果对地面点进行移除;
其中,Hz表示高度,i表示点i,Hi表示点i的光束索引,zi表示点i在z轴上的坐标,pheight表示点云的高度。
7.如权利要求4所述的语义地图构建方法,其特征在于,所述步骤S5中,所述数据集成包括路侧感知设备和车端的坐标***一、数据模型统一和分类分级统一;
所述数据匹配融合包括:对重复检测的路端交通参与者数据和车端交通参与者数据进行匹配,然后融合车端所缺失的交通参与者数据。
8.如权利要求7所述的语义地图构建方法,其特征在于,所述数据匹配融合包括:
S511:先将结构化数据集T1(m)和结构化数据集T2(n)的坐标系转化为世界坐标系,转化后的T1(m)和T2(n)分别表示为:
T1(m)=[xωm,yωm,zωm,lωm,ωωm,hωm,φωm,cωm];
T2(n)=[xωn,yωn,zωn,lωn,ωωn,hωn,φωn,cωn];
S512:根据车端结构化数据集T2(n)的空间位置坐标(xωn,yωn,zωn)构建KD数据结构,以路端结构化数据集T1(m)的空间位置坐标(xωm,yωm,zωm)为基准,基于KD树搜寻算法在T2(n)中搜索与T1(m)中的第1个数据t11的最邻近的两个车端交通参与者;
S513:计算t11与最邻近的两个车端交通参与者之间的马氏距离,表示为:
若小于预设阈值D,则认为存在重复检测的交通参与者,取距离最近的车端交通参与者与路端交通参与者进行匹配,匹配一致则确认存在重复检测的交通参与者,匹配不一致则将此路端交通参与者数据t11添加到车端结构化数据集T2(n)中;若MD大于预设阈值D则认为没有重复检测,将此路端交通参与者数据t11添加到车端结构化数据集T2(n)中;
S514:重复步骤S511至S513,直至路端结构化数据集T1(m)中的全部数据都匹配完毕,得到最终的车端结构化数据集T2(n'),n'≥n。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210428195.4A CN114882182A (zh) | 2022-04-22 | 2022-04-22 | 一种基于车路协同感知***的语义地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210428195.4A CN114882182A (zh) | 2022-04-22 | 2022-04-22 | 一种基于车路协同感知***的语义地图构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114882182A true CN114882182A (zh) | 2022-08-09 |
Family
ID=82670903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210428195.4A Pending CN114882182A (zh) | 2022-04-22 | 2022-04-22 | 一种基于车路协同感知***的语义地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882182A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116467323A (zh) * | 2023-04-11 | 2023-07-21 | 北京中科东信科技有限公司 | 一种基于路侧设施的高精地图的更新方法及*** |
CN116804560A (zh) * | 2023-08-23 | 2023-09-26 | 四川交通职业技术学院 | 一种管制路段下无人驾驶汽车安全导航方法及装置 |
-
2022
- 2022-04-22 CN CN202210428195.4A patent/CN114882182A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116467323A (zh) * | 2023-04-11 | 2023-07-21 | 北京中科东信科技有限公司 | 一种基于路侧设施的高精地图的更新方法及*** |
CN116467323B (zh) * | 2023-04-11 | 2023-12-19 | 北京中科东信科技有限公司 | 一种基于路侧设施的高精地图的更新方法及*** |
CN116804560A (zh) * | 2023-08-23 | 2023-09-26 | 四川交通职业技术学院 | 一种管制路段下无人驾驶汽车安全导航方法及装置 |
CN116804560B (zh) * | 2023-08-23 | 2023-11-03 | 四川交通职业技术学院 | 一种管制路段下无人驾驶汽车安全导航方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022206942A1 (zh) | 一种基于行车安全风险场的激光雷达点云动态分割及融合方法 | |
CN109829386B (zh) | 基于多源信息融合的智能车辆可通行区域检测方法 | |
CN107063275B (zh) | 基于路侧设备的智能车辆地图融合***及方法 | |
Han et al. | Research on road environmental sense method of intelligent vehicle based on tracking check | |
US10281920B2 (en) | Planning for unknown objects by an autonomous vehicle | |
Holgado‐Barco et al. | Automatic inventory of road cross‐sections from mobile laser scanning system | |
Zhao et al. | On-road vehicle trajectory collection and scene-based lane change analysis: Part i | |
WO2018068653A1 (zh) | 点云数据处理方法、装置及存储介质 | |
WO2021238306A1 (zh) | 一种激光点云的处理方法及相关设备 | |
US20200250439A1 (en) | Automated Road Edge Boundary Detection | |
US20180259967A1 (en) | Planning for unknown objects by an autonomous vehicle | |
CN107862287A (zh) | 一种前方小区域物体识别及车辆预警方法 | |
Ma et al. | Generation of horizontally curved driving lines in HD maps using mobile laser scanning point clouds | |
CN106199558A (zh) | 障碍物快速检测方法 | |
CN114882182A (zh) | 一种基于车路协同感知***的语义地图构建方法 | |
GB2621048A (en) | Vehicle-road laser radar point cloud dynamic segmentation and fusion method based on driving safety risk field | |
CN116685874A (zh) | 摄像机-激光雷达融合对象检测***和方法 | |
Ye et al. | Robust lane extraction from MLS point clouds towards HD maps especially in curve road | |
Pantilie et al. | Real-time obstacle detection using dense stereo vision and dense optical flow | |
CN111880191A (zh) | 基于多智能体激光雷达和视觉信息融合的地图生成方法 | |
CN109241855A (zh) | 基于立体视觉的智能车辆可行驶区域探测方法 | |
CN115775378A (zh) | 一种基于多传感器融合的车路协同目标检测方法 | |
Jung et al. | Intelligent Hybrid Fusion Algorithm with Vision Patterns for Generation of Precise Digital Road Maps in Self-driving Vehicles. | |
Yuan et al. | Estimation of vehicle pose and position with monocular camera at urban road intersections | |
CN109993081A (zh) | 一种基于道路视频及车牌检测的车流量统计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |