CN115203352B - 车道级定位方法、装置、计算机设备和存储介质 - Google Patents
车道级定位方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN115203352B CN115203352B CN202211107287.9A CN202211107287A CN115203352B CN 115203352 B CN115203352 B CN 115203352B CN 202211107287 A CN202211107287 A CN 202211107287A CN 115203352 B CN115203352 B CN 115203352B
- Authority
- CN
- China
- Prior art keywords
- lane
- lane line
- vehicle
- score
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 239000011159 matrix material Substances 0.000 claims abstract description 114
- 230000008569 process Effects 0.000 claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 114
- 238000009826 distribution Methods 0.000 claims description 57
- 230000008859 change Effects 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 22
- 230000004927 fusion Effects 0.000 claims description 22
- 230000001960 triggered effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 54
- 238000004364 calculation method Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 102000004169 proteins and genes Human genes 0.000 description 5
- 108090000623 proteins and genes Proteins 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012508 change request Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- DXYQIGZZWYBXSD-JSGCOSHPSA-N Trp-Pro Chemical compound O=C([C@H](CC=1C2=CC=CC=C2NC=1)N)N1CCC[C@H]1C(O)=O DXYQIGZZWYBXSD-JSGCOSHPSA-N 0.000 description 1
- NQIHMZLGCZNZBN-PXNSSMCTSA-N Trp-Trp Chemical compound C1=CC=C2C(C[C@H](NC(=O)[C@H](CC=3C4=CC=CC=C4NC=3)N)C(O)=O)=CNC2=C1 NQIHMZLGCZNZBN-PXNSSMCTSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 108010084932 tryptophyl-proline Proteins 0.000 description 1
- 108010045269 tryptophyltryptophan Proteins 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Entrepreneurship & Innovation (AREA)
- Multimedia (AREA)
- Marketing (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Tourism & Hospitality (AREA)
- Game Theory and Decision Science (AREA)
- Analytical Chemistry (AREA)
- Operations Research (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Chemical & Material Sciences (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Primary Health Care (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请涉及一种车道级定位方法、装置、计算机设备和存储介质。所述方法可应用于电子地图、智能交通、自动驾驶和定位等场景,该方法包括:获取车辆在行驶过程中采集的车道线信息;依据与行驶的道路环境对应的得分矩阵,确定车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;得分矩阵中的分值是根据样本车辆在道路环境下采集车道线类型的准确率和召回率确定的;对车道线信息中的车道线参数与地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;基于第一匹配分值和第二匹配分值,确定车辆所处的车道。采用本方法能够提高车道级定位的准确性。
Description
技术领域
本申请涉及地图和智能驾驶技术领域,特别是涉及一种车道级定位方法、装置、计算机设备、存储介质和计算机程序产品。
背景技术
车辆在导航、辅助驾驶和无人驾驶等场景下,需要明确车辆在道路中所处的车道,这样才能对用户进行有效的提醒或进行下一步的行驶规划,如提醒用户变道、出入口和转弯。
传统的车道级定位方案中,通常是利用视觉观测的车道线语义信息与高精地图进行匹配,如利用视觉观测的车道线轮廓与高精度地图中的车道线轮廓进行匹配,从而可以计算出车辆所处的车道。然而,影响车辆定位的因素较多,采用上述的车道级定位方案所得的定位结果准确性不高。
发明内容
基于此,有必要针对上述技术问题,提供一种车道级定位方法、装置、计算机设备、计算机可读存储介质和计算机程序产品,能够提高车道级定位的准确性。
第一方面,本申请提供了一种车道级定位方法。所述方法包括:
获取车辆在行驶过程中采集的车道线信息;
依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;所述得分矩阵中的分值是根据样本车辆在所述道路环境下采集车道线类型的准确率和召回率确定的;
对所述车道线信息中的车道线参数与所述地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;
基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道。
第二方面,本申请还提供了一种车道级定位装置。所述装置包括:
获取模块,用于获取车辆在行驶过程中采集的车道线信息;
第一确定模块,用于依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;所述得分矩阵中的分值是根据样本车辆在所述道路环境下采集车道线类型的准确率和召回率确定的;
处理模块,用于对所述车道线信息中的车道线参数与所述地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;
第二确定模块,用于基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道。
在其中的一个实施例中,所述车道线参数包括车道线截距;所述装置还包括:
所述第一确定模块,还用于根据所述车道线信息中的车道线截距确定各车道的车道宽度;
添加模块,用于当存在所述车道宽度大于宽度阈值的目标车道时,依据所述车道宽度在所述目标车道之间添加至少一条车道线;依据添加的车道线在所述车道线信息中新增车道线类型和车道线参数。
在其中的一个实施例中,所述装置还包括:
查找模块,用于当所述车道线信息中的车道线类型包含道路边缘线时,在所述车道线信息中查找位于所述道路边缘线外侧的车道线;
删除模块,用于将所述外侧的车道线对应的车道线类型和车道线参数,从所述车道线信息中删除。
在其中的一个实施例中,所述装置还包括:
所述获取模块,还用于获取所述车辆在目标道路上行驶时的里程计数据和定位信息;
融合模块,用于将所述里程计数据和所述定位信息进行融合,得到所述车辆的位置信息;
投影模块,用于将所述位置信息投影至所述地图数据中,得到所述车辆在所述目标道路中各车道线的投影点;
选取模块,用于选取与所述投影点之间的距离满足距离条件的路段;
所述第一确定模块,还用于确定所述路段内的车道线类型,并基于所述路段内的车道线类型确定所述地图数据中不同指定区域的车道线类型。
在其中的一个实施例中,所述第一确定模块,还用于获取与行驶的道路环境对应的得分矩阵;将所述地图数据中各投影点对应的车道作为所述车辆所处的候选车道;所述投影点是将所述车辆的位置信息投影至所述地图数据中的点;分别将所述车辆在各所述候选车道上的视场区域作为所述指定区域;依据所述得分矩阵,依次确定所述车道线信息中的车道线类型与不同所述指定区域的车道线类型之间的第一匹配分值。
在其中的一个实施例中,所述第一确定模块,还用于将所述车道线信息中的车道线类型向量化,得到第一车道线类型向量;将不同所述指定区域的车道线类型向量化,得到不同所述指定区域的第二车道线类型向量;将每个所述指定区域的第二车道线类型向量作为一组,在所述得分矩阵中查询所述第一车道线类型向量中的元素与每组所述第二车道线类型向量中的元素之间的元素匹配分值;根据每组的所述元素匹配分值,确定所述车道线信息中的车道线类型与各所述指定区域的车道线类型之间的第一匹配分值。
在其中的一个实施例中,所述装置还包括:
所述第一确定模块,还用于确定所述样本车辆在各道路环境下采集车道线类型时的准确率和召回率;基于所述准确率和所述召回率,确定所述得分矩阵中对角线的分值;根据所述对角线的分值和目标函数确定所述得分矩阵中剩余元素的分值。
在其中的一个实施例中,所述处理模块,还用于将所述车道线信息中的车道线参数向量化,得到第一车道线参数向量;将所述地图数据中不同指定区域的车道线参数向量化,得到不同所述指定区域的第二车道线参数向量;将每个所述指定区域的第二车道线参数向量作为一组,将所述第一车道线参数向量与每组所述第二车道线参数向量进行匹配处理,得到每组的第二匹配分值。
在其中的一个实施例中,所述处理模块,还用于确定所述第一车道线参数向量与每组所述第二车道线参数向量之间的相关系数;其中,所述相关系数包括互相关系数、欧式距离、马氏距离或余弦相似度中的一种;将每组的所述相关系数作为所述第二匹配分值。
在其中的一个实施例中,所述第二确定模块,还用于对所述第一匹配分值和所述第二匹配分值进行加权求和,得到用于表示所述车辆处于不同所述候选车道的得分值;将满足得分条件的所述得分值对应的候选车道,作为所述车辆所处的车道。
在其中的一个实施例中,所述第二确定模块,还用于根据所述第一匹配分值确定所述车辆所处车道的第一分布概率;依据所述第二匹配分值确定所述车辆所处车道的第二分布概率;基于所述第一分布概率和所述第二分布概率,确定融合分布概率;所述融合分布概率是表示所述车辆处于不同所述候选车道时的分布概率;将满足概率条件的所述融合分布概率对应的候选车道,作为所述车辆所处的车道。
在其中的一个实施例中,所述车道线参数包括车道线颜色、车道线截距或车道线斜率中的至少一种参数,所述第二匹配分值包括颜色匹配分值、截距匹配分值或斜率匹配分值中的至少一种分值。
在其中的一个实施例中,所述装置还包括:
显示模块,用于响应于在电子地图上触发的车道级导航操作,显示车道级导航页面;
所述第一确定模块,还用于确定所述车辆的目标地址,在所述目标道路中依据所述目标地址确定候选车道路段;所述候选车道路段包括至少一条用于通向所述目标地址的车道路段;
所述显示模块,还用于在所述车道级导航页面中突出显示所述候选车道路段;当行驶到所述候选车道路段中符合变道条件的位置时,在所述候选车道路段上显示车道级变道指引。
第三方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取车辆在行驶过程中采集的车道线信息;
依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;所述得分矩阵中的分值是根据样本车辆在所述道路环境下采集车道线类型的准确率和召回率确定的;
对所述车道线信息中的车道线参数与所述地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;
基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道。
第四方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取车辆在行驶过程中采集的车道线信息;
依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;所述得分矩阵中的分值是根据样本车辆在所述道路环境下采集车道线类型的准确率和召回率确定的;
对所述车道线信息中的车道线参数与所述地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;
基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道。
第五方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
获取车辆在行驶过程中采集的车道线信息;
依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;所述得分矩阵中的分值是根据样本车辆在所述道路环境下采集车道线类型的准确率和召回率确定的;
对所述车道线信息中的车道线参数与所述地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;
基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道。
上述车道级定位方法、装置、计算机设备、存储介质和计算机程序产品,在对车辆进行车道级定位时,计算出车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值,以及车道线信息中的车道线参数与地图数据中不同指定区域的车道线参数之间的第二匹配分值,充分考虑了车道线的各种信息,因此利用第一匹配分值和第二匹配分值可以准确地确定出车辆所处的车道,有效地提高了定位的准确性;此外,利用与行驶的道路环境对应的得分矩阵计算第一匹配分值,该得分矩阵中的分值是根据样本车辆在道路环境下采集车道线类型的准确率和召回率确定的,因此在定位时,考虑到了车辆当前行驶的道路环境以及该道路环境下车道线检测的准确率和召回率,从而可以准确且高效地实现车道级定位。
附图说明
图1为一个实施例中车道级定位方法的应用环境图;
图2为一个实施例中车道级定位方法的流程示意图;
图3为一个实施例中对车辆的位置信息进行投影得到道路横截面的示意图;
图4为一个实施例中对车道线信息进行描述的示意图;
图5为一个实施例中关于得分矩阵的示意图;
图6为一个实施例中对视觉观测的车道线信息进行处理的流程示意图;
图7为一个实施例中目标道路与车辆的示意图;
图8为另一个实施例中目标道路与车辆的示意图;
图9为一个实施例中计算第一匹配分值的流程示意图;
图10为另一个实施例中关于得分矩阵的示意图;
图11为另一个实施例中关于得分矩阵的示意图;
图12为一个实施例中确定地图数据中不同指定区域的车道线类型的流程示意图;
图13为一个实施例中显示车道级变道指引的流程示意图;
图14为一个实施例中候选车道路段的示意图;
图15为一个实施例中突出显示候选车道路段的示意图;
图16为一个实施例中车道级变道指引的示意图;
图17为另一个实施例中车道级定位方法的流程示意图;
图18为一个实施例中对各匹配方法进行描述的示意图;
图19为一个实施例中关于BLOSUM62矩阵的示意图;
图20为一个实施例中车道级定位装置的结构框图;
图21为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在对本申请的实施例进行描述之前,先对本申请所涉及的技术进行说明,具体如下:
智能交通***(Intelligent Traffic System,ITS)又称智能运输***(Intelligent Transportation System),是将先进的科学技术(信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学和人工智能等)有效地综合运用于交通运输、服务控制和车辆制造,加强车辆、道路、使用者三者之间的联系,从而形成一种保障安全、提高效率、改善环境、节约能源的综合运输***。或者;智能车路协同***(Intelligent Vehicle Infrastructure Cooperative Systems,IVICS),简称车路协同***,是智能交通***的一个发展方向。车路协同***是采用先进的无线通信和新一代互联网等技术,全方位实施车与车、车与路动态实时信息交互,并在全时空动态交通信息采集与融合的基础上开展车辆主动安全控制和道路协同管理,充分实现人车路的有效协同,保证交通安全,提高通行效率,从而形成的安全、高效和环保的道路交通***。
大数据(Big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。随着云时代的来临,大数据也吸引了越来越多的关注,大数据需要特殊的技术,以有效地处理大量的容忍经过时间内的数据。适用于大数据的技术,包括大规模并行处理数据库、数据挖掘、分布式文件***、分布式数据库、云计算平台、互联网和可扩展的存储***。
计算机视觉技术(Computer Vision, CV)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能***。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
本申请实施例提供的车道级定位方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储***可以存储服务器104需要处理的数据。数据存储***可以集成在服务器104上,也可以放在云上或其他网络服务器上。
出行对象(即用户)可以手动驾驶车辆,也可以根据车辆中的智能驾驶***对车辆进行自动驾驶。不论是手动驾驶或自动驾驶的过程中,终端102都可以根据传感器采集的车道线信息和地图数据来确定车辆所处的车道,从而可以提供车道级的定位,进而为用户提供精确的导航服务。对于车辆所处的车道,可以通过以下方式确定:终端102可以获取车辆在行驶过程中采集的车道线信息;此外,还可以从服务器104获取地图数据,并从地图数据中读取车道线信息;然后,依据与行驶的道路环境对应的得分矩阵,确定车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;得分矩阵中的分值是根据样本车辆在道路环境下采集车道线类型的准确率和召回率确定的,不同道路环境对应不同的得分矩阵;对车道线信息中的车道线参数与地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;基于第一匹配分值和第二匹配分值,确定车辆所处的车道。
其中,终端102可以是用户驾驶的车辆,或是该车辆上的智能车载设备,又或者是出行对象在驾驶车辆的过程中,置于该目标车辆上的台式计算机、笔记本电脑、智能手机和平板电脑,以及出行对象携带的便携式可穿戴设备。
服务器104可以是独立的物理服务器,也可以是区块链***中的服务节点,该区块链***中的各服务节点之间形成点对点(P2P,Peer To Peer)网络,P2P协议是一个运行在传输控制协议(TCP,Transmission Control Protocol)协议之上的应用层协议。
此外,服务器104还可以是多个物理服务器构成的服务器集群,可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
终端102与服务器104之间可以通过蓝牙、USB(Universal Serial Bus,通用串行总线)或者网络等通讯连接方式进行连接,本申请在此不做限制。
在一个实施例中,如图2所示,提供了一种车道级定位方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
S202,获取车辆在行驶过程中采集的车道线信息。
其中,该车辆可以指用户驾驶的需要进行车道级定位的机动车,如用户a在驾驶过程中需要进行车道级定位,则该车辆可以指用户a所驾驶的车辆。需要指出的是,用户驾驶可以指用户手动驾驶、辅助驾驶或无人驾驶中的任一种。该无人驾驶也可称为自动驾驶。
该车道线信息可以指车辆在行驶过程中采集的关于车道线的信息,具体可以包括:车道线类型和其他的车道线参数;该车道线参数可以包括车道线截距、车道线颜色或车道线一次项(即车道线斜率)中的至少一种参数;此外,该车道线参数还可以包括车道线条数、置信度以及其他信息。该车道线条数可以指车道线的条数,例如车辆上的传感器在采集车道线信息时,采集到的车道线条数通常为4~6条;该置信度可以用于表示传感器采集的车道线信息的可信程度,具体可参考图4。该车道线信息可以由车辆上的传感器采集,由传感器采集的该车道线信息可称为视觉车道线信息。
上述的车道线截距可以是车辆质心到车辆左右两侧的车道线之间的距离;该传感器可以是安装在车辆上的摄像头或雷达。
在一个实施例中,当车辆在目标道路上行驶时,终端可以通过摄像头对目标道路进行视觉信息采集,得到视觉信息;然后对该视觉信息进行检测,得到视觉观测到的目标道路的车道线信息。其中,该目标道路可以指用户驾驶的车辆所在的道路,具体可以包括单向道路和双向道路。
S204,依据与行驶的道路环境对应的得分矩阵,确定车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值。
其中,指定区域可以是假设车辆处于目标道路的其中一个车道时,该车辆的视场区域,即车辆在该车道上行驶时传感器所能感知到的区域。在每个指定区域内,横向可以包含至少一个车道,如1~5个车道,纵向可以包含摄像头在车辆的固定高度和角度下的有效观测距离,如5~70m(米)。如图3所示,假设车辆处于车道1,则指定区域可以是车道1~2以及车辆前方5~30m的区域,从而在计算匹配分值时,可以将视觉观测的车道线类型与地图数据中的该指定区域内的车道线类型进行匹配计算,如视觉观测的车辆前方10m处的车道线类型与地图数据中的车辆前方10m处的车道线类型进行匹配计算,从而得到车辆前方10m处的车道线类型之间的第一匹配分值,依次类推,可以计算出20~30m处的车道线类型之间的第一匹配分值。需要指出的是,靠近车辆的车道线类型的置信度较大,如车辆前方10m处的车道线类型的置信度大于车辆前方20m和30m处的车道线类型。
第一匹配分值可以是车辆处于某个车道时各车道线类型之间的匹配分值,可以用来衡量车辆处于该车道的可能性。
举例来说,在计算第一匹配分值时,先假设车辆处于某个车道(不妨设为车道1),从而得到车辆在车道1时的指定区域,然后计算车道线信息中的车道线类型与车辆在车道1时的指定区域的车道线类型之间的匹配性,得到表示车辆处于车道1时各车道线类型之间的第一匹配分值;依此类推,可以计算出车辆处于其他车道时各车道线类型之间的第一匹配分值。为了方便描述,假设车辆所处的车道在后续实施例中称为候选车道。
该车道线类型可以指车道线的类型,包括但不限于:实线、虚线、双线、道路边缘线以及其他车道线。需要指出的是,在视觉观测时,护栏可能会被识别成车道线,因此护栏也可以作为一种特殊的车道线类型。
该地图数据可以指高精地图(High Definition Map)的地图数据,包括:车道线信息、高精度的坐标、坡度、曲率、航向以及高程等信息。地图数据中的车道线信息也可称为地图车道线信息,具体可以包括:车道线类型和其他的车道线参数;该车道线参数可以包括车道线截距、车道线颜色或车道线斜率中的至少一种参数;此外,该车道线参数还可以包括车道线条数、置信度以及其他信息。需要指出的是,上述S202中采集的车道线信息属于视觉观测到的信息,而地图数据中的车道线信息属于真实的信息。
该道路环境可以指目标道路所处的环境,具体可以包括不同天气下的城市道路环境、隧道环境、野外道路环境以及其他道路环境,如天气晴朗或下雨天的城市道路环境。
该得分矩阵也可称为打分矩阵,是由真实的车道线类型和视觉观测的车道线类型之间的分值构成的。得分矩阵中的分值是根据样本车辆在道路环境下采集车道线类型的准确率和召回率确定的,不同道路环境可以对应不同的得分矩阵,如隧道环境的得分矩阵与非隧道环境的得分矩阵不同。
假设传感器采集的车道线信息中实线的准确率为90%,召回率为85%,则图5中第1列的含义如下:
(1)地图数据中真实的车道线类型为实线,即真实世界中存在一根实线;
(2)当地图数据中的车道线类型为实线,且视觉观测的车道线类型也为实线时,对应的分数为0.90,表示目标道路真实存在一根实线,视觉观测到一根实线的概率为0.90⁄(0.90+0.06+0.02+0.08)≈85%,也就是视觉观测实线的召回率为85%;其中,上述的分数也可称为分值。
(3)当地图数据中的车道线类型为实线,且视觉观测的车道线类型为虚线时,对应的分数为0.06,表示目标道路真实存在一根实线,视觉观测结果为一根虚线的概率为0.06⁄(0.90+0.06+0.02+0.08)≈5.6%;依此类推,当地图数据中的车道线类型为实线,且视觉观测的车道线类型为道路边缘线或其他时,对应的分数分别为0.02和0.08,对应的概率分别为1.8%和7.6%。
此外,图5中第1行的含义如下:
(1)视觉观测的车道线类型为实线,即摄像头获得了1根实线;
(2)当视觉观测的车道线类型为实线,且地图数据中的车道线类型也为实线时,对应的分数为0.90,即视觉观测到一根实线,实际存在一根实线的概率为0.90⁄(0.90+0.05+0.03+0.2)=90%,也就是摄像头进行视觉观测到实线的准确率为90%;
(3)当视觉观测的车道线类型为实线,且地图数据中的车道线类型为虚线时,对应的分数为0.05,即视觉观测到一根实线,实际存在一根虚线的概率为0.05⁄(0.90+0.05+0.03+0.2)=5%;依此类推,当视觉观测的车道线类型为实线,且地图数据中的车道线类型为道路边缘线或其他时,对应的分数分别为0.03和0.02,对应的概率分别为3%和2%。
通过对图5的分析表明,给定了摄像头检测实线的准确率和召回率,可以计算出得分矩阵中实线相关的分数。通过上述方式,可以完整的计算出整个得分矩阵中各元素的分值。
对于得分矩阵中各分值的计算,具体步骤可以包括:终端确定样本车辆在各道路环境下采集车道线类型时的准确率和召回率;基于准确率确定得分矩阵中对角线的分值;根据召回率和对角线的分值确定得分矩阵中剩余元素的分值。
其中,准确率和召回率是利用样本车辆上的摄像头对不同道路环境下的车道线类型进行多次检测所得的。准确率可以是视觉观测的车道线类型与真实的车道线类型之间的比值。召回率是真实的车道线类型占所有检测结果的比例。
在获得各道路环境下的准确率和召回率之后,可以将准确率作为得分矩阵中对角线的分值,当在视觉观测到实线的概率为0.90时,视觉观测到虚线、道路边缘线以及其他车道线的概率之和为一个小于0.90的常数a,不妨令该常数a=0.1。此时,设定一个变量x,并在虚线、道路边缘线以及其他车道线中确定检测到哪一种的概率较大,哪一种的概率较小,从而为不同车道线类型对应的概率进行加权求和,从而可以计算出变量x,进而得出视觉观测出虚线、道路边缘线以及其他车道线的概率。
例如,若视觉观测到虚线的概率较大,在加权之后可以得到对应的概率为3x,依此类推,视觉观测到道路边缘线以及他车道线的概率分别为2x和x,从而得到3x+2x+x=0.1,求出x=0.017,从而视觉观测到虚线、道路边缘线以及他车道线的概率分别为0.05、0.03和0.02。在计算出各车道线类型的概率之后,可以根据召回率对这些概率进行调整,进而得到最终的概率,得到的这些概率可以作为得分矩阵中各元素的分值。
在一个实施例中,S204具体可以包括:终端将车道线信息中的车道线类型向量化,得到第一车道线类型向量;将不同指定区域的车道线类型向量化,得到不同指定区域的第二车道线类型向量,确定第一车道线类型向量与每组的第二车道线类型向量之间的第一匹配分值。其中,每一个指定区域的第二车道线类型向量分别可以划分为一组。
S206,对车道线信息中的车道线参数与地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值。
其中,由于车道线参数可以包括车道线截距、车道线颜色或车道线斜率中的至少一种参数,因此第二匹配分值可以包括颜色匹配分值、截距匹配分值或斜率匹配分值中的至少一种分值。
该第二匹配分值可以是车辆处于某个车道时各车道线参数之间的匹配分值,可以用来衡量车辆处于该车道的可能性。举例来说,在计算第二匹配分值时,先假设车辆处于某个车道(不妨设为车道1),从而得到车辆在车道1时的指定区域,然后计算车道线信息中的车道线参数与车辆在车道1时的指定区域的车道线参数之间的匹配性,得到表示车辆处于车道1时各车道线参数之间的第二匹配分值;依此类推,可以计算出车辆处于其他车道时各车道线参数之间的第二匹配分值,具体地计算方式可参考上述S204中第一匹配分值的计算过程。指定区域可以包括车辆前方5~40m的区域。需要指出的是,靠近车辆的车道线参数的置信度较大,如车辆前方10m处的车道线参数的置信度大于车辆前方20m和30m处的车道线参数的置信度。
在一个实施例中,终端将车道线信息中的车道线参数向量化,得到第一车道线参数向量;将地图数据中不同指定区域的车道线参数向量化,得到不同指定区域的第二车道线参数向量;将每个指定区域的第二车道线参数向量作为一组,将第一车道线参数向量与每组第二车道线参数向量进行匹配处理,得到每组的第二匹配分值。
对于第二匹配分值的计算步骤,具体可以包括:终端依次将车道线信息中的车道线颜色、车道线截距和车道线斜率向量化,得到第一车道线颜色向量、第一车道线截距向量和第一车道线斜率向量;将地图数据中不同指定区域的车道线颜色、车道线截距和车道线斜率向量化,得到不同指定区域各车道的第二车道线颜色向量、第二车道线截距向量和第二车道线斜率向量;将第一车道线颜色向量与第二车道线颜色向量进行匹配处理,得到颜色匹配分值;将第一车道线截距向量与第二车道线截距向量进行匹配处理,得到截距匹配分值;以及,将第一车道线斜率向量与第二车道线斜率向量进行匹配处理,得到斜率匹配分值。
此外,对于第二匹配分值的计算步骤,还可以包括:确定第一车道线参数向量与每组第二车道线参数向量之间的相关系数;其中,相关系数包括互相关系数、欧式距离、马氏距离或余弦相似度中的一种;将每组的相关系数作为第二匹配分值。
其中,互相关系数用于表示第一车道线参数向量与每组第二车道线参数向量之间的互相关性,对应的计算方式如下:
由于该车道线参数可以包括车道线截距、车道线颜色或车道线斜率中的至少一种参数,因此上述的相关系数可以是关于上述至少一种参数的相关系数。例如,可以是车道线截距的相关系数,或可以是车道线颜色的相关系数,又或可以是车道线斜率的相关系数。在得到上述至少一种参数的相关系数后,将所得的相关系数作为该至少一种参数的第二匹配分值。例如,根据相关系数可以得到颜色匹配分值、截距匹配分值或斜率匹配分值。
S208,基于第一匹配分值和第二匹配分值,确定车辆所处的车道。
在一个实施例中,终端对第一匹配分值和第二匹配分值进行加权求和,得到用于表示车辆处于不同候选车道的得分值;将满足得分条件的得分值对应的候选车道,作为车辆所处的车道。
具体地,终端获取与第一匹配分值对应的第一加权系数,以及与第二匹配分值对应的第二加权系数,然后利用第一加权系数对车辆处于每个候选车道时各车道线类型之间的第一匹配分值进行加权,得到第一加权分值;利用第二加权系数对车辆处于每个候选车道时各车道线参数之间的第二匹配分值进行加权,得到第二加权分值;其中,该第二加权分值包括颜色加权分值、截距加权分值或斜率加权分值中的至少一种;基于第一加权分值和第二加权分值确定车辆所处的车道。
在一个实施例中,在确定车辆所处的车道之后,终端可以根据该所处的车道来规划路线,以进行自动驾驶或辅助驾驶。此外,终端还可以在车辆行驶到符合变道条件的位置时,显示车道级变道指引,从而可以指引用户将所驾驶的车辆变道至可通向目标地址的车道路段上。
上述实施例中,在对车辆进行车道级定位时,计算出车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值,以及车道线信息中的车道线参数与地图数据中不同指定区域的车道线参数之间的第二匹配分值,充分考虑了车道线的各种信息,因此利用第一匹配分值和第二匹配分值可以准确地确定出车辆所处的车道,有效地提高了定位的准确性;此外,利用与行驶的道路环境对应的得分矩阵计算第一匹配分值,该得分矩阵中的分值是根据样本车辆在道路环境下采集车道线类型的准确率和召回率确定的,因此在定位时,考虑到了车辆当前行驶的道路环境以及该道路环境下车道线检测的准确率和召回率,从而可以准确且高效地实现车道级定位。
在一个实施例中,在进行定位之前,为了提高定位的准确性,还可以先对采集的车道线信息进行处理,当视觉观测到的车道线信息出现车道线遗漏时,需要添加遗漏车道线的信息;当视觉观测到的车道线信息多余的信息时,需要剔除多余的车道线信息。因此,对于车道线信息的处理,可以分以下两种场景进行说明:
场景1,当视觉观测到的车道线信息出现车道遗漏时,添加遗漏车道的信息,可参考图6,处理步骤包括:
S602,根据车道线信息中的车道线截距确定各车道的车道宽度。
其中,由于车道线截距是车辆质心到车辆左右两侧的车道线之间的距离,因此可以根据车道线截距计算出各车道的车道宽度。
S604,当存在车道宽度大于宽度阈值的目标车道时,依据车道宽度在目标车道之间添加至少一条车道线。
在一个实施例中,当存在车道宽度大于宽度阈值的目标车道时,终端依据车道宽度和宽度阈值之间的大小关系在目标车道之间添加至少一条车道线。
其中,目标道路中真实的车道宽度通常为3.5m左右,考虑到视觉观测过程中可能会出现计算误差,因此宽度阈值可以是大于3.5。
具体地,当存在车道宽度大于宽度阈值的目标车道时,终端可以根据该车道宽度在目标车道之间添加至少一条车道线,若车道宽度为宽度阈值的倍数,则可以根据该倍数确定添加的车道线数量,然后在目标车道中按照确定的车道线数量添加车道线。
例如,车道宽度为宽度阈值的2倍,说明该车道宽度是正常车道宽度的2倍,此时遗漏了一根车道线;又例如,车道宽度为宽度阈值的3倍,说明该车道宽度是正常车道宽度的3倍,此时遗漏了两根车道线。特别地,若车道宽度为宽度阈值的1倍,说明车道宽度与宽度阈值相等,则无需添加车道线。
S606,依据添加的车道线在车道线信息中新增车道线类型和车道线参数。
在一个实施例中,终端获取待补充的车道线类型和车道线参数,然后在车道线信息中新增该待补充的车道线类型和车道线参数。
为了更加清楚了解上述方案,这里结合一个具体例子进行说明,本申请定义左侧的车道线截距为正,右侧的车道线截距为负。如图7所示,车辆B位于车道3,此时车辆B的摄像头可以观测到3条车道线,此时通过视觉观测得到的车道线截距分别为 [-5.2, -1.7,5.2,无],需要指出的是[-5.2, -1.7, 5.2,无]中的第一个为右2车道线截距,第二个为右1车道线截距,第三个为左1车道线截距,第四个为左2车道线截距,由于在视觉观测时为观测到左2车道线,因此对应的车道线截距为空。然后,根据视觉观测到的车道线截距计算出左1车道线和右1车道线之间的距离(即车道宽度),该车道宽度为6.9m。假设车道均为常见的3.5m车道,6.9m与3.5m差异很大,但与3.5m×2非常接近。这种情况下,可以认定左1车道线和右1车道线之间的这个车道遗漏了一根车道线,且遗漏的车道线位于右1。由于遗漏的车道线的信息未知,因此经过处理后的车道线截距为 [-5.2,-1.7,未知,5.2],其他类型的车道线信息,例如车道线类型、车道线颜色和车道线斜率也可参考上述方式进行新增。在对视觉观测的车道线信息进行处理之后,利用处理后的车道线信息进行定位。
上述实施例中,通过对遗漏的车道线信息进行补充,从而可以利用补充后的车道线信息进行定位,可以有效地避免因遗漏的车道线信息导致定位出错的问题,有利于提高车辆定位的准确性。
场景2,当视觉观测到的车道线信息多余的信息时,剔除多余的车道线信息。
在一个实施例中,对车道线信息进行处理的步骤包括:当车道线信息中的车道线类型包含道路边缘线时,终端在车道线信息中查找位于道路边缘线外侧的车道线;将外侧的车道线对应的车道线类型和车道线参数,从车道线信息中删除。
当目标道路左侧不存在遮挡时,视觉观测到对向车道上的车道线信息。例如,如图8所示,假设车辆A位于车道1,摄像头观测到了4条车道线,车道线类型分别为[虚线,道路边缘线,虚线,虚线],需要指出的是,[虚线,道路边缘线,虚线,虚线]中的第一个为右2车道线类型,第二个为右1车道线类型,第三个为左1车道线类型,第四个为左2车道线类型。由于视觉观测到的左1车道线为道路边缘线,说明左2车道线位于车辆所在行车道之外,即左2车道线在车道1~车道4之外,因此需要剔除左2车道线,因此经过处理后的车道线类型为 [无,道路边缘线,虚线,虚线],其他类型的车道线信息,例如车道线颜色、车道线斜率和车道线截距也可以参考上述方式进行处理也是如此。实际使用中,考虑到道路边缘的准确率和召回率并非100%,因此也需要结合历史结果进行综合判断。
上述实施例中,通过对多余的车道线信息进行剔除,从而可以利用剔除处理后的车道线信息进行定位,可以有效地避免因多余的车道线信息导致定位出错的问题,有利于提高车辆定位的准确性。
在一个实施例中,如图9所示,S204具体可以包括:
S902,获取与行驶的道路环境对应的得分矩阵。
其中,该得分矩阵是由真实的车道线类型和视觉观测的车道线类型之间的分值构成的。不同道路环境可以对应不同的得分矩阵,如隧道环境的得分矩阵与非隧道环境的得分矩阵不同。需要指出的是,得分矩阵可以是方阵,如图10所示;此外,该得分矩阵也可以不是方阵,如图11所示,例如视觉观测的车道线类型少于地图数据中车道线类型时,得分矩阵并非一个方阵。
S904,将地图数据中各投影点对应的车道作为车辆所处的候选车道;投影点是将车辆的位置信息投影至地图数据中的点。
其中,该投影点可以投影到地图数据中目标道路的各车道线上,如图3所示,将这些投影点连接成一条线可得到投影线,该投影线所截取的面即为车辆当前位置所在的道路横截面。
S906,分别将车辆在各候选车道上的视场区域作为指定区域。
其中,指定区域可以是假设车辆处于某一车道时,该车辆的传感器在该车道上所能感知的区域。在每个指定区域内,横向可以包含至少一个车道,如1~5个车道,纵向可以包含摄像头在车辆的固定高度和角度下的有效观测距离,如5~70m。
S908,依据得分矩阵,依次确定车道线信息中的车道线类型与不同指定区域的车道线类型之间的第一匹配分值。
在一个实施例中,S908具体可以包括:终端将车道线信息中的车道线类型向量化,得到第一车道线类型向量;将不同指定区域的车道线类型向量化,得到不同指定区域的第二车道线类型向量;将每个指定区域的第二车道线类型向量作为一组,在得分矩阵中查询第一车道线类型向量中的元素与每组第二车道线类型向量中的元素之间的元素匹配分值;根据每组的元素匹配分值,确定车道线信息中的车道线类型与各指定区域的车道线类型之间的第一匹配分值。
上述实施例中,利用与行驶的道路环境对应的得分矩阵计算第一匹配分值,该得分矩阵中的分值是根据样本车辆在道路环境下采集车道线类型的准确率和召回率确定的,因此在定位时,考虑到了车辆当前行驶的道路环境以及该道路环境下车道线检测的准确率和召回率,从而可以准确且高效地实现车道级定位。
在一个实施例中,如图12所示,该方法还包括:
S1202,获取车辆在目标道路上行驶时的里程计数据和定位信息。
其中,里程计可以是测量行程的装置,如安装在车辆上的用于测量行程的各种类型的传感器。里程计数据是指从里程计获取到的数据,如从惯性测量单元(Inertialmeasurement unit,简称IMU)获取当前车辆在行驶过程中的里程计数据。惯性测量单元是测量物体三轴姿态角以及加速度的装置。本申请中的里程计数据可以包括里程计测量的位置数据、航向数据以及时间戳信息。
举个例子,车辆A与终端具有关联关系,则终端可以获取车辆A当前时刻在行车道路A中行驶时的里程计数据A,记为OA=(x,y,yaw),其中,x表示车辆在里程计坐标系下X轴的坐标值,y表示车辆在里程计坐标系下Y轴的坐标值,yaw表示车辆在里程计坐标系下的航向角。
定位信息可以是通过卫星定位方式获取到的车辆的位置信息,如通过北斗卫星***获取到的车辆的位置信息。
S1204,将里程计数据和定位信息进行融合,得到车辆的位置信息。
在一个实施例中,终端将里程计数据和定位信息输入至滤波器进行多源融合,从而可以得到高精度的位置信息。其中,该滤波器可以是卡尔曼滤波器。
S1206,将位置信息投影至地图数据中,得到车辆在目标道路中各车道线的投影点。
其中,车辆的位置信息投影到地图数据中,可以得到该位置信息在目标道路上每一条车道线的投影点,如图3所示,左侧第一条垂直的虚线为车辆当前位置所在的道路横截面,即车辆在目标道路上的投影线,每个焦点即为投影点;第二和第三条垂直的虚线为车辆前方10m和20m的道路横截面。
S1208,在地图数据中,选取与投影点之间的距离满足距离条件的路段。
其中,距离条件可以是距离区间,该距离区间可以是5~40m。例如,在地图数据中,选取车辆前方5~40米之内的路段,可参考图3。
S1210,确定路段内的车道线类型,并基于路段内的车道线类型确定地图数据中不同指定区域的车道线类型。
其中,指定区域可以是假设车辆处于某一车道时,该车辆的传感器在该车道上所能感知的区域。如图3所示,假设车辆处于车道1,则指定区域可以是车道1~2以及车辆前方5~40m的区域,因此在知道车辆前方5~40米之内的路段内所有车道的车道线类型,从而可以确定每个指定区域的车道线类型。
上述实施例中,将里程计数据和定位信息进行融合,可以得到高精度的位置信息,利用该高精度的位置信息投影到地图数据中,可以确定出该车辆在地图中的位置,进而可以对该位置附近的车道线类型与视觉观测到的车道线类型进行匹配,有利于提高车道级定位的精度。
在利用第一匹配分值和第二匹配分值确定车辆所处的车道时,可以采用以下两种方式来确定,具体如下:
方式1,对第一匹配分值和第二匹配分值进行加权,利用加权的结果来确定。
在一个实施例中,S208具体可以包括:终端对第一匹配分值和第二匹配分值进行加权求和,得到用于表示车辆处于不同候选车道的得分值;将满足得分条件的得分值对应的候选车道,作为车辆所处的车道。
其中,车道线类型对车辆所在车道的估计影响较大,因此在进行加权时,第一匹配分值对应的加权系数大于第二匹配分值的加权系数。
例如,假设车辆处于车道1至车道4的得分值分别为0.9、0.5、0.3和0.4,则可以确定车辆处于车道1。
方式2,将第一匹配分值和第二匹配分值转换为分布概率,利用分布概率来确定。
在一个实施例中,S208具体可以包括:终端根据第一匹配分值确定车辆所处车道的第一分布概率;依据第二匹配分值确定车辆所处车道的第二分布概率;基于第一分布概率和第二分布概率,确定融合分布概率;将满足概率条件的融合分布概率对应的候选车道,作为车辆所处的车道。
其中,第一分布概率和第二分布概率均可用于表示车辆处于不同候选车道时的可能性。其中,第一分布概率是从车道线类型的方面来衡量的,而第二分布概率是从车道线参数(如车道线颜色、车道线截距和车道线斜率中的至少一种)的方面来衡量的。融合分布概率是表示车辆处于不同候选车道时的分布概率,是从综合方面来衡量车辆处于不同候选车道的可能性。
例如,假设车辆处于车道1至车道4的融合分布概率分别为0.95、0.55、0.35和0.45,则可以确定车辆处于车道1。
在一个实施例中,如图13所示,该方法还包括:
S1302,响应于在电子地图上触发的车道级导航操作,显示车道级导航页面。
其中,车道级导航页面可以指电子地图中用于进行车道级导航的页面,该页面中以面状形式显示各车道。
S1304,确定车辆的目标地址,在目标道路中依据目标地址确定候选车道路段。
其中,候选车道路段包括至少一条用于通向目标地址的车道路段,用户在该候选车道路段中驾驶可以通向目标地址。车道路段可以指将车道进行划分所得的多个路段,如图5所示,将左侧的车道划分成多段,得到Lane(车道路段)1、Lane4和Lane7。
需要指出的是,在目标道路中,由于车道之间存在不可变道的实线,因此若在某一条不可变道的车道路段(如图14中的Lane4)上驾驶,可能无法通向目标地址,因此在进入该车道路段之前提醒用户变道至候选车道路段,以避免进入不可变道的且无法通向目标地址的车道路段。如图14所示,灰色区域的车道路段为用于通向目标地址的候选车道路段,该候选车道路段包括Lane0、Lane1、Lane2、Lane3和Lane5,而Lane4、Lane6和Lane7部署于候选车道路段。
S1306,在车道级导航页面中突出显示候选车道路段。
其中,突出显示可以指以不同于其他车道路段的显示样式进行显示,从而实现将候选车道路段与其他车道路段进行区分。例如,其他车道路段显示的是道路原始颜色(如灰色),则候选车道路段则以不同于其他车道路段的颜色进行显示;或者,在候选车道路段上显示半透明的白色遮罩,以实现将候选车道路段与其他车道路段进行区分。此外,还可以以其他方式进行显示,如图15所示。
S1308,当行驶到候选车道路段中符合变道条件的位置时,在候选车道路段上显示车道级变道指引。
其中,变道条件可以指:车辆所行驶的位置距前向交叉路的路口之间的距离不大于预设距离,此外还应当不小于预设的最小距离,如行驶的位置距离距前向交叉路的路口之间的距离小于最小距离时,车道路段之间可能为实线,无法并道而导致并道失败。该预设距离可以按照道路实际情况进行设置,例如可以是50至1000米;此外,变道条件还可以指车辆的行驶位置为发起变道请求时的位置,即用户发起变道请求时车辆所在的位置。需要指出的是,发出并道请求时所在的位置距离前向交叉路的路口不小于最小距离。
车道级变道指引可以指用于指示车辆从一条车道路段变道至另一条车道路段的指引标识,从而可以指引用户将所驾驶的车辆变道至候选车道路段。该车道级变道指引可以称为HD(High Definition,高精度)变道指引。
在一个实施例中,当行驶到候选车道路段中符合变道条件的位置时,终端该车辆前方固定长度的位置处显示车道级变道指引,从而指示用户在当前所在的位置至前方固定长度的位置之间进行变道,以使用户驾驶的车辆驶入前向交叉路。例如,车辆的前方500米有交叉路,为了提醒用户提前变道,则可以在车辆前方200米的位置处显示车道级变道指引,可参考图16。
上述实施例中,在需要进行车道级导航时,进入车道级导航页面,确定用于通向目标地址的候选车道路段,然后在电子地图的车道级导航页面中突出显示候选车道路段,从而精确地向出行对象展示出所有可行驶的车道范围,可在视觉上直观地看出所有可以通向目标地址的可行车道路段,而且在行驶到候选车道路段中符合变道条件的位置时,在该候选车道路段上显示车道级变道指引,可以提前提示出行对象进行变道,从而在使用电子地图导航时,可以准确地将出行对象操控的车辆执行到目标车道上,大大地提高了变道的准确性。
作为一个示例,为了更加清楚了解本申请的方案,这里结合图17进行说明,具体如下:
(一)对视觉观测的车道线信息进行处理。
车辆在行驶过程中,先通过视觉观测得到车道线信息,该车道线包括车道线类型、车道线颜色、车道线截距和车道线斜率,然后对视觉观测的车道线信息进行处理,处理的具体方面如下:
(1)对遗漏的车道线信息进行补充。
本申请定义左侧的车道线截距为正,右侧的车道线截距为负。如图7所示,车辆B位于车道3,此时车辆B的摄像头可以观测到3条车道线,此时通过视觉观测得到的车道线截距分别为 [-5.2, -1.7, 5.2,无]。然后,根据视觉观测到的车道线截距计算出左1车道线和右1车道线之间的距离,该距离为6.9m。假设车道均为常见的3.5m车道,6.9m与3.5m差异很大,但与3.5m*2非常接近。这种情况下,可以认定左1车道线和右1车道线之间的这个车道遗漏了一根车道线,且遗漏的车道线位于右1。由于遗漏的车道线的信息未知,因此经过处理后的车道线截距为 [-5.2,-1.7,未知,5.2],其他类型的车道线信息,例如车道线类型、车道线颜色和车道线斜率也可参考上述方式进行新增。在对视觉观测的车道线信息进行处理之后,利用处理后的车道线信息进行定位。
(2)剔除多余的车道线信息。
当目标道路左侧不存在遮挡时,视觉观测到对向车道上的车道线信息。例如,如图8所示,假设车辆A位于车道1,摄像头观测到了4条车道线,车道线类型分别为[虚线,道路边缘线,虚线,虚线]。由于视觉观测到的左1车道线为道路边缘线,说明左2车道线位于车辆所在行车道之外,因此需要剔除左2车道线,因此经过处理后的车道线类型为 [无,道路边缘线,虚线,虚线],其他类型的车道线信息,例如车道线颜色、车道线斜率和车道线截距也可以参考上述方式进行处理也是如此。实际使用中,考虑到道路边缘的准确率和召回率并非100%,因此也需要结合历史结果进行综合判断。
(二)地图数据处理。
在已知车辆当前时刻的里程计数据和定位信息之后,将里程计数据和定位信息进行融合,得到车辆的位置信息。将车辆的位置信息投影到地图数据中,可以得到位置信息在目标道路上每一条车道线的投影点,如图3所示。
其中,图3中左侧第一条纵向的虚线为车辆当前位置所在的道路横截面,该道路横截面与车辆在目标道路上的投影线对应;第二、三条纵向的虚线为车辆前方10m、20m的道路横截面。根据第一条虚线与地图数据中车道线的交点,可以得到车道线类型为 [实,虚,实,实];此外,车道线颜色、车道线截距和车道线斜率可以参照同样的方式获得。
此外,在进行地图数据处理时,还可以处理视觉的超前观测问题:
车辆前置的摄像头安装在车辆的前方,观测范围一般为车辆前方5~70m,所以视觉观测到车辆前方5~70m的车道线信息,在实际车道级定位过程中,也可以选5~40m的车道线信息进行计算和车道级定位。在读取地图数据时,除了需要从地图数据中获取车辆所在位置处的车道线信息,以及获取车辆前方的车道线信息。以图3为例,车辆前方10m的车道线类型为 [实,虚,实,实],车辆前方20m车道线类型为 [实,实,实,实],车辆前方20m车道线类型为 [实,虚,实,实,实]。
超前观测距离可以结合摄像头的性能确定,在通过地图数据获取车道线信息时,则需要获取这一范围R(如车辆前方5~70m或车辆前方5~40m)内所有不同类型的车道线信息。本申请要关注的车道线信息包括车道线类型、车道线颜色、车道线截距和车道线斜率,因此可以根据范围R内的车道线类型变化点、车道线颜色变化点和车道线斜率变化点作为分割点,逐段获取车道线信息。
(三)相关性计算。
在对视觉观测的车道线信息和地图数据中的车道线信息进行处理后,进行相关性计算,具体如下所述:
(1)总体流程。
A车实际处于车道1,此结果为待求量。
根据摄像头视觉观测的车道线信息,车辆A的车道线类型从左到右为[无,边缘,虚线,虚线];车道线颜色为[无,白,白,白];车道线截距为[无,1.7,-1.7,-5.2],其中,负数表示该车道线截距位于车辆的右侧;车道线斜率为[无,直线,直线,直线]。
假设车辆A位于车道3,也就是车辆B所在的位置。为了与摄像头视觉观测的4条线进行匹配,构建的地图信息向量的维度也为4线场景,则车道线类型为[虚线,虚线,虚线,边缘];车道线颜色为[白,白,白,白];车道线截距为[5.2,1.7,-1.7,-5.2];车道线斜率为[直线,直线,直线,直线]。
将上述的视觉信息向量和地图信息向量进行匹配计算,可以得到A车位于车道3时,视觉信息向量和地图信息向量之间的相关性(该相关性可使用匹配分值衡量)。通过遍历的方式,可以得到假设车辆A位于任意车道的匹配分值。其中,该匹配分值也可称为相关性数值。
最后,根据每个车道的匹配分值构建概率分布,并确定最优解,该最优解即为车辆A最可能所处的车道。
(2)车道线信息匹配。
根据总体流程中的视觉信息向量和地图信息向量,可以发现以下现象:
1、不同的车道线信息具备一定的独立性,例如车道线类型、车道线颜色和车道线斜率没有直接联系,车道线类型和车道线截距具备少量的相关性。
2、单独一种车道线信息,不能百分百能确定车辆所在的车道,但这一能力有强有弱。根据示例,视觉信息向量和地图信息向量在车道线颜色、车道线截距和车道线一次项上几乎没有区分度,而车道线类型上差异明显。因此,几种车道线信息应该有明显的主次之分。
(3)车道线类型、车道线颜色、车道线截距和车道线斜率的拆分。
车道线类型、车道线颜色、车道线截距和车道线斜率,可以视为车道线的属性。在描述车道线信息时,需要对车道线的属性进行拆分,从而可以避免非常复杂的多维向量匹配问题,结合图7描述如下:
车辆A的视觉观测到的车道线信息按照 [车道线类型,车道线颜色,车道线截距,车道线斜率]排列,具体如下:
[无,无,无,无];
[道路边缘线,白,1.7,直线];
[虚线,白,-1.7,直线];
[虚线,白,-5.2,直线]。
假设车辆A位于车道3,即车辆B所在的位置,则地图数据中的车道线信息如下:
[虚线,白,5.2,直线];
[虚线,白,1.7,直线];
[虚线,白,-1.7,直线];
[道路边缘线,白,-5.2,直线]。
在未经拆分的情况下,车道线信息匹配实质上是一类多维向量匹配问题。在已知视觉观测到的车道线条数最大为4的情况下,对视觉观测的车道线信息与地图数据中的车道线信息进行相关性计算,即为4×x矩阵和4×x矩阵之间的相似度计算,其中x为提取的车道线信息种类数量,本申请提取了车道线类型、车道线颜色、车道线截距和车道线斜率,即x=4。
但通过查看4×4矩阵中的元素可以发现:1)车道线颜色、车道线斜率对于道路横截面上的不同车道线,大概率是一致的;2)若道路横截面上的道路宽度符合标准,则车道线截距也不具备区分度;3)在道路横截面上,车道线类型的差异明显。因此,本申请对车道线信息的匹配问题进行了简化,不进行矩阵相似度的计算,而是对不同种类的车道线信息进行拆分,进行一维向量的匹配,也就是分别对车道线类型、车道线颜色、车道线截距和车道线斜率进行相关性的计算。
继续结合图7进行描述,具体如下。
1)视觉观测的车道线类型为[无,边缘,虚线,虚线],地图数据中的车道线类型为[ 虚线,虚线,虚线,边缘 ],这二者进行相关性计算。
2)视觉观测的车道线颜色为[无,白,白,白],地图数据中的车道线颜色为[白,白,白,白],这二者也进行相关性计算。
3)视觉观测的车道线截距为[无,1.7,-1.7,-5.2],地图数据中的车道线截距为[5.2,1.7,-1.7,-5.2 ],这二者也进行相关性计算。
4)视觉观测的车道线斜率为[无,直线,直线,直线],地图数据中的车道线斜率为[直线,直线,直线,直线] ,这二者进行相关性计算。
5)结合上述步骤1)~4)计算出的相关性,计算最终的相关性。
同时,根据上述分析,车道线类型对于最终相关性的计算起到的作用最大,因此进行5)时,可以以车道线类型的相关性为基础,将其他相关性作为辅助信息进行判断。接下来,对车道线类型、车道线颜色、车道线截距和车道线斜率的相关性计算进行介绍,具体可参考步骤(4)~(7)。
(4)车道线类型的相关性计算。
本申请将车道线信息匹配问题从多维向量或矩阵相似度计算问题,简化为多个一维向量的匹配问题。这里对各类匹配方法进行简单说明,如图18所示。
通过比较多种匹配方法,对于车道线类型的相关性计算,本申请选择蛋白质序列匹配方法,并利用滑窗实现了等长序列匹配,并按照以下步骤逐步进行实现。
1)得分矩阵的设计原理。
得分矩阵本质上是一种考虑到权重的距离计算方法。在蛋白质序列匹配中,经常使用多种类型的得分矩阵辅助实现序列的比较。本申请参考的矩阵类型为BLOSUM矩阵,图19为BLOSUM62矩阵。
BLOSUM矩阵为根据大量的观测得到,从矩阵数值上看存在以下特点:1)对应元素相同,则分数为正数,且数值绝对值大;2)对应元素不同,则分数可能为正数、0、负数,数值的绝对值无固定关系,存在明显的基于经验确定的痕迹。本申请后续将正的分数称为奖励分数,负的分数称为惩罚分数。
根据BLOSUM矩阵的特点,将其与视觉观测进行比较,得到以下结论:
a)BLOSUM矩阵是通过一系列优秀样本中总结、归纳得到的。而摄像头通过机器学习算法对视觉信息中的车道线信息进行检测,也是经过了模型训练等步骤,二者在本质上存在详细性,均是基于训练数据得到的模型结果。
b)BLOSUM矩阵在对角线上的元素为奖励分数,非对角线上的元素绝大部分为惩罚分数,少量为奖励分数;对应于视觉观测中,即车道线一维向量之间的元素相同时,给予奖励分数;元素不同时,按实际情况进行奖励或惩罚。
c)BLOSUM矩阵中奖励分数和惩罚分数的大小,说明了对应元素对蛋白质序列匹配相似度起到的作用大小。例如Trp-Trp的奖励分数为11,说明2个蛋白质序列中一旦都存在Trp,二者相对应的概率是很大的;同理,Trp-Pro的惩罚分数是-4,说明2个蛋白质序列中一旦分别存在Trp和Pro,二者不应该存在对应关系。这一点与视觉观测中的准确率、召回率有异曲同工之妙。假设实线的准确率为99.5%,而此时视觉观测到车道线类型为实线,那么这根实线应该有99.5%的概率对应于道路横截面上的一根实线,只有0.5%的概率对应于道路横截面上的其他车道线类型或此处没有线;假设实线的召回为99%,且道路横截面上存在一根实线,那么视觉观测为实线的概率为99%。视觉观测的准确率、召回率与BLOSUM矩阵中的分数起到了几乎完全一致的作用。
基于上述分析,本申请根据BLOSUM矩阵,结合实际的视觉观测结果,对得分矩阵进行了实际设计。
2)理想的得分矩阵设计。
摄像头可以检测到虚线、实线、双线、道路边缘线和护栏等。结合实际道路测试情况,摄像头对双线和护栏的检测能力较弱,本申请后续考虑单实线、单虚线、道路边缘线和其他车道线这4种类型的视觉观测结果。
结合上述分析,假设视觉观测到实线的准确率为90%,召回率为85%,则图5中第1列的含义如下:
a)地图数据中真实的车道线类型为实线,即真实世界中存在一根实线;
b)当地图数据中的车道线类型为实线,且视觉观测的车道线类型也为实线时,对应的分数为0.90,表示目标道路真实存在一根实线,视觉观测到一根实线的概率为0.90⁄(0.90+0.06+0.02+0.08)≈85%,也就是视觉观测实线的召回率为85%;其中,上述的分数也可称为得分。
c)当地图数据中的车道线类型为实线,且视觉观测的车道线类型为虚线时,对应的分数为0.06,表示目标道路真实存在一根实线,视觉观测结果为一根虚线的概率为0.06⁄(0.90+0.06+0.02+0.08)≈5.6%;依此类推,当地图数据中的车道线类型为实线,且视觉观测的车道线类型为道路边缘线或其他时,对应的分数分别为0.02和0.08,对应的概率分别为1.8%和7.6%。
此外,图5中第1行的含义如下:
a)视觉观测的车道线类型为实线,即摄像头获得了1根实线;
b)当视觉观测的车道线类型为实线,且地图数据中的车道线类型也为实线时,对应的分数为0.90,即视觉观测到一根实线,实际存在一根实线的概率为0.90⁄(0.90+0.05+0.03+0.2)=90%,也就是摄像头进行视觉观测到实线的准确率为90%;
c)当视觉观测的车道线类型为实线,且地图数据中的车道线类型为虚线时,对应的分数为0.05,即视觉观测到一根实线,实际存在一根虚线的概率为0.05⁄(0.90+0.05+0.03+0.2)=5%;依此类推,当视觉观测的车道线类型为实线,且地图数据中的车道线类型为道路边缘线或其他时,对应的分数分别为0.03和0.02,对应的概率分别为3%和2%。
通过对图5的分析表明,给定了摄像头检测实线的准确率和召回率,可以计算出得分矩阵中实线相关的分数。通过这种形式,可完整的填充整个得分矩阵。
3)实际的得分矩阵设计。
上述分析为理想情况下的得分矩阵设计方法,实际中的情况往往更加复杂,其复杂性体现在以下方面,进而导致了得分矩阵进一步的变化。
a)视觉观测的车道线类型往往只提供实线、虚线和道路边缘线等车道线的准确率和召回率,这对于得分矩阵的对角线元素、每行每列的总和有所限制,而对角线元素之外的元素需要根据大量的实测数据得到。
b)视觉观测的准确率、召回率对于得分矩阵每行每列的限制作用,并不是绝对的。因为准确率、召回率是针对全场景进行的统计,而在不同的具体场景中,这些指标会发生较大的变化,例如隧道环境中边缘的准确率会降低、多车道时虚线的准确率会降低等,又例如在车道数比较多且堵车的环境、下雨环境和导流带,视觉观测的准确率也会降低。因此得分矩阵中所有的分数实际上随着场景变化,处于一个动态变化的过程中,比较合理的做法是找到一个典型值、统计值作为打分表中的初始值。例如图5可以简化为图10。
c)视觉观测的车道线类型往往少于地图数据中的车道线类型,因此得分矩阵实际上并非一个方阵。经过实车测试发现,地图数据中某些车道线类型对应实线的概率或分数可能比较异常,例如导流带被视觉检测为直线的概率极高。因此,可以简单对方阵进行设计,形成实际可用的得分矩阵,如图11所示。该得分矩阵中的元素可以结合视觉观测的准确率、召回率和实际路侧效果进行具体调整。
4)利用得分矩阵计算车道线类型的相关性。
图11为最终设计的得分矩阵。在图11中,视觉观测的车道线类型向量为[边缘,直线,虚线,虚线];假设车辆处于车道1,则地图数据中的车道线类型向量为[无,边缘,实线,虚线];最后根据向量的对应关系,通过查询打分表,得到车道线类型向量中各元素的分数。将计算得到的4个分数向加,得到车辆处于左1车道的相关性分数。遍历道路横截面上的所有车道,最终得到车辆位于每个车道的相关性分数。
车辆位于不同车道的相关性分数,可以为我们提供2个信息:一是车辆位置的最优解,分数最大的车道即为车辆最有可能位于的车道;二是车辆位于不同车道的概率分布,可以将相关性分数转化为概率值,便于进行***拓展和适配。
(5)车道线截距的相关性计算。
在道路横截面上,由于目标道路上可能存在路肩、应急车道等宽度较窄的车道。例如视觉观测到相邻两条车道线A和车道线B之间的截距差为1.0m,与常规的车道宽度3.5m存在较大差距,且地图数据中最左侧车道存在0.5m宽的路肩,那么车道线A、B构成的车道大概率为该路肩。
由于车道线截距向量由连续的数值构成,因此无法参照车道线类型向量构建得分矩阵,可以利用图18中的其他方法计算相关性,例如欧式距离法和互相关系数法,直接计算2个等长一维向量的相关性,最终利用所有相关性构建车辆位于不同车道的分布概率。
(6)车道线颜色的相关性计算。
车道线颜色向量与车道线类型向量的计算原理相同,在实际场景中,车道线常见的颜色为白色和黄色,对于车道线颜色的相关性计算,不必设计复杂的得分矩阵。
本申请在进行车道线颜色向量的相关性计算时,利用19中的欧式距离方法或互相关系数方法进行计算。在已知视觉观测到的车道线颜色向量的前提下,假设车辆位于不同车道,分别计算欧式距离或互相关系数作为两者的相关性,最终利用所有相关性构建车辆位于不同车道的分布概率。
(7)车道线斜率的相关性计算。
由于车道线斜率向量直接由数值构成,因此不能通过得分矩阵的方式进行匹配,因此可以使用图18中的欧式距离或互相关系数方法计算相关性,利用所有相关性构建车辆位于不同车道的分布概率。
(8)概率分布融合方法。
分别从车道线类型、车道线截距、车道线颜色和车道线斜率等四个方面,计算得到了车辆位于不同车道的分布概率。对这些分布概率,通过加权相加(权重系数为乘数)、加权相乘(权重系数为指数)等多种方式进行融合,则可以得到融合后的车辆位于不同车道的分布概率,并最终得到最优解,如将最大的分布概率作为最优解,然后将最优解对应的车道作为车辆所在的车道。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本申请中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其他的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述涉及的车道级定位方法的车道级定位装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个车道级定位装置实施例中的具体限定可以参见上文中对于车道级定位方法的限定,在此不再赘述。
在一个实施例中,如图20所示,提供了一种车道级定位装置,包括:获取模块2002、第一确定模块2004、处理模块2006和第二确定模块2008,其中:
获取模块2002,用于获取车辆在行驶过程中采集的车道线信息;
第一确定模块2004,用于依据与行驶的道路环境对应的得分矩阵,确定车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;得分矩阵中的分值是根据样本车辆在道路环境下采集车道线类型的准确率和召回率确定的;
处理模块2006,用于对车道线信息中的车道线参数与地图数据中不同指定区域的车道线参数进行匹配处理,得到第二匹配分值;
第二确定模块2008,用于基于第一匹配分值和第二匹配分值,确定车辆所处的车道。
在其中的一个实施例中,车道线参数包括车道线截距;装置还包括:
第一确定模块,还用于根据车道线信息中的车道线截距确定各车道的车道宽度;
添加模块,用于依据车道宽度在目标车道之间添加至少一条车道线;依据添加的车道线在车道线信息中新增车道线类型和车道线参数。
在其中的一个实施例中,装置还包括:
查找模块,用于当车道线信息中的车道线类型包含道路边缘线时,在车道线信息中查找位于道路边缘线外侧的车道线;
删除模块,用于将外侧的车道线对应的车道线类型和车道线参数,从车道线信息中删除。
在其中的一个实施例中,装置还包括:
获取模块,还用于获取车辆在目标道路上行驶时的里程计数据和定位信息;
融合模块,用于将里程计数据和定位信息进行融合,得到车辆的位置信息;
投影模块,用于将位置信息投影至地图数据中,得到车辆在目标道路中各车道线的投影点;
选取模块,用于选取与投影点之间的距离满足距离条件的路段;
第一确定模块,还用于确定路段内的车道线类型,并基于路段内的车道线类型确定地图数据中不同指定区域的车道线类型。
在其中的一个实施例中,第一确定模块,还用于获取与行驶的道路环境对应的得分矩阵;将地图数据中各投影点对应的车道作为车辆所处的候选车道;投影点是将车辆的位置信息投影至地图数据中的点;分别将车辆在各候选车道上的视场区域作为指定区域;依据得分矩阵,依次确定车道线信息中的车道线类型与不同指定区域的车道线类型之间的第一匹配分值。
在其中的一个实施例中,第一确定模块,还用于将车道线信息中的车道线类型向量化,得到第一车道线类型向量;将不同指定区域的车道线类型向量化,得到不同指定区域的第二车道线类型向量;将每个指定区域的第二车道线类型向量作为一组,在得分矩阵中查询第一车道线类型向量中的元素与每组第二车道线类型向量中的元素之间的元素匹配分值;根据每组的元素匹配分值,确定车道线信息中的车道线类型与各指定区域的车道线类型之间的第一匹配分值。
在其中的一个实施例中,装置还包括:
第一确定模块,还用于确定样本车辆在各道路环境下采集车道线类型时的准确率和召回率;基于准确率和召回率,确定得分矩阵中对角线的分值;根据对角线的分值和目标函数确定得分矩阵中剩余元素的分值。
在其中的一个实施例中,处理模块,还用于将车道线信息中的车道线参数向量化,得到第一车道线参数向量;将地图数据中不同指定区域的车道线参数向量化,得到不同指定区域的第二车道线参数向量;将每个指定区域的第二车道线参数向量作为一组,将第一车道线参数向量与每组第二车道线参数向量进行匹配处理,得到每组的第二匹配分值。
在其中的一个实施例中,处理模块,还用于确定第一车道线参数向量与每组第二车道线参数向量之间的相关系数;其中,相关系数包括互相关系数、欧式距离、马氏距离或余弦相似度中的一种;将每组的相关系数作为第二匹配分值。
在其中的一个实施例中,第二确定模块,还用于对第一匹配分值和第二匹配分值进行加权求和,得到用于表示车辆处于不同候选车道的得分值;将满足得分条件的得分值对应的候选车道,作为车辆所处的车道。
在其中的一个实施例中,第二确定模块,还用于根据第一匹配分值确定车辆所处车道的第一分布概率;依据第二匹配分值确定车辆所处车道的第二分布概率;基于第一分布概率和第二分布概率,确定融合分布概率;融合分布概率是表示车辆处于不同候选车道时的分布概率;将满足概率条件的融合分布概率对应的候选车道,作为车辆所处的车道。
在其中的一个实施例中,车道线参数包括车道线颜色、车道线截距或车道线斜率中的至少一种参数,第二匹配分值包括颜色匹配分值、截距匹配分值或斜率匹配分值中的至少一种分值。
在其中的一个实施例中,装置还包括:显示模块,用于响应于在电子地图上触发的车道级导航操作,显示车道级导航页面;
第一确定模块,还用于确定车辆的目标地址,在目标道路中依据目标地址确定候选车道路段;候选车道路段包括至少一条用于通向目标地址的车道路段;
显示模块,还用于在车道级导航页面中突出显示候选车道路段;当行驶到候选车道路段中符合变道条件的位置时,在候选车道路段上显示车道级变道指引。
上述车道级定位装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图21所示。该计算机设备包括处理器、存储器、输入/输出接口、通信接口、显示单元和输入装置。其中,处理器、存储器和输入/输出接口通过***总线连接,通信接口、显示单元和输入装置通过输入/输出接口连接到***总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种车道级定位方法。该计算机设备的显示单元用于形成视觉可见的画面,可以是显示屏、投影装置或虚拟现实成像装置,显示屏可以是液晶显示屏或电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图21中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,该处理器执行计算机程序时实现上述车道级定位方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述车道级定位方法的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述车道级定位方法的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其他介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (28)
1.一种车道级定位方法,其特征在于,所述方法包括:
获取车辆在行驶过程中采集的车道线信息;
依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;所述得分矩阵中的分值是根据样本车辆在所述道路环境下采集车道线类型的准确率和召回率确定的;
将所述车道线信息中的车道线参数向量化,得到第一车道线参数向量;将所述地图数据中不同指定区域的车道线参数向量化,得到不同所述指定区域的第二车道线参数向量;将每个所述指定区域的第二车道线参数向量作为一组,将所述第一车道线参数向量与每组所述第二车道线参数向量进行匹配处理,得到每组的第二匹配分值;
基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道。
2.根据权利要求1所述的方法,其特征在于,所述车道线参数包括车道线截距;所述确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值之前,所述方法还包括:
根据所述车道线信息中的车道线截距确定各车道的车道宽度;
当存在所述车道宽度大于宽度阈值的目标车道时,依据所述车道宽度在所述目标车道之间添加至少一条车道线;
依据添加的车道线在所述车道线信息中新增车道线类型和车道线参数。
3.根据权利要求1所述的方法,其特征在于,所述确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值之前,所述方法还包括:
当所述车道线信息中的车道线类型包含道路边缘线时,在所述车道线信息中查找位于所述道路边缘线外侧的车道线;
将所述外侧的车道线对应的车道线类型和车道线参数,从所述车道线信息中删除。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述车辆在目标道路上行驶时的里程计数据和定位信息;
将所述里程计数据和所述定位信息进行融合,得到所述车辆的位置信息;
将所述位置信息投影至所述地图数据中,得到所述车辆在所述目标道路中各车道线的投影点;
在所述地图数据中,选取与所述投影点之间的距离满足距离条件的路段;
确定所述路段内的车道线类型,并基于所述路段内的车道线类型确定所述地图数据中不同指定区域的车道线类型。
5.根据权利要求1所述的方法,其特征在于,所述依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值包括:
获取与行驶的道路环境对应的得分矩阵;
将所述地图数据中各投影点对应的车道作为所述车辆所处的候选车道;所述投影点是将所述车辆的位置信息投影至所述地图数据中的点;
分别将所述车辆在各所述候选车道上的视场区域作为所述指定区域;
依据所述得分矩阵,依次确定所述车道线信息中的车道线类型与不同所述指定区域的车道线类型之间的第一匹配分值。
6.根据权利要求5所述的方法,其特征在于,所述依据所述得分矩阵,依次确定所述车道线信息中的车道线类型与不同所述指定区域的车道线类型之间的第一匹配分值包括:
将所述车道线信息中的车道线类型向量化,得到第一车道线类型向量;
将不同所述指定区域的车道线类型向量化,得到不同所述指定区域的第二车道线类型向量;
将每个所述指定区域的第二车道线类型向量作为一组,在所述得分矩阵中查询所述第一车道线类型向量中的元素与每组所述第二车道线类型向量中的元素之间的元素匹配分值;
根据每组的所述元素匹配分值,确定所述车道线信息中的车道线类型与各所述指定区域的车道线类型之间的第一匹配分值。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
确定所述样本车辆在各道路环境下采集车道线类型时的准确率和召回率;
基于所述准确率确定所述得分矩阵中对角线的分值;
根据所述召回率和所述对角线的分值确定所述得分矩阵中剩余元素的分值。
8.根据权利要求2所述的方法,其特征在于,所述依据所述车道宽度在所述目标车道之间添加至少一条车道线包括:
若所述车道宽度是所述宽度阈值的倍数,则根据所述倍数确定待添加的车道线数量;
在所述目标车道中按照所述车道线数量添加车道线。
9.根据权利要求1所述的方法,其特征在于,所述将所述第一车道线参数向量与每组所述第二车道线参数向量进行匹配处理,得到每组的第二匹配分值包括:
确定所述第一车道线参数向量与每组所述第二车道线参数向量之间的相关系数;其中,所述相关系数包括互相关系数、欧式距离、马氏距离或余弦相似度中的一种;
将每组的所述相关系数作为所述第二匹配分值。
10.根据权利要求1所述的方法,其特征在于,所述不同指定区域包括所述车辆处于不同的候选车道时的视场区域;所述基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道包括:
对所述第一匹配分值和所述第二匹配分值进行加权求和,得到用于表示所述车辆处于不同所述候选车道的得分值;
将满足得分条件的所述得分值对应的候选车道,作为所述车辆所处的车道。
11.根据权利要求1所述的方法,其特征在于,所述不同指定区域包括所述车辆处于不同的候选车道时的视场区域;所述基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道包括:
根据所述第一匹配分值确定所述车辆所处车道的第一分布概率;
依据所述第二匹配分值确定所述车辆所处车道的第二分布概率;
基于所述第一分布概率和所述第二分布概率,确定融合分布概率;所述融合分布概率是表示所述车辆处于不同所述候选车道时的分布概率;
将满足概率条件的所述融合分布概率对应的候选车道,作为所述车辆所处的车道。
12.根据权利要求1至11任一项所述的方法,其特征在于,所述车道线参数包括车道线颜色、车道线截距或车道线斜率中的至少一种参数,
所述第二匹配分值包括颜色匹配分值、截距匹配分值或斜率匹配分值中的至少一种分值。
13.根据权利要求1至11任一项所述的方法,其特征在于,所述方法还包括:
响应于在电子地图上触发的车道级导航操作,显示车道级导航页面;
确定所述车辆的目标地址,在目标道路中依据所述目标地址确定候选车道路段;所述候选车道路段包括至少一条用于通向所述目标地址的车道路段;
在所述车道级导航页面中突出显示所述候选车道路段;
当行驶到所述候选车道路段中符合变道条件的位置时,在所述候选车道路段上显示车道级变道指引。
14.一种车道级定位装置,其特征在于,所述装置包括:
获取模块,用于获取车辆在行驶过程中采集的车道线信息;
第一确定模块,用于依据与行驶的道路环境对应的得分矩阵,确定所述车道线信息中的车道线类型与地图数据中不同指定区域的车道线类型之间的第一匹配分值;所述得分矩阵中的分值是根据样本车辆在所述道路环境下采集车道线类型的准确率和召回率确定的;
处理模块,用于将所述车道线信息中的车道线参数向量化,得到第一车道线参数向量;将所述地图数据中不同指定区域的车道线参数向量化,得到不同所述指定区域的第二车道线参数向量;将每个所述指定区域的第二车道线参数向量作为一组,将所述第一车道线参数向量与每组所述第二车道线参数向量进行匹配处理,得到每组的第二匹配分值;
第二确定模块,用于基于所述第一匹配分值和所述第二匹配分值,确定所述车辆所处的车道。
15.根据权利要求14所述的装置,其特征在于,所述车道线参数包括车道线截距;所述装置还包括:
所述第一确定模块,还用于根据所述车道线信息中的车道线截距确定各车道的车道宽度;
添加模块,用于当存在所述车道宽度大于宽度阈值的目标车道时,依据所述车道宽度在所述目标车道之间添加至少一条车道线;依据添加的车道线在所述车道线信息中新增车道线类型和车道线参数。
16.根据权利要求14所述的装置,其特征在于,所述装置还包括:
查找模块,用于当所述车道线信息中的车道线类型包含道路边缘线时,在所述车道线信息中查找位于所述道路边缘线外侧的车道线;
删除模块,用于将所述外侧的车道线对应的车道线类型和车道线参数,从所述车道线信息中删除。
17.根据权利要求14所述的装置,其特征在于,所述装置还包括:
所述获取模块,还用于获取所述车辆在目标道路上行驶时的里程计数据和定位信息;
融合模块,用于将所述里程计数据和所述定位信息进行融合,得到所述车辆的位置信息;
投影模块,用于将所述位置信息投影至所述地图数据中,得到所述车辆在所述目标道路中各车道线的投影点;
选取模块,用于在所述地图数据中,选取与所述投影点之间的距离满足距离条件的路段;
所述第一确定模块,还用于确定所述路段内的车道线类型,并基于所述路段内的车道线类型确定所述地图数据中不同指定区域的车道线类型。
18.根据权利要求14所述的装置,其特征在于,所述第一确定模块,还用于获取与行驶的道路环境对应的得分矩阵;将所述地图数据中各投影点对应的车道作为所述车辆所处的候选车道;所述投影点是将所述车辆的位置信息投影至所述地图数据中的点;分别将所述车辆在各所述候选车道上的视场区域作为所述指定区域;依据所述得分矩阵,依次确定所述车道线信息中的车道线类型与不同所述指定区域的车道线类型之间的第一匹配分值。
19.根据权利要求18所述的装置,其特征在于,所述第一确定模块,还用于将所述车道线信息中的车道线类型向量化,得到第一车道线类型向量;将不同所述指定区域的车道线类型向量化,得到不同所述指定区域的第二车道线类型向量;将每个所述指定区域的第二车道线类型向量作为一组,在所述得分矩阵中查询所述第一车道线类型向量中的元素与每组所述第二车道线类型向量中的元素之间的元素匹配分值;根据每组的所述元素匹配分值,确定所述车道线信息中的车道线类型与各所述指定区域的车道线类型之间的第一匹配分值。
20.根据权利要求14所述的装置,其特征在于,所述装置还包括:
所述第一确定模块,还用于确定所述样本车辆在各道路环境下采集车道线类型时的准确率和召回率;基于所述准确率确定所述得分矩阵中对角线的分值;根据所述召回率和所述对角线的分值确定所述得分矩阵中剩余元素的分值。
21.根据权利要求15所述的装置,其特征在于,所述添加模块,还用于若所述车道宽度是所述宽度阈值的倍数,则根据所述倍数确定待添加的车道线数量;在所述目标车道中按照所述车道线数量添加车道线。
22.根据权利要求14所述的装置,其特征在于,所述处理模块,还用于确定所述第一车道线参数向量与每组所述第二车道线参数向量之间的相关系数;其中,所述相关系数包括互相关系数、欧式距离、马氏距离或余弦相似度中的一种;将每组的所述相关系数作为所述第二匹配分值。
23.根据权利要求14所述的装置,其特征在于,所述不同指定区域包括所述车辆处于不同的候选车道时的视场区域;所述第二确定模块,还用于对所述第一匹配分值和所述第二匹配分值进行加权求和,得到用于表示所述车辆处于不同所述候选车道的得分值;将满足得分条件的所述得分值对应的候选车道,作为所述车辆所处的车道。
24.根据权利要求14所述的装置,其特征在于,所述不同指定区域包括所述车辆处于不同的候选车道时的视场区域;
所述第二确定模块,还用于根据所述第一匹配分值确定所述车辆所处车道的第一分布概率;依据所述第二匹配分值确定所述车辆所处车道的第二分布概率;基于所述第一分布概率和所述第二分布概率,确定融合分布概率;所述融合分布概率是表示所述车辆处于不同所述候选车道时的分布概率;将满足概率条件的所述融合分布概率对应的候选车道,作为所述车辆所处的车道。
25.根据权利要求14至24任一项所述的装置,其特征在于,所述车道线参数包括车道线颜色、车道线截距或车道线斜率中的至少一种参数,
所述第二匹配分值包括颜色匹配分值、截距匹配分值或斜率匹配分值中的至少一种分值。
26.根据权利要求14至24任一项所述的装置,其特征在于,所述装置还包括:
显示模块,用于响应于在电子地图上触发的车道级导航操作,显示车道级导航页面;
所述第一确定模块,还用于确定所述车辆的目标地址,在目标道路中依据所述目标地址确定候选车道路段;所述候选车道路段包括至少一条用于通向所述目标地址的车道路段;
所述显示模块,还用于在所述车道级导航页面中突出显示所述候选车道路段;当行驶到所述候选车道路段中符合变道条件的位置时,在所述候选车道路段上显示车道级变道指引。
27.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至13中任一项所述的方法的步骤。
28.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至13中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211107287.9A CN115203352B (zh) | 2022-09-13 | 2022-09-13 | 车道级定位方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211107287.9A CN115203352B (zh) | 2022-09-13 | 2022-09-13 | 车道级定位方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115203352A CN115203352A (zh) | 2022-10-18 |
CN115203352B true CN115203352B (zh) | 2022-11-29 |
Family
ID=83572652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211107287.9A Active CN115203352B (zh) | 2022-09-13 | 2022-09-13 | 车道级定位方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115203352B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115830562B (zh) * | 2022-12-12 | 2024-05-24 | 昆易电子科技(上海)有限公司 | 车道信息的确定方法、计算机设备及介质 |
CN115962787B (zh) * | 2023-03-16 | 2023-06-06 | 安徽蔚来智驾科技有限公司 | 地图更新、自动驾驶控制方法、设备、介质及车辆 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190587A (zh) * | 2018-09-19 | 2019-01-11 | 宽凳(北京)科技有限公司 | 对车道线数据正确率和召回率进行评估的方法和*** |
CN110110029A (zh) * | 2019-05-17 | 2019-08-09 | 百度在线网络技术(北京)有限公司 | 用于匹配车道的方法和装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8892347B1 (en) * | 2013-06-01 | 2014-11-18 | Savari, Inc. | System and method for node adaptive filtering and congestion control for safety and mobility applications toward automated vehicles system |
CN110160542B (zh) * | 2018-08-20 | 2022-12-20 | 腾讯科技(深圳)有限公司 | 车道线的定位方法和装置、存储介质、电子装置 |
US20200082561A1 (en) * | 2018-09-10 | 2020-03-12 | Mapbox, Inc. | Mapping objects detected in images to geographic positions |
US11227168B2 (en) * | 2019-01-08 | 2022-01-18 | Qualcomm Incorporated | Robust lane association by projecting 2-D image into 3-D world using map information |
CN111750878B (zh) * | 2019-03-28 | 2022-06-24 | 北京魔门塔科技有限公司 | 一种车辆位姿的修正方法和装置 |
CN110516652B (zh) * | 2019-08-30 | 2023-04-18 | 北京百度网讯科技有限公司 | 车道检测的方法、装置、电子设备及存储介质 |
CN110595490B (zh) * | 2019-09-24 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | 车道线感知数据的预处理方法、装置、设备和介质 |
CN112415552B (zh) * | 2020-11-17 | 2022-04-15 | 北京百度网讯科技有限公司 | 车辆位置的确定方法、装置及电子设备 |
CN113916242B (zh) * | 2021-12-14 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 车道定位方法和装置、存储介质及电子设备 |
CN114252897A (zh) * | 2021-12-30 | 2022-03-29 | 阿里巴巴新加坡控股有限公司 | 定位方法、装置、电子设备及计算机存储介质 |
CN114332225A (zh) * | 2021-12-30 | 2022-04-12 | 东风汽车有限公司东风日产乘用车公司 | 车道线匹配定位方法、电子设备及存储介质 |
-
2022
- 2022-09-13 CN CN202211107287.9A patent/CN115203352B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190587A (zh) * | 2018-09-19 | 2019-01-11 | 宽凳(北京)科技有限公司 | 对车道线数据正确率和召回率进行评估的方法和*** |
CN110110029A (zh) * | 2019-05-17 | 2019-08-09 | 百度在线网络技术(北京)有限公司 | 用于匹配车道的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115203352A (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115203352B (zh) | 车道级定位方法、装置、计算机设备和存储介质 | |
Maddern et al. | 1 year, 1000 km: The oxford robotcar dataset | |
EP3343503B1 (en) | High-precision map data processing method and apparatus, storage medium and device | |
CN110287276A (zh) | 高精地图更新方法、装置及存储介质 | |
CN107690840B (zh) | 无人机视觉辅助导航方法及*** | |
CN108089572A (zh) | 用于稳健且有效的车辆定位的算法和基础设施 | |
CN112699834B (zh) | 交通标识检测方法、装置、计算机设备和存储介质 | |
EP4184119A1 (en) | Travelable region determination method, intelligent driving system and intelligent vehicle | |
CN114299464A (zh) | 车道定位方法、装置及设备 | |
Vishal et al. | Accurate localization by fusing images and GPS signals | |
WO2022062480A1 (zh) | 移动设备的定位方法和定位装置 | |
CN111931683A (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN113340312A (zh) | 一种ar室内实景导航方法及*** | |
CN114802261A (zh) | 泊车控制方法、障碍物识别模型训练方法、装置 | |
CN115344655A (zh) | 地物要素的变化发现方法、装置及存储介质 | |
CN114758086A (zh) | 一种城市道路信息模型的构建方法及装置 | |
Xuqin | Application of network protocol improvement and image content search in mathematical calculus 3D modeling video analysis | |
WO2024104012A1 (zh) | 一种车道定位方法、装置、计算机设备、计算机可读存储介质及计算机程序产品 | |
Zhao et al. | Improving autonomous vehicle visual perception by fusing human gaze and machine vision | |
CN115311867B (zh) | 隧道场景的定位方法、装置、计算机设备、存储介质 | |
CN116258820B (zh) | 大规模城市点云数据集与建筑单体化构建方法及相关装置 | |
CN115409910A (zh) | 一种语义地图构建方法、视觉定位方法及相关设备 | |
CN116778347A (zh) | 数据更新方法、装置、电子设备和存储介质 | |
CN114419338B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
Valiente et al. | Robust perception and visual understanding of traffic signs in the wild |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40075298 Country of ref document: HK |