CN116295469A - 高精地图的生成方法、装置、设备及存储介质 - Google Patents
高精地图的生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116295469A CN116295469A CN202310567319.1A CN202310567319A CN116295469A CN 116295469 A CN116295469 A CN 116295469A CN 202310567319 A CN202310567319 A CN 202310567319A CN 116295469 A CN116295469 A CN 116295469A
- Authority
- CN
- China
- Prior art keywords
- feature
- image
- aerial view
- point cloud
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000004927 fusion Effects 0.000 claims abstract description 87
- 230000011218 segmentation Effects 0.000 claims abstract description 43
- 238000007499 fusion processing Methods 0.000 claims abstract description 16
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 80
- 238000012545 processing Methods 0.000 claims description 63
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 62
- 238000000605 extraction Methods 0.000 claims description 48
- 238000010586 diagram Methods 0.000 claims description 38
- 238000005070 sampling Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 5
- 241000905137 Veronica schmidtiana Species 0.000 claims 1
- 230000008569 process Effects 0.000 description 21
- 230000007246 mechanism Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 241000274965 Cyrestis thyodamas Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3878—Hierarchical structures, e.g. layering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种高精地图的生成方法、装置、设备及存储介质,属于涉及计算机技术领域。所述方法包括:获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰图像特征是基于待处理的图像帧获取的,所述鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的,对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征,利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层,基于多个所述地图元素图层,生成所述高精地图。本申请实现了提升高精地图的生成效率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及智能交通和自动驾驶等技术领域,特别涉及一种高精地图的生成方法、装置、设备及存储介质。
背景技术
高精地图是目前自动驾驶技术的重要组成模块之一,是支撑自动驾驶感知、以及规划与控制(Planning and Control, PNC)的重要技术方向。高精地图的精度直接影响到自动驾驶的安全性。
目前,高精地图的生成方式从大类别上主要分为两类:高精地图的离线生成方式和高精地图的在线生成方式。
具体地,高精地图的离线生成的方式不用考虑算力和实时性。通常会使用采集车收集自动驾驶路段的激光雷达点云与图像信息,再离线对进行点云和图像的拼接,还原采集车采集到的环境信息,进而通过一定的算法与人工标注,形成矢量化的车道线,道路边界,停止线,人行横道等关键交通要素,保存为固定的高精地图文件供其他算法使用。高精地图的在线生成方式是基于自动驾驶车辆的视觉和激光雷达等信息直接通过端到端的模式输出高精地图的相关矢量。
发明内容
本申请提供了一种高精地图的生成方法、装置、设备及存储介质,解决了高精地图的生成效率较低的问题,所述技术方案如下:
第一方面,提供了一种高精地图的生成方法,所述方法包括:
获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰图像特征是基于待处理的图像帧获取的,所述鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的;
对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征;
利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层;
基于多个所述地图元素图层,生成所述高精地图。
在一种可能的实现方式中,所述获取鸟瞰图像特征,包括:
获取所述待处理的图像帧;
对所述待处理的图像帧进行特征提取处理,以获得图像特征;
利用预设的标定关系,对所述图像特征进行筛选处理,以获得筛选后的图像特征;
对所述筛选后的图像特征进行交叉注意力处理,以获取所述鸟瞰图像特征。
在一种可能的实现方式中,获取所述鸟瞰点云特征,包括:
获取与待处理的图像帧对应的待处理的点云帧;
利用鸟瞰特征提取算法,对所述待处理的点云帧进行特征提取处理,以获取所述鸟瞰点云特征。
在一种可能的实现方式中,所述对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征,包括:
将所述鸟瞰图像特征和所述鸟瞰点云特征,输入预设的特征融合网络,以获得所述鸟瞰融合特征,其中,
所述鸟瞰融合特征包括连续帧的鸟瞰融合特征。
在一种可能的实现方式中,所述预设的地图元素分割模型包括自注意力网络、特征金字塔网络、以及上采样网络,所述利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层,包括:
将所述鸟瞰融合特征输入所述自注意力网络,获得所述鸟瞰融合特征对应的自注意力特征;
将所述自注意力特征输入所述特征金字塔网络,获得所述自注意力特征对应的特征提取结果;
将所述自注意力特征对应的特征提取结果输入所述上采样网络,获得多个所述地图元素图层。
在一种可能的实现方式中,所述基于多个所述地图元素图层,生成所述高精地图,包括:
利用预设的边缘提取策略,分别对各个所述地图元素图层进行边缘提取处理,以获得各个所述地图元素图层的边缘信息;
对各个所述地图元素图层的边缘信息进行矢量化处理,以生成所述高精地图。
在一种可能的实现方式中,所述基于多个所述地图元素图层,生成所述高精地图,还包括:
分别将各个所述地图元素图层输入该地图元素图层对应的预先训练的矢量图生成模型,生成各个所述地图元素图层对应的矢量图;
基于各个所述地图元素图层对应的矢量图,生成所述高精地图。
第二方面,提供了一种高精地图的生成装置,所述装置包括:
获取单元,用于获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰图像特征是基于待处理的图像帧获取的,所述鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的;
融合单元,用于对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征;
分割单元,用于利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层;
生成单元,用于基于多个所述地图元素图层,生成所述高精地图。
第三方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上如上所述的方面和任一可能的实现方式的方法。
第四方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方面和任一可能的实现方式的方法。
第五方面,提供了一种自动驾驶车辆,包括如上所述的电子设备。
本申请提供的技术方案的有益效果至少包括:
由上述技术方案可知,本申请实施例可以通过获取鸟瞰图像特征和鸟瞰点云特征,该鸟瞰图像特征是基于待处理的图像帧获取的,该鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的,并对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征,进而可以利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层,使得能够基于多个所述地图元素图层,生成所述高精地图,由于先对融合后的鸟瞰图像特征和鸟瞰点云特征进行地图元素的分割处理,得到各个地图元素图层,再基于各个地图元素图层生成最终的高精地图,可以实现分两个阶段生成高精地图,避免了使用对算力要求较高的端到端的模型来生成高精地图,提升了高精地图的生成效率的同时,保证了所生成的高精地图的可靠性。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的高精地图的生成方法的流程示意图;
图2是本申请另一个实施例提供的高精地图的生成方法的流程示意图;
图3是本申请另一个实施例提供的获取鸟瞰图像特征的示意图;
图4是本申请另一个实施例提供的获得鸟瞰融合特征的示意图;
图5是本申请另一个实施例提供的获得分割结果的示意图;
图6是本申请另一个实施例提供的获得三种地图元素矢量图的示意图;
图7是本申请再一实施例提供的高精地图的生成装置的结构框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中所涉及的终端设备可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(TabletComputer)等智能设备;显示设备可以包括但不限于个人电脑、电视等具有显示功能的设备。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
目前,在自动驾驶中广泛使用的高精地图的离线生成方式是基于人工标注的离线制图的方式。具体是对道路边界,车道线等地图元素信息进行人工标注,生成所需的高精地图。但是由于离线生成地图的方式需要数据采集和地图制作,在采集或者制作地图的过程中,道路环境由于修路或者其他原因很可能已经改变,因此离线生成地图的方式难以满足实时性需求。同时,自动驾驶车辆在某个区域进行自动驾驶之前,需要先用采集车收集该区域的数据,流程比较繁琐,很大程度上制约了自动驾驶的广泛应用。
另外,高精地图的在线生成方式是基于自动驾驶车辆的视觉和激光雷达等采集的数据信息直接通过端到端的生成模式输出高精地图的相关矢量。其中,端到端的生成模式可以指的是直接采集的原始数据输入地图生成模型,让模型自己去学习特征,最后输出结果,即得到所需的高精地图。但是,在线端到端的生成方式对地图生成模型的要求比较高,模型的复杂度较高,这会导致较高的算力成本,难以在低成本的方案中得到落地应用。
因此,亟需提供一种高精地图的生成方法,能够快速有效地生成高精地图,从而保证高精地图生成的可靠性。
请参考图1,其示出了本申请一个实施例提供的高精地图的生成方法的流程示意图。该高精地图的生成方法,具体可以包括:
步骤101、获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰点云特征是基于待处理的图像帧获取的,鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的。
步骤102、对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征。
步骤103、利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层。
步骤104、基于多个所述地图元素图层,生成所述高精地图。
需要说明的是,与待处理的图像帧对应的待处理的点云帧可以是与待处理的图像帧的时间点对应的待处理的点云帧。例如,t时刻的待处理的图像帧和t时刻的待处理的点云帧。
可以理解的是,这里,可以获取至少一帧的待处理的图像帧、以及至少一帧的与待处理的图像帧的时间点对应的待处理的点云帧。
需要说明的是,高精地图除了包括普通地图都有的元素之外,还可以包含路灯、护栏、红绿灯等几十个甚至上百个要素/元素的信息。而且,对于道路也会有更为丰富的车道、路口的精细信息。高精地图一般是矢量化的,即用一个矢量表示一段道路的属性信息。
这里,地图元素可以包括但不限于路肩,车道线,人行横道,停止线,道路直行和转弯标记等。这些地图元素是组成高精地图的关键部分。地图元素图层可以是地图元素对应的图层,例如,路肩图层,车道线图层等。
需要说明的是,步骤101~104的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式***,例如,网络侧的自动驾驶平台中的处理引擎或者分布式***等,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
这样,可以通过获取鸟瞰图像特征和鸟瞰点云特征,该鸟瞰图像特征是基于待处理的图像帧获取的,该鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的,并对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征,进而可以利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层,使得能够基于多个所述地图元素图层,生成所述高精地图,由于先对融合后的鸟瞰图像特征和鸟瞰点云特征进行地图元素的分割处理,得到各个地图元素图层,再基于各个地图元素图层生成最终的高精地图,可以实现分两个阶段生成高精地图,避免了使用对算力要求较高的端到端的模型来获得高精地图,提升了高精地图的生成效率的同时,保证了所生成的高精地图的可靠性。
可选地,在本实施例的一个可能的实现方式中,在步骤101中,具体可以获取所述待处理的图像帧,进而对所述待处理的图像帧进行特征提取处理,以获得图像特征,使得能够利用预设的标定关系,对所述图像特征进行筛选处理,以获得筛选后的图像特征,最后对所述筛选后的图像特征进行交叉注意力处理,以获取所述鸟瞰图像特征。
在本实现方式中,待处理的图像帧可以包括自动驾驶车辆当前行驶环境的同一时刻的图像帧。该图像帧可以是同一时刻的多视角的图像帧集合。
在该实现方式的一个具体实现过程中,可以利用自动驾驶车辆车载的环视相机,实时采集的当前行驶环境的图像帧,即待处理的图像帧。
在该实现方式的另一个具体实现过程中,可以利用预设的特征提取网络,对所述待处理的图像帧进行特征提取处理,以获得图像特征。
在本具体实现过程中,预设的特征提取网络可以包括但不限于基于卷积神经网络(Convolutional Neural Networks, CNN)的特征提取网络、基于特征金字塔网络(FeaturePyramid Networks, FPN)的特征提取网络。
在本具体实现过程中,图像特征可以是待处理的图像帧对应的图像的高维特征,即高维图像特征。
可以理解的是,高维特征是由低维特征组合而成的更结构化、更复杂的特征。
在本实现方式中,预设的标定关系可是预设的相机和激光雷达的标定矩阵。该标定矩阵可以表征相机和激光雷达之间的坐标系的转换关系。该标定矩阵可以用于相机和激光雷达之间的坐标系的转换。
在该实现方式的再一个具体实现过程中,可以利用预设的相机和激光雷达的标定矩阵,对所述图像特征进行筛选处理,以获得筛选后的图像特征。
在本具体实现过程中,筛选后的图像特征是可用于进行交叉注意力处理的特征信息。
在该实现方式的再一个具体实现过程中,可以基于交叉注意力机制(crossattention),对所述筛选后的图像特征进行交叉注意力处理,以获取所述鸟瞰图像特征。
这里,鸟瞰图像特征可以是鸟瞰视角下的图像特征,即bev图像特征。该bev图像特征可以是鸟瞰角度的高维图像特征。
这样,可以通过先利用标定关系对图像特征筛选,再基于交叉注意力机制,对筛选后的图像特征进行交叉注意力处理,得到鸟瞰图像特征,可以减少生成鸟瞰图像特征时,交叉注意力机制所处理的特征信息量,减少了处理过程的耗时,从而提升了获得鸟瞰图像特征的效率。
可选地,在本实施例的一个可能的实现方式中,在步骤101中,具体可以获取与待处理的图像帧对应的待处理的点云帧,进而可以利用鸟瞰特征提取算法,对所述待处理的点云帧进行特征提取处理,以获取所述鸟瞰点云特征。
在本实现方式中,鸟瞰特征提取算法可以包括基于点柱(pointpillar)的鸟瞰特征提取算法、基于体素网络的鸟瞰特征提取算法等。
在该实现方式的一个具体实现过程中,利用基于pointpillar的鸟瞰特征提取算法,对所述待处理的点云帧进行特征提取处理,以获取所述鸟瞰点云特征。
这里,鸟瞰图像特征可以是鸟瞰视角下的点云特征,即bev点云特征。
这样,可以通过利用鸟瞰特征提取算法,对待处理的图像帧对应的待处理的点云帧进行鸟瞰特征提取处理,获得更加准确有效地鸟瞰点云特征,以便于后续可以获得更加准确有效地鸟瞰融合特征。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的高精地图的生成方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在步骤102中,具体可以将所述鸟瞰图像特征和所述鸟瞰点云特征,输入预设的特征融合网络,以获得所述鸟瞰融合特征,其中,所述鸟瞰融合特征包括连续帧的鸟瞰融合特征。
在本实现方式中,预设的特征融合网络可以包括基于交叉注意力机制的特征融合网络和基于多层感知器(Multilayer Perceptron, MLP)的特征融合网络。
在该实现方式的一个具体实现过程中,可以将所述鸟瞰图像特征和所述鸟瞰点云特征,输入基于交叉注意力机制的特征融合网络,输出融合特征以作为所述鸟瞰融合特征。
在该实现方式的另一个具体实现过程中,可以将所述鸟瞰图像特征和所述鸟瞰点云特征,输入基于MLP的特征融合网络,输出融合特征以作为所述鸟瞰融合特征。
在本实现方式中,鸟瞰图像特征可以包括多帧连续的图像帧对应的鸟瞰图像特征,即连续帧的鸟瞰图像特征。鸟瞰点云特征可以包括与多帧连续的图像帧一一对应的多帧连续的点云帧对应的鸟瞰点云特征,即连续帧的鸟瞰点云特征。这里,基于连续帧的图像帧与点云帧对,可以得到连续帧的鸟瞰图像特征与鸟瞰点云特征对。相应地,对连续帧的每一帧的鸟瞰图像特征和鸟瞰点云特征进行特征融合处理后,可以得到连续帧的鸟瞰融合特征。该鸟瞰融合特征可以包括连续帧的鸟瞰融合特征。
这样,可以通过对连续帧的鸟瞰图像特征和鸟瞰点云特征,分别进行特征融合处理,得到连续帧的鸟瞰融合特征,以保证后续基于连续帧的鸟瞰融合特征所获得各个地图元素的准确性、以及各个地图元素图层的质量,从而进一步地提升了生成的高精地图的可靠性和准确性。
可以理解的是,这里,也可以对非连续帧的鸟瞰图像特征和鸟瞰点云特征,进行特征融合处理,得到融合处理后的鸟瞰融合特征。具体可以根据实际地图业务需求、或者实际应用场景和硬件条件,确定所要融合鸟瞰图像特征和鸟瞰点云特征,在此可以不做具体限定。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的高精地图的生成方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,所述预设的地图元素分割模型包括自注意力网络、特征金字塔网络、以及上采样网络。在步骤103中,首先,可以将所述鸟瞰融合特征输入所述自注意力网络,获得所述鸟瞰融合特征对应的自注意力特征。其次,将所述自注意力特征输入所述特征金字塔网络,获得所述自注意力特征对应的特征提取结果。再次,将所述自注意力特征对应的特征提取结果输入所述上采样网络,获得多个所述地图元素图层。
在本实现方式中,自注意力网络可以是基于自注意力机制(self attention)的网络。特征金字塔网络可以是FPN网络。
这样,可以通过利用包括了自注意力网络、特征金字塔网络、以及上采样网络的预设的地图元素分割模型,对鸟瞰融合特征进行道路的地图元素分割处理,得到各个地图元素图层,由于自注意力网络可以建立全局的依赖关系,扩大特征信息的感受野,可以获得更多历史帧的特征信息,提升了对鸟瞰融合特征的分割结果的准确性。并且,该预设的地图元素分割模型的结构更加简单,从而进一步地提升了对鸟瞰融合特征的分割处理的效率,降低了算力成本。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的高精地图的生成方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在步骤104中,具体可以利用预设的边缘提取策略,分别对各个所述地图元素图层进行边缘提取处理,以获得各个所述地图元素图层的边缘信息,进而可以对各个所述地图元素图层的边缘信息进行矢量化处理,以生成所述高精地图。
在本实现方式中,获得分割结果,即各个所述地图元素图层之后,首先,可以利用边缘提取策略,分别对各个所述地图元素图层进行边缘提取处理,得到各个所述地图元素图层的边缘信息。然后,可以对各个所述地图元素图层的边缘信息进行矢量化处理,得到矢量化处理的结果,以根据矢量化处理的结果,生成所述高精地图。
可以理解的是,也可以利用其他预先配置的图层处理策略或规则,对分割结果进行图层处理,生成高精地图。具体地,可以根据实际的地图业务的需求,或,地图生成的应用场景条件,确定对分割结果的处理策略或规则,在此可以不做具体限定。
可选地,在本实施例的一个可能的实现方式中,在步骤104中,还可以分别将各个所述地图元素图层输入该地图元素图层对应的预先训练的矢量图生成模型,生成各个所述地图元素图层对应的矢量图,基于各个所述地图元素图层对应的矢量图,生成所述高精地图。
在本实现方式中,地图元素图层对应的预先训练的矢量图生成模型可以是利用该地图元素图层的样本数据所预先训练得到该地图元素矢量图生成模型。地图元素图层对应的预先训练的矢量图生成模型可以用于预测该地图元素图层对应的矢量图,以根据预测结果生成该地图元素的矢量图。
具体地,预先训练的矢量图生成模型可以是基于头(head)网络的矢量图生成模型。该head网络的结构可以包括但不限于MLP,CNN,编码器(Transformer),循环神经网络(Recurrent Neural Network, RNN)等。
示例性的,若地图元素为车道线,预先训练的矢量图生成模型可以是车道线的矢量图生成模型。将车道线图层输入车道线的矢量图生成模型,可以获得车道线矢量图。
这样,可以通过各个地图元素图层对应的预先训练的矢量图生成模型,生成各个地图元素图层对应的矢量图,再基于各个所述地图元素图层对应的矢量图,生成最终的高精地图,由于各个矢量图生成模型可以对各个地图元素图层进一步地进行优化处理,输出质量更佳的各个地图元素的矢量图,从而进一步地提升了生成的高精地图的质量。
而且,通过采用预设的图层处理策略,或矢量图生成模型的预测模式,生成高精地图,可以方便对融合特征的分割结果进行监督,从而进一步地提升了多生成的高精地图质量,还可以方便在各类应用场景和硬件环境下执行该高精地图的生成方法,从而更加便于该高精地图的生成方法的落地实施。
需要说明的是,本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的多种具体实现过程,来实现本实施例的高精地图的生成方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
为了更好地理解本申请实施例的方法,下面结合附图和具体应用场景对本申请实施例的方法进行说明。
图2是本申请另一个实施例提供的高精地图的生成方法的流程示意图,如图2所示。
步骤201、获取待处理的图像帧。
在本实施例中,这里,可以至少一帧的待处理的图像帧。
步骤202、对待处理的图像帧进行特征提取处理,以获得图像特征。
步骤203、利用预设的标定关系,对图像特征进行筛选处理,以获得筛选后的图像特征。
步骤204、对筛选后的图像特征进行交叉注意力处理,以获取鸟瞰图像特征。
在本实施例中,待处理的图像帧可以是自动驾驶车辆环视相机在同一时刻拍摄的图像集合。图3是本申请一个实施例提供的获取鸟瞰图像特征的示意图,如图3所示。待处理的图像帧(image),即当前帧的环视图像信息。
具体地,首先,通过卷积神经网络或FPN可以从图像帧(image)转换到图像的高维特征(image feature),即图像特征。其次,预设的标定关系可以是相机-激光雷达标定矩阵,进而可以利用相机-激光雷达标定矩阵对图像特征(image feature)进行筛选,并基于交叉注意力(cross attention)机制对筛选后的图像特征(image feature)进行处理,得到鸟瞰图像特征(BEV Feature),即鸟瞰(BEV)视角下的图像高维特征。第i帧的鸟瞰图像特征可以记为Fimg。
步骤205、获取与待处理的图像帧对应的待处理的点云帧。
在本实施例中,这里,可以至少一帧的与待处理的图像帧对应的待处理的点云帧。
步骤206、利用鸟瞰特征提取算法,对待处理的点云帧进行特征提取处理,以获取鸟瞰点云特征。
在本实施例中,可以利用pointpillar算法,对待处理的点云帧进行特征提取处理,得到鸟瞰点云特征,该鸟瞰点云特征可以记为Flidar。
可以理解的是,也可以先对待处理的点云帧,在对与待处理的点云帧对应的待处理的图像帧进行处理,两者的处理顺序可以不做具体限定。
步骤207、将鸟瞰图像特征和鸟瞰点云特征,输入预设的特征融合网络,以获得连续帧的鸟瞰融合特征。
在本实施例中,图4是本申请一个实施例提供的获得鸟瞰融合特征的示意图,如图4所示。
这里,预设的特征融合网络可以是基于交叉注意力(cross attention)机制的特征融合网络。采用基于交叉注意力(cross attention)机制的特征融合网络,将鸟瞰图像特征Fimg和鸟瞰点云特征Flidar进行融合,得到融合后的鸟瞰融合特征Fmerge,该鸟瞰融合特征也是高维特征。
在本实施例中,通过步骤201-207,可以获得连续帧的鸟瞰融合特征,该鸟瞰融合特征可以表示为Fmerge(i-n),…,Fmerge(i),其中,Fmerge(i-n)可以表示第n帧的鸟瞰融合特征。
步骤208、利用预设的地图元素分割模型,对鸟瞰融合特征进行分割处理,以获得多个地图元素图层,预设的地图元素分割模型包括自注意力网络、特征金字塔网络、以及上采样网络。
在本实施例中,图5是本申请一个实施例提供的获得分割结果的示意图,如图5所示。
这里,可以将连续帧的鸟瞰融合特征Fmerge(i),Fmerge(…),Fmerge(i-n)输入预设的地图元素分割模型,分别经过该预设的地图元素分割模型的自注意力网络(selef attention)、特征金字塔网络(FPN)、以及上采样网络的处理,得到分割结果,即得到多个地图元素图层。
步骤209、利用预设的边缘提取策略,分别对各个地图元素图层进行边缘提取处理,以获得各个地图元素图层的边缘信息,并对各个地图元素图层的边缘信息进行矢量化处理,以生成高精地图。
步骤210、或者,分别将各个地图元素图层输入该地图元素图层对应的预先训练的矢量图生成模型,生成各个地图元素图层对应的矢量图,以基于各个地图元素图层对应的矢量图,生成高精地图。
在本实施例中,图6是本申请一个实施例提供的获得三种地图元素矢量图的示意图,如图6所示。
示例性的,若分割结果包括车道线图层、人行横道图层、以及停止线图层,则可以将车道线图层输入车道线矢量图生成模型,如,基于头(head)网络的车道线矢量图生成模型,输出得到车道线矢量图、将人行横道图层输入人行横道矢量图生成模型,如,基于头(head)网络的人行横道矢量图生成模型,输出得到人行横道矢量图、以及将停止线图层输入停止线矢量图生成模型,如,基于头(head)网络的停止线矢量图生成模型,输出得到停止线矢量图。最后,基于车道线矢量图、人行横道矢量图、停止线矢量图,生成该高精地图。
在本实施例中,可以通过先对融合后的鸟瞰图像特征和鸟瞰点云特征进行地图元素的分割处理,得到各个地图元素图层,再基于各个地图元素图层生成最终的高精地图,可以实现分两个阶段生成高精地图,避免了使用对算力要求较高的端到端的模型来获得高精地图,提升了高精地图的生成效率的同时,保证了所生成的高精地图的可靠性。
另外,采用本实施例中的技术方案,可以通过先利用标定关系对图像特征筛选,再基于交叉注意力机制,对筛选后的图像特征进行交叉注意力处理,得到鸟瞰图像特征,可以减少生成鸟瞰图像特征时,交叉注意力机制所处理的特征信息量,进而减少了处理过程的耗时,从而提升了获得鸟瞰图像特征的效率。
另外,采用本实施例中的技术方案,可以通过采用预设的图层处理策略,或矢量图生成模型的预测模式,生成高精地图,可以方便对融合特征的分割结果进行监督,从而进一步地提升了多生成的高精地图质量,还可以方便在各类应用场景和硬件环境下执行该高精地图的生成方法,从而更加便于该高精地图的生成方法的落地实施。
另外,采用本实施例中的技术方案,可以解决传统高精地图生成方法中人工成本高,实时性低等问题,并且可以将高精地图生成算法在车端实时计算,确保地图与实时环境的一致性。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图7示出了本申请一个实施例提供的高精地图的生成装置的结构框图,如图7所示。本实施例的高精地图的生成装置700可以包括获取单元701,融合单元702、分割单元703、和生成单元704。其中,获取单元701,用于获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰图像特征是基于待处理的图像帧获取的,所述鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的;融合单元702,用于对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征;分割单元703,用于利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层;生成单元704,用于基于多个所述地图元素图层,生成所述高精地图。
需要说明的是,本实施例的高精地图的生成装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(Software Development Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式***,例如,网络侧的自动驾驶平台中的处理引擎或者分布式***等,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
可选地,在本实施例的一个可能的实现方式中,所述获取单元701,具体可以用于获取所述待处理的图像帧,对所述待处理的图像帧进行特征提取处理,以获得图像特征,利用预设的标定关系,对所述图像特征进行筛选处理,以获得筛选后的图像特征,对所述筛选后的图像特征进行交叉注意力处理,以获取所述鸟瞰图像特征。
可选地,在本实施例的一个可能的实现方式中,所述获取单元701,还可以用于获取与待处理的图像帧对应的待处理的点云帧,利用鸟瞰特征提取算法,对所述待处理的点云帧进行特征提取处理,以获取所述鸟瞰点云特征。
可选地,在本实施例的一个可能的实现方式中,融合单元702,具体可以用于将所述鸟瞰图像特征和所述鸟瞰点云特征,输入预设的特征融合网络,以获得所述鸟瞰融合特征,其中,所述鸟瞰融合特征包括连续帧的鸟瞰融合特征。
可选地,在本实施例的一个可能的实现方式中,所述预设的地图元素分割模型包括自注意力网络、特征金字塔网络、以及上采样网络,分割单元703,具体可以用于将所述鸟瞰融合特征输入所述自注意力网络,获得所述鸟瞰融合特征对应的自注意力特征,将所述自注意力特征输入所述特征金字塔网络,获得所述自注意力特征对应的特征提取结果,将所述自注意力特征对应的特征提取结果输入所述上采样网络,获得多个所述地图元素图层。
可选地,在本实施例的一个可能的实现方式中,生成单元704,具体可以用于利用预设的边缘提取策略,分别对各个所述地图元素图层进行边缘提取处理,以获得各个所述地图元素图层的边缘信息,各个所述地图元素图层的边缘信息进行矢量化处理,以生成所述高精地图。
可选地,在本实施例的一个可能的实现方式中,生成单元704,具体可以用于分别将各个所述地图元素图层输入该地图元素图层对应的预先训练的矢量图生成模型,生成各个所述地图元素图层对应的矢量图,基于各个所述地图元素图层对应的矢量图,生成所述高精地图。
本实施例中,通过获取单元获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰图像特征是基于待处理的图像帧获取的,所述鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的,进而可以由融合单元对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征,由分割单元利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层,使得生成单元能够基于多个所述地图元素图层,生成所述高精地图,由于先对融合后的鸟瞰图像特征和鸟瞰点云特征进行地图元素的分割处理,得到各个地图元素图层,再基于各个地图元素图层生成最终的高精地图,可以实现分两个阶段生成高精地图,避免了使用对算力要求较高的端到端的模型来获得高精地图,提升了高精地图的生成效率的同时,保证了所生成的高精地图的可靠性。
本申请一个实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上所述的高精地图的生成方法。
本申请一个实施例提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的高精地图的生成方法。
本申请一个实施例提供了一种提供了一种自动驾驶车辆,包括如上所述的电子设备。具体地,该自动驾驶车辆可以是L2级别及其以上的车辆。
本申请的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
需要说明的是:上述实施例提供的高精地图的生成装置在进行高精地图的生成时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将高精地图的生成装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的高精地图的生成装置与高精地图的生成方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。
Claims (11)
1.一种高精地图的生成方法,其特征在于,所述方法包括:
获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰图像特征是基于待处理的图像帧获取的,所述鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的;
对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征;
利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层;
基于多个所述地图元素图层,生成所述高精地图。
2.根据权利要求1所述的方法,其特征在于,所述获取鸟瞰图像特征,包括:
获取所述待处理的图像帧;
对所述待处理的图像帧进行特征提取处理,以获得图像特征;
利用预设的标定关系,对所述图像特征进行筛选处理,以获得筛选后的图像特征;
对所述筛选后的图像特征进行交叉注意力处理,以获取所述鸟瞰图像特征。
3.根据权利要求1所述的方法,其特征在于,获取所述鸟瞰点云特征,包括:
获取与待处理的图像帧对应的待处理的点云帧;
利用鸟瞰特征提取算法,对所述待处理的点云帧进行特征提取处理,以获取所述鸟瞰点云特征。
4.根据权利要求1所述的方法,其特征在于,所述对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征,包括:
将所述鸟瞰图像特征和所述鸟瞰点云特征,输入预设的特征融合网络,以获得所述鸟瞰融合特征,其中,
所述鸟瞰融合特征包括连续帧的鸟瞰融合特征。
5.根据权利要求1所述的方法,其特征在于,所述预设的地图元素分割模型包括自注意力网络、特征金字塔网络、以及上采样网络,所述利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层,包括:
将所述鸟瞰融合特征输入所述自注意力网络,获得所述鸟瞰融合特征对应的自注意力特征;
将所述自注意力特征输入所述特征金字塔网络,获得所述自注意力特征对应的特征提取结果;
将所述自注意力特征对应的特征提取结果输入所述上采样网络,获得多个所述地图元素图层。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述基于多个所述地图元素图层,生成所述高精地图,包括:
利用预设的边缘提取策略,分别对各个所述地图元素图层进行边缘提取处理,以获得各个所述地图元素图层的边缘信息;
对各个所述地图元素图层的边缘信息进行矢量化处理,以生成所述高精地图。
7.根据权利要求1-5中任一项所述的方法,其特征在于,所述基于多个所述地图元素图层,生成所述高精地图,还包括:
分别将各个所述地图元素图层输入该地图元素图层对应的预先训练的矢量图生成模型,生成各个所述地图元素图层对应的矢量图;
基于各个所述地图元素图层对应的矢量图,生成所述高精地图。
8.一种高精地图的生成装置,其特征在于,所述装置包括:
获取单元,用于获取鸟瞰图像特征和鸟瞰点云特征,其中,所述鸟瞰图像特征是基于待处理的图像帧获取的,所述鸟瞰点云特征是基于与待处理的图像帧对应的待处理的点云帧获取的;
融合单元,用于对所述鸟瞰图像特征和所述鸟瞰点云特征进行特征融合处理,以获得鸟瞰融合特征;
分割单元,用于利用预设的地图元素分割模型,对所述鸟瞰融合特征进行分割处理,以获得多个地图元素图层;
生成单元,用于基于多个所述地图元素图层,生成所述高精地图。
9. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行根据权利要求1-7中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
11.一种自动驾驶车辆,包括如权利要求9所述的电子设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310567319.1A CN116295469B (zh) | 2023-05-19 | 2023-05-19 | 高精地图的生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310567319.1A CN116295469B (zh) | 2023-05-19 | 2023-05-19 | 高精地图的生成方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116295469A true CN116295469A (zh) | 2023-06-23 |
CN116295469B CN116295469B (zh) | 2023-08-15 |
Family
ID=86794571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310567319.1A Active CN116295469B (zh) | 2023-05-19 | 2023-05-19 | 高精地图的生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116295469B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109579856A (zh) * | 2018-10-31 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 高精度地图生成方法、装置、设备及计算机可读存储介质 |
CN114419449A (zh) * | 2022-03-28 | 2022-04-29 | 成都信息工程大学 | 一种自注意力多尺度特征融合的遥感图像语义分割方法 |
CN114429528A (zh) * | 2022-01-24 | 2022-05-03 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备、计算机程序及存储介质 |
CN115861755A (zh) * | 2022-12-20 | 2023-03-28 | 北京百度网讯科技有限公司 | 特征融合方法、装置、电子设备及自动驾驶车辆 |
CN116052097A (zh) * | 2022-12-09 | 2023-05-02 | 北京百度网讯科技有限公司 | 一种地图要素检测方法、装置、电子设备和存储介质 |
CN116091716A (zh) * | 2022-12-30 | 2023-05-09 | 武汉中海庭数据技术有限公司 | 一种基于深度学习的高精度地图自动化制作***及方法 |
-
2023
- 2023-05-19 CN CN202310567319.1A patent/CN116295469B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109579856A (zh) * | 2018-10-31 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 高精度地图生成方法、装置、设备及计算机可读存储介质 |
CN114429528A (zh) * | 2022-01-24 | 2022-05-03 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备、计算机程序及存储介质 |
CN114419449A (zh) * | 2022-03-28 | 2022-04-29 | 成都信息工程大学 | 一种自注意力多尺度特征融合的遥感图像语义分割方法 |
CN116052097A (zh) * | 2022-12-09 | 2023-05-02 | 北京百度网讯科技有限公司 | 一种地图要素检测方法、装置、电子设备和存储介质 |
CN115861755A (zh) * | 2022-12-20 | 2023-03-28 | 北京百度网讯科技有限公司 | 特征融合方法、装置、电子设备及自动驾驶车辆 |
CN116091716A (zh) * | 2022-12-30 | 2023-05-09 | 武汉中海庭数据技术有限公司 | 一种基于深度学习的高精度地图自动化制作***及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116295469B (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11217012B2 (en) | System and method for identifying travel way features for autonomous vehicle motion control | |
EP4152204A1 (en) | Lane line detection method, and related apparatus | |
US11989847B2 (en) | Photorealistic image simulation with geometry-aware composition | |
US11373067B2 (en) | Parametric top-view representation of scenes | |
EP3822852B1 (en) | Method, apparatus, computer storage medium and program for training a trajectory planning model | |
CN114359562B (zh) | 一种四维点云自动语义分割标注***及方法 | |
CN109299656B (zh) | 一种车载视觉***场景视深确定方法 | |
CN113706704B (zh) | 基于高精地图规划路线的方法、设备以及自动驾驶车辆 | |
CN114758502B (zh) | 双车联合轨迹预测方法及装置、电子设备和自动驾驶车辆 | |
CN114360239A (zh) | 一种多层时空交通知识图谱重建的交通预测方法及*** | |
CN113221756A (zh) | 交通标志检测方法及相关设备 | |
CN114550116A (zh) | 一种对象识别方法和装置 | |
CN112765302B (zh) | 位置信息的处理方法、装置及计算机可读介质 | |
CN116295469B (zh) | 高精地图的生成方法、装置、设备及存储介质 | |
CN116776151A (zh) | 可与车外人员进行自主交互的自动驾驶模型和训练方法 | |
CN116880462A (zh) | 自动驾驶模型、训练方法和自动驾驶方法和车辆 | |
Bai et al. | Cyber mobility mirror for enabling cooperative driving automation: A co-simulation platform | |
US20210110600A1 (en) | System and method for generating terrain maps | |
CN117591847B (zh) | 基于车况数据的模型指向评测方法和装置 | |
US11628859B1 (en) | Vehicle placement on aerial views for vehicle control | |
US11634156B1 (en) | Aerial view generation for vehicle control | |
US12032067B2 (en) | System and method for identifying travel way features for autonomous vehicle motion control | |
US20230230317A1 (en) | Method for generating at least one ground truth from a bird's eye view | |
CN116451590B (zh) | 自动驾驶仿真测试平台的仿真方法及装置 | |
CN116859724B (zh) | 时序自回归同时决策和预测的自动驾驶模型及其训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |