CN115100377B - 地图构建方法、装置、车辆、可读存储介质及芯片 - Google Patents

地图构建方法、装置、车辆、可读存储介质及芯片 Download PDF

Info

Publication number
CN115100377B
CN115100377B CN202210832856.XA CN202210832856A CN115100377B CN 115100377 B CN115100377 B CN 115100377B CN 202210832856 A CN202210832856 A CN 202210832856A CN 115100377 B CN115100377 B CN 115100377B
Authority
CN
China
Prior art keywords
wheel guard
wheel
dimensional map
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210832856.XA
Other languages
English (en)
Other versions
CN115100377A (zh
Inventor
龚世炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Automobile Technology Co Ltd
Original Assignee
Xiaomi Automobile Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Automobile Technology Co Ltd filed Critical Xiaomi Automobile Technology Co Ltd
Priority to CN202210832856.XA priority Critical patent/CN115100377B/zh
Publication of CN115100377A publication Critical patent/CN115100377A/zh
Priority to EP22204676.5A priority patent/EP4307251A1/en
Priority to US17/977,197 priority patent/US20240017719A1/en
Application granted granted Critical
Publication of CN115100377B publication Critical patent/CN115100377B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Architecture (AREA)
  • Traffic Control Systems (AREA)

Abstract

本公开涉及自动驾驶技术领域,涉及一种地图构建方法、装置、车辆、可读存储介质及芯片,包括通过相机每隔第一时间获取泊车场景的多帧图像,通过激光雷达每隔第二时间获取泊车场景的点云数据,通过预先训练好的轮挡识别模型识别多帧图像中的轮挡信息,融合多帧图像中的轮挡信息,得到轮挡分类结果,基于车辆定位结果和轮挡分类结果,构建初始轮挡三维地图,结合点云数据中的轮挡位置信息,修正初始轮挡三维地图,得到轮挡三维地图;通过相机设备、激光雷达设备实时获取泊车场景的图像及点云数据,通过预先训练好的轮挡识别模型实时地识别图像中轮挡,结合点云数据中的轮挡位置信息优化轮挡的三维重建,得到更精确的轮挡三维地图。

Description

地图构建方法、装置、车辆、可读存储介质及芯片
技术领域
本公开涉及自动驾驶技术领域,尤其涉及一种地图构建方法、装置、车辆、可读存储介质及芯片。
背景技术
高精地图是自动泊车中的一个重要的模块,其中包含了车道、车道线、停车库位线、轮挡及减速带等附属信息。这些丰富的地图元素库使得自动泊车过程中的定位更加鲁棒,且能获得一个更高的精度,使得自动泊车技术能泛化于不同的泊车场景。同时对这些地图元素的描述精度要求也更高,比如轮挡可以指引车辆进入到一个合适的库位深度,因此高精地图对轮挡的表达会精确到厘米级别。由此可知轮挡障碍物的三维重建是自动泊车辅助***里面重要的一环。
在已公开的相关技术中,存在关于自动泊车高精地图的技术方案。目前轮挡障碍物的识别以及重建技术在一些做自动泊车领域的公司都有研究。一些解决方案是基于高精采集设备和后期数据制作得到的,通过扫描式激光雷达、图像传感器等测量设备事先采集泊车场景中的地图元素,在数据制作环节采用人工标注的方法处理事先采集的数据,成本高且效率低。
发明内容
为克服相关技术中存在的问题,本公开提供一种地图构建方法、装置、车辆、可读存储介质及芯片。
根据本公开实施例的第一方面,提供一种地图构建方法,包括:通过相机每隔第一时间获取泊车场景的多帧图像;通过激光雷达每隔第二时间获取所述泊车场景的点云数据;通过预先训练好的轮挡识别模型识别所述多帧图像中的轮挡信息;融合所述多帧图像中的轮挡信息,得到轮挡分类结果;基于车辆定位结果和所述轮挡分类结果,构建初始轮挡三维地图;结合所述点云数据中的轮挡位置信息,修正所述初始轮挡三维地图,得到轮挡三维地图。
可选的,所述轮挡信息包括轮挡类型、轮挡宽度、轮挡长度和轮挡的像素坐标;所述通过轮挡识别模型识别所述多帧图像中的轮挡信息,包括:通过轮挡识别模型识别所述多帧图像中的所述轮挡的像素坐标;基于所述轮挡的像素坐标,将所述轮挡投影在地面上;根据地面上的轮挡投影,利用匈牙利算法对所述轮挡进行追踪获得所述多帧图像中所述轮挡类型和所述轮挡长度。
可选的,所述融合所述多帧图像中的轮挡信息,得到轮挡分类结果,包括:根据所述轮挡信息,将同一轮挡归为一类,作为第一分类结果;根据所述相机最新获取的所述泊车场景的所述多帧图像中的最新轮挡信息,更新所述第一分类结果,得到轮挡分类结果。
可选的,所述车辆定位结果包括车辆的位姿信息和车辆的运行轨迹;所述基于车辆定位结果和所述轮挡分类结果,构建初始轮挡三维地图,包括:将所述位姿信息、所述运行轨迹和所述轮挡分类结果结合,将轮挡建模为空间中的线段;通过光束法平差方法调整所述线段的方向和空间位置,得到第一轮挡三维地图;根据所述相机最新获取的所述泊车场景的所述多帧图像中的最新轮挡信息,更新所述第一轮挡三维地图,得到初始轮挡三维地图。
可选的,所述结合所述点云数据的轮挡位置信息,修正所述初始轮挡三维地图,得到轮挡三维地图,包括:通过所述点云数据拟合出轮挡的三维线段的位置信息;根据所述位置信息修正所述初始轮挡三维地图,得到轮挡三维地图。
可选的,还包括:根据所述轮挡三维地图,计算自车与轮挡之间的距离;根据所述距离控制自车的泊车过程。
根据本公开实施例的第二方面,提供一种地图构建装置,包括:获取模块,被配置为通过相机每隔第一时间获取泊车场景的多帧图像;所述获取模块,还被配置为通过激光雷达每隔第二时间获取所述泊车场景的点云数据;识别模块,被配置为通过预先训练好的轮挡识别模型识别所述多帧图像中的轮挡信息;融合模块,被配置为融合所述多帧图像中的轮挡信息,得到轮挡分类结果;处理模块,被配置为基于车辆定位结果和所述轮挡分类结果,构建初始轮挡三维地图;所述处理模块,还被配置为结合所述点云数据中的轮挡位置信息,修正所述初始轮挡三维地图,得到轮挡三维地图。
根据本公开实施例的第三方面,提供一种车辆,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行所述可执行指令实现前述的地图构建方法的步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时实现本公开第一方面所提供的地图构建方法的步骤。
根据本公开实施例的第五方面,提供一种芯片,包括处理器和接口;所述处理器用于读取指令以执行前述的地图构建方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:通过相机每隔第一时间获取泊车场景的多帧图像,通过激光雷达每隔第二时间获取泊车场景的点云数据,通过预先训练好的轮挡识别模型识别多帧图像中的轮挡信息,融合多帧图像中的轮挡信息,得到轮挡分类结果,基于车辆定位结果和轮挡分类结果,构建初始轮挡三维地图,结合点云数据中的轮挡位置信息,修正初始轮挡三维地图,得到轮挡三维地图;通过相机设备实时获取泊车场景的图像,通过预先训练好的轮挡识别模型实时地识别图像中轮挡,自动地进行轮挡的三维重建,通过激光雷达设备实时获取泊车场景的点云数据,结合点云数据中的轮挡位置信息优化轮挡的三维重建,得到更精确的轮挡三维地图,避免了人工标注成本高且效率低的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种地图构建方法的流程图。
图2是根据一示例性实施例示出的另一种地图构建方法的流程图。
图3是根据一示例性实施例示出的一种地图构建装置的框图。
图4是一示例性实施例示出的一种车辆的功能框图示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
可以理解的是,本公开中“多个”是指两个或两个以上,其它量词与之类似。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
进一步可以理解的是,术语“第一”、“第二”等用于描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开,并不表示特定的顺序或者重要程度。实际上,“第一”、“第二”等表述完全可以互换使用。例如,在不脱离本公开范围的情况下,第一时间也可以被称为第二时间,类似地,第二时间也可以被称为第一时间。
进一步可以理解的是,本公开实施例中尽管在附图中以特定的顺序描述操作,但是不应将其理解为要求按照所示的特定顺序或是串行顺序来执行这些操作,或是要求执行全部所示的操作以得到期望的结果。在特定环境中,多任务和并行处理可能是有利的。
需要说明的是,本申请中所有获取信号、信息或数据的动作都是在遵照所在地国家相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
为了解决上述问题,本公开提出一种地图构建方法,图1是根据一示例性实施例示出的一种地图构建方法的流程图,如图1所示,地图构建方法应用于一电子设备,如集成在车辆上的控制设备,该地图构建方法包括以下步骤:
在步骤S11中,通过相机每隔第一时间获取泊车场景的多帧图像。
在车辆上装有用于图像采集的相机传感器,比如周视摄像头和环视摄像头等。第一时间可以是毫秒级别的时间,这样在视觉上看来,相机是在实时地获取关于泊车场景的多帧图像,这些图像中包含泊车场景的一些地图元素,如轮挡、车道、车道线、停车库位线及减速带等。
在步骤S12中,通过激光雷达每隔第二时间获取泊车场景的点云数据。
在车辆上装有用于图像采集的传感器,比如用于点云采集的激光雷达,激光雷达可以是但不限于毫米波雷达、激光雷达、V2X设备或毫米波雷达等。第二时间可以是毫秒级别的时间,这样在视觉上看来,激光雷达是在实时地获取关于泊车场景的的点云数据,这些点云数据中包含泊车场景的一些地图元素的位置信息,如轮挡的位置信息。
在步骤S13中,通过预先训练好的轮挡识别模型识别多帧图像中的轮挡信息。
通过预先训练好的轮挡识别模型识别出多帧图像中的轮挡信息,轮挡信息包括轮挡类型、轮挡宽度、轮挡长度和轮挡的像素坐标等。需要说明的是,这里的多帧图像是通过相机实时获取得到的,轮挡识别模型对多帧图像的识别也是实时的,相机每获取一次图像,轮挡识别模型就进行一次图像识别。
在步骤S14中,融合多帧图像中的轮挡信息,得到轮挡分类结果。
相机每次获取的多帧图像,包括了不同角度、不同距离的不同轮挡,可以根据轮挡识别模型识别的轮挡信息对轮挡进行分类,可以将同一个轮挡归为一类,作为第一分类结果。
在步骤S15中,基于车辆定位结果和轮挡分类结果,构建初始轮挡三维地图。
车辆定位结果包括车辆的位姿信息和车辆的运行轨迹,将位姿信息、运行轨迹和轮挡分类结果结合,将轮挡建模为空间中的线段,通过光束法平差方法(BundleAdjustment)优化调整线段的方向和空间位置,得到第一轮挡三维地图,当相机获取到新的图像时,根据相机最新获取的泊车场景的多帧图像中的最新轮挡信息,更新第一轮挡三维地图,得到初始轮挡三维地图。从而得到轮挡在空间中视觉重建的位置。
在步骤S16中,结合点云数据中的轮挡位置信息,修正初始轮挡三维地图,得到轮挡三维地图。
通过对点云数据的管理,可以获得轮挡附近位置的点云信息,通过轮挡附近位置的点云拟合出轮挡的三维线段的位置信息,根据位置信息修正初始轮挡三维地图,得到轮挡三维地图。点云数据中的轮挡位置信息相比视觉重建结果能获得一个更准确的位置信息。
通过相机设备实时获取泊车场景的图像,通过预先训练好的轮挡识别模型实时地识别图像中轮挡,自动地进行轮挡的三维重建,通过激光雷达设备实时获取泊车场景的点云数据,结合点云数据中的轮挡位置信息优化轮挡的三维重建,得到更精确的轮挡三维地图,避免了人工标注成本高且效率低的问题。
请参阅图2,图2为本公开示例性实施例示出的另一种地图构建方法的流程图。
需要说明的是,图2所示的地图构建方法与图1所示的地图构建方法的实施方式内容一致,图2中未提及之处可以参考图1的描述,在此不再赘述。图2所示的地图构建方法包括以下步骤:
在步骤S21中,通过相机每隔第一时间获取泊车场景的多帧图像。
示例性的,可以在车辆上装有用于图像采集的相机传感器,比如周视摄像头和环视摄像头等。第一时间可以是毫秒级别的时间,这样在视觉上看来,相机是在实时地获取关于泊车场景的多帧图像,这些图像中包含泊车场景的一些地图元素,如轮挡、车道、车道线、停车库位线及减速带等。
在步骤S22中,通过激光雷达每隔第二时间获取泊车场景的点云数据。
示例性的,可以在车辆上装有用于图像采集的传感器,比如用于点云采集的激光雷达,激光雷达可以是但不限于毫米波雷达、激光雷达、V2X设备或毫米波雷达等。第二时间可以是毫秒级别的时间,这样在视觉上看来,激光雷达是在实时地获取关于泊车场景的的点云数据,这些点云数据中包含泊车场景的一些地图元素的位置信息,如轮挡的位置信息。在一种实施方式中,第二时间可以与第一时间相同,也可以与第一时间不同。
除了在车辆上安装相机和激光雷达设备外,还可以在车辆上安装用于定位的传感器设备,可以检测车辆的位姿信息和车辆的运行轨迹,例如全球导航卫星***(GlobalNavigation Satellite System,GNSS)、惯性测量单元(Inertial Measurement Unit,IMU)等。
在步骤S23中,通过预先训练好的轮挡识别模型识别多帧图像中的轮挡信息。
通过预先训练好的轮挡识别模型识别出多帧图像中的轮挡信息,轮挡信息包括轮挡类型、轮挡宽度、轮挡长度和轮挡的像素坐标等。需要说明的是,这里的多帧图像是通过相机实时获取得到的,轮挡识别模型对多帧图像的识别也是实时的,相机每获取一次图像,轮挡识别模型就进行一次图像识别。
在一种实施方式中,可以通过轮挡识别模型识别多帧图像中的轮挡的像素坐标,然后基于轮挡的像素坐标,将轮挡投影在地面上,根据地面上的轮挡投影,利用匈牙利算法对轮挡进行追踪获得多帧图像中轮挡类型和轮挡长度。
需要说明的是,轮挡识别模型是通过多个样本图像预先训练得到的,样本图像包括正样本图像和负样本图像,其中,正样本图像中包括待各种泊车场景下的轮挡,负样本图像中没有轮挡。在对样本图像进行训练之前,首先对样本图像进行标注,标注出样本图像中轮挡信息,轮挡信息具体为轮挡类型、轮挡宽度、轮挡长度和轮挡的像素坐标等。样本图像的获取方式可以是:选择多位经验丰富的司机,驾驶车辆进行泊车的过程中,针对泊车场景下车辆距离轮挡的不同距离分别进行采样,或者针对不同大小、不同类型、不同角度的轮挡分别进行采样,如车辆正在泊车,距离轮挡越来越近,此时可以每隔一定时间进行一次采样,如10ms、15 ms等,从而得到包括不同距离的轮挡的样本图像。
在步骤S24中,融合多帧图像中的轮挡信息,得到轮挡分类结果。
相机每次获取的多帧图像,包括了不同角度、不同距离的不同轮挡,可以根据轮挡识别模型识别的轮挡信息对轮挡进行分类,可以将同一个轮挡归为一类,作为第一分类结果。需要说明的是,在分类融合时,可以根据相机最新获取的泊车场景的多帧图像中的最新轮挡信息,更新第一分类结果,得到轮挡分类结果。
在步骤S25中,基于车辆定位结果和轮挡分类结果,构建初始轮挡三维地图。
车辆定位结果包括车辆的位姿信息和车辆的运行轨迹,将位姿信息、运行轨迹和轮挡分类结果结合,将轮挡建模为空间中的线段,通过光束法平差方法(BundleAdjustment)优化调整线段的方向和空间位置,得到第一轮挡三维地图,当相机获取到新的图像时,根据相机最新获取的泊车场景的多帧图像中的最新轮挡信息,更新第一轮挡三维地图,得到初始轮挡三维地图。从而得到轮挡在空间中视觉重建的位置。
在步骤S26中,结合点云数据中的轮挡位置信息,修正初始轮挡三维地图,得到轮挡三维地图。
通过对点云数据的管理,可以获得轮挡附近位置的点云信息,通过轮挡附近位置的点云拟合出轮挡的三维线段的位置信息,根据位置信息修正初始轮挡三维地图,得到轮挡三维地图。点云数据中的轮挡位置信息相比视觉重建结果能获得一个更准确的位置信息。
在得到轮挡三维地图后,可以基于轮挡三维地图,计算自车与轮挡之间的距离,根据该距离控制自车的泊车过程,可控制车辆进入到一个合适的库位深度。
综上所述,本公开提供的地图构建方法,包括通过相机每隔第一时间获取泊车场景的多帧图像,通过激光雷达每隔第二时间获取泊车场景的点云数据,通过预先训练好的轮挡识别模型识别多帧图像中的轮挡信息,融合多帧图像中的轮挡信息,得到轮挡分类结果,基于车辆定位结果和轮挡分类结果,构建初始轮挡三维地图,结合点云数据中的轮挡位置信息,修正初始轮挡三维地图,得到轮挡三维地图;通过相机设备实时获取泊车场景的图像,通过预先训练好的轮挡识别模型实时地识别图像中轮挡,自动地进行轮挡的三维重建,通过激光雷达设备实时获取泊车场景的点云数据,结合点云数据中的轮挡位置信息优化轮挡的三维重建,得到更精确的轮挡三维地图,避免了人工标注成本高且效率低的问题。
图2是根据一示例性实施例示出的一种地图构建装置框图。参照图2,该地图构建装置20包括获取模块201、识别模块202、融合模块203和处理模块204。
该获取模块201被配置为通过相机每隔第一时间获取泊车场景的多帧图像;
该获取模块201,还被配置为通过激光雷达每隔第二时间获取所述泊车场景的点云数据;
该识别模块202,被配置为通过预先训练好的轮挡识别模型识别所述多帧图像中的轮挡信息;
该融合模块203,被配置为融合所述多帧图像中的轮挡信息,得到轮挡分类结果;
该处理模块204,被配置为基于车辆定位结果和所述轮挡分类结果,构建初始轮挡三维地图;
该处理模块204,还被配置为结合所述点云数据中的轮挡位置信息,修正所述初始轮挡三维地图,得到轮挡三维地图。
可选的,该识别模块202,还被配置为通过轮挡识别模型识别所述多帧图像中的所述轮挡的像素坐标;
基于所述轮挡的像素坐标,将所述轮挡投影在地面上;
根据地面上的轮挡投影,利用匈牙利算法对所述轮挡进行追踪获得所述多帧图像中所述轮挡类型和所述轮挡长度。
可选的,该融合模块203,还被配置为根据所述轮挡信息,将同一轮挡归为一类,作为第一分类结果;
根据所述相机最新获取的所述泊车场景的所述多帧图像中的最新轮挡信息,更新所述第一分类结果,得到轮挡分类结果。
可选的,该处理模块204,还被配置为将所述位姿信息、所述运行轨迹和所述轮挡分类结果结合,将轮挡建模为空间中的线段;
通过光束法平差方法调整所述线段的方向和空间位置,得到第一轮挡三维地图;
根据所述相机最新获取的所述泊车场景的所述多帧图像中的最新轮挡信息,更新所述第一轮挡三维地图,得到初始轮挡三维地图。
可选的,该处理模块204,还被配置为通过所述点云数据拟合出轮挡的三维线段的位置信息;
根据所述位置信息修正所述初始轮挡三维地图,得到轮挡三维地图。
可选的,该处理模块204,还被配置为根据所述轮挡三维地图,计算自车与轮挡之间的距离;
根据所述距离控制自车的泊车过程。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的地图构建方法的步骤。
上述装置除了可以是独立的电子设备外,也可是独立电子设备的一部分,例如在一种实施例中,该装置可以是集成电路(Integrated Circuit,IC)或芯片,其中该集成电路可以是一个IC,也可以是多个IC的集合;该芯片可以包括但不限于以下种类:GPU(GraphicsProcessing Unit,图形处理器)、CPU(Central Processing Unit,中央处理器)、FPGA(Field Programmable Gate Array,可编程逻辑阵列)、DSP(Digital Signal Processor,数字信号处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、SOC(System on Chip,SoC,片上***或***级芯片)等。上述的集成电路或芯片中可以用于执行可执行指令(或代码),以实现上述的地图构建方法。其中该可执行指令可以存储在该集成电路或芯片中,也可以从其他的装置或设备获取,例如该集成电路或芯片中包括第一处理器、第一存储器,以及用于与其他的装置通信的接口。该可执行指令可以存储于该第一存储器中,当该可执行指令被第一处理器执行时实现上述的地图构建方法;或者,该集成电路或芯片可以通过该接口接收可执行指令并传输给该第一处理器执行,以实现上述的地图构建方法。
参阅图4,图4是一示例性实施例示出的一种车辆600的功能框图示意图。车辆600可以被配置为完全或部分自动驾驶模式。例如,车辆600可以通过感知***620获取其周围的环境信息,并基于对周边环境信息的分析得到自动驾驶策略以实现完全自动驾驶,或者将分析结果呈现给用户以实现部分自动驾驶。
车辆600可包括各种子***,例如,信息娱乐***610、感知***620、决策控制***630、驱动***640以及计算平台650。可选的,车辆600可包括更多或更少的子***,并且每个子***都可包括多个部件。另外,车辆600的每个子***和部件可以通过有线或者无线的方式实现互连。
在一些实施例中,信息娱乐***610可以包括通信***611,娱乐***612以及导航***613。
通信***611可以包括无线通信***,无线通信***可以直接地或者经由通信网络来与一个或多个设备无线通信。例如,无线通信***可使用3G蜂窝通信,例如CDMA、EVD0、GSM/GPRS,或者4G蜂窝通信,例如LTE。或者5G蜂窝通信。无线通信***可利用WiFi与无线局域网(wireless local area network,WLAN)通信。在一些实施例中,无线通信***可利用红外链路、蓝牙或ZigBee与设备直接通信。其他无线协议,例如各种车辆通信***,例如,无线通信***可包括一个或多个专用短程通信(dedicated short range communications,DSRC)设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
娱乐***612可以包括显示设备,麦克风和音响,用户可以基于娱乐***在车内收听广播,播放音乐;或者将手机和车辆联通,在显示设备上实现手机的投屏,显示设备可以为触控式,用户可以通过触摸屏幕进行操作。
在一些情况下,可以通过麦克风获取用户的语音信号,并依据对用户的语音信号的分析实现用户对车辆600的某些控制,例如调节车内温度等。在另一些情况下,可以通过音响向用户播放音乐。
导航***613可以包括由地图供应商所提供的地图服务,从而为车辆600提供行驶路线的导航,导航***613可以和车辆的全球定位***621、惯性测量单元622配合使用。地图供应商所提供的地图服务可以为二维地图,也可以是高精地图。
感知***620可包括感测关于车辆600周边的环境的信息的若干种传感器。例如,感知***620可包括全球定位***621(全球定位***可以是GPS***,也可以是北斗***或者其他定位***)、惯性测量单元(inertial measurement unit,IMU)622、激光雷达623、毫米波雷达624、超声雷达625以及摄像装置626。感知***620还可包括被监视车辆600的内部***的传感器(例如,车内空气质量监测器、燃油量表、机油温度表等)。来自这些传感器中的一个或多个的传感器数据可用于检测对象及其相应特性(位置、形状、方向、速度等)。这种检测和识别是车辆600的安全操作的关键功能。
全球定位***621用于估计车辆600的地理位置。
惯性测量单元622用于基于惯性加速度来感测车辆600的位姿变化。在一些实施例中,惯性测量单元622可以是加速度计和陀螺仪的组合。
激光雷达623利用激光来感测车辆600所位于的环境中的物体。在一些实施例中,激光雷达623可包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他***组件。
毫米波雷达624利用无线电信号来感测车辆600的周边环境内的物体。在一些实施例中,除了感测物体以外,毫米波雷达624还可用于感测物体的速度和/或前进方向。
超声雷达625可以利用超声波信号来感测车辆600周围的物体。
摄像装置626用于捕捉车辆600的周边环境的图像信息。摄像装置626可以包括单目相机、双目相机、结构光相机以及全景相机等,摄像装置626获取的图像信息可以包括静态图像,也可以包括视频流信息。
决策控制***630包括基于感知***620所获取的信息进行分析决策的计算***631,决策控制***630还包括对车辆600的动力***进行控制的整车控制器632,以及用于控制车辆600的转向***633、油门634和制动***635。
计算***631可以操作来处理和分析由感知***620所获取的各种信息以便识别车辆600周边环境中的目标、物体和/或特征。目标可以包括行人或者动物,物体和/或特征可包括交通信号、道路边界和障碍物。计算***631可使用物体识别算法、运动中恢复结构(Structure from Motion,SFM)算法、视频跟踪等技术。在一些实施例中,计算***631可以用于为环境绘制地图、跟踪物体、估计物体的速度等等。计算***631可以将所获取的各种信息进行分析并得出对车辆的控制策略。
整车控制器632可以用于对车辆的动力电池和引擎641进行协调控制,以提升车辆600的动力性能。
转向***633可操作来调整车辆600的前进方向。例如在一个实施例中可以为方向盘***。
油门634用于控制引擎641的操作速度并进而控制车辆600的速度。
制动***635用于控制车辆600减速。制动***635可使用摩擦力来减慢车轮644。在一些实施例中,制动***635可将车轮644的动能转换为电流。制动***635也可采取其他形式来减慢车轮644转速从而控制车辆600的速度。
驱动***640可包括为车辆600提供动力运动的组件。在一个实施例中,驱动***640可包括引擎641、能量源642、传动***643和车轮644。引擎641可以是内燃机、电动机、空气压缩引擎或其他类型的引擎组合,例如汽油发动机和电动机组成的混动引擎,内燃引擎和空气压缩引擎组成的混动引擎。引擎641将能量源642转换成机械能量。
能量源642的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、太阳能电池板、电池和其他电力来源。能量源642也可以为车辆600的其他***提供能量。
传动***643可以将来自引擎641的机械动力传送到车轮644。传动***643可包括变速箱、差速器和驱动轴。在一个实施例中,传动***643还可以包括其他器件,比如离合器。其中,驱动轴可包括可耦合到一个或多个车轮644的一个或多个轴。
车辆600的部分或所有功能受计算平台650控制。计算平台650可包括至少一个第二处理器651,第二处理器651可以执行存储在例如第二存储器652这样的非暂态计算机可读介质中的指令653。在一些实施例中,计算平台650还可以是采用分布式方式控制车辆600的个体组件或子***的多个计算设备。
第二处理器651可以是任何常规的第二处理器,诸如商业可获得的CPU。可替换地,第二处理器651还可以包括诸如图像处理器(Graphic Process Unit,GPU),现场可编程门阵列(FieldProgrammable Gate Array,FPGA)、片上***(Sysem on Chip,SOC)、专用集成芯片(Application Specific Integrated Circuit,ASIC)或它们的组合。尽管图4功能性地图示了第二处理器、第二存储器、和在相同块中的计算机的其它元件,但是本领域的普通技术人员应该理解该第二处理器、计算机、或第二存储器实际上可以包括可以或者可以不存储在相同的物理外壳内的多个第二处理器、计算机、或第二存储器。例如,第二存储器可以是硬盘驱动器或位于不同于计算机的外壳内的其它存储介质。因此,对第二处理器或计算机的引用将被理解为包括对可以或者可以不并行操作的第二处理器或计算机或第二存储器的集合的引用。不同于使用单一的第二处理器来执行此处所描述的步骤,诸如转向组件和减速组件的一些组件每个都可以具有其自己的第二处理器,第二处理器只执行与特定于组件的功能相关的计算。
在本公开实施方式中,第二处理器651可以执行上述的地图构建方法。
在此处所描述的各个方面中,第二处理器651可以位于远离该车辆并且与该车辆进行无线通信。在其它方面中,此处所描述的过程中的一些在布置于车辆内的第二处理器上执行而其它则由远程第二处理器执行,包括采取执行单一操纵的必要步骤。
在一些实施例中,第二存储器652可包含指令653(例如,程序逻辑),指令653可被第二处理器651执行来执行车辆600的各种功能。第二存储器652也可包含额外的指令,包括向信息娱乐***610、感知***620、决策控制***630、驱动***640中的一个或多个发送数据、从其接收数据、与其交互和/或对其进行控制的指令。
除了指令653以外,第二存储器652还可存储数据,例如道路地图、路线信息,车辆的位置、方向、速度以及其它这样的车辆数据,以及其他信息。这种信息可在车辆600在自主、半自主和/或手动模式中操作期间被车辆600和计算平台650使用。
计算平台650可基于从各种子***(例如,驱动***640、感知***620和决策控制***630)接收的输入来控制车辆600的功能。例如,计算平台650可利用来自决策控制***630的输入以便控制转向***633来避免由感知***620检测到的障碍物。在一些实施例中,计算平台650可操作来对车辆600及其子***的许多方面提供控制。
可选地,上述这些组件中的一个或多个可与车辆600分开安装或关联。例如,第二存储器652可以部分或完全地与车辆600分开存在。上述组件可以按有线和/或无线方式来通信地耦合在一起。
可选地,上述组件只是一个示例,实际应用中,上述各个模块中的组件有可能根据实际需要增添或者删除,图4不应理解为对本公开实施例的限制。
在道路行进的自动驾驶汽车,如上面的车辆600,可以识别其周围环境内的物体以确定对当前速度的调整。物体可以是其它车辆、交通控制设备、或者其它类型的物体。在一些示例中,可以独立地考虑每个识别的物体,并且基于物体的各自的特性,诸如它的当前速度、加速度、与车辆的间距等,可以用来确定自动驾驶汽车所要调整的速度。
可选地,车辆600或者与车辆600相关联的感知和计算设备(例如计算***631、计算平台650)可以基于所识别的物体的特性和周围环境的状态(例如,交通、雨、道路上的冰、等等)来预测识别的物体的行为。可选地,每一个所识别的物体都依赖于彼此的行为,因此还可以将所识别的所有物体全部一起考虑来预测单个识别的物体的行为。车辆600能够基于预测的识别的物体的行为来调整它的速度。换句话说,自动驾驶汽车能够基于所预测的物体的行为来确定车辆将需要调整到(例如,加速、减速、或者停止)何种稳定状态。在这个过程中,也可以考虑其它因素来确定车辆600的速度,诸如,车辆600在行驶的道路中的横向位置、道路的曲率、静态和动态物体的接近度等等。
除了提供调整自动驾驶汽车的速度的指令之外,计算设备还可以提供修改车辆600的转向角的指令,以使得自动驾驶汽车遵循给定的轨迹和/或维持与自动驾驶汽车附近的物体(例如,道路上的相邻车道中的车辆)的安全横向和纵向距离。
上述车辆600可以为各种类型的行驶工具,例如,轿车、卡车、摩托车、公共汽车、船、飞机、直升飞机、娱乐车、火车等等,本公开实施例不做特别的限定。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的地图构建方法的代码部分。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种地图构建方法,其特征在于,包括:
通过相机每隔第一时间获取泊车场景的多帧图像;
通过激光雷达每隔第二时间获取所述泊车场景的点云数据;
通过预先训练好的轮挡识别模型识别所述多帧图像中的轮挡信息;
融合所述多帧图像中的轮挡信息,得到轮挡分类结果;
基于车辆定位结果和所述轮挡分类结果,构建初始轮挡三维地图;
结合所述点云数据中的轮挡位置信息,修正所述初始轮挡三维地图,得到轮挡三维地图,包括:获取所述轮挡附近位置的点云数据,利用所述轮挡附近位置的点云数据拟合出所述轮挡的三维线段的位置信息,根据所述位置信息修正所述初始轮挡三维地图,得到所述轮挡三维地图。
2.根据权利要求1所述方法,其特征在于,所述轮挡信息包括轮挡类型、轮挡宽度、轮挡长度和轮挡的像素坐标;所述通过轮挡识别模型识别所述多帧图像中的轮挡信息,包括:
通过轮挡识别模型识别所述多帧图像中的所述轮挡的像素坐标;
基于所述轮挡的像素坐标,将所述轮挡投影在地面上;
根据地面上的轮挡投影,利用匈牙利算法对所述轮挡进行追踪获得所述多帧图像中所述轮挡类型和所述轮挡长度。
3.根据权利要求1所述方法,其特征在于,所述融合所述多帧图像中的轮挡信息,得到轮挡分类结果,包括:
根据所述轮挡信息,将同一轮挡归为一类,作为第一分类结果;
根据所述相机最新获取的所述泊车场景的所述多帧图像中的最新轮挡信息,更新所述第一分类结果,得到轮挡分类结果。
4.根据权利要求1所述方法,其特征在于,所述车辆定位结果包括车辆的位姿信息和车辆的运行轨迹;所述基于车辆定位结果和所述轮挡分类结果,构建初始轮挡三维地图,包括:
将所述位姿信息、所述运行轨迹和所述轮挡分类结果结合,将轮挡建模为空间中的线段;
通过光束法平差方法调整所述线段的方向和空间位置,得到第一轮挡三维地图;
根据所述相机最新获取的所述泊车场景的所述多帧图像中的最新轮挡信息,更新所述第一轮挡三维地图,得到初始轮挡三维地图。
5.根据权利要求1所述方法,其特征在于,所述结合所述点云数据的轮挡位置信息,修正所述初始轮挡三维地图,得到轮挡三维地图,包括:
通过所述点云数据拟合出轮挡的三维线段的位置信息;
根据所述位置信息修正所述初始轮挡三维地图,得到轮挡三维地图。
6.根据权利要求1所述方法,其特征在于,还包括:
根据所述轮挡三维地图,计算自车与轮挡之间的距离;
根据所述距离控制自车的泊车过程。
7.一种地图构建装置,其特征在于,包括:
获取模块,被配置为通过相机每隔第一时间获取泊车场景的多帧图像;
所述获取模块,还被配置为通过激光雷达每隔第二时间获取所述泊车场景的点云数据;
识别模块,被配置为通过预先训练好的轮挡识别模型识别所述多帧图像中的轮挡信息;
融合模块,被配置为融合所述多帧图像中的轮挡信息,得到轮挡分类结果;
处理模块,被配置为基于车辆定位结果和所述轮挡分类结果,构建初始轮挡三维地图;
所述处理模块,还被配置为结合所述点云数据中的轮挡位置信息,修正所述初始轮挡三维地图,得到轮挡三维地图,包括:获取所述轮挡附近位置的点云数据,利用所述轮挡附近位置的点云数据拟合出所述轮挡的三维线段的位置信息,根据所述位置信息修正所述初始轮挡三维地图,得到所述轮挡三维地图。
8.一种车辆,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述可执行指令实现权利要求1-6中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1-6中任一项所述方法的步骤。
10.一种芯片,其特征在于,包括处理器和接口;所述处理器用于读取指令以执行权利要求1-6中任一项所述的方法。
CN202210832856.XA 2022-07-15 2022-07-15 地图构建方法、装置、车辆、可读存储介质及芯片 Active CN115100377B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210832856.XA CN115100377B (zh) 2022-07-15 2022-07-15 地图构建方法、装置、车辆、可读存储介质及芯片
EP22204676.5A EP4307251A1 (en) 2022-07-15 2022-10-31 Mapping method, vehicle, computer readable storage medium, and chip
US17/977,197 US20240017719A1 (en) 2022-07-15 2022-10-31 Mapping method and apparatus, vehicle, readable storage medium, and chip

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210832856.XA CN115100377B (zh) 2022-07-15 2022-07-15 地图构建方法、装置、车辆、可读存储介质及芯片

Publications (2)

Publication Number Publication Date
CN115100377A CN115100377A (zh) 2022-09-23
CN115100377B true CN115100377B (zh) 2024-06-11

Family

ID=83298030

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210832856.XA Active CN115100377B (zh) 2022-07-15 2022-07-15 地图构建方法、装置、车辆、可读存储介质及芯片

Country Status (3)

Country Link
US (1) US20240017719A1 (zh)
EP (1) EP4307251A1 (zh)
CN (1) CN115100377B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220383755A1 (en) * 2021-05-28 2022-12-01 Tongji University Unmanned aerial vehicle positioning method based on millimeter-wave radar
CN115743098B (zh) * 2023-01-04 2023-04-28 小米汽车科技有限公司 泊车方法、装置、存储介质、电子设备及车辆

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106840177A (zh) * 2017-01-23 2017-06-13 斑马信息科技有限公司 汽车同步建图与障碍识别方法
CN108944915A (zh) * 2018-07-13 2018-12-07 广东工业大学 一种自动泊车方法、***及计算机可读存储介质
JP2019166856A (ja) * 2018-03-22 2019-10-03 日産自動車株式会社 自動運転車両の駐車制御方法及び駐車制御装置
CN110794970A (zh) * 2019-11-07 2020-02-14 广州小鹏汽车科技有限公司 一种自动泊车界面的三维显示方法、***及车辆
CN111860072A (zh) * 2019-04-30 2020-10-30 广州汽车集团股份有限公司 泊车控制方法、装置、计算机设备及计算机可读存储介质
CN111951305A (zh) * 2020-08-20 2020-11-17 重庆邮电大学 一种基于视觉和激光雷达的目标检测和运动状态估计方法
CN112721921A (zh) * 2021-02-05 2021-04-30 重庆长安汽车股份有限公司 基于实时视频流监控的远程泊车方法及***
CN112862894A (zh) * 2021-04-12 2021-05-28 中国科学技术大学 一种机器人三维点云地图构建与扩充方法
CN113119958A (zh) * 2021-05-27 2021-07-16 广州小鹏自动驾驶科技有限公司 一种自动泊车方法和装置
CN113793371A (zh) * 2021-08-23 2021-12-14 北京航空航天大学杭州创新研究院 目标分割追踪方法、装置、电子设备和存储介质
CN114119886A (zh) * 2021-10-27 2022-03-01 北京百度网讯科技有限公司 高精地图点云重建方法、装置、车辆、设备和存储介质
CN114413881A (zh) * 2022-01-07 2022-04-29 中国第一汽车股份有限公司 高精矢量地图的构建方法、装置及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9740944B2 (en) * 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
SG11201811747XA (en) * 2018-11-15 2020-06-29 Beijing Didi Infinity Technology & Development Co Ltd Systems and methods for correcting a high-definition map based on detection of obstructing objects
JP7019731B2 (ja) * 2019-01-30 2022-02-15 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転車のためのリアルタイム地図生成システム
US20210004613A1 (en) * 2019-07-02 2021-01-07 DeepMap Inc. Annotating high definition map data with semantic labels
CN112560972B (zh) * 2020-12-21 2021-10-08 北京航空航天大学 基于毫米波雷达先验定位和视觉特征融合的目标检测方法
EP4264567A1 (en) * 2020-12-21 2023-10-25 Sony Semiconductor Solutions Corporation Available parking space identification device, available parking space identification method, and program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106840177A (zh) * 2017-01-23 2017-06-13 斑马信息科技有限公司 汽车同步建图与障碍识别方法
JP2019166856A (ja) * 2018-03-22 2019-10-03 日産自動車株式会社 自動運転車両の駐車制御方法及び駐車制御装置
CN108944915A (zh) * 2018-07-13 2018-12-07 广东工业大学 一种自动泊车方法、***及计算机可读存储介质
CN111860072A (zh) * 2019-04-30 2020-10-30 广州汽车集团股份有限公司 泊车控制方法、装置、计算机设备及计算机可读存储介质
CN110794970A (zh) * 2019-11-07 2020-02-14 广州小鹏汽车科技有限公司 一种自动泊车界面的三维显示方法、***及车辆
CN111951305A (zh) * 2020-08-20 2020-11-17 重庆邮电大学 一种基于视觉和激光雷达的目标检测和运动状态估计方法
CN112721921A (zh) * 2021-02-05 2021-04-30 重庆长安汽车股份有限公司 基于实时视频流监控的远程泊车方法及***
CN112862894A (zh) * 2021-04-12 2021-05-28 中国科学技术大学 一种机器人三维点云地图构建与扩充方法
CN113119958A (zh) * 2021-05-27 2021-07-16 广州小鹏自动驾驶科技有限公司 一种自动泊车方法和装置
CN113793371A (zh) * 2021-08-23 2021-12-14 北京航空航天大学杭州创新研究院 目标分割追踪方法、装置、电子设备和存储介质
CN114119886A (zh) * 2021-10-27 2022-03-01 北京百度网讯科技有限公司 高精地图点云重建方法、装置、车辆、设备和存储介质
CN114413881A (zh) * 2022-01-07 2022-04-29 中国第一汽车股份有限公司 高精矢量地图的构建方法、装置及存储介质

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Dotloom: Toward a Decentralized Data Platform for Massive Three-dimensional Point Clouds;Taehoon Kim.etc;IEEE;20191231;全文 *
基于三维激光雷达的无人机场景建模;赵猛;姚凯;杨国栋;何煊;梁自泽;翟永杰;;现代电子技术;20200714(第14期);全文 *
基于开源场景图形的三维可视化与信息管理***设计;张文英;何坤金;张荣丽;刘宇兴;;计算机应用;20160710(第07期);全文 *
基于激光点云数据的无人驾驶航空器***空中走廊构建;冯登超;;计算机测量与控制;20180225(第02期);全文 *
基于稀疏激光点云数据和单帧图像融合的三维重构算法;贺秉安;曾兴;李子奇;万生鹏;;计测技术;20170628(第03期);全文 *
王晓峰等.《英汉人工智能辞典》.上海交通大学出版社,2019,167. *
赵晓丽.《面向图像分割的智能算法》.中国铁道出版社,2021,71-73. *

Also Published As

Publication number Publication date
EP4307251A1 (en) 2024-01-17
CN115100377A (zh) 2022-09-23
US20240017719A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
CN115100377B (zh) 地图构建方法、装置、车辆、可读存储介质及芯片
CN115330923B (zh) 点云数据渲染方法、装置、车辆、可读存储介质及芯片
CN115042821B (zh) 车辆控制方法、装置、车辆及存储介质
CN115123257B (zh) 路面减速带位置识别方法、装置、车辆、存储介质及芯片
CN114842075B (zh) 数据标注方法、装置、存储介质及车辆
CN115205365A (zh) 车辆距离检测方法、装置、车辆、可读存储介质及芯片
CN115035494A (zh) 图像处理方法、装置、车辆、存储介质及芯片
CN115220449A (zh) 路径规划的方法、装置、存储介质、芯片及车辆
CN115056784B (zh) 车辆控制方法、装置、车辆、存储介质及芯片
CN115205311B (zh) 图像处理方法、装置、车辆、介质及芯片
CN115100630B (zh) 障碍物检测方法、装置、车辆、介质及芯片
CN115222791B (zh) 目标关联方法、装置、可读存储介质及芯片
CN115221151B (zh) 车辆数据的传输方法、装置、车辆、存储介质及芯片
CN115164910B (zh) 行驶路径生成方法、装置、车辆、存储介质及芯片
CN115202234B (zh) 仿真测试方法、装置、存储介质和车辆
CN115203457B (zh) 图像检索方法、装置、车辆、存储介质及芯片
CN114782638B (zh) 生成车道线的方法、装置、车辆、存储介质及芯片
CN115205848A (zh) 目标检测方法、装置、车辆、存储介质及芯片
CN115205179A (zh) 图像融合的方法、装置、车辆及存储介质
CN115042814A (zh) 交通灯状态识别方法、装置、车辆及存储介质
CN115082886B (zh) 目标检测的方法、装置、存储介质、芯片及车辆
CN115139946B (zh) 车辆落水检测方法、车辆、计算机可读存储介质及芯片
CN115205461B (zh) 场景重建方法、装置、可读存储介质及车辆
CN115082772B (zh) 地点识别方法、装置、车辆、存储介质及芯片
CN115115707B (zh) 车辆落水检测方法、车辆、计算机可读存储介质及芯片

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant