CN111351493B - 一种定位方法和*** - Google Patents

一种定位方法和*** Download PDF

Info

Publication number
CN111351493B
CN111351493B CN201811583366.0A CN201811583366A CN111351493B CN 111351493 B CN111351493 B CN 111351493B CN 201811583366 A CN201811583366 A CN 201811583366A CN 111351493 B CN111351493 B CN 111351493B
Authority
CN
China
Prior art keywords
vehicle
real
point cloud
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811583366.0A
Other languages
English (en)
Other versions
CN111351493A (zh
Inventor
张祎
刘勇超
王路遥
张磊
蒋如意
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ofilm Intelligent Vehicle Co ltd
Original Assignee
Shanghai Ofilm Intelligent Vehicle Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ofilm Intelligent Vehicle Co ltd filed Critical Shanghai Ofilm Intelligent Vehicle Co ltd
Priority to CN201811583366.0A priority Critical patent/CN111351493B/zh
Publication of CN111351493A publication Critical patent/CN111351493A/zh
Application granted granted Critical
Publication of CN111351493B publication Critical patent/CN111351493B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及导航领域,特别是涉及一种定位方法和***。一种定位方法,应用于在预设场景中对第一车辆进行实时定位,所述方法包括:提供与所述预设场景匹配的点云地图,所述点云地图具有若干参考特征点;采集所述第一车辆在所述预设场景中当前所处环境的实时图像;将所述实时图像与所述点云地图进行特征点匹配,以计算出所述第一车辆在所述点云地图中的定位参数;以及根据所述定位参数得到所述第一车辆的实时定位信息。本发明通过采集车辆在预设场景中当前所处环境的实时图像,并与相匹配的点云地图进行匹配来获得车辆的实时定位信息,可以应用在各种场景中,定位精度高且速度快。

Description

一种定位方法和***
技术领域
本发明涉及导航领域,特别是涉及一种定位方法和***。
背景技术
车辆定位是车辆***中十分重要的一部分,一般的车辆定位方法在很多封闭环境、城市峡谷、居民小区等场地无法准确定位甚至失效。
发明内容
基于此,提供一种定位方法和***。
一种定位方法,应用于在预设场景中对第一车辆进行实时定位,所述方法包括:
提供与所述预设场景匹配的点云地图,所述点云地图具有若干参考特征点;
采集所述第一车辆在所述预设场景中当前所处环境的实时图像;
将所述实时图像与所述点云地图进行特征点匹配,以计算出所述第一车辆在所述点云地图中的定位参数;以及
根据所述定位参数得到所述第一车辆的实时定位信息。
上述定位方法,通过采集第一车辆在预设场景中当前所处环境的实时图像,并与相匹配的点云地图进行匹配来获得车辆的实时定位信息,可以应用在各种场景中,定位精度高且速度快。
在其中一个实施例中,所述定位方法还包括:
提供与所述预设场景匹配的语义地图,所述语义地图具有若干参考目标;
将所述实时图像与所述语义地图进行目标匹配,以校正所述定位参数;定位更精确,抗干扰能力强,安全性高,使得在周围环境明显改变的情况下依然能够识别定位,***精度与鲁棒性高。
在其中一个实施例中,所述定位参数包括坐标、偏角中的至少一种。
在其中一个实施例中,所述提供与所述预设场景匹配的点云地图的步骤,包括:
采集第二车辆在所述预设场景中所有行车道环境的第一参考图像;
获取所述第二车辆的运动估计;
获取所述第一参考图像中各帧图像的位姿;
提取并匹配所述第一参考图像中各帧图像的特征点,结合所述第二车辆的运动估计、所述第一参考图像中各帧图像的位姿以及匹配后的第一参考图像中各帧图像中的特征点,生成无序点云;
对所述无序点云进行三角化处理,得到三维稀疏点云;以及
利用光束平差法优化所述三维稀疏点云中各个特征点的三维坐标,生成与所述预设场景匹配的点云地图。
在其中一个实施例中,所述提供与所述预设场景匹配的语义地图的步骤,包括:
采集第三车辆在所述预设场景中所有行车道的第二参考图像;
通过加载卷积神经网络模型,来检测所述第二参考图像中的参考目标;
对所述第二参考图像中的各帧图像分类并标注二维方框;以及
对所述第二参考图像的各帧图像进行匹配,生成立方体方框,从而生成与所述预设场景匹配的语义地图。
在其中一个实施例中,所述定位方法还包括:
对所述第一车辆的实时定位信息进行卡尔曼滤波,以减小所述第一车辆的实时定位信息的噪声,获得精确的定位信息;
其中,所述对所述第一车辆的实时定位信息进行卡尔曼滤波的步骤,包括:
获取所述第一车辆的实时运动估计;
以第一时刻获取的所述第一车辆的实时定位信息作为初始值,以所述第一车辆的实时运动估计作为过程预测量,以第二时刻获取的所述第一车辆的实时定位信息作为观测更新值,根据预设的置信度计算所述观测更新量的方差;以及
结合所述观测更新值和所述方差,通过扩展卡尔曼滤波理论,以预设的频率融合获得并输出精确的定位信息;
其中,每间隔预设的一段时间,获取所述第一车辆实时的定位信息;以及所述第二时刻与所述第一时刻具有预设的时间间隔,在第一时刻获取所述第一车辆的实时定位信息,间隔所述的预设的时间后,获取在第二时刻所述第一车辆实时定位信息。
在其中一个实施例中,所述定位方法还包括:
记录所述实时图像与所述点云地图的特征点的差异;
当所述实时图像与所述点云地图的特征点的差异累计到第一预设程度后,在所述点云地图中更新所述特征点;
其中,所述更新所述特征点通过在所述点云地图中构建或者去除所述差异特征点来实现。
在其中一个实施例中,所述定位方法还包括:
记录所述实时图像与所述语义地图的目标的差异;
当所述实时图像与所述语义地图的目标的差异累计到第二预设程度后,在所述语义地图中更新所述目标;
其中,所述更新所述目标通过在所述语义地图中构建或者去除所述差异目标来实现。
通过持续更新所述点云地图和/或所述语义地图,保证了在周围环境缓慢变化情况下的定位精度。
一种定位***,应用于在预设场景中对第一车辆进行实时定位,所述***包括:
存储装置,存储有与所述预设场景匹配的点云地图;
车载环视装置,用于采集所述第一车辆在所述预设场景中当前所处环境的实时图像;以及
处理装置,分别与所述存储装置和所述车载环视装置连接;
其中,所述处理装置包括车辆定位模块,所述车辆定位模块用于将所述实时图像与所述点云地图进行特征点匹配,以计算出所述第一车辆在所述点云地图中的定位参数。
在其中一个实施例中,所述***还包括:
车载里程计,与所述处理装置连接,用于获得所述第一车辆的实时运动估计;
其中,所述处理装置还包括:
点云地图生成模块,用于生成所述点云地图,并将所生成的所述点云地图传输给所述存储装置;
语义地图生成模块,用于生成所述语义地图,并将所生成的所述语义地图传输给所述存储装置;
卡尔曼滤波模块,分别与所述车辆定位模块和所述车载里程计连接,用于对所述第一车辆的实时定位信息进行卡尔曼滤波,以减小所述第一车辆的实时定位信息的噪声,获得精确的定位信息;以及
地图更新模块,用于更新所述点云地图和/或所述语义地图。
上述定位***,采用了车载环视装置来实现车辆定位功能,成本低廉,同时,通过采集第一车辆在预设场景中当前所处环境的实时图像,并与相匹配的点云地图进行匹配来获得车辆的实时定位信息,可以应用在各种场景中,定位精度高且速度快。
附图说明
图1为一个实施例中定位方法的流程图;
图2为另一个实施例中定位方法的流程图;
图3为一个实施例中提供点云地图的步骤的流程图;
图4为一个实施例中提供语义地图的步骤的流程图;
图5为一个实施例中卡尔曼滤波的步骤的流程图;
图6为一个实施例中更新点云地图的步骤的流程图;
图7为一个实施例中更新语义地图的步骤的流程图;
图8为一个实施例中定位***的结构框图;
图9为另一个实施例中定位***的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
图1为一个实施例中定位方法的流程图,如图1所示,一种定位方法,应用于在预设场景中对第一车辆进行实时定位,所述方法包括:
S210,提供与所述预设场景匹配的点云地图,具体地,所述预设场景可以为停车场、小区等,所述点云地图具有若干参考特征点;
S220,采集所述第一车辆在所述预设场景中当前所处环境的实时图像,具体地,所述第一车辆为当前需要实时定位的车辆;
S230,将所述实时图像与所述点云地图进行特征点匹配,以计算出所述第一车辆在所述点云地图中的定位参数;
S240,根据所述定位参数得到所述第一车辆的实时定位信息。
上述定位方法,通过采集第一车辆在预设场景中当前所处环境的实时图像,并与相匹配的点云地图进行匹配来获得车辆的实时定位信息,可以应用在各种场景中,定位精度高且速度快。
图2为另一个实施例中定位方法的流程图,如图2所示,所述方法还可包括:
S250,提供与所述预设场景匹配的语义地图,所述语义地图具有若干参考目标,参考目标可为树木、车辆、车道线等;
S260,将所述实时图像与所述语义地图进行目标匹配,以校正所述定位参数,定位更精确,抗干扰能力强,安全性高,使得在周围环境明显改变的情况下依然能够识别定位,***精度与鲁棒性高。
S270,对所述第一车辆的实时定位信息进行卡尔曼滤波,以减小所述第一车辆的实时定位信息的噪声,获得精确的定位信息;
S280,更新所述点云地图;
S290,更新所述语义地图。
具体地,通过持续更新所述点云地图和/或所述语义地图,保证了在周围环境缓慢变化情况下的定位精度。
具体地,在其中一个实施例中,所述定位参数可为坐标、偏角中的至少一种,需要说明的是,所述定位参数还可为其他的本领域技术人员能从目标匹配中获取的定位指标,而不只是限于坐标跟偏角。
具体地,需要说明的是,对于所述提供与所述预设场景匹配的点云地图的步骤S210以及所述提供与所述预设场景匹配的语义地图的步骤S250,两个步骤发生的先后顺序不做要求,可以先进行提供与所述预设场景匹配的点云地图的步骤S210,再进行提供与所述预设场景匹配的语义地图的步骤S220,也可以先进行提供与所述预设场景匹配的语义地图的步骤S220,再进行提供与所述预设场景匹配的点云地图的步骤S210;对于所述更新所述点云地图的步骤S280和所述语义地图的步骤S290的步骤发生先后顺序亦不做要求。
具体地,在其中一个实施例中,如图3所示,所述提供与所述预设场景匹配的点云地图的步骤S210,可包括:
S211,采集第二车辆在所述预设场景中所有行车道环境的第一参考图像;
S212,获取所述第二车辆的运动估计;
S213,获取所述第一参考图像中各帧图像的位姿;
S214,提取并匹配所述第一参考图像中各帧图像的特征点,结合所述第二车辆的运动估计、所述第一参考图像中各帧图像的位姿以及匹配后的第一参考图像中各帧图像中的特征点,生成无序点云;
S215,对所述无序点云进行三角化处理,得到三维稀疏点云;
S216,利用光束平差法优化所述三维稀疏点云中各个特征点的三维坐标,生成与所述预设场景匹配的点云地图。
具体地,所述第二车辆可以为所述第一车辆,也可以为其他专设的车辆,甚至可以为其他一切广义上的车辆,所述无序点云是结合所述第二车辆的运动估计、所述参考图像中各帧图像的位姿以及匹配后的各帧图像中的特征点生成的。
在其中一个实施例中,如图4所示,所述提供与所述预设场景匹配的语义地图的步骤S250,可包括:
S251,采集第三车辆在所述预设场景中所有行车道的第二参考图像;
S252,通过加载卷积神经网络模型,来检测所述第二参考图像中的参考目标;
S253,对所述第二参考图像中的各帧图像分类并标注二维方框,
S254,对所述第二参考图像的各帧图像进行匹配,生成立方体方框,从而生成与所述预设场景匹配的语义地图。
具体地,所述第三车辆可以为所述第二车辆,也可以为所述第一车辆或者其他专设的车辆,甚至可以为其他一切广义上的车辆,当所述第三车辆为所述第二车辆时,所述第二参考图像可以为所述第一参考图像;所述卷积神经网络模型可以预先训练好;所述立方体方框可包含目标的类别、位置、大小等信息。
在其中一个实施例中,如图5所示,所述对所述第一车辆的实时定位信息进行卡尔曼滤波的步骤S270,可包括:
S271,获取所述第一车辆的实时运动估计;
S272,以第一时刻获取的所述第一车辆的实时定位信息作为初始值,以所述第一车辆的实时运动估计作为过程预测量,以第二时刻获取的所述第一车辆的实时定位信息作为观测更新值,根据预设的置信度计算所述观测更新量的方差,
S273,结合所述观测更新值和所述方差,通过扩展卡尔曼滤波理论,以预设的频率融合获得并输出精确的定位信息;
其中,每间隔预设的一段时间,获取所述第一车辆实时的定位信息,所述第二时刻与所述第一时刻具有预设的时间间隔,在第一时刻获取所述第一车辆的实时定位信息,间隔所述的预设的时间后,获取在第二时刻所述第一车辆实时定位信息;具体地,所述置信度可由图像的关键帧与点云地图以及语义地图之间的匹配特征数量与优化后个最小误差计算得到;可以用车载里程计获取所述第一车辆的实时运动估计,此时,所述预设的频率可为车载里程计输入信号的频率,同时也是可以达到的最高频率,所述预设的频率可以为25HZ。
在其中一个实施例中,如图6所示,所述更新所述点云地图的步骤S280,可包括:
S281,记录所述实时图像与所述点云地图的特征点的差异;
S282,当所述实时图像与所述点云地图的特征点的差异累计到第一预设程度后,在所述点云地图中更新所述特征点;
其中,所述更新所述特征点通过在所述点云地图中构建或者去除所述差异特征点来实现。
在其中一个实施例中,如图7所示,所述更新所述语义地图的步骤S290,可包括:
S291,记录所述实时图像与所述语义地图的目标的差异;
S292,当所述实时图像与所述语义地图的目标的差异累计到第二预设程度后,在所述语义地图中更新所述目标;
其中,所述更新所述目标通过在所述语义地图中构建或者去除所述差异目标来实现。
图8为一个实施例中定位***的结构框图,如图8所示,一种定位***10,应用于在预设场景中对第一车辆进行实时定位,所述定位***10包括存储装置110、车载环视装置120以及处理装置130,其中,处理装置130分别与存储装置110和车载环视装置120连接,存储装置110存储有与所述预设场景匹配的点云地图,车载环视装置120用于采集所述第一车辆在所述预设环境中当前所处环境的实时图像,处理装置130可包括车辆定位模块131,所述车辆定位模块131用于将所述实时图像与所述点云地图进行特征点匹配,以计算所述第一车辆在所述点云地图中的定位参数。
上述定位***采用了车载环视装置来实现车辆定位功能,成本低。
在其中一个实施例中,如图9所示,所述定位***10还可包括车载里程计140,所述车载里程计140与处理装置130连接,可用于获得所述第一车辆的实时运动估计。
在其中一个实施例中,所述处理装置130还可包括点云地图生成模块132,用于根据所述预设场景中所有行车道环境的第一参考图像、所述车载环视装置120的相机外参以及所述第一车辆的实时运动估计,生成所述点云地图,并且,点云地图生成模块132还可将所生成的所述点云地图传输给所述存储装置110;具体地,可根据所述车载环视装置120的相机外参计算得到所述第一参考图像中各帧图像的位姿,可通过车载里程计140计算得到所述第一车辆的实时运动估计。
在其中一个实施例中,所述车辆定位模块131还可用于将所述实时图像与所述语义地图进行目标匹配,以校正所述第一车辆在所述点云地图中的定位参数。在其中一个实施例中,存储装置110还可存储有与所述预设场景匹配的语义地图,具体地,存储装置110存储的点云地图和/或语义地图可以通过所述定位***10自行获得,也可以直接从其他地方直接获取。
在其中一个实施例中,所述处理装置130还可包括语义地图生成模块133,用于根据所述预设场景中所有行车道环境的第二参考图像以及存储在所述存储装置110的卷积神经网络模型,生成所述语义地图,并且,语义地图生成模块133还可将所生成的所述语义地图传输给所述存储装置110。
在其中一个实施例中,所述处理装置130还可包括卡尔曼滤波模块134,分别与所述车辆定位模块131和所述车载里程计140连接,用于对所述第一车辆的实时定位信息进行卡尔曼滤波,以减小所述第一车辆的实时定位信息的噪声,获得精确的定位信息。
在其中一个实施例中,所述处理装置130还可包括地图更新模块135,用于更新所述点云地图和/或所述语义地图,保证了所述定位***10在所述预设场景的环境缓慢变化的情况下,定位精度不会降低。
下面结合具体的应用,对本申请中定位方法和***进行详细说明:
本实施例预设场景为地下车库,所述点云地图和所述语义地图通过所述定位***自行生成获得,所述第二车辆与所述第一车辆为同一辆待定位车辆。在地下车库中,驾驶员预先驾驶车辆在地下车库场景内以0~15km/h(例如0km/h、5km/h、10km/h、15km/h)的车速行驶一圈,通过采集车载环视装置输入的多路图像,结合车载里程计获取车辆的运动估计,点云地图生成模块提取所述多路图像的特征点并完成匹配,计算得到三维点云,并生成点云地图,语义地图生成模块则不断检测提取所述多路图像内的障碍物、标志物以及移动物体,形成语义地图。当车辆再次驶入建有点云地图和语义地图的场景内,即所述地下车库时,车辆定位模块对图像进行特征点提取,与点云地图进行匹配,快速获得车身初始坐标,语义匹配协助校正定位信息。然后在车辆行驶过程中不断进行点云与语义的匹配,结合车载里程计输出定位结果。在点云与语义匹配过程中,地图更新模块获得当前场景与点云地图和语义地图内的差异并记录状态,当差异状态达到临界值(比如连续5次存在或消失),在地图中创建或抹除这部分点云、语义信息,达到地图更新的目的。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (9)

1.一种定位方法,其特征在于,应用于在预设场景中对第一车辆进行实时定位,所述预设场景包括停车场及/或小区;所述方法包括:
提供与所述预设场景匹配的点云地图,所述点云地图具有若干参考特征点;所述参考特征点具有三维坐标;
采集所述第一车辆在所述预设场景中当前所处环境的实时图像;
将所述实时图像与所述点云地图进行特征点匹配,以计算出所述第一车辆在所述点云地图中的定位参数;
提供与所述预设场景匹配的语义地图,所述语义地图具有若干参考目标及立方体方框;所述立方体方框包括目标的类别、位置及大小;将所述实时图像与所述语义地图进行目标匹配,以校正所述定位参数;以及
根据所述定位参数得到所述第一车辆的实时定位信息;
所述提供与所述预设场景匹配的语义地图的步骤,包括:
采集第三车辆在所述预设场景中所有行车道的第二参考图像;
通过加载卷积神经网络模型,来检测所述第二参考图像中的参考目标;
对所述第二参考图像中的各帧图像分类并标注二维方框;以及
对所述第二参考图像的各帧图像进行匹配,生成所述立方体方框,从而生成与所述预设场景匹配的语义地图;
所述提供与所述预设场景匹配的点云地图的步骤,包括:
采集第二车辆在所述预设场景中所有行车道环境的第一参考图像;
获取所述第二车辆的运动估计;
获取所述第一参考图像中各帧图像的位姿;
提取并匹配所述第一参考图像中各帧图像的特征点,结合所述第二车辆的运动估计、所述第一参考图像中各帧图像的位姿以及匹配后的第一参考图像中各帧图像中的特征点,生成无序点云;
根据所述无序点云生成所述点云地图。
2.根据权利要求1所述的定位方法,其特征在于,所述参考目标包括树木、车辆及车道线中至少一个。
3.根据权利要求1所述的定位方法,其特征在于,所述定位参数包括坐标、偏角中的至少一种。
4.根据权利要求1所述的定位方法,其特征在于,所述提供与所述预设场景匹配的点云地图的步骤,还包括:
对所述无序点云进行三角化处理,得到三维稀疏点云;以及
利用光束平差法优化所述三维稀疏点云中各个特征点的三维坐标,生成与所述预设场景匹配的点云地图。
5.根据权利要求1-4任一项所述的定位方法,其特征在于,还包括:
对所述第一车辆的实时定位信息进行卡尔曼滤波,以减小所述第一车辆的实时定位信息的噪声,获得精确的定位信息;
其中,所述对所述第一车辆的实时定位信息进行卡尔曼滤波的步骤,包括:
获取所述第一车辆的实时运动估计;
以第一时刻获取的所述第一车辆的实时定位信息作为初始值,以所述第一车辆的实时运动估计作为过程预测量,以第二时刻获取的所述第一车辆的实时定位信息作为观测更新值,根据预设的置信度计算所述观测更新量的方差;以及
结合所述观测更新值和所述方差,通过扩展卡尔曼滤波理论,以预设的频率融合获得并输出精确的定位信息;
其中,每间隔预设的一段时间,获取所述第一车辆实时的定位信息;以及
所述第二时刻与所述第一时刻具有预设的时间间隔,在第一时刻获取所述第一车辆的实时定位信息,间隔所述的预设的时间后,获取在第二时刻所述第一车辆实时定位信息。
6.根据权利要求1-4任一项所述的定位方法,其特征在于,还包括:
记录所述实时图像与所述点云地图的特征点的差异;
当所述实时图像与所述点云地图的特征点的差异累计到第一预设程度后,在所述点云地图中更新所述特征点;
其中,所述更新所述特征点通过在所述点云地图中构建或者去除所述差异特征点来实现。
7.根据权利要求1-4任一项所述的定位方法,其特征在于,还包括:
记录所述实时图像与所述语义地图的目标的差异;
当所述实时图像与所述语义地图的目标的差异累计到第二预设程度后,在所述语义地图中更新所述目标;
其中,所述更新所述目标通过在所述语义地图中构建或者去除所述差异目标来实现。
8.一种定位***,其特征在于,应用于在预设场景中对第一车辆进行实时定位,所述预设场景包括停车场及/或小区;所述***包括:
存储装置,存储有与所述预设场景匹配的点云地图;所述点云地图具有若干参考特征点;所述参考特征点具有三维坐标;
车载环视装置,用于采集所述第一车辆在所述预设场景中当前所处环境的实时图像;以及
处理装置,分别与所述存储装置和所述车载环视装置连接;
其中,所述处理装置包括车辆定位模块及点云地图生成模块,所述车辆定位模块用于将所述实时图像与所述点云地图进行特征点匹配,以计算出所述第一车辆在所述点云地图中的定位参数;提供与所述预设场景匹配的语义地图,所述语义地图具有若干参考目标及立方体方框;所述立方体方框包括目标的类别、位置及大小;将所述实时图像与所述语义地图进行目标匹配,以校正所述定位参数;根据所述定位参数得到所述第一车辆的实时定位信息;
所述车辆定位模块用于:
采集第三车辆在所述预设场景中所有行车道的第二参考图像;
通过加载卷积神经网络模型,来检测所述第二参考图像中的参考目标;
对所述第二参考图像中的各帧图像分类并标注二维方框;以及
对所述第二参考图像的各帧图像进行匹配,生成所述立方体方框,从而生成与所述预设场景匹配的语义地图;
所述点云地图生成模块用于:
采集第二车辆在所述预设场景中所有行车道环境的第一参考图像;
获取所述第二车辆的运动估计;
获取所述第一参考图像中各帧图像的位姿;
提取并匹配所述第一参考图像中各帧图像的特征点,结合所述第二车辆的运动估计、所述第一参考图像中各帧图像的位姿以及匹配后的第一参考图像中各帧图像中的特征点,生成无序点云;
根据所述无序点云生成所述点云地图,并将所生成的所述点云地图传输给所述存储装置。
9.根据权利要求8所述的定位***,其特征在于,所述***还包括:
车载里程计,与所述处理装置连接,用于获得所述第一车辆的实时运动估计;
其中,所述处理装置还包括:
语义地图生成模块,用于生成所述语义地图,并将所生成的所述语义地图传输给所述存储装置;
卡尔曼滤波模块,分别与所述车辆定位模块和所述车载里程计连接,用于对所述第一车辆的实时定位信息进行卡尔曼滤波,以减小所述第一车辆的实时定位信息的噪声,获得精确的定位信息;以及
地图更新模块,用于更新所述点云地图和/或所述语义地图。
CN201811583366.0A 2018-12-24 2018-12-24 一种定位方法和*** Active CN111351493B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811583366.0A CN111351493B (zh) 2018-12-24 2018-12-24 一种定位方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811583366.0A CN111351493B (zh) 2018-12-24 2018-12-24 一种定位方法和***

Publications (2)

Publication Number Publication Date
CN111351493A CN111351493A (zh) 2020-06-30
CN111351493B true CN111351493B (zh) 2023-04-18

Family

ID=71196805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811583366.0A Active CN111351493B (zh) 2018-12-24 2018-12-24 一种定位方法和***

Country Status (1)

Country Link
CN (1) CN111351493B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114063091A (zh) * 2020-07-30 2022-02-18 北京四维图新科技股份有限公司 高精度的定位方法及产品
CN114248783B (zh) * 2020-09-22 2024-07-16 长沙智能驾驶研究院有限公司 车辆辅助控制方法与装置、地图获取方法以及服务器
CN114323035A (zh) * 2020-09-30 2022-04-12 华为技术有限公司 定位方法、装置和***
CN112284402B (zh) * 2020-10-15 2021-12-07 广州小鹏自动驾驶科技有限公司 一种车辆定位的方法和装置
CN112631288B (zh) * 2020-12-09 2023-01-06 上海欧菲智能车联科技有限公司 泊车定位方法、装置、车辆及存储介质
CN112762824B (zh) * 2020-12-24 2022-04-22 中南大学 一种无人车定位方法及***
CN112782733B (zh) * 2021-01-28 2023-08-01 北京斯年智驾科技有限公司 高精度定位方法、装置、***、电子装置和存储介质
CN114913491A (zh) * 2021-02-08 2022-08-16 广州汽车集团股份有限公司 一种车辆定位方法及***、计算机可读存储介质
CN113419235A (zh) * 2021-05-28 2021-09-21 同济大学 一种基于毫米波雷达的无人机定位方法
CN113343830B (zh) * 2021-06-01 2024-05-24 上海追势科技有限公司 一种地下停车场车辆快速重定位的方法
CN113465620A (zh) * 2021-06-02 2021-10-01 上海追势科技有限公司 一种基于语义信息的停车场粒子滤波定位方法
CN113327444A (zh) * 2021-06-09 2021-08-31 上海智能新能源汽车科创功能平台有限公司 一种基于车路云协同优化车速的控制方法
WO2023019509A1 (zh) * 2021-08-19 2023-02-23 浙江吉利控股集团有限公司 基于环境匹配的车辆定位方法、装置、车辆及存储介质
CN114053730B (zh) * 2021-10-25 2023-08-18 浙江小族智能科技有限公司 游乐车及其行驶控制方法、装置、存储介质、终端
CN114646320B (zh) * 2022-02-09 2023-04-28 江苏泽景汽车电子股份有限公司 一种路径引导方法、装置、电子设备及可读存储介质
CN114577215B (zh) * 2022-03-10 2023-10-27 山东新一代信息产业技术研究院有限公司 一种移动机器人的特征地图更新方法、设备及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230337A (zh) * 2017-12-31 2018-06-29 厦门大学 一种基于移动端的语义slam***实现的方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106940186B (zh) * 2017-02-16 2019-09-24 华中科技大学 一种机器人自主定位与导航方法及***
CN107145578B (zh) * 2017-05-08 2020-04-10 深圳地平线机器人科技有限公司 地图构建方法、装置、设备和***
CN107144285B (zh) * 2017-05-08 2020-06-26 深圳地平线机器人科技有限公司 位姿信息确定方法、装置和可移动设备
CN107340522B (zh) * 2017-07-10 2020-04-17 浙江国自机器人技术有限公司 一种激光雷达定位的方法、装置及***
CN107742311B (zh) * 2017-09-29 2020-02-18 北京易达图灵科技有限公司 一种视觉定位的方法及装置
CN107741234B (zh) * 2017-10-11 2021-10-19 深圳勇艺达机器人有限公司 一种基于视觉的离线地图构建及定位方法
CN109029463B (zh) * 2018-08-20 2021-08-24 重庆师范大学 面向车辆安全行驶的室内多平衡车自主导航与调度***

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230337A (zh) * 2017-12-31 2018-06-29 厦门大学 一种基于移动端的语义slam***实现的方法

Also Published As

Publication number Publication date
CN111351493A (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
CN111351493B (zh) 一种定位方法和***
US11294387B2 (en) Systems and methods for training a vehicle to autonomously drive a route
US20220292711A1 (en) Pose estimation method and device, related equipment and storage medium
WO2019092418A1 (en) Method of computer vision based localisation and navigation and system for performing the same
JP5162849B2 (ja) 不動点位置記録装置
US20220057806A1 (en) Systems and methods for obstacle detection using a neural network model, depth maps, and segmentation maps
CN110945320B (zh) 车辆定位方法和***
JP2017181870A (ja) 情報処理装置及び情報処理サーバ
CN115552200A (zh) 用于生成重要性占据栅格地图的方法和***
KR102595886B1 (ko) 매핑에서의 향상된 시맨틱 라벨링을 위한 멀티 모달 분할 네트워크
US11200679B1 (en) System and method for generating a probability distribution of a location of an object
KR20230051035A (ko) Radar와 lidar 융합을 사용한 대상체 검출
KR102631148B1 (ko) 센서 데이터를 사용하여 자동으로 교통 신호 검출
CN114842455B (zh) 障碍物检测方法、装置、设备、介质、芯片及车辆
US20230159033A1 (en) High fidelity data-driven multi-modal simulation
Chipka et al. Estimation and navigation methods with limited information for autonomous urban driving
US11400958B1 (en) Learning to identify safety-critical scenarios for an autonomous vehicle
Elfring et al. Vehicle localization using a traffic sign map
CN115164910A (zh) 行驶路径生成方法、装置、车辆、存储介质及芯片
CN114426030A (zh) 一种行人穿行意图估计方法、装置、设备和汽车
US20240239378A1 (en) Systems and Methods for Handling Traffic Signs
US20240127603A1 (en) Unified framework and tooling for lane boundary annotation
US20230024799A1 (en) Method, system and computer program product for the automated locating of a vehicle
JP7294476B2 (ja) カメラ制御システム、カメラ制御方法、及び非一時的コンピュータ可読媒体
US11651508B1 (en) Methods and apparatus for depth estimation using stereo cameras in a vehicle system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant