CN112802095A - 定位方法、装置及设备、以及自动驾驶定位*** - Google Patents
定位方法、装置及设备、以及自动驾驶定位*** Download PDFInfo
- Publication number
- CN112802095A CN112802095A CN201911113951.9A CN201911113951A CN112802095A CN 112802095 A CN112802095 A CN 112802095A CN 201911113951 A CN201911113951 A CN 201911113951A CN 112802095 A CN112802095 A CN 112802095A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- positioning
- target object
- matching degree
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000009616 inductively coupled plasma Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Navigation (AREA)
Abstract
本公开实施例提供一种定位方法、装置及设备、以及自动驾驶定位***,定位方法包括:提取定位对象周围的多个第一目标物体对应的多个第一点云,利用第一点云在高精地图中搜索多个第一目标物体对应的多个第一位置,再计算第一位置的匹配度,以获得定位对象的定位信息。该方法利用现有视觉技术采集足够的点云信息,以获得用于候选的第一位置,再确定定位对象的准确位置,所获得位置准确度更高。
Description
技术领域
本公开涉及地理信息技术,尤其涉及一种定位方法、装置及设备、以及自动驾驶定位***。
背景技术
目前,很多设备都提供定位功能,例如:汽车、机器人以及手机等等。一方面,定位功能让用户实时知晓所处位置,另一方面,位置信息作为基础信息使用,例如:汽车自动泊车或者自动驾驶均需要利用位置信息。
常见的定位方法是采用GPS进行定位,但是民用GPS定位差,定位精度在米级别。为了实现厘米级别的定位,通常在设备上安装惯导装置进行定位,但是,由于信号的多径效应,惯导设备在一些封闭环境(例如:隧道、停车场)里效果较差。
此外,现有技术中也有利用地标信息计算设备位置,上述地标信息需要人为设置,地标信息包含了经纬度信息,通过多个地标信息即可获得设备位置,可以避免信号的多径效应,然而,该定位方法的定位准确度与地标密集程度有关,现有的地标密集度还无法使上述定位方法精确定位。
发明内容
本公开实施例提供一种定位方法、装置及设备、以及自动驾驶定位***,以解决现有定位方法准确度不高的技术问题。
第一方面,本公开实施例提供一种定位方法,应用于定位装置,该方法包括:
获取第一点云集合及第一点云对应的第一目标物体;其中,第一点云集合包括至少一个第一点云,定位对象附近有至少一个第一目标物体;
根据第一点云从高精地图中获取第一目标物体对应的第一候选位置集合;其中,第一候选位置集合包括至少一个第一位置;
计算第一位置的匹配度,将匹配度最大的第一位置作为定位对象的位置输出。
可选地,确定第一位置的匹配度,将匹配度最大的第一位置作为定位对象的位置输出,进一步包括:
根据第一位置与第一目标物体的对应关系,确定第一位置对应的第二目标物体集合;
对第二目标物体集合与第一位置的标准物体集合进行匹配度计算,以获得第一位置的匹配度;
其中,标准物体集合是从高精地图中获取的位于第一位置的物体集合。
可选地对第二目标物体集合与第一位置的标准物体集合进行匹配计算,进一步包括:
获取第二目标物体的点云和标准物体的点云,其中,第二目标物体集合包括至少一个第二目标物体;标准物体集合包括至少一个标准物体;
计算第二目标物体的点云和标准物体的点云的匹配度,以获得第一位置的匹配度。
可选地,获取第一点云集合及第一点云对应的第一目标物体,进一步包括:
采集定位对象周围场景的点云;
从周围场景的点云中提取待识别的点云;
利用已训练的学习模型对待识别的点云进行识别处理,以输出第一点云集合及第一点云对应的第一目标物体。
可选地,利用已训练的学习模型对待识别点云进行识别处理,进一步包括:
对待识别的点云进行编码处理,以输出待识别的点云对应的描述子,其中,描述子用于表示识别的点云对应的第一目标物体的轮廓特征;
对待识别的点云对应的描述子进行解码处理,以输出第一点云以及第一点云对应第一目标物体。
可选地,从周围场景的点云中提取出待识别的点云,进一步包括:
对周围场景的点云进行预处理,以去除干扰点云;
从预处理后的点云中提取待识别的点云。
可选地,从预处理后的点云中提取待识别的点云,进一步包括:
对预处理后的点云进行降维处理,以获得二维形式的点云;
对二维形式的点云进行过滤处理,以获得二维形式的待识别的点云;
对二维形式的待识别的点云进行三维重构,以获得待识别的点云。
第二方面,本公开实施例提供一种定位装置,装置包括:
获取模块,用于获取第一点云集合及第一点云对应的第一目标物体;其中,第一点云集合包括至少一个第一点云,定位对象附近有至少一个第一目标物体;
获取模块还用于根据第一点云从高精地图中获取第一目标物体对应的第一候选位置集合;其中,第一候选位置集合包括至少一个第一位置;
计算模块,用于确定第一位置的匹配度,以将最大的匹配度对应的第一位置作为定位对象的位置输出。
可选地,计算模块进一步用于:
根据第一位置与第一目标物体的对应关系,确定第一位置对应的第二目标物体集合;
对第二目标物体集合与第一位置的标准物体集合进行匹配度计算,以获得第一位置的匹配度;
其中,标准物体集合是从高精地图中获取的位于第一位置的物体集合。
可选地,计算模块进一步用于:
获取第二目标物体的点云和标准物体的点云,其中,第二目标物体集合包括至少一个第二目标物体;标准物体集合包括至少一个标准物体;
计算第二目标物体的点云和标准物体的点云的匹配度,以获得第一位置的匹配度。
可选地,获取模块进一步用于:
采集定位对象周围场景的点云;
从周围场景的点云中提取待识别的点云;
利用已训练的学习模型对待识别的点云进行识别处理,以输出第一点云集合及第一点云对应的第一目标物体。
可选地,获取模块进一步用于:
对待识别的点云进行编码处理,以输出待识别的点云对应的描述子,其中,描述子用于表示识别的点云对应的第一目标物体的轮廓特征;
对待识别的点云对应的描述子进行解码处理,以输出第一点云以及第一点云对应第一目标物体。
可选地,获取模块进一步用于:
对周围场景的点云进行预处理,以去除干扰点云;
从预处理后的点云中提取待识别的点云。
可选地,获取模块进一步用于:
对预处理后的点云进行降维处理,以获得二维形式的点云;
对二维形式的点云进行过滤处理,以获得二维形式的待识别的点云;
对二维形式的待识别的点云进行三维重构,以获得待识别的点云。
第三方面,本公开实施例提供一种自动驾驶的定位***,该***包括:
车载定位模块,基于卫星定位对车身进行定位,并输出卫星定位信息;
点云定位模块,用于根据前述任一定位方法基于实时点云与高精地图中点云的匹配度进行车身定位,并输出点云语义定位信息;
融合定位模块,用于融合所述卫星定位信息和所述点云语义定位信息,并输出融合处理之后的定位信息。
可选地,融合定位模块进一步用于判断车载定位模块的车身定位是否准确,并在确定车载定位模块的定位准确时,则调用车载定位模块输出其定位信息;在车载定位模块的定位不准确时,则调用点云语义定位模块进行定位并输出点云语义定位信息。
可选地,融合定位模块进一步用于:通过判断是否满足以下任一项条件判断车载定位模块的车身定位是否准确;该条件包括:
用于定位的卫星数量是否达到预设数量;
接收到的定位信号是否满足预设阈值;以及
当前定位位置与上一时刻的定位位置的差值是否小于预设阈值。
第四方面,本公开实施例提供一种定位设备,该设备包括:
存储器,用于存储程序;
处理器,用于执行存储器存储的程序,当程序被执行时,处理器用于执行第一方面及可选方案所涉及的定位方法。
与现有技术相比,本公开披露的技术方案具有如下技术效果:
实施本公开披露的技术方案,可有效利用高精度地图的语义信息,结合实时点云语义信息,通过特征点云描述子和分类信息,进行配准计算获取定位对象在高精度地图上的精确位置,而且所获得位置准确度更高。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开根据一示例性实施例示出的定位方法的流程示意图;
图2为本公开根据另一示例性实施例示出的定位方法的流程示意图;
图3为本公开提供的学习模型的算法流程示意图;
图4为本公开实施例示出的定位方法的原理示意图;
图5为本公开根据一示例性实施例示出的定位装置的结构示意图;
图6为本公开根据一示例性实施例示出的电子设备的结构示意图;
图7为本公开根据一示例性实施例示出的自动驾驶的定位***的结构示意图;以及
图8为本公开提供的实施例所示的定位***的工作原理图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术中的定位方法利用地标信息计算设备的位置信息,上述地标信息需要人为设置,地标信息包含了经纬度信息,通过多个地标信息即可获得设备位置,可以避免信号的多径效应,该定位方法的定位准确度与地标密集程度有关,而现有的地标密集度还无法达到上述定位方法的要求。本发明实施例提供一种定位方法、装置、电子设备及存储介质,以解决现有定位方法准确度不高的技术问题。
方法实施例:
本公开实施例提供的定位方法,利用定位对象周围的目标物体的点云信息对定位对象进行定位,不需要接收定位卫星信号,使得本方法可以应用于地下停车场、楼宇密集的街道等传统的GPS定位受限的地方,通过提取位于上述受限位置范围内具有特点的目标的点云,例如:立柱、墙面、楼宇边角等,再与高精地图中点云进行匹配,可获得定位对象的位置信息。进一步来讲,如在地下停车场进行定位,只需要提取一些显著特征,比如立柱和墙面信息,通过特征描述子进行匹配获得定位;又如:在楼宇密集的场所,可以提取楼宇边角信息进行匹配获得定位。
另外,由于基于物体的点云定位,可利用双目视觉设备或者单目视觉设备采集点云,通过采集足够多的点云可获得定位对象的准确位置,定位准确度更高。
本公开实施例提供方法可以应用于汽车、机器人等对象进行定位。若用于汽车定位,汽车上的控制***在利用本公开实施例提供的方法获得定位对象的位置后,可以通过车载终端将位置展示给驾驶员,也可以将位置信息通过联网传输至用户终端,例如:手机,平板等终端。另外,控制***也可以利用位置信息运行自动驾驶控制、自动泊车控制等控制方法。
图1为本公开根据一示例性实施例示出的定位方法的流程示意图。如图1所示,本实施例提供的定位方法可包括:
S101、获取第一点云集合及第一点云对应的第一目标物体。
本步骤中,第一点云集合包括至少一个点云,第一点云为利用单目视觉设备或者双目视觉设备采集到的第一目标物体的点云,第一目标物体为位于定位对象周围的物体,定位对象附近有至少一个第一目标物体。
例如:定位对象为汽车,汽车周围有一个路灯和一棵树,采集路灯的电云和树的点云。
在本实施例中,对点云信息的采集方式不做不限定,可采用上述双目视觉设备或单目视觉设备,也可以采用其他方式采集。
S102、根据第一点云从高精地图中获取第一目标物体对应的第一候选位置集合。
其中,高精地图包含有位于某个位置上的标准物体的点云。例如:在“人民广场1号地铁口”有一个路灯、一个台阶。则高精地图中“人民广场1号地铁口”与路灯的点云以及台阶的点云关联。在“人名广场2号地铁口”有一个路灯和一棵树。则高精地图中“人名广场2号地铁口”与路灯的点云和树的点云关联。
根据第一点云从高精地图中获取第一目标物体对应的第一候选位置集合。进一步包括:利用第一目标物体的第一点云在高精地图中搜索,获得第一目标物体的备选的位置信息,构成第一候选位置集合。
例如:利用路灯的点云进行搜索,搜索到该路灯有两个备选位置,一个是“人民广场1号地铁口”,另一个是“人民广场2号地铁口”。再利用树的点云进行搜索,搜索到树有一个备选位置,该位置为“人民广场2号地铁口”。
S103、计算第一位置的匹配度,将匹配度最大的第一位置作为定位对象的位置输出。
本步骤中,确定第一位置的匹配度可进一步包括:
首先,根据第一位置与第一目标物体的对应关系,确定第一位置对应的第二目标物体集合。例如:“人民广场1号地铁口”对应有一个路灯,“人民广场2号地铁口”对应有一颗树和一个路灯。那么,“人民广场1号地铁口”对应的第二目标集合B1为{路灯},“人民广场2号地铁口”对应的第二目标集合B2为{树;路灯}。
然后,对第二目标物体集合与第一位置的标准物体集合进行匹配度计算,以获得第一位置的匹配度。其中,标准物体集合是从高精地图中获取的位于第一位置的物体集合。
作为一种可选的实现方式,上述实施例中,对第二目标物体集合与标准物体集合进行匹配度计算可进一步包括:
获取第二目标物体的点云和标准物体的点云,第二目标物体集合包括至少一个第二目标物体。标准物体集合包括至少一个标准物体。
例如:计算“人民广场1号地铁口”的匹配度,第二目标集合为B1{路灯},标准物体集合为A1{路灯;台阶}。则计算集合B1{路灯}和集合A1{路灯;台阶}的匹配度。获得集合B1{路灯}的点云和集合A1{路灯;台阶}的点云,在利用点云计算集合B1和集合A1的匹配度,以获得“人民广场1号地铁口”的匹配度。
计算第二目标物体的点云和标准物体的点云的匹配度,以获得第一位置的匹配度。
作为一种可选的实现方式,上述实施例中,可以利用PLC(全称:Point CloudLibrary)中ICP配准算法计算两个点云集合的匹配度。可采用下述计算方法来计算匹配度:
根据如下公式计算第一候选位置的匹配度。
其中,m是第二目标物体集合中第二目标物体的数量,pi为第二目标物体集合中第二目标物体的相对位置,p′i为标准物体的位置,distance表示欧式距离,V表示匹配度。
在上述公式中,V值越小表示匹配度越高,反之,V值越大表示匹配度越低。
在利用上述公式获得第一候选集合中每个位置的匹配度后,将可能的位置集合对应的匹配度进行排序,并获得匹配度最大的位置对应的转换矩阵的RT,将匹配度最大的点云所对应的RT转换为大地坐标系,作为定位对象的位置,输出给车机作为最终的定位结果,以获得6-DOF(Six Degress of Freedom,六自由度)位姿。
这里,也可以采用其他方式计算两个集合的匹配度,在本实施例中不限定采用此方法计算匹配度。
在上述各实施例中,可利用双目视觉设备或者单目视觉设备采集目标物体的点云,也可以采取其他方式采集目标物体的点云。另外,通过现有的视觉技术采集足够多的点云,可以提高定位的准确度。
在本实施例提供的定位方法中,利用第一目标物体的点云在高精地图中搜索待选的第一候选位置集合,在利用点云计算第一位置对应的第二目标集合与标准集合的匹配度,以获得第一位置的匹配度,通过采集足够多的点云信息,可获得较高的定位准确度。
图2为本公开根据另一示例性实施例示出的定位方法的流程图。如图2所示,本实施例提供定位方法包括如下步骤:
S201、采集定位对象周围场景的点云。
其中,在定位对象行进过程中,利用双目视觉设备或者单目视觉设备采集定位对象周围场景的点云。例如:在汽车行驶过程中,采集位于定位对象上的激光雷达生成的每一帧数据,所采集的数据为汽车周围场景的点云。周围场景包括地面、天空、高楼、路灯、台阶等。
S202、从周围场景的点云中提取待识别的点云。
其中,从周围场景的点云中提取待识别的点云,进一步包括:首先,对周围场景的点云进行预处理,以去除干扰点云。例如:将周围场景的点云进行体素化栅格处理。处理粒径可以为1cm*1cm*1cm。使用PCL库中Sac-RanSac模型,设置模型类别和模型内外点阈值,分割出地面进和大面积平面,将这些干扰因素从周围场景的点云中去除,以降低后面识别处理步骤的运算复杂度。
然后,从预处理后的点云中提取待识别的点云。从预处理后的点云中提取待识别的点云,进一步包括:对预处理后的点云进行降维处理,以获得二维形式的点云。例如:将预处理后的点云投影到二维栅格,并对二维形式的点云进行过滤处理,以获得二维形式的待识别的点云。例如:在讲点云投影到二维栅格后,计算二维点密度,设置密度阈值,将大于密度阈值的点云提取出,以获得符合圆柱、树木、灯杆等形状的点云。
再对二维形式的待识别的点云进行三维重构,以获得待识别的点云。例如:在PCL库中用RanSac算法拟合圆柱体,获得柱子、圆柱、灯杆等目标物体的点云。在本实施例中,待识别点云用集合V’表示,其中,V’={v1’,v2’,……,vn’},点云的维度可以为16*16*8。从预处理后的点云提取出待识别的点云,可以有效降低后面识别处理步骤的运算复杂度。
在本实施中,也可以采用其他方法提取待识别的点云,不限于上述方法。
S203、利用已训练的学习模型对待识别的点云进行识别处理,以输出第一点云集合及第一点云对应的第一目标物体。
本步骤中,利用学习模型对待识别的点云进行识别处理,可以实现对第一目标物体的点云的精确识别。进一步地,学习模型可包括编码模块和解码模块,学习模型的识别机理为:对待识别的点云进行编码处理,以输出待识别的点云对应的描述子,其中,描述子用于表示识别的点云对应的第一目标物体的轮廓特征;对待识别的点云对应的描述子进行解码处理,以输出第一点云以及第一点云对应第一目标物体。
图3为本公开实施例提供的学习模型的算法流程图,如图3所示,编码模块的算法流程为:(C1)16位卷积运算、(C2)变换位度、(C3)32位卷积运算、(C4)变换位度、(C5)32位卷积运算及(C6)全卷积计算。编码模块输出64×1的描述子。
解码模块的算法流程未:(D1)全卷积计算、(D2)16位逆卷积、(D3)16位逆卷积、(D4)全卷积运算、(D5)sigmoid函数计算、(D6)全卷积运算、(D7)softmax运算,(D5)运算输出第一目标物体的点云,(D7)softmax运算输出第一目标物体的属性。
对上述学习模型进行训练的过程进一步包括:
在地图数据中获得标准物体和标准物体的点云,再将标准物体和标准物体的点云对学习模型进行训练,以确定学习模型的参数。例如:将集合A1{路灯;台阶}以及集合A2{树;路灯}作为学习模型的训练集合。
其中,可以采用如下具体实施方式获得标准物体的点云。高精度地图中已经保存了大量有特点的目标,比如树木、灯杆、柱子等点云语义信息。为了利用高精度地图的语义信息,需要先提取地图中的语义数据,生成可以在激光雷达数据采集过程中能够使用的语义模型。具体为:在高精地图中提取标准物体的点云,标准物体的点云所对应的目标物体所属类别与第一目标物体所属类别相同。在本实施例中,用集合C表示从高精地图中提取点云,C={c1,c2,……,cn},用集合I表示每个点云对应的目标物体类型,L={l1,l2,……,ln}。对上述每个标准物体的点云进行栅格化下采样处理,生成三维体素栅格的点云,用集合V表示,其中,V={v1,v2,……vn}。相应地,点云维度可以为16*16*8。S204、根据第一点云从高精地图中获取第一目标物体对应的第一候选位置集合。
在高精度地图上设置搜索半径,搜索符合第一目标物体的候选位置,获得第一候选位置集合,用集合A表示,其中,A={a1,a2,……,an}。
S205、计算第一位置的匹配度,将匹配度最大的第一位置作为定位对象的位置输出。
其中,根据第一候选位置集合中每个候选位置对应的第二目标物体集合,用集合Cai’表示,其中,C={cai1’,cai2’,...,cain’},其中,ai表示第i个候选位置,Cai’表示第i个候选位置对应的点云目标集合。利用图1所示实施例公开的ICP配准算法计算第二目标物体的点云和标准物体的点云的匹配度,以获得第一位置的匹配度。
图4为本公开实施例示出的定位方法的原理示意图。如图4所示,本方法的原理为:首先,获取定位对象在行进过程中的实时点云,对实时点云进行语义提取获得待识别点云。同时,从高精地图中进行语义提取,提取出标准物体和标准物体的点云,利用标准物体和标准物体的点云训练学习模型,以获得已训练的学习模型。然后,利用已训练的学习模型对待识别点云进行识别,获得第一目标物体及第一点云。其次,在高精地图中进行语义搜索,获得第一候选位置集合。最后,利用ICP配准算法获得每个候选位置的配准度,以获得精准位姿。
上述实施例披露的定位方法中,利用学习模型识别周围场景的点云,以获得第一目标物体的点云,可以实现对第一目标物体的点云的精确识别,进而提高定位准确度。
以上对本公开的定位方法实施例进行的说明,下面基于上述定位方法,对本公开的产品实施例做如下说明,以便于更为直接的阐述本公开的实现方式:
产品实施例:
图5为本公开根据一示例性实施例示出的定位装置的结构示意图。如图5所示,本公开实施例提供一种定位装置,该装置包括:
获取模块301,用于获取第一点云集合及第一点云对应的第一目标物体;其中,第一点云集合包括至少一个第一点云,定位对象附近有至少一个第一目标物体;
获取模块301还用于根据第一点云从高精地图中获取第一目标物体对应的第一候选位置集合;其中,第一候选位置集合包括至少一个第一位置;
计算模块302,用于确定第一位置的匹配度,以将最大的匹配度对应的第一位置作为定位对象的位置输出。
可选地,计算模块302进一步用于:
根据第一位置与第一目标物体的对应关系,确定第一位置对应的第二目标物体集合;
对第二目标物体集合与第一位置的标准物体集合进行匹配度计算,以获得第一位置的匹配度;
其中,标准物体集合是从高精地图中获取的位于第一位置的物体集合。
可选地,计算模块302进一步用于:
获取第二目标物体的点云和标准物体的点云,其中,第二目标物体集合包括至少一个第二目标物体;标准物体集合包括至少一个标准物体;
计算第二目标物体的点云和标准物体的点云的匹配度,以获得第一位置的匹配度。
可选地,获取模块301进一步用于:
采集定位对象周围场景的点云;
从周围场景的点云中提取待识别的点云;
利用已训练的学习模型对待识别的点云进行识别处理,以输出第一点云集合及第一点云对应的第一目标物体。
可选地,获取模块301进一步用于:
对待识别的点云进行编码处理,以输出待识别的点云对应的描述子,其中,描述子用于表示识别的点云对应的第一目标物体的轮廓特征;
对待识别的点云对应的描述子进行解码处理,以输出第一点云以及第一点云对应第一目标物体。
可选地,获取模块301进一步用于:
对周围场景的点云进行预处理,以去除干扰点云;
从预处理后的点云中提取待识别的点云。
可选地,获取模块301进一步用于:
对预处理后的点云进行降维处理,以获得二维形式的点云;
对二维形式的点云进行过滤处理,以获得二维形式的待识别的点云;
对二维形式的待识别的点云进行三维重构,以获得待识别的点云。
图6为本公开实施例根据一示例性实施例示出的定位设备的结构示意图。
如图6所示,本实施例提供的定位设备400包括:处理器401以及存储器402。
其中:
存储器402,用于存储计算机执行指令;
处理器401,用于执行存储器存储的计算机执行指令,以实现上述实施例中定位方法所执行的各个步骤。进一步的说明可以参见前述控制方法实施例中的相关描述。
可选地,上述存储器402既可以是独立的,也可以跟处理器401集成在一起。当存储器402独立设置时,该电子设备还包括总线403,用于连接存储器402和处理器401。
本公开实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上电子设备所执行的定位方法。
图7为本公开根据一示例性实施例示出的自动驾驶的定位***的结构示意图。如图7所示,自动驾驶的定位***包括:车载定位模块、点云定位模块及融合定位模块。其中:
车载定位模块,基于卫星定位对车身进行定位,并输出卫星定位信息。
点云定位模块,用于根据前述任一实施例所披露的定位方法,基于实时点云与高精地图中点云的匹配度进行车身定位,并输出点云语义定位信息。
融合定位模块,用于融合所述卫星定位信息和所述点云语义定位信息,并输出融合处理之后的定位信息。
作为一种可选的实施方式,融合定位模块可进一步用于:判断所述车载定位模块的车身定位是否准确,并在确定所述车载定位模块的定位准确时,则调用所述车载定位模块输出其定位信息;在所述车载定位模块的定位不准确时,则调用所述点云定位模块进行定位并输出点云语义定位信息;
作为一种可选的实施方式,融合定位模块可进一步用于:通过判断是否满足以下任一项条件判断所述车载定位模块的车身定位是否准确;所述条件包括:用于定位的卫星数量是否达到预设数量;接收到的定位信号是否满足预设阈值;以及当前定位位置与上一时刻的定位位置的差值是否小于预设阈值。这里,也可以采用其他判断依据判断车载定位模块的定位准确度,此处不做限制。
需要说明的是,本实施例的定位***也可应用于非自动驾驶车辆,进行辅助驾驶定位。
图8本公开提供的实施例所示的定位***的工作原理图,对上述自动驾驶定位***的工作原理说明如下:
图8所示为点云语义定位与传统卫星定位的组合定位方式。RTK在环境条件好的情况下可以达到10cm或者更好的精度;但是,RTK/GPS会受到天气、建筑等环境的影响,造成多径衰落或者卫星失锁,定位精度很容易超过5m。因此,在RTK/GPS失效的情况下,通过点云定位来给出更精确的定位能力。在卫星定位恢复的时候,再输出相应的位姿信息。
例如,在车辆等设备行进过程中,结合从RTK、激光雷达获取的位置信息数据,融合定位模块可通过卫星数量、信号强度、历史位置等信息判断RTK定位能力是否准确。如果卫星定位准确,则输出GPS/RTK的定位信息给车机。如果卫星定位不准确,则输出点云语义定位信息。
进一步来讲,融合定位模块判断车载定位模块的车身定位是否准确,如果判断出车载定位模块的定位不准确时,则调用点云定位模块,由点云定位模块基于点云和高精地图中点云的匹配度进行定位,并输出点云语义定位信息给车机,如自动驾驶***的控制规划模块。若确定车载定位模块的定位准确时,则调用车载定位模块,车载定位模块基于卫星定位输出定位信息给车机,如自动驾驶***的控制规划模块。
其中,上述卫星定位可以基于全球定位***(Global Positioning System,简称:GPS)技术或者实时动态差分技术(Real-time kinematic,简称:RTK)。
本实施例提供的自动驾驶定位***,当车辆使用卫星不能够精确定位时,使用语义进行定位,相较于现有的定位***,定位精度不受周围环境影响,定位可靠度更高。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本公开实施例的技术方案,而非对其限制;尽管参照前述各实施例对本公开实施例进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开实施例各实施例技术方案的范围。
Claims (10)
1.一种定位方法,其特征在于,应用于定位装置,所述方法包括:
获取第一点云集合及第一点云对应的第一目标物体;其中,所述第一点云集合包括至少一个所述第一点云,定位对象附近有至少一个所述第一目标物体;
根据所述第一点云从高精地图中获取所述第一目标物体对应的第一候选位置集合;其中,所述第一候选位置集合包括至少一个第一位置;
计算所述第一位置的匹配度,将匹配度最大的第一位置作为所述定位对象的位置输出。
2.根据权利要求1所述的方法,其特征在于,所述计算所述第一位置的匹配度,以将最大的匹配度对应的所述第一位置作为所述定位对象的位置输出,进一步包括:
根据所述第一位置与所述第一目标物体的对应关系,确定所述第一位置对应的第二目标物体集合;
对所述第二目标物体集合与所述第一位置的标准物体集合进行匹配度计算,以获得所述第一位置的匹配度;
其中,所述标准物体集合是从所述高精地图中获取的位于第一位置的物体集合。
3.根据权利要求2所述的方法,其特征在于,所述对所述第二目标物体集合与所述第一位置的标准物体集合进行匹配计算,进一步包括:
获取第二目标物体的点云和标准物体的点云,其中,所述第二目标物体集合包括至少一个所述第二目标物体;所述标准物体集合包括至少一个所述标准物体;
计算所述第二目标物体的点云和所述标准物体的点云的匹配度,以获得所述第一位置的匹配度。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述获取第一点云集合及第一点云对应的第一目标物体,进一步包括:
采集所述定位对象周围场景的点云;
从所述周围场景的点云中提取待识别的点云;
利用已训练的学习模型对所述待识别的点云进行识别处理,以输出所述第一点云集合及所述第一点云对应的所述第一目标物体。
5.根据权利要求4所述的方法,其特征在于,所述利用已训练的学习模型对所述待识别点云进行识别处理,进一步包括:
对所述待识别的点云进行编码处理,以输出所述待识别的点云对应的描述子,其中,所述描述子用于表示所述识别的点云对应的第一目标物体的轮廓特征;
对所述待识别的点云对应的描述子进行解码处理,以输出所述第一点云以及所述第一点云对应的所述第一目标物体。
6.根据权利要求4所述的方法,其特征在于,所述从所述周围场景的点云中提取出待识别的点云,进一步包括:
对所述周围场景的点云进行预处理,以去除干扰点云;
对所述预处理后的点云进行降维处理,以获得二维形式的点云;
对所述二维形式的点云进行过滤处理,以获得二维形式的待识别的点云;
对所述二维形式的待识别的点云进行三维重构,以获得所述待识别的点云。
7.一种定位装置,其特征在于,所述装置包括:
获取模块,用于获取第一点云集合及第一点云对应的第一目标物体;其中,所述第一点云集合包括至少一个所述第一点云,定位对象附近有至少一个所述第一目标物体;
所述获取模块还用于根据所述第一点云从高精地图中获取所述第一目标物体对应的第一候选位置集合;其中,所述第一候选位置集合包括至少一个第一位置;
计算模块,用于确定所述第一位置的匹配度,以将最大的匹配度对应的所述第一位置作为所述定位对象的位置输出。
8.一种自动驾驶的定位***,其特征在于,包括:
车载定位模块,基于卫星定位对车身进行定位,并输出卫星定位信息;
点云定位模块,用于根据权利要求1至6任一项所述的定位方法基于实时点云与高精地图中点云的匹配度进行车身定位,并输出点云语义定位信息;
融合定位模块,用于融合所述卫星定位信息和所述点云语义定位信息,并输出融合处理之后的定位信息。
9.根据权利要求8所述的定位***,其特征在于,所述融合定位模块进一步用于:
判断所述车载定位模块的车身定位是否准确,并在确定所述车载定位模块的定位准确时,则调用所述车载定位模块输出其定位信息;在所述车载定位模块的定位不准确时,则调用所述点云定位模块进行定位并输出点云语义定位信息;
其中,所述融合定位模块通过判断是否满足以下任一项条件判断所述车载定位模块的车身定位是否准确;所述条件包括:用于定位的卫星数量是否达到预设数量;接收到的定位信号是否满足预设阈值;以及当前定位位置与上一时刻的定位位置的差值是否小于预设阈值。
10.一种定位设备,其特征在于,包括:
存储器,用于存储程序;
处理器,用于执行所述存储器存储的所述程序,当所述程序被执行时,所述处理器用于执行如权利要求1至6中任一所述的定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911113951.9A CN112802095B (zh) | 2019-11-14 | 2019-11-14 | 定位方法、装置及设备、以及自动驾驶定位*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911113951.9A CN112802095B (zh) | 2019-11-14 | 2019-11-14 | 定位方法、装置及设备、以及自动驾驶定位*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112802095A true CN112802095A (zh) | 2021-05-14 |
CN112802095B CN112802095B (zh) | 2024-04-16 |
Family
ID=75804079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911113951.9A Active CN112802095B (zh) | 2019-11-14 | 2019-11-14 | 定位方法、装置及设备、以及自动驾驶定位*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112802095B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115586511A (zh) * | 2022-11-25 | 2023-01-10 | 唐山百川工业服务有限公司 | 一种基于阵列立柱的激光雷达二维定位方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093191A (zh) * | 2012-12-28 | 2013-05-08 | 中电科信息产业有限公司 | 一种三维点云数据结合数字影像数据的物体识别方法 |
WO2018048353A1 (en) * | 2016-09-09 | 2018-03-15 | Nanyang Technological University | Simultaneous localization and mapping methods and apparatus |
CN108303721A (zh) * | 2018-02-12 | 2018-07-20 | 北京经纬恒润科技有限公司 | 一种车辆定位方法及*** |
CN109470240A (zh) * | 2018-11-15 | 2019-03-15 | 安徽酷哇机器人有限公司 | 自动驾驶定位方法 |
CN109798903A (zh) * | 2018-12-19 | 2019-05-24 | 广州文远知行科技有限公司 | 一种从地图数据中获取道路信息的方法及装置 |
US20190171212A1 (en) * | 2017-11-24 | 2019-06-06 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for outputting information of autonomous vehicle |
CN110057373A (zh) * | 2019-04-22 | 2019-07-26 | 上海蔚来汽车有限公司 | 用于生成高精细语义地图的方法、装置和计算机存储介质 |
JP2019133658A (ja) * | 2018-01-31 | 2019-08-08 | 株式会社リコー | 測位方法、測位装置及び読取り可能な記憶媒体 |
-
2019
- 2019-11-14 CN CN201911113951.9A patent/CN112802095B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093191A (zh) * | 2012-12-28 | 2013-05-08 | 中电科信息产业有限公司 | 一种三维点云数据结合数字影像数据的物体识别方法 |
WO2018048353A1 (en) * | 2016-09-09 | 2018-03-15 | Nanyang Technological University | Simultaneous localization and mapping methods and apparatus |
US20190171212A1 (en) * | 2017-11-24 | 2019-06-06 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for outputting information of autonomous vehicle |
JP2019133658A (ja) * | 2018-01-31 | 2019-08-08 | 株式会社リコー | 測位方法、測位装置及び読取り可能な記憶媒体 |
CN108303721A (zh) * | 2018-02-12 | 2018-07-20 | 北京经纬恒润科技有限公司 | 一种车辆定位方法及*** |
CN109470240A (zh) * | 2018-11-15 | 2019-03-15 | 安徽酷哇机器人有限公司 | 自动驾驶定位方法 |
CN109798903A (zh) * | 2018-12-19 | 2019-05-24 | 广州文远知行科技有限公司 | 一种从地图数据中获取道路信息的方法及装置 |
CN110057373A (zh) * | 2019-04-22 | 2019-07-26 | 上海蔚来汽车有限公司 | 用于生成高精细语义地图的方法、装置和计算机存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115586511A (zh) * | 2022-11-25 | 2023-01-10 | 唐山百川工业服务有限公司 | 一种基于阵列立柱的激光雷达二维定位方法 |
CN115586511B (zh) * | 2022-11-25 | 2023-03-03 | 唐山百川工业服务有限公司 | 一种基于阵列立柱的激光雷达二维定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112802095B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3505869B1 (en) | Method, apparatus, and computer readable storage medium for updating electronic map | |
CN108303103B (zh) | 目标车道的确定方法和装置 | |
EP3371671B1 (en) | Method, device and assembly for map generation | |
Wang et al. | Intelligent vehicle self-localization based on double-layer features and multilayer LIDAR | |
CN103901895B (zh) | 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 | |
CN111830953A (zh) | 车辆自定位方法、装置及*** | |
CN111006655A (zh) | 机场巡检机器人多场景自主导航定位方法 | |
CN110210384B (zh) | 一种道路全局信息实时提取与表示*** | |
CN111190199B (zh) | 定位方法及定位装置、计算机设备和可读存储介质 | |
WO2021017211A1 (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
Dawood et al. | Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera | |
CN113838129B (zh) | 一种获得位姿信息的方法、装置以及*** | |
CN112802095B (zh) | 定位方法、装置及设备、以及自动驾驶定位*** | |
CN112651991A (zh) | 视觉定位方法、装置及计算机*** | |
Aggarwal | Machine vision based SelfPosition estimation of mobile robots | |
CN112258391B (zh) | 一种基于道路交通标线的碎片化地图拼接方法 | |
CN115077563A (zh) | 车辆定位精度评价方法、装置及电子设备 | |
CN114283397A (zh) | 全局重定位方法、装置、设备及存储介质 | |
CN112308904B (zh) | 一种基于视觉的建图方法、装置及车载终端 | |
CN112818866A (zh) | 车辆定位的方法、装置及电子设备 | |
Schwarze et al. | Wall Estimation from Stereo Vision in Urban Street Canyons. | |
CN113971697B (zh) | 一种空地协同车辆定位定向方法 | |
Li et al. | research on rough scene matching navigation method based on semantic bag of Words model | |
Huang et al. | Autonomous Vehicles Localisation Based on Semantic Map Matching Method | |
Noizet et al. | Pole-based Vehicle Localization with Vector Maps: A Camera-LiDAR Comparative Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |