CN113804182B - 一种基于信息融合的栅格地图创建方法 - Google Patents

一种基于信息融合的栅格地图创建方法 Download PDF

Info

Publication number
CN113804182B
CN113804182B CN202111087246.3A CN202111087246A CN113804182B CN 113804182 B CN113804182 B CN 113804182B CN 202111087246 A CN202111087246 A CN 202111087246A CN 113804182 B CN113804182 B CN 113804182B
Authority
CN
China
Prior art keywords
laser
data
point cloud
grid
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111087246.3A
Other languages
English (en)
Other versions
CN113804182A (zh
Inventor
李艳生
匡衡阳
万勇
张毅
杨美美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202111087246.3A priority Critical patent/CN113804182B/zh
Publication of CN113804182A publication Critical patent/CN113804182A/zh
Application granted granted Critical
Publication of CN113804182B publication Critical patent/CN113804182B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明涉及一种基于信息融合的栅格地图创建方法,属于室内移动机器人建图领域,包括以下步骤:S1:利用移动机器人平台获取激光与图像数据;S2:利用tiny‑yolov4获取物体类别标签信息及深度图像;S3:利用坐标转换关系将物体的类别标签对应的像素坐标转换到激光坐标系;S4:根据步骤S3的映射的坐标点,对激光点云数据进行拟合;S5:根据步骤S4的拟合结果,进行点云数据分类与标识,将动态的激光点云数据滤除;S6:利用滤除后的点云数据创建二维栅格地图。本方法提高了地图的鲁棒性,在地图里标注出语义标签,提高机器人对环境的感知能力和在复杂环境下的定位能力。

Description

一种基于信息融合的栅格地图创建方法
技术领域
本发明属于室内移动机器人建图、语义理解、去障领域,涉及一种基于信息融合的栅格地图创建方法。
背景技术
随着科学技术的发展,移动机器人也迎来了重大的发展,并且在商业和工业中的应用也越来越广泛。对于移动机器人定位与建图的关键问题,SLAM技术是目前最有潜力的解决方案。SLAM即同时定位与建图,解决机器人在一个未知环境中的定位、建图问题。目前SLAM技术已经大量使用,比如室内场景扫地机器人、物流仓储AGV机器人等,室外场景无人机导航、无人驾驶车以及无人驾驶船等。
如今,SLAM技术已经广泛的运用到服务业、工业等,但传统的SLAM技术暴露出来一些弊端。基于激光传感器的激光SLAM,激光雷达距离测量精度高,数据用于构建的地图精度也高;激光与纯视觉相比,在建图阶段耗费的计算资源更少、对硬件的要求更低等特点,因此,激光SLAM是当下的主流解决方案。然而,激光雷达构建的栅格地图信息量单一,对环境感知能力相对较弱;另一方面激光雷达构建的栅格地图包含动态障碍物,降低了地图的真实度和地图的鲁棒性,而且单一的激光轮廓信息构建的占据栅格地图,面对机器人在大场景下的定位效果差等问题。最近几年,随着深度学习的快速发展,SLAM也引入相关的技术,开始试探与目标识别等结合。
发明内容
有鉴于此,本发明的目的在于提供一种基于信息融合的栅格地图创建方法拟提出结合深度学习技术,一是除去动态的雷达数据噪点,提高地图的鲁棒性;二是标注出语义标签信息,丰富占据栅格的环境信息,提高机器人对环境的感知能力;三是根据语义栅格地图提高机器人在大环境下的定位能力。
为达到上述目的,本发明提供如下技术方案:
一种基于信息融合的栅格地图创建方法,包括以下步骤:
S1:利用移动机器人平台获取激光与图像数据;
S2:利用tiny-yolov4获取物体类别标签信息及深度图像;
S3:利用坐标转换关系将物体的类别标签对应的像素坐标转换到激光坐标系;
S4:根据步骤S3的映射的坐标点,对激光点云数据进行拟合。
S5:根据步骤S4的拟合结果,进行点云数据分类与标识,将动态的激光点云数据滤除。
S6:利用滤除后的点云数据创建二维栅格地图。
进一步,所述步骤S1具体包括以下步骤:
S11:搭建移动机器人平台,使用激光雷达获取激光点云数据,使用摄像头获取图像数据,使用里程计获取里程信息,使用陀螺仪获取运动位置信息,并通过运算处理器进行整体控制运算;
S12:通过所述移动机器人平台获取原始数据。
进一步,步骤S2具体包括以下步骤:
S21:利用摄像头捕获的RGB图像和深度图像,将两个图像进行图像输出对齐操作;
S22:将RGB图像话题输入tiny-yolov4网络进行检测,标注出环境物体在图像坐标下的类别标签。
进一步,步骤S3具体包括以下步骤:
S31:计算出检测框的中心像素点,根据对齐的深度图像,获取对应深度图像的坐标(u,v);
S32:根据式(1)将所述坐标对应的深度像素转换到相机坐标系下,然后根据相机坐标系转化到激光坐标系;
式中f为相机焦距,Zc是目标在相机坐标系Z轴的投影。
进一步,在所述步骤S4中,将离散的点云数据进行拟合,使同一个物体上的激光扫描点云分为同一类,当投影的点不能与激光匹配时,计算欧式距离对点云数据进行拟合并标记,如果为动态标签所得到的投影点则需要进行误差放大处理,认为处在以投影的点为圆心,半径阈值为θ的圆内的激光数据即AB段均不可靠,并进行标记。
进一步,在所述步骤S5中,根据步骤S4的拟合结果,对已经标记的雷达点云数据按是否具有动态性分为:静态、半静态、动态三类,将动态的激光点云数据滤除,静态和半静态的数据保留作为后续步骤建图的数据。
进一步,在所述步骤S6中,根据步骤S5传入的雷达数据和步骤S1传入的里程计数据,运用改进的Gmapping算法进行建图;所述Gmapping算法为基于RBPF粒子滤波算法,改进机器人在状态估计过程阶段的提议分布,并通过设定重采样的阈值,当粒子权重的变化率超过阈值后才进行重采样;
再利用tiny_yolov4进行识别,经过坐标转换和拟合研究,获得相应的语义点云数据,并同时将原始的激光数据分为三类,将静态和半静态的激光数据传入Gmapping算法的权重更新以及地图更新;
创建的栅格地图是一个二值化的地图,P(s=0)表示空闲状态的概率,P(s=1)表示占用状态的概率;未知的栅格使用一个统一的固定的概率值表示,引入状态的比值表示栅格状态的概率值odd(s):
当传感器测量值的观测结果为(z~{0,1})时,更新相对应的栅格状态的概率值odd(s),更新表达式如下:
根据贝叶斯条件概率公式得:
将式(4)和式(5)代入式(3)并两边同时取对数得:
式(6)中是测量值模型,为定值,且该值与传感器有关,当传感器对栅格的观测值为占据时为/>当传感器对栅格的观测值为空闲时为/>用log odd(s)来表示栅格s的状态S,用S+和S-分别表示测量值之后和测量值之前栅格s的状态;则式(6)简化为:
每个栅格的初始状态默认栅格空闲和默认栅格占用的概率相等;
根据式(7),当计算每个栅格的占据概率时,如果对应的雷达数据为静态或者半静态时才进行S+的刷新,将S-置为Sinit,并且设置半静态的数据比静态的数据的权重更小。
本发明的有益效果在于:本发明实现了深度学习技术与传统栅格占据地图的创建结合,一是运用目标识别与传统建图算法结合的方法,将激光数据进行分类,进而改进占据栅格地图占据率更新的方法,达到了去除动态的障碍的效果,提高地图的鲁棒性;二是将类别标签与激光数据关联,实现激光数据包含语义信息,丰富占据栅格的环境信息,提高机器人对环境的感知能力。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为相机数据,图1(a)为RGB图像;图1(b)深度图像;
图2为激光点云拟合图;
图3为激光点云图,图3(a)为语义点云数据;图3(b)为静态、半静态点云数据;
图4为地图创建单帧数据处理流程图;
图5为地图实例图,图5(a)Gmapping算法建图;图5(b)改进Gmapping算法建图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1~图5,本发明提出的一种基于信息融合的栅格地图创建方法,包括以下步骤:
步骤一、搭建移动机器人平台,其中使用YDLIDARX4激光雷达获取激光点云数据。选用TX2作为运算处理器、里程计采用轮式编码器和陀螺仪通过EKF获得准确的运动位置信息。其中里程计信息将用于后续步骤六的建图算法。
步骤二、利用Intel RealSense D435i摄像头,获取RGB图像和深度图像如图1(a)和图1(b)所示。根据rgb/image_raw话题获取RGB图像和depth/image_raw话题获取深度图像,并二者进行输出对齐。将RGB图像话题输入到tiny-yolov4对应的接收话题,进行物体的类别识别,并标出物体类别框,完成类别标签的标注。
步骤三、根据步骤二获取的类别检测框计算出检测框的中心像素点,根据对齐的深度图像,获取对应深度图像的(u,v),然后根据式(1)将图像坐标系转换到相机坐标系,然后根据相机坐标系转化到激光坐标系。
式中f为相机焦距,Zc是目标在相机坐标系Z轴的投影。
步骤四、根据步骤三转化的结果,本方法提出新的点云拟合方法如图2所示,当步骤三投影的点F不能与激光匹配时,计算欧式距离对点云数据进行拟合并标记,如果为动态标签所得到的投影点则需要进行误差放大处理,认为处在以点F为圆心,半径阈值为θ的圆内的激光数据即AB段均不可靠,并进行标记。
步骤五,根据步骤四的拟合结果,对已经标记的雷达点云数据按是否具有动态性分为:静态、半静态、动态三类。同时,将动态的点云数据滤除,如图3所示。静态和半静态的数据保留作为后续步骤建图的数据。
步骤六、根据步骤五传入的雷达数据和步骤一传入的里程计数据,运用改进的Gmapping算法进行建图。该算法是基于RBPF粒子滤波算法,提出了两点改进,一是改进机器人在状态估计过程阶段的提议分布,达到减少了粒子个数的目的;二是提出了选择性重采样的方法,通过设定重采样的阈值,当粒子权重的变化率超过阈值后才进行重采样,该方法解决了粒子退化问题。如图4所示,在此基础之上,本发明提出利用tiny_yolov4进行识别,经过坐标转换和拟合研究,获得相应的语义点云数据,并同时将原始的激光数据分为三类,将静态和半静态的激光数据传入Gmapping算法的权重更新以及地图更新。点云数据分为静态、半静态、动态三类,其中,因为动态点云数据为动态的障碍物产生,比如行走的人、运动的宠物等,如图3(a)所示,这一类的障碍物具有移动的特性,不应该作为地图更新的依据,因此要创建鲁棒性高的地图需要使用的静态和半静态的激光点云数据进行地图的更新,如图3(b)所示。
进而,创建的栅格地图是一个二值化的地图,P(s=0)表示空闲状态的概率,P(s=1)表示占用状态的概率。未知的栅格一般使用一个统一的固定的概率值表示。因此引入状态的比值表示栅格状态的概率值odd(s)。
当传感器测量值的观测结果为(z~{0,1})时,相对应的栅格状态的概率值odd(s)则需要更新,更新表达式如下:
根据贝叶斯条件概率公式得:
将式(4)和式(5)代入式(3)并两边同时取对数得:
式(6)中是测量值模型,为定值,且该值与传感器有关,当传感器对栅格的观测值为占据时为/>当传感器对栅格的观测值为空闲时为/>用log odd(s)来表示栅格s的状态S,用S+和S-分别表示测量值之后和测量值之前栅格s的状态。则式(6)可简化为:
此外,所以每个栅格的初始状态默认栅格空闲和默认栅格占用的概率相等。如图4所示,原始的雷达数据分为三种状态,根据式7,当计算每个栅格的占据概率时,如果对应的雷达数据为静态或者半静态时才进行S+的刷新,将S-置为Sinit,并且设置半静态的数据比静态的数据的权重更小。因此,很好的降低了动态的雷达数据参与地图的刷新过程,达到去除动态的噪点的作用,提高了地图的鲁棒性,如图5(a)和图5(b)所示。至此,带语义信息的栅格地图一帧的数据处理完成。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于信息融合的栅格地图创建方法,其特征在于:包括以下步骤:
S1:利用移动机器人平台获取激光与图像数据;
S2:利用tiny-yolov4获取物体类别标签信息及深度图像;
S3:利用坐标转换关系将物体的类别标签对应的像素坐标转换到激光坐标系;
S4:根据步骤S3的映射的坐标点,对激光点云数据进行拟合;
S5:根据步骤S4的拟合结果,进行点云数据分类与标识,将动态的激光点云数据滤除;
S6:利用滤除后的点云数据创建二维栅格地图;在所述步骤S6中,根据步骤S5传入的雷达数据和步骤S1传入的里程计数据,运用改进的Gmapping算法进行建图;所述Gmapping算法为基于RBPF粒子滤波算法,改进机器人在状态估计过程阶段的提议分布,并通过设定重采样的阈值,当粒子权重的变化率超过阈值后才进行重采样;
再利用tiny_yolov4进行识别,经过坐标转换和拟合研究,获得相应的语义点云数据,并同时将原始的激光数据分为三类,将静态和半静态的激光数据传入Gmapping算法的权重更新以及地图更新;
创建的栅格地图是一个二值化的地图,P(s=0)表示空闲状态的概率,P(s=1)表示占用状态的概率;未知的栅格使用一个统一的固定的概率值表示,引入状态的比值表示栅格状态的概率值odd(s):
当传感器测量值的观测结果为(z~{0,1})时,更新相对应的栅格状态的概率值odd(s),更新表达式如下:
根据贝叶斯条件概率公式得:
将式(3)和式(4)代入式(2)并两边同时取对数得:
式(5)中是测量值模型,为定值,且该值与传感器有关,当传感器对栅格的观测值为占据时为/>当传感器对栅格的观测值为空闲时为/>用logodd(s)来表示栅格s的状态S,用S+和S-分别表示测量值之后和测量值之前栅格s的状态;则式(5)简化为:
每个栅格的初始状态默认栅格空闲和默认栅格占用的概率相等;
根据式(6),当计算每个栅格的占据概率时,如果对应的雷达数据为静态或者半静态时才进行S+的刷新,将S-置为Sinit,并且设置半静态的数据比静态的数据的权重更小。
2.根据权利要求1所述的基于信息融合的栅格地图创建方法,其特征在于:所述步骤S1具体包括以下步骤:
S11:搭建移动机器人平台,使用激光雷达获取激光点云数据,使用摄像头获取图像数据,使用里程计获取里程信息,使用陀螺仪获取运动位置信息,并通过运算处理器进行整体控制运算;
S12:通过所述移动机器人平台获取原始数据。
3.根据权利要求1所述的基于信息融合的栅格地图创建方法,其特征在于:步骤S2具体包括以下步骤:
S21:利用摄像头捕获的RGB图像和深度图像,将两个图像进行图像输出对齐操作;
S22:将RGB图像话题输入tiny-yolov4网络进行检测,标注出环境物体在图像坐标下的类别标签。
4.根据权利要求1所述的基于信息融合的栅格地图创建方法,其特征在于:步骤S3具体包括以下步骤:
S31:计算出检测框的中心像素点,根据对齐的深度图像,获取对应深度图像的坐标(u,v);
S32:根据式(7)将所述坐标对应的深度像素转换到相机坐标系下,然后根据相机坐标系转化到激光坐标系;
式中f为相机焦距,Zc是目标在相机坐标系Z轴的投影。
5.根据权利要求1所述的基于信息融合的栅格地图创建方法,其特征在于:在所述步骤S4中,将离散的点云数据进行拟合,使同一个物体上的激光扫描点云分为同一类,当投影的点不能与激光匹配时,计算欧式距离对点云数据进行拟合并标记,如果为动态标签所得到的投影点则需要进行误差放大处理,认为处在以投影的点为圆心,半径阈值为的圆内的激光数据即AB段均不可靠,并进行标记。
6.根据权利要求1所述的基于信息融合的栅格地图创建方法,其特征在于:在所述步骤S5中,根据步骤S4的拟合结果,对已经标记的雷达点云数据按是否具有动态性分为:静态、半静态、动态三类,将动态的激光点云数据滤除,静态和半静态的数据保留作为后续步骤建图的数据。
CN202111087246.3A 2021-09-16 2021-09-16 一种基于信息融合的栅格地图创建方法 Active CN113804182B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111087246.3A CN113804182B (zh) 2021-09-16 2021-09-16 一种基于信息融合的栅格地图创建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111087246.3A CN113804182B (zh) 2021-09-16 2021-09-16 一种基于信息融合的栅格地图创建方法

Publications (2)

Publication Number Publication Date
CN113804182A CN113804182A (zh) 2021-12-17
CN113804182B true CN113804182B (zh) 2023-09-29

Family

ID=78941326

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111087246.3A Active CN113804182B (zh) 2021-09-16 2021-09-16 一种基于信息融合的栅格地图创建方法

Country Status (1)

Country Link
CN (1) CN113804182B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114253273B (zh) * 2021-12-23 2024-04-12 南京世泽科技有限公司 一种基于多线激光雷达的避障方法
CN114397638A (zh) * 2022-01-22 2022-04-26 深圳市神州云海智能科技有限公司 一种激光雷达数据中动态数据的过滤方法及***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN108885106A (zh) * 2016-01-08 2018-11-23 国际智能技术公司 使用地图的车辆部件控制
CN109641538A (zh) * 2016-07-21 2019-04-16 国际智能技术公司 使用车辆创建,更新地图的***和方法
CN111024100A (zh) * 2019-12-20 2020-04-17 深圳市优必选科技股份有限公司 一种导航地图更新方法、装置、可读存储介质及机器人
CN111089585A (zh) * 2019-12-30 2020-05-01 哈尔滨理工大学 一种基于传感器信息融合的建图及定位方法
CN111486855A (zh) * 2020-04-28 2020-08-04 武汉科技大学 一种具有物体导航点的室内二维语义栅格地图构建方法
CN111928862A (zh) * 2020-08-10 2020-11-13 廊坊和易生活网络科技股份有限公司 利用激光雷达和视觉传感器融合在线构建语义地图的方法
CN112731371A (zh) * 2020-12-18 2021-04-30 重庆邮电大学 一种激光雷达与视觉融合的集成化目标跟踪***及方法
CN113108773A (zh) * 2021-04-22 2021-07-13 哈尔滨理工大学 一种融合激光与视觉传感器的栅格地图构建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111307166B (zh) * 2018-12-11 2023-10-03 北京图森智途科技有限公司 一种构建占据栅格地图的方法及其装置、处理设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108885106A (zh) * 2016-01-08 2018-11-23 国际智能技术公司 使用地图的车辆部件控制
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN109641538A (zh) * 2016-07-21 2019-04-16 国际智能技术公司 使用车辆创建,更新地图的***和方法
CN111024100A (zh) * 2019-12-20 2020-04-17 深圳市优必选科技股份有限公司 一种导航地图更新方法、装置、可读存储介质及机器人
CN111089585A (zh) * 2019-12-30 2020-05-01 哈尔滨理工大学 一种基于传感器信息融合的建图及定位方法
CN111486855A (zh) * 2020-04-28 2020-08-04 武汉科技大学 一种具有物体导航点的室内二维语义栅格地图构建方法
CN111928862A (zh) * 2020-08-10 2020-11-13 廊坊和易生活网络科技股份有限公司 利用激光雷达和视觉传感器融合在线构建语义地图的方法
CN112731371A (zh) * 2020-12-18 2021-04-30 重庆邮电大学 一种激光雷达与视觉融合的集成化目标跟踪***及方法
CN113108773A (zh) * 2021-04-22 2021-07-13 哈尔滨理工大学 一种融合激光与视觉传感器的栅格地图构建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种融合激光与视觉传感器的栅格地图构建方法;曾键 等;工业控制计算机;第33卷(第9期);全文 *
基于激光扫描与视觉融合的地形估计与属性认知研究;李星河;中国优秀硕士学位论文全文数据库;全文 *

Also Published As

Publication number Publication date
CN113804182A (zh) 2021-12-17

Similar Documents

Publication Publication Date Title
CN110007675B (zh) 一种基于行车态势图的车辆自动驾驶决策***及基于无人机的训练集制备方法
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
US10794710B1 (en) High-precision multi-layer visual and semantic map by autonomous units
US10192113B1 (en) Quadocular sensor design in autonomous platforms
US10496104B1 (en) Positional awareness with quadocular sensor in autonomous platforms
CN113916242B (zh) 车道定位方法和装置、存储介质及电子设备
CN113804182B (zh) 一种基于信息融合的栅格地图创建方法
CN112930554A (zh) 用于确定车辆环境的语义网格的电子设备、***和方法
Wei et al. Survey of connected automated vehicle perception mode: from autonomy to interaction
CN111860227A (zh) 训练轨迹规划模型的方法、装置和计算机存储介质
CN111667523B (zh) 一种基于多模态多源的深度数据精炼方法及***
CN115421158B (zh) 自监督学习的固态激光雷达三维语义建图方法与装置
CN114299464A (zh) 车道定位方法、装置及设备
CN112257668A (zh) 主辅路判断方法、装置、电子设备及存储介质
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
de Paula Veronese et al. Evaluating the limits of a LiDAR for an autonomous driving localization
Olivares-Mendez et al. Vision-based steering control, speed assistance and localization for inner-city vehicles
Yang et al. Lane position detection based on long short-term memory (LSTM)
CN111695497A (zh) 基于运动信息的行人识别方法、介质、终端和装置
CN110780325A (zh) 运动对象的定位方法及装置、电子设备
CN112233079B (zh) 多传感器图像融合的方法及***
CN111833443A (zh) 自主机器应用中的地标位置重建
CN114116933A (zh) 一种基于单目图像的语义拓扑联合建图方法
Wang et al. Perception Methods for Adverse Weather Based on Vehicle Infrastructure Cooperation System: A Review
CN114556419A (zh) 三维点云分割方法和装置、可移动平台

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant