CN110362083B - 一种基于多目标跟踪预测的时空地图下自主导航方法 - Google Patents
一种基于多目标跟踪预测的时空地图下自主导航方法 Download PDFInfo
- Publication number
- CN110362083B CN110362083B CN201910647111.4A CN201910647111A CN110362083B CN 110362083 B CN110362083 B CN 110362083B CN 201910647111 A CN201910647111 A CN 201910647111A CN 110362083 B CN110362083 B CN 110362083B
- Authority
- CN
- China
- Prior art keywords
- map
- time
- sequence
- target
- planning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000003068 static effect Effects 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 6
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 230000002427 irreversible effect Effects 0.000 claims abstract description 4
- 238000001514 detection method Methods 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 231100000004 severe toxicity Toxicity 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于多目标跟踪预测的时空地图下自主导航方法,该方法获得二维空间占据栅格语义地图和目标位置时间序列,将二维空间占据栅格语义地图按照时间维度进行信息堆叠,获得xy‑t地图;将目标位置时间序列投影到xy‑t地图;在xy‑t地图中进行路径规划,获得最优路径;规划过程需要遵循时间不可逆的原则,同时避开所有动态目标及静态环境的影响;将最优路径按时间步长拆分为多段并映射到xy平面内,获得多个空间域内二维轨迹序列和连续期望速度序列。根据空间域内二维轨迹序列和连续期望速度序列完成自主导航。本发明不仅有效克服动态目标对路径规划的扰动,而且相比于传统空间导航地图,该时空导航地图可以极大地简化动态规划问题。
Description
技术领域
本发明属于机器人技术领域,尤其涉及一种基于多目标跟踪预测的时空地图下自主导航方法。
背景技术
智能车辆(Intelligent Vehicle,IV),也称作地面无人平台(Unmanned GroundVehicle,UGV)或轮式移动机器人(Wheeled Mobile Robot,WMR),是一个集环境感知、规划决策、多等级辅助驾驶等功能于一体的综合***,具有极高的社会经济价值和国防军事价值。
目前,智能车辆相关研究和应用主要集中于依赖地理信息***或高精度地图等先验信息的城市结构化环境,对于高动态未知区域下的自主导航技术研究相对较少。而后者对于智能车辆在边境巡逻、军事侦察、楼宇探测、灾后救援、矿井维护、室内服务等多个重要领域的应用均具有重大意义,能够代替人类完成高温、高压、剧毒等恶劣环境下的危险工作和高密度、长周期、大流量等复杂场景下的繁琐作业。当前,智能车辆或移动机器人在上述领域的应用主要以远程遥控或半自动为主,其中一个重要原因是移动平台在未知区域下的感知和规划能力还比较弱。需要克服环境复杂多变、多类动态目标干扰、平台类型差异巨大等多项重大挑战。
首先,对于未知区域,智能车辆无法获得先验的全球地理信息或高精度电子地图,必须依靠实时定位与地图构建等技术手段绘制全局地图并实现自身在全局坐标系下的精确定位,以满足此类无路网环境下全局路径规划等任务的需求;其次,复杂多变的动态随机场景包含了多类别静动态目标,一方面,要求智能车辆具有更高水平的自主学习能力,另一方面,也要求其在自主导航过程能够克服各类动态目标随机运动带来的影响;其三,大范围的应用场景、高密度的使用频率和严要求的安全标准也要求智能车辆自主导航设备具备低成本、高可靠等特点。而解决上述难题的核心是如何完成多语义目标的跟踪及预测,实现未知区域的全局地图构建及精确定位,并在时空维度下进行动态规划和运动控制。
目前,现有技术的路径规划在二维或三维地图中实现,只考虑静态环境,无法克服各类动态目标随机运动带来的影响。如果将动态目标的考虑加入到规划过程中,进行动态规划,将增大规划难度。
发明内容
有鉴于此,本发明提供了一种基于多目标跟踪预测的时空地图下自主导航方法,将静态环境信息与动态目标信息进行有机统一,将二维环境下的动态规划问题转换为三维时空维度下的静态规划问题,不仅有效克服动态目标对路径规划的扰动,而且相比于传统空间导航地图,该时空导航地图可以极大地简化动态规划问题。
为了解决上述技术问题,本发明是这样实现的:
一种基于多目标跟踪预测的时空地图下自主导航方法,包括:
步骤一、获得多目标的二维空间占据栅格语义地图;
步骤二、进行多目标检测、跟踪及未来轨迹预测,获得目标位置时间序列;
步骤三、将二维空间占据栅格语义地图按照时间维度进行信息堆叠,获得xy-t地图,该xy-t地图的三个坐标为横向位置x、纵向位置y和时间刻度t;将步骤二获得的目标位置时间序列投影到xy-t地图;
步骤四、在步骤三得到的xy-t地图中进行路径规划,获得最优路径;规划过程需要遵循时间不可逆的原则,同时避开所有动态目标及静态环境的影响;
步骤五、将最优路径按时间步长拆分为多段并映射到xy平面内,获得多个空间域内二维轨迹序列,每个二维轨迹序列对应的速度形成连续期望速度序列;所述速度根据时间步长和路径段的x、y方向长度确定;
步骤六、根据空间域内二维轨迹序列和连续期望速度序列完成自主导航。
优选地,所述步骤一根据双目图像信息和2D激光雷达信息获得二维空间占据栅格语义地图。
优选地,所述在步骤三得到的xy-t地图中进行路径规划采用A*路径规划算法实现。
有益效果:
1、采用该种方法通过构建时空地图,可以有效地将动态目标信息和静态环境进行统一整合,有效克服动态目标对路径规划的扰动。相比传统空间导航地图,该时空导航地图可以极大地简化动态规划问题。
2、采用该种方法可以充分利用双目相机以及单线激光雷达信息,成本低廉且感知信息丰富,可以实现机器人精确定位和多类别语义目标识别及跟踪。
3、该方法提出时空(TS)路径规划,在时空维度上进行A*搜索,可以有效解决时间约束问题,提高规划效率。
4、采用该种方法通过时空(TS)路径规划不仅可以得到二维平面上的空间路径,也可获得时间维度上的纵向速度策略。通过时空规划状态解析,可以同时获得横向控制所需路径以及纵向控制所需期望速度序列。因此,该方法有效地将时空维度上的规划和决策问题进行了统一。
附图说明
图1为本发明的基于多目标跟踪预测的时空地图下自主导航方法整体流程;
图2为本发明的基于多目标跟踪预测的时空地图下自主导航方法的原理图;
图3为本发明的基于多目标跟踪预测的时空地图下自主导航方法中的PSPnet网络语义分割模型;
图4为本发明的基于多目标跟踪预测的时空地图下自主导航方法中的xy-t时空地图八叉树存储模型。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明将自动驾驶问题提升至时空维度,可以将静态环境信息与动态目标信息进行有机统一,将二维环境下的动态规划问题转换为三维时空维度下的静态规划问题。由此可见,构建一个包含时间维度的时空导航地图对于机器人或智能车辆在动态环境下进行路径规划或自主决策具有至关重要的作用,根据所构建的时空导航地图进行有效状态解析可实现动态环境下的自主规划问题的有效简化。
下面以无人驾驶车为导航对象进行描述。本发明适用于需要自主导航的智能体。
本发明的基于多目标跟踪预测的时空地图下自主导航方法包括以下几个步骤,参见图1和图2:
步骤一:在无人驾驶车上的车载双目摄像机获得的车辆前方左右目图像作为原始识别图像。
步骤二:利用双目图像信息及2D激光雷达信息,获得二维空间占据栅格语义地图。
本步骤可以采用现有的多种方案实现,其中一种方案为:将基于双目图像信息的航位推算结果以及基于2D激光雷达信息进行语义点云重建的当前帧稠密语义点云作为输入,通过SLAM(即时定位与地图构建)进行全局优化,通过语义点云空间压缩、特征映射至2D激光数据获得2D语义激光点,然后基于全局优化位姿和2D语义激光点,采用自适应粒子滤波器实现局部优化和2D栅格语义地图构建。具体包括如下步骤:
步骤201:对步骤一中获得的图像提取ORB(局部不变性)特征点并进行“环形”匹配获得稀疏特征点云;
步骤202:基于前后帧特征点云利用RANSAC(随机抽样一致)算法进行位姿估计,获得前后帧位姿关系,从而获得里程计信息;
步骤203:利用步骤202所获得的里程计信息,结合2D激光雷达数据在误差范围内随机撒粒子,利用粒子滤波获得当前最优位姿;
步骤204:利用PSPnet网络对左目图像进行语义分割;
步骤205:将激光数据投影至左图图像,结合其语义分割结果获得2D语义激光点;
步骤206:根据步骤203获得的最优位姿,将2D语义激光点进行实时拼接,获得二维空间占据栅格语义地图。
步骤三:进行多目标检测、跟踪及未来轨迹预测,获得目标位置时间序列。
本步骤可以采用现有的多种方案实现,其中一种方案为:在像素级语义分割结果的基础上,通过RPN(区域生成网络)等网络模型实现多语义目标检测,利用Deep-Sort等网络模型对多语义目标进行跟踪,将连续跟踪的历史轨迹作为长短期记忆网络(LSTM)的输入,根据目标的不同语义类型训练相应模型,预测多语义动态目标的未来行驶轨迹。具体包括如下步骤:
步骤301:将双目图像信息输入Yolo神经网络,利用Yolo神经网络进行多类语义目标检测,获得各个目标在图像坐标系下的位置;
步骤302:根据连续帧多目标在图像坐标系下的位置,结合Deepsort神经网络进行目标跟踪;
步骤303:收集各类目标数据,并利用双目相机定位信息将其投影至大地坐标系下,利用LSTM网络进行训练,获得各个目标未来的预测轨迹。
步骤四:将步骤二获得的二维空间占据栅格语义地图按照时间维度进行信息堆叠,获得xy-t地图,该xy-t地图的三个坐标为横向位置x、纵向位置y和时间刻度t;将步骤三获得的动态语义目标定位及预测结果即目标位置时间序列投影至xy-t地图。
步骤五:在步骤四获得的xy-t地图中进行路径规划,获得最优路径。
本步骤在xy-t地图中,根据当前位置以及未来T时刻下的期望位置,在该地图中采用A*路径规划算法进行全局路径规划。由于时间不可逆,因此规划过程需要遵循时间不可逆的原则,且同时避开所有动态目标以及静态环境的影响。
步骤六:将时空域下最优路径按时间步长Δt拆分为空间域内二维轨迹序列和时间域内连续期望速度序列。其中,空间域内二维轨迹序列是指将最优路径按时间步长拆分为多段并映射到xy平面内,获得的多个空间域内二维轨迹序列段。针对每个二维轨迹序列段将x和y方向的轨迹长度记为Δx和Δy,则Δx/Δt为x方向的速度,Δy/Δt为y方向的速度,两个方向的速度合成速度向量。所有二维轨迹序列段的速度向量组成连续期望速度序列。
步骤七:根据空间域内二维轨迹序列和连续期望速度序列完成自主导航。
本步骤中可以利用PID横向、纵向控制器完成智能车辆运动控制。
下面给出一个具体实施过程。
步骤一:在车辆前方安装灰点公司的BumblebeeX3三目立体相机。本实施例中,车载摄像机所获得左右目图像的像素是设置为800×600,颜色模式为RGB。本实例中使用相机的最左侧和最右侧获得双目图像,相机基线长度为0.23998500米,焦距为1002.912048pixels,传输帧率为15Hz。采用2D激光雷达为Hokuyo公司30米激光雷达。
步骤二:通过平行双目相机模型,以左目为参考坐标系,可以恢复出特征点的三维空间坐标,紧接着,随着双目图像不断输入,***将已知路标点在世界坐标系下的三维空间坐标投影至所匹配图像,计算投影点与所匹配图像中特征点的误差,构造一个最小化重投影误差问题。利用光束平差法将相机位姿以及空间点同时看作优化变量一起进行图优化,可对此非线性最小二乘问题进行求解并获得相机运动位姿;
步骤三:利用步骤二所得运动位姿的基础上,在其后端添加一个回环检测模块,使整个***能够将累积误差及时校正;
步骤四:在步骤三获得全局优化位姿的基础上,设计了一种自适应粒子滤波器,以实现2D语义激光信息的局部最优匹配。同时,结合PSPnet语义分割网络模型(如图3)获得每个像素语义信息,将2D激光数据投影至左目图像,获得2D语义激光点。这样,获得可直接应用于自主导航***的栅格概率语义地图,该地图范围为200m*200m,分辨率为0.05m/pixel;
步骤五:将彩色图像与稠密语义分割结果整合为4通道数据后作为整个网络的输入,重新训练网络模型,以获得更加稳定的目标检测效果。同时,基于语义点云数据的深度信息,结合SLAM模块输出的智能车辆实时位姿,获得每一个目标在大地坐标系下的绝对位置;
步骤六:在YOLO获得各目标实时位置的基础上,采用Deep-Sort网络对多目标进行实时跟踪。同时,针对不同语义类型目标,基于运动目标在大地坐标系的运动轨迹专门增加了基于LSTM网络的未来轨迹预测模块,以获得各类语义目标的预测模型;
步骤七:时空域构建及规划:
输入动态目标信息及静态地图信息,其中包括:多语义目标t=0时刻位置及每个目标预测的未来(T时间段内)轨迹;t=T0到t=T1时间段内各时间步长对应的二维栅格语义地图,其中,T0为当前时刻往前推移的特定时间点(T0>T),T1为当前时刻往后推移的特定时间点(T1>T)。然后,将各个目标当前时刻位置及未来轨迹按照时间戳分别投影至各个时刻所对应的二维栅格语义地图内,并按照时间步长将各时刻栅格地图进行堆叠,以八叉树(OctoMap)形式存储(如图4),生成xy-t时空地图。
步骤八:在xy-t时空地图基础上,基于A*规划算法在时空域内搜索最优TS路径;
步骤九:将时空域下最优TS路径按时间步长拆分为空间域内二维轨迹序和时间域内连续期望速度序列。
步骤十:分别利用PID算法进行空间域下的横向位置控制以及时间域下的纵向速度跟踪,从而实现智能车辆在动态环境下的自主导航功能。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于多目标跟踪预测的时空地图下自主导航方法,其特征在于,包括:
步骤一、获得多目标的二维空间占据栅格语义地图;
步骤二、进行多目标检测、跟踪及未来轨迹预测,获得目标位置时间序列;
步骤三、将二维空间占据栅格语义地图按照时间维度进行信息堆叠,获得xy-t地图,该xy-t地图的三个坐标为横向位置x、纵向位置y和时间刻度t;将步骤二获得的目标位置时间序列投影到xy-t地图;
步骤四、根据当前位置以及未来T时刻下的期望位置,在步骤三得到的xy-t地图中进行路径规划,获得最优路径;规划过程需要遵循时间不可逆的原则,同时避开所有动态目标及静态环境的影响;
步骤五、将最优路径按时间步长△t拆分为多段并映射到xy平面内,获得多个空间域内二维轨迹序列,每个二维轨迹序列对应的速度形成连续期望速度序列;所述速度根据时间步长和路径段的x、y方向长度确定;所述速度的获取方式为:针对每个二维轨迹序列将x和y方向的轨迹长度记为△x和△y,则△x/△t为x方向的速度,△y/△t为y方向的速度,两个方向的速度合成速度向量;
步骤六、根据空间域内二维轨迹序列和连续期望速度序列完成自主导航。
2.如权利要求1所述的方法,其特征在于,所述步骤一根据双目图像信息和2D激光雷达信息获得二维空间占据栅格语义地图。
3.如权利要求1所述的方法,其特征在于,所述在步骤三得到的xy-t地图中进行路径规划采用A*路径规划算法实现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910647111.4A CN110362083B (zh) | 2019-07-17 | 2019-07-17 | 一种基于多目标跟踪预测的时空地图下自主导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910647111.4A CN110362083B (zh) | 2019-07-17 | 2019-07-17 | 一种基于多目标跟踪预测的时空地图下自主导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110362083A CN110362083A (zh) | 2019-10-22 |
CN110362083B true CN110362083B (zh) | 2021-01-26 |
Family
ID=68220195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910647111.4A Active CN110362083B (zh) | 2019-07-17 | 2019-07-17 | 一种基于多目标跟踪预测的时空地图下自主导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110362083B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110599546A (zh) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | 一种获取三维空间数据的方法、***、装置和存储介质 |
CN110967018B (zh) * | 2019-11-25 | 2024-04-12 | 斑马网络技术有限公司 | 停车场定位方法、装置、电子设备及计算机可读介质 |
CN113031582A (zh) * | 2019-12-25 | 2021-06-25 | 北京极智嘉科技股份有限公司 | 机器人、定位方法及计算机可读存储介质 |
US11127142B2 (en) * | 2019-12-31 | 2021-09-21 | Baidu Usa Llc | Vehicle trajectory prediction model with semantic map and LSTM |
CN111551167B (zh) * | 2020-02-10 | 2022-09-27 | 江苏盖亚环境科技股份有限公司 | 一种基于无人机拍摄和语义分割的全局导航辅助方法 |
CN111461245B (zh) * | 2020-04-09 | 2022-11-04 | 武汉大学 | 一种融合点云和图像的轮式机器人语义建图方法及*** |
CN111928867B (zh) * | 2020-08-20 | 2021-04-30 | 上海西井信息科技有限公司 | 基于时间扩展的路径规划方法、***、设备及存储介质 |
CN112183221B (zh) * | 2020-09-04 | 2024-05-03 | 北京科技大学 | 一种基于语义的动态物体自适应轨迹预测方法 |
CN112633162B (zh) * | 2020-12-22 | 2024-03-22 | 重庆大学 | 适于高速公路外场遮挡条件下的行人快速检测及跟踪方法 |
CN112729326B (zh) * | 2020-12-23 | 2023-12-26 | 北京易控智驾科技有限公司 | 运动智能体轨迹规划方法、装置、存储介质和电子设备 |
CN116778101B (zh) * | 2023-06-26 | 2024-04-09 | 北京道仪数慧科技有限公司 | 基于营运载具的地图生成方法及*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102359784A (zh) * | 2011-08-01 | 2012-02-22 | 东北大学 | 一种室内移动机器人自主导航避障***及方法 |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
CN103914068A (zh) * | 2013-01-07 | 2014-07-09 | 中国人民解放军第二炮兵工程大学 | 一种基于栅格地图的服务机器人自主导航方法 |
CN106940186A (zh) * | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及*** |
CN107063258A (zh) * | 2017-03-07 | 2017-08-18 | 重庆邮电大学 | 一种基于语义信息的移动机器人室内导航方法 |
CN206567646U (zh) * | 2017-03-02 | 2017-10-20 | 周口科技职业学院 | 一种机械设备放置架 |
CN108873903A (zh) * | 2018-07-04 | 2018-11-23 | 深圳汇创联合自动化控制有限公司 | 一种智能吸尘机器人导航*** |
CN109341706A (zh) * | 2018-10-17 | 2019-02-15 | 张亮 | 一种面向无人驾驶汽车的多特征融合地图的制作方法 |
CN109947120A (zh) * | 2019-04-29 | 2019-06-28 | 西安电子科技大学 | 仓储***中的路径规划方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8948913B2 (en) * | 2009-10-26 | 2015-02-03 | Electronics And Telecommunications Research Institute | Method and apparatus for navigating robot |
-
2019
- 2019-07-17 CN CN201910647111.4A patent/CN110362083B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102359784A (zh) * | 2011-08-01 | 2012-02-22 | 东北大学 | 一种室内移动机器人自主导航避障***及方法 |
CN103914068A (zh) * | 2013-01-07 | 2014-07-09 | 中国人民解放军第二炮兵工程大学 | 一种基于栅格地图的服务机器人自主导航方法 |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
CN106940186A (zh) * | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及*** |
CN206567646U (zh) * | 2017-03-02 | 2017-10-20 | 周口科技职业学院 | 一种机械设备放置架 |
CN107063258A (zh) * | 2017-03-07 | 2017-08-18 | 重庆邮电大学 | 一种基于语义信息的移动机器人室内导航方法 |
CN108873903A (zh) * | 2018-07-04 | 2018-11-23 | 深圳汇创联合自动化控制有限公司 | 一种智能吸尘机器人导航*** |
CN109341706A (zh) * | 2018-10-17 | 2019-02-15 | 张亮 | 一种面向无人驾驶汽车的多特征融合地图的制作方法 |
CN109947120A (zh) * | 2019-04-29 | 2019-06-28 | 西安电子科技大学 | 仓储***中的路径规划方法 |
Non-Patent Citations (1)
Title |
---|
Path Planning and Decision Making for Autonomous Vehicle in Urban Environment;Mengyin Fu等;《2015 IEEE 18th International Conference on Intelligent Transportation Systems》;20150918;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110362083A (zh) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110362083B (zh) | 一种基于多目标跟踪预测的时空地图下自主导航方法 | |
Geyer et al. | A2d2: Audi autonomous driving dataset | |
CN108647646B (zh) | 基于低线束雷达的低矮障碍物的优化检测方法及装置 | |
Broggi et al. | Terramax vision at the urban challenge 2007 | |
CN109597087A (zh) | 一种基于点云数据的3d目标检测方法 | |
Samal et al. | Task-driven rgb-lidar fusion for object tracking in resource-efficient autonomous system | |
CN112930554A (zh) | 用于确定车辆环境的语义网格的电子设备、***和方法 | |
Lin et al. | Autonomous quadrotor navigation with vision based obstacle avoidance and path planning | |
US20220301099A1 (en) | Systems and methods for generating object detection labels using foveated image magnification for autonomous driving | |
US11200679B1 (en) | System and method for generating a probability distribution of a location of an object | |
CN112859110A (zh) | 一种基于三维激光雷达的定位导航方法 | |
CN112907625A (zh) | 应用于四足仿生机器人的目标跟随方法及*** | |
Liu | A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure | |
Wang et al. | [Retracted] Sensor‐Based Environmental Perception Technology for Intelligent Vehicles | |
Xiong et al. | Road-Model-Based road boundary extraction for high definition map via LIDAR | |
CN112380933B (zh) | 无人机识别目标的方法、装置及无人机 | |
Yang et al. | A semantic SLAM-based method for navigation and landing of UAVs in indoor environments | |
CN113741550B (zh) | 移动机器人跟随方法和*** | |
Li et al. | Collaborative positioning for swarms: A brief survey of vision, LiDAR and wireless sensors based methods | |
Thomas et al. | Semantic grid-based road model estimation for autonomous driving | |
Cigla et al. | Image-based visual perception and representation for collision avoidance | |
Ouyang et al. | Semantic slam for mobile robot with human-in-the-loop | |
Wang et al. | Target detection for construction machinery based on deep learning and multisource data fusion | |
Fernandez et al. | Multiple path prediction for traffic scenes using lstms and mixture density models | |
Collier et al. | Autonomous navigation and mapping in GPS-denied environments at Defence R&D Canada |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |