CN111161322A - 一种基于人车交互的lstm神经网络行人轨迹预测方法 - Google Patents
一种基于人车交互的lstm神经网络行人轨迹预测方法 Download PDFInfo
- Publication number
- CN111161322A CN111161322A CN201911418564.6A CN201911418564A CN111161322A CN 111161322 A CN111161322 A CN 111161322A CN 201911418564 A CN201911418564 A CN 201911418564A CN 111161322 A CN111161322 A CN 111161322A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- human
- lstm
- vehicle
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于人车交互的LSTM神经网络行人轨迹预测方法,包括以下步骤:构建人车交互的LSTM神经网络;建立多层神经网络的输入,包括输入当前行人轨迹、输入人‑人交互信息、输入人‑车交互信息;建立人车交互的LSTM神经网络的输出。本发明选用行人的前进方向和速度作为输入,更直观的表现出邻居和车辆对当前行人运动的影响。本发明引入邻居行人和车辆的影响作为“社会信息”,与行人轨迹共同作为输入,运用分层编码的模式构建神经网络,能够解决行人受社会因素影响所发生轨迹改变的问题,提高预测精度。本发明提出方向注意力函数,用来区分不同方向的车辆对行人的影响,以提高“社会信息”的精度,进而提高行人轨迹预测精度。
Description
技术领域
本发明涉及一种行人轨迹预测方法,特别涉及到一种基于人-车交互的LSTM(LongShort-term MemoryNetworks,简称LSTM)神经网络的预测方法。
背景技术
在自动驾驶技术尤其是高密度混合交通环境中的自动驾驶技术的研究中,行人轨迹预测具有重要的意义。混合交通环境中,行人、非机动车与机动车等具备观察、思考、决策和行动能力的“智能单元”在同一道路空间活动,在共享区域内交互影响、互相作用。对行驶在混合交通环境中的智能汽车而言,在交互时仅仅避让是不够的,会导致车辆长久性“踌躇不前”或“进退失据”,并且其新颖性带来的围观行为更有可能引起交通流异常。因此,智能汽车在行驶中对行人在未来一段时间进行精准的轨迹预测具有重要的意义。行人轨迹预测是一个典型的时间序列预测问题,具有高度的时变性和非线性。由于行人轨迹预测本质是一个时间序列问题,随着深度学习的发展,基于数据驱动的建模方式成为研究热点,LSTM神经网络具有RNN(Recurrent Neural Network)网络输出反馈的特点,又能够通过自身内部的cell结构选择性长期记住需要记住的信息,可以更好的对行人轨迹进行预测。但是单纯的LSTM建模的方式忽略了行人与行人、行人与周围环境的交互影响,无法解释行人为了避免碰撞或结队而行产生的轨迹改变问题。
发明内容
针对上述问题,本发明要提出一种能提高行人轨迹预测精度的基于人车交互的LSTM神经网络行人轨迹预测方法,以实现良好的多步预测动态特性。
为了实现上述目的,本发明的技术方案如下:一种基于人车交互的LSTM神经网络行人轨迹预测方法,包括以下步骤:
A、构建人车交互的LSTM神经网络
所述的人车交互的LSTM神经网络包括行人轨迹输入、车辆轨迹输入、4个LSTM层和预测轨迹层,所述的4个LSTM层分别为LSTM层A、LSTM层B、LSTM层C和LSTM层D,所述的LSTM层A、LSTM层B、LSTM层C的输出端链接后输入到LSTM层D;所述的LSTM层A的输入端接收行人轨迹输入,所述的LSTM层B的输入端经人-人交互栅格地图连接收行人轨迹输入,所述的LSTM层C的输入端经方向权重计算模块和人-车交互栅格地图接收车辆轨迹输入,所述的LSTM层D的输出端为预测到的轨迹;
所述的LSTM层A对行人轨迹输入进行编码;
所述的LSTM层B对符合人-人交互栅格地图位置条件的行人轨迹输入进行编码;
所述的LSTM层C对方向权重计算模块的输出进行编码,所述的方向权重计算模块对符合人-车交互栅格地图位置条件的车辆轨迹输入进行编码;
所述的LSTM层D对LSTM层A、LSTM层B和LSTM层C链接后的输出进行解码和计算,得到预测的行人轨迹。
B、建立多层神经网络的输入
B1、输入当前行人轨迹
行人行走过程中,若没有其他障碍物阻挡,会沿原来的运动方向一直前进,若遇到其他车辆或行人,会修正自己的运动轨迹,这种修正行为最直观的体现在行人的前进的方向和速度上。行人会依据周边环境,修正自己的方向和速度,进而改变自己未来的轨迹。因此,在行人轨迹预测问题中,使用行人的前进方向和速度作为当前行人轨迹的输入变量。
首先假定每个场景中的行人以当前场景为标准坐标系,定义每个时刻的所有行人坐标,时间以帧为单位。将一段行人时间序列分为观察帧和预测帧,取t~t+obs为观察帧,t+obs+1~t+obs+pred为预测帧,其中obs、pred分别为观察帧和预测帧的长度,单位为帧数,则预测问题变成分段预测问题,其输入数据是行人在过去一段时间、每一帧相对于上一帧行人的转向角和行人的速度。具体公式如下:
其中,是观察帧序列中的行人i位置,是观察帧序列中行人i的速度,是t时刻行人i在x轴方向的速度,单位为m/s;是t时刻行人i在y轴方向的速度,单位为m/s;是观察帧序列中,行人i的方向角,单位为rad;是行人i的输入序列,是行人i的输出序列。
B2、输入人-人交互信息
建立扇形栅格地图的方式来衡量当前预测行人周围的行人状况,以当前行人为圆心,r为半径的扇形区域为人-人社交感兴趣区域,在这个区域中的行人称为当前行人的“邻居”,将扇形区域划分为a×b个网格,构成栅格地图。将栅格地图写成a×b的矩阵的形式,不同网格之内的行人的数量构成a×b的矩阵中的元素,如下式所示:
其中,1ab(·)是判定邻居行人j是否在感兴趣区域中网格(a,b)上的判别函数。若在网格(a,b)中则为1;N是半径为r的扇形感兴趣区域,是预测行人i与邻居行人j之间的欧氏距离,是被预测行人i与邻居行人j位置连线与扇形左侧边的夹角。
B3、输入人-车交互信息
建立圆形的栅格地图来表达车辆与行人交互的邻域,以当前行人为圆心R为半径,在圆形区域内的车辆为行人关注的车辆,将圆形地图分为m×n大小的四个网格,构建行人对车辆的地图矩阵如下:
由于车辆行驶方向相对固定,行人往往更关注于即将与自己相撞的车辆,若车辆与行人相对而行,行人大概率会修正自己的轨迹以避让或加速前进,若车辆与行人背道而行,车辆的运动状态对行人的影响相对较小。为了量化行人与车辆的方向对行人轨迹的影响,设计方向注意系数来计算栅格地图上各点的权重:
C、建立人车交互的LSTM神经网络的输出
将步骤B中LSTM层A、LSTM层B和LSTM层C的三个输出链接到一起输入到LSTM层D中,输出预测的行人轨迹,如下式所示:
本发明的效果和益处是:
1、本发明选用行人的前进方向和速度作为输入,更直观的表现出邻居和车辆对当前行人运动的影响。
2、本发明引入邻居行人和车辆的影响作为“社会信息”,与行人轨迹共同作为输入,运用分层编码的模式构建神经网络,能够解决行人受社会因素影响所发生轨迹改变的问题,提高预测精度。
3、本发明针对于人-车交互的“社会信息”方面,提出方向注意力函数,用来区分不同方向的车辆对行人的影响,以提高“社会信息”的精度,进而提高行人轨迹预测精度。
附图说明
本发明共有附图3张,其中:
图1是网络基本结构图。
图2是人-人栅格地图构建图。
图3是人-车栅格地图构建图。
具体实施方式
下面结合附图对本发明进行进一步地描述。以DUT环形路口数据集为例对本发明进行进一步的分析和说明。
A、按图1所示,构建人车交互的LSTM神经网络;
B、建立多层神经网络的输入;
B1、输入当前行人轨迹;
B2、输入人-人交互信息;
将步骤B2中的扇形区域划分为如图2所示的4×4共16个网格,构成人-人栅格地图,人-人栅格地图内的数字即每个网格内的人数,因此可以将栅格地图写成4×4的矩阵的形式,不同网格之内的行人的数量构成4×4的矩阵中的元素;
B3、输入人-车交互信息;
将步骤B3中圆形地图分为2×2大小的四个网格,构建人-车栅格地图;
C、建立人车交互的LSTM神经网络的输出;
D、评价预测结果;
用训练神经网络的预测值与目标值的均方误差MSE来评价神经网络预测的精确度,MSE的值越小,预测的精确度越高。当MSE值小于设定的误差目标值,即完成对神经网络的训练,若MSE值大于设定的误差目标值,需重新调整神经网络参数,再进行训练。
本发明不局限于本实施例,任何在本发明披露的技术范围内的等同构思或者改变,均列为本发明的保护范围。
Claims (1)
1.一种基于人车交互的LSTM神经网络行人轨迹预测方法,其特征在于:包括以下步骤:
A、构建人车交互的LSTM神经网络
所述的人车交互的LSTM神经网络包括行人轨迹输入、车辆轨迹输入、4个LSTM层和预测轨迹层,所述的4个LSTM层分别为LSTM层A、LSTM层B、LSTM层C和LSTM层D,所述的LSTM层A、LSTM层B、LSTM层C的输出端链接后输入到LSTM层D;所述的LSTM层A的输入端接收行人轨迹输入,所述的LSTM层B的输入端经人-人交互栅格地图连接收行人轨迹输入,所述的LSTM层C的输入端经方向权重计算模块和人-车交互栅格地图接收车辆轨迹输入,所述的LSTM层D的输出端为预测到的轨迹;
所述的LSTM层A对行人轨迹输入进行编码;
所述的LSTM层B对符合人-人交互栅格地图位置条件的行人轨迹输入进行编码;
所述的LSTM层C对方向权重计算模块的输出进行编码,所述的方向权重计算模块对符合人-车交互栅格地图位置条件的车辆轨迹输入进行编码;
所述的LSTM层D对LSTM层A、LSTM层B和LSTM层C链接后的输出进行解码和计算,得到预测的行人轨迹;
B、建立多层神经网络的输入
B1、输入当前行人轨迹
行人行走过程中,若没有其他障碍物阻挡,会沿原来的运动方向一直前进,若遇到其他车辆或行人,会修正自己的运动轨迹,这种修正行为最直观的体现在行人的前进的方向和速度上;行人会依据周边环境,修正自己的方向和速度,进而改变自己未来的轨迹;因此,在行人轨迹预测问题中,使用行人的前进方向和速度作为当前行人轨迹的输入变量;
首先假定每个场景中的行人以当前场景为标准坐标系,定义每个时刻的所有行人坐标,时间以帧为单位;将一段行人时间序列分为观察帧和预测帧,取t~t+obs为观察帧,t+obs+1~t+obs+pred为预测帧,其中obs、pred分别为观察帧和预测帧的长度,单位为帧数,则预测问题变成分段预测问题,其输入数据是行人在过去一段时间、每一帧相对于上一帧行人的转向角和行人的速度;具体公式如下:
其中,是观察帧序列中的行人i位置,是观察帧序列中行人i的速度,是t时刻行人i在x轴方向的速度,单位为m/s;是t时刻行人i在y轴方向的速度,单位为m/s;是观察帧序列中,行人i的方向角,单位为rad;是行人i的输入序列,是行人i的输出序列;
B2、输入人-人交互信息
建立扇形栅格地图的方式来衡量当前预测行人周围的行人状况,以当前行人为圆心,r为半径的扇形区域为人-人社交感兴趣区域,在这个区域中的行人称为当前行人的“邻居”,将扇形区域划分为a×b个网格,构成栅格地图;将栅格地图写成a×b的矩阵的形式,不同网格之内的行人的数量构成a×b的矩阵中的元素,如下式所示:
其中,1ab(·)是判定邻居行人j是否在感兴趣区域中网格(a,b)上的判别函数;若在网格(a,b)中则为1;N是半径为r的扇形感兴趣区域,是预测行人i与邻居行人j之间的欧氏距离,是被预测行人i与邻居行人j位置连线与扇形左侧边的夹角;
B3、输入人-车交互信息
建立圆形的栅格地图来表达车辆与行人交互的邻域,以当前行人为圆心R为半径,在圆形区域内的车辆为行人关注的车辆,将圆形地图分为m×n大小的四个网格,构建行人对车辆的地图矩阵如下:
由于车辆行驶方向相对固定,行人往往更关注于即将与自己相撞的车辆,若车辆与行人相对而行,行人大概率会修正自己的轨迹以避让或加速前进,若车辆与行人背道而行,车辆的运动状态对行人的影响相对较小;为了量化行人与车辆的方向对行人轨迹的影响,设计方向注意系数ft i,j来计算栅格地图上各点的权重:
因此,人-车交互输入Vt i(m,n)为:
C、建立人车交互的LSTM神经网络的输出
将步骤B中LSTM层A、LSTM层B和LSTM层C的三个输出链接到一起输入到LSTM层D中,输出预测的行人轨迹,如下式所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911418564.6A CN111161322B (zh) | 2019-12-31 | 2019-12-31 | 一种基于人车交互的lstm神经网络行人轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911418564.6A CN111161322B (zh) | 2019-12-31 | 2019-12-31 | 一种基于人车交互的lstm神经网络行人轨迹预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111161322A true CN111161322A (zh) | 2020-05-15 |
CN111161322B CN111161322B (zh) | 2022-10-18 |
Family
ID=70560400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911418564.6A Active CN111161322B (zh) | 2019-12-31 | 2019-12-31 | 一种基于人车交互的lstm神经网络行人轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111161322B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111932882A (zh) * | 2020-08-13 | 2020-11-13 | 广东飞达交通工程有限公司 | 一种基于图像识别的道路事故实时预警***、方法和设备 |
CN111931905A (zh) * | 2020-07-13 | 2020-11-13 | 江苏大学 | 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法 |
CN112215423A (zh) * | 2020-10-13 | 2021-01-12 | 西安交通大学 | 一种基于趋势引导与稀疏交互的行人轨迹预测方法及*** |
CN112215337A (zh) * | 2020-09-30 | 2021-01-12 | 江苏大学 | 一种基于环境注意力神经网络模型的车辆轨迹预测方法 |
CN112270226A (zh) * | 2020-10-16 | 2021-01-26 | 淮阴工学院 | 一种基于多特征提取和多注意力机制的行人轨迹预测方法 |
CN112541449A (zh) * | 2020-12-18 | 2021-03-23 | 天津大学 | 一种基于无人机航拍视角的行人轨迹预测方法 |
CN113837298A (zh) * | 2021-09-28 | 2021-12-24 | 中国科学技术大学先进技术研究院 | 基于深度学习的智能车辆周边行人行为预测方法和*** |
CN114446046A (zh) * | 2021-12-20 | 2022-05-06 | 上海智能网联汽车技术中心有限公司 | 一种基于lstm模型的弱势交通参与者轨迹预测方法 |
CN114511999A (zh) * | 2020-11-17 | 2022-05-17 | 郑州宇通客车股份有限公司 | 一种行人行为预测方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635793A (zh) * | 2019-01-31 | 2019-04-16 | 南京邮电大学 | 一种基于卷积神经网络的无人驾驶行人轨迹预测方法 |
CN110414365A (zh) * | 2019-07-03 | 2019-11-05 | 上海交通大学 | 基于社会力模型的过街行人轨迹预测方法、***及介质 |
CN110610271A (zh) * | 2019-09-17 | 2019-12-24 | 北京理工大学 | 一种基于长短记忆网络的多重车辆轨迹预测方法 |
-
2019
- 2019-12-31 CN CN201911418564.6A patent/CN111161322B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635793A (zh) * | 2019-01-31 | 2019-04-16 | 南京邮电大学 | 一种基于卷积神经网络的无人驾驶行人轨迹预测方法 |
CN110414365A (zh) * | 2019-07-03 | 2019-11-05 | 上海交通大学 | 基于社会力模型的过街行人轨迹预测方法、***及介质 |
CN110610271A (zh) * | 2019-09-17 | 2019-12-24 | 北京理工大学 | 一种基于长短记忆网络的多重车辆轨迹预测方法 |
Non-Patent Citations (1)
Title |
---|
权波等: "基于LSTM的船舶航迹预测模型", 《计算机科学》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931905A (zh) * | 2020-07-13 | 2020-11-13 | 江苏大学 | 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法 |
CN111931905B (zh) * | 2020-07-13 | 2024-05-14 | 江苏大学 | 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法 |
CN111932882A (zh) * | 2020-08-13 | 2020-11-13 | 广东飞达交通工程有限公司 | 一种基于图像识别的道路事故实时预警***、方法和设备 |
CN112215337B (zh) * | 2020-09-30 | 2024-05-14 | 江苏大学 | 一种基于环境注意力神经网络模型的车辆轨迹预测方法 |
CN112215337A (zh) * | 2020-09-30 | 2021-01-12 | 江苏大学 | 一种基于环境注意力神经网络模型的车辆轨迹预测方法 |
CN112215423B (zh) * | 2020-10-13 | 2023-06-06 | 西安交通大学 | 一种基于趋势引导与稀疏交互的行人轨迹预测方法及*** |
CN112215423A (zh) * | 2020-10-13 | 2021-01-12 | 西安交通大学 | 一种基于趋势引导与稀疏交互的行人轨迹预测方法及*** |
CN112270226B (zh) * | 2020-10-16 | 2024-04-02 | 淮阴工学院 | 一种基于多特征提取和多注意力机制的行人轨迹预测方法 |
CN112270226A (zh) * | 2020-10-16 | 2021-01-26 | 淮阴工学院 | 一种基于多特征提取和多注意力机制的行人轨迹预测方法 |
CN114511999A (zh) * | 2020-11-17 | 2022-05-17 | 郑州宇通客车股份有限公司 | 一种行人行为预测方法及装置 |
CN114511999B (zh) * | 2020-11-17 | 2023-09-01 | 宇通客车股份有限公司 | 一种行人行为预测方法及装置 |
CN112541449A (zh) * | 2020-12-18 | 2021-03-23 | 天津大学 | 一种基于无人机航拍视角的行人轨迹预测方法 |
CN113837298A (zh) * | 2021-09-28 | 2021-12-24 | 中国科学技术大学先进技术研究院 | 基于深度学习的智能车辆周边行人行为预测方法和*** |
CN113837298B (zh) * | 2021-09-28 | 2023-07-18 | 中国科学技术大学先进技术研究院 | 基于深度学习的智能车辆周边行人行为预测方法和*** |
CN114446046A (zh) * | 2021-12-20 | 2022-05-06 | 上海智能网联汽车技术中心有限公司 | 一种基于lstm模型的弱势交通参与者轨迹预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111161322B (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111161322B (zh) | 一种基于人车交互的lstm神经网络行人轨迹预测方法 | |
US11900797B2 (en) | Autonomous vehicle planning | |
CN111931905B (zh) | 一种图卷积神经网络模型、及利用该模型的车辆轨迹预测方法 | |
CN111907527B (zh) | 用于自主驾驶的可解释学习***和方法 | |
CN111008999B (zh) | 用包含跟踪网络的cnn跟踪对象的方法和使用该方法的装置 | |
KR102306939B1 (ko) | V2x 통신 및 이미지 처리를 이용한 정보 융합을 통해 자율 주행의 단기 경로를 플래닝하기 위한 방법 및 장치 | |
EP3822852B1 (en) | Method, apparatus, computer storage medium and program for training a trajectory planning model | |
CN107168305A (zh) | 路口场景下基于Bezier和VFH的无人车轨迹规划方法 | |
KR20200096131A (ko) | 다양한 소스로부터 획득되는 정보의 퓨전을 통해 주변 객체의 모션을 예측함으로써, 사고 위험을 회피하여 안전한 자율 주행을 지원하는 학습 방법, 그리고 이를 이용한 학습 장치, 테스트 방법, 및 테스트 장치 | |
US20230066919A1 (en) | Calibrating multiple inertial measurement units | |
CN110244701A (zh) | 用于基于自动生成的课程序列的自主车辆的强化学习的方法和装置 | |
US11891087B2 (en) | Systems and methods for generating behavioral predictions in reaction to autonomous vehicle movement | |
CN107479547B (zh) | 基于示教学习的决策树行为决策算法 | |
CN114846425A (zh) | 移动机器人的预测和规划 | |
CN114379595B (zh) | 基于车辆行为特征与环境交互信息的车辆轨迹预测方法 | |
Mouhagir et al. | A markov decision process-based approach for trajectory planning with clothoid tentacles | |
CN114281084A (zh) | 一种基于改进a*算法的智能车全局路径规划方法 | |
Shen et al. | Parkpredict: Motion and intent prediction of vehicles in parking lots | |
CN112857370A (zh) | 一种基于时序信息建模的机器人无地图导航方法 | |
CN115937821A (zh) | 一种全栈自动驾驶规划方法及其统一架构*** | |
CN114967701A (zh) | 一种动态环境下移动机器人自主导航方法 | |
Tiong et al. | Autonomous valet parking with asynchronous advantage actor-critic proximal policy optimization | |
CN117408406A (zh) | 一种规划耦合的多目标车辆轨迹预测方法及*** | |
WO2023242223A1 (en) | Motion prediction for mobile agents | |
CN115092141B (zh) | 应用于自动驾驶车辆变道超车的轨迹规划方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |