CN108803617B - 轨迹预测方法及装置 - Google Patents

轨迹预测方法及装置 Download PDF

Info

Publication number
CN108803617B
CN108803617B CN201810752554.5A CN201810752554A CN108803617B CN 108803617 B CN108803617 B CN 108803617B CN 201810752554 A CN201810752554 A CN 201810752554A CN 108803617 B CN108803617 B CN 108803617B
Authority
CN
China
Prior art keywords
vehicle
information
track
video sequence
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810752554.5A
Other languages
English (en)
Other versions
CN108803617A (zh
Inventor
邹文斌
周长源
吴迪
王振楠
唐毅
李霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201810752554.5A priority Critical patent/CN108803617B/zh
Publication of CN108803617A publication Critical patent/CN108803617A/zh
Application granted granted Critical
Publication of CN108803617B publication Critical patent/CN108803617B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明实施例提供一种轨迹预测方法及装置,涉及机器人及智能车辆的局部导航领域,应用于设置有车载摄像头的车辆,该方法包括:利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列。从该视频序列中定位该周围车辆并提取该周围车辆的历史轨迹信息,将该视频序列进行图像分割得到的场景语义信息作为辅助信息。将该历史轨迹信息和该辅助信息输入神经网络模型,得到该周围车辆的预测轨迹。该轨迹预测方法可提高预测车辆轨迹的准确度。

Description

轨迹预测方法及装置
技术领域
本发明涉及机器人及智能车辆的局部导航领域,尤其涉及一种轨迹预测方法及装置。
背景技术
在车辆行驶过程中,预测其他交通参与者的未来轨迹以避免自动驾驶的车辆撞向其他车辆是十分重要的。假设所有交通参与者都遵守交通规则,人类驾驶员可以潜意识地预测目标的未来轨迹,则对于自动驾驶车辆而言,通常采用建立模型的方法来预测其他交通参与者的未来轨迹。
然而,目前大多数工作都是使用静态图像来提取视觉语义消息,或者采用端对端的结构来学习驾驶网络,前者忽略驾驶情形中的时间连续性,而后者缺乏训练网络可解释性,因此会造成预测车辆轨迹准确度不高的问题。
发明内容
本发明的主要目的在于提供一种轨迹预测方法及装置,可提高预测车辆轨迹的准确度。
本发明实施例第一方面提供的轨迹预测方法,应用于设置有车载摄像头的车辆,所述方法包括:利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列;从所述视频序列中定位所述周围车辆并提取所述周围车辆的历史轨迹信息,将所述视频序列进行图像分割得到的场景语义信息作为辅助信息;将所述历史轨迹信息和所述辅助信息输入神经网络模型,得到所述周围车辆的预测轨迹。
本发明实施例第二方面提供的轨迹预测装置,应用于设置有车载摄像头的车辆,所述装置包括:获取模块,用于利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列;提取分割模块,用于从所述视频序列中定位所述周围车辆并提取所述周围车辆的历史轨迹信息,将所述视频序列进行图像分割得到的场景语义信息作为辅助信息;输出模块,用于将所述历史轨迹信息和所述辅助信息输入神经网络模型,得到所述周围车辆的预测轨迹。
从上述实施例中可知,通过车载摄像头获取包括周围车辆和车辆背景的视频序列,并且将视频序列进行图像分割获取场景语义信息,接着将场景语义信息和历史轨迹信息输入神经网络模型获取预测轨迹,而不是采用静态图像来提取场景语义信息进行分析,从而保证了本实施例中神经网络模型的时间连续性,进而提高了预测车辆轨迹的准确度。
附图说明
图1是本发明第一实施例提供的轨迹预测方法的实现流程示意图;
图2是本发明第二实施例提供的轨迹预测方法的实现流程示意图;
图3是本发明第二实施例提供的轨迹预测方法的神经网络模型的示意图;
图4是本发明第二实施例提供的轨迹预测方法的应用示意图;
图5是本发明第三实施例提供的轨迹预测装置的结构示意图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1是本发明第一实施例提供的轨迹预测方法的实现流程示意图,该方法应用于设置有车载摄像头的车辆。如图1所示,该轨迹预测方法主要包括以下步骤:
101、利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列。
具体的,在车辆的自动行驶过程中,假设所有交通参与者都遵守交通规则,采用建立模型的方法来预测其他交通参与者的未来轨迹。在建立模型的过程中,需获取周围的环境信息,因此首先利用车辆上的车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列。其中,视频序列的每秒帧数可根据实际情况进行选用。其中,周围车辆可指与设置有车载摄像头的车辆的距离位于一定范围以内,对设置有车载摄像头的车辆存在潜在影响的车辆,该范围可为设置有车载摄像头的车辆的周围30米处。
102、从该视频序列中定位该周围车辆并提取该周围车辆的历史轨迹信息,将该视频序列进行图像分割得到的场景语义信息作为辅助信息。
具体的,视频序列中的运动为快速连续地显示帧所形成的运动的假象,每一帧的视频序列为静止的图像,则在每一帧的视频序列中定位周围车辆,从连续的多帧视频序列中可以看到周围车辆的轨迹信息,因此对于当前帧的视频序列而言,从过去多帧的视频序列中获取到的是周围车辆的历史轨迹信息。
其中,将每一帧的视频序列进行图像分割得到的场景语义信息作为辅助信息。图像分割是指将每一帧的视频序列中的物体按照语义类别进行分割并标注场景语义信息,如行人、周围车辆、建筑物、天空、植被、道路障碍、车道线、道路标识信息和交通信号灯信息等,进而识别当前帧的视频序列中的可行驶区域。通过将场景语义信息作为辅助信息可对于目标的表观变化具有一定的鲁棒性。
可选的,由于不同的语义类别所对应的区域为不同特征区域,而不同特征区域的分界线是边缘,因此可采用边缘检测对每一帧的视频序列进行分割,从而提取出所需要的目标。其中,边缘是表明一个特征区域的结束和另一个特征区域的开始,所需要的目标的内部特征或属性是一致的,与其他特征区域内部的特征或属性不一致,如灰度、颜色或者纹理等特征。
103、将该历史轨迹信息和该辅助信息输入神经网络模型,得到该周围车辆的预测轨迹。
具体的,神经网络是由大量且简单的神经元广泛地互相连接而形成的复杂网络***,是一个高度复杂的非线性动力学习***,具有大规模并行、分布式存储和处理、自组织、自适应和自学能力。因此,利用神经网络建立数学模型得到神经网络模型,并将得到的历史轨迹信息和辅助信息输入神经网络模型,得到周围车辆的预测轨迹。
在本发明实施例中,通过车载摄像头获取包括周围车辆和车辆背景的视频序列,并且将视频序列进行图像分割获取场景语义信息,接着将场景语义信息和历史轨迹信息输入神经网络模型获取预测轨迹,而不是采用静态图像来提取场景语义信息进行分析,从而保证了本实施例中神经网络模型的时间连续性,进而提高了预测车辆轨迹的准确度。
请参阅图2,图2是本发明第二实施例提供的轨迹预测方法的实现流程示意图,该方法应用于设置有车载摄像头的车辆。如图2所示,该轨迹预测方法主要包括以下步骤:
201、利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列。
202、从该视频序列中定位该周围车辆并提取该周围车辆的历史轨迹信息,将该视频序列进行图像分割得到的场景语义信息作为辅助信息。
203、将该辅助信息输入给该卷积神经网络,得到空间特征信息。
具体的,该神经网络模型包括卷积神经网络、第一层长短期记忆网络、第二层长短期记忆网络和全连接层。
其中,卷积神经网络是一种前馈神经网络。视频序列进行图像分割和标注后得到场景语义信息作为辅助信息输入到卷积神经网络,得到空间特征信息。辅助信息为图像信息,可采用一位有效编码进行编码,以频道数作为语义类别数量,将该辅助信息输入四层的卷积神经网络,该卷积核可为3*3*4,得到空间特征信息,该空间特征信息以6维向量表示。
其中,如图3所示,卷积神经网络包括卷积层、线性修正单元、池化层和Dropout层。卷积层可提取辅助信息中的特征。线性层可引入非线性特征。池化层可对输入的辅助信息进行压缩,并提取主要特征。Dropout层可用于缓解过拟合问题。
204、将该历史轨迹信息输入该第一层长短期记忆网络,得到时间特征信息。将该空间特征信息和该时间特征信息输入该第二层长短期记忆网络,得到联合特征信息。
具体的,长短期神经(Long-short Term Memory,LSTM)网络是一种时间递归网络。历史轨迹信息有一定的时序性,并且位置上存在一定上下文关联,即历史轨迹信息作为一个序列的输入需要不断进行学习前后的位置特征,因此利用LSTM网络对历史轨迹信息进行训练,并连接历史帧的轨迹信息用于推测当前帧的轨迹信息。
其中,如图3所示,历史轨迹信息输入第一层LSTM网络,得到时间特征信息,将该时间特征信息和步骤203中得到的空间特征信息输入到第二层LSTM网络,得到联合表征信息。并且由于立体空间网格维数为6,第一层LSTM网络不仅可以学习到时间特征信息,而且可以使时间特征信息和空间特征信息的维数一致。在实际应用中,第一层LSTM网络的单元数可为100,第二层LSTM网络可包括两层单元数均为300的LSTM网络。
205、将该联合特征信息输入全连接层,得到该预测轨迹。
具体的,全连接层的每一个结点都与上一层的所有结点相连,用来把上一层提取到的所有特征综合起来,因此将联合表征信息输入全连接层,进行一系列的矩阵相乘得到神经网络模型的输出,得到T个时间步长的预测轨迹J。在实际应用中,时间T可为1.6s(单位:秒)
其中,该神经网络模型包括以下公式:
J←Mp(h,a):H×A。
Figure BDA0001725930000000061
Figure BDA0001725930000000062
Figure BDA0001725930000000063
其中,J表示该预测轨迹,M表示H、A与J之间的映射关系,H表示该历史轨迹信息,A表示该辅助信息,p表示该周围车辆,h表示在第t帧视频序列中车辆p的位置信息,a表示在第t帧视频序列中车辆p的场景语义信息,j表示在从T+1帧起第t帧视频序列中车辆p的位置信息,t表示每帧。
其中,如图3所示,本实施例中提出图像分割-长短期记忆网络(Segmentation-Long-short Term Memory,SEG-LSTM)将历史帧的多流融合起来并预测周围车辆的未来轨迹。
其中,LSTM网络的层数、每层LSTM网络的单元数、卷积神经网络的层数以及卷积核的尺寸都属于网络超参数,是经过交叉验证确定的。交叉验证的作用是确定最优的超参数,同时避免模型过拟合。示例性的,首先,将数据集分为训练集和测试集,比例为5:1。接着训练集均分为5部分,将每一部分轮流作为验证集,其余4部分作为训练集进行5次训练和验证,使用不同超参数可得到对应的平均准确率,取效果最优的超参数来确定其数值。
如图4所示,将视频序列按帧划分为多个时间步长的视频序列,并从每一帧的视频序列进行检测与跟踪得到位置信息,进行图像分割,得到语义信息。随后,将同一帧的位置信息和语义信息输入LSTM网络进行训练,通过对多个历史帧和当前帧的视频序列进行训练,得到预测轨迹,
206、通过该深度相机,分别获取该车辆与各该周围车辆的最小相对距离。根据该最小相对距离,将该二维空间预测轨迹转换为三维空间预测轨迹。
具体的,该预测轨迹为二维空间预测轨迹,该车辆中还设置有深度相机。
其中,通过以下公式,根据该最小相对距离,将该二维空间预测轨迹转换为三维空间预测轨迹:
Figure BDA0001725930000000071
其中,x,y,w,h分别表示二维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,xr,yr,wr,hr分别表示三维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,f表示为该深度相机的焦距,dmin表示为该车辆与各该周围车辆的最小相对距离。
其中,若忽略下标p,历史轨迹信息和预测轨迹可定义为一个三维空间占据网格,即
H,J∈R6={x,y,w,h,dmin,dmax}
式中,dmax表示该车辆与各该周围车辆的最大距离。
在本发明实施例中,首先,通过车载摄像头获取包括周围车辆和车辆背景的视频序列,并且将视频序列进行图像分割获取场景语义信息,接着将场景语义信息和历史轨迹信息输入神经网络模型获取预测轨迹,而不是采用静态图像来提取场景语义信息进行分析,从而保证了本实施例中神经网络模型的时间连续性,进而提高了预测车辆轨迹的准确度。另外,采用卷积神经网络和LSTM网络可提高对周围车辆追踪的鲁棒性,并且采用图像分割得到场景语义信息,可提高训练过程的可解释性。
请参阅图5,图5是本发明第三实施例提供的轨迹预测装置的结构示意图,应用于设置有车载摄像头的车辆。如图5所示,该轨迹预测装置主要包括:
获取模块301,用于利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列。
提取分割模块302,用于从视频序列中定位周围车辆并提取周围车辆的历史轨迹信息,将视频序列进行图像分割得到的场景语义信息作为辅助信息。
输出模块303,用于将历史轨迹信息和辅助信息输入神经网络模型,得到周围车辆的预测轨迹。
进一步地,神经网络模型包括卷积神经网络、第一层长短期记忆网络、第二层长短期记忆网络和全连接层,则,
输出模块303,还用于将辅助信息输入给卷积神经网络,得到空间特征信息。
输出模块303,还用于将历史轨迹信息输入第一层长短期记忆网络,得到时间特征信息。
输出模块303,还用于将空间特征信息和时间特征信息输入第二层长短期记忆网络,得到联合特征信息。
输出模块303,还用于将联合特征信息输入全连接层,得到预测轨迹。
进一步地,神经网络模型包括以下公式:
J←Mp(h,a):H×A。
Figure BDA0001725930000000081
Figure BDA0001725930000000082
Figure BDA0001725930000000083
其中,J表示预测轨迹,M表示H、A与J之间的映射关系,H表示历史轨迹信息,A表示辅助信息,p表示周围车辆,h表示在第t帧视频序列中车辆p的位置信息,a表示在第t帧视频序列中车辆p的场景语义信息,j表示在从T+1帧起第t帧视频序列中车辆p的位置信息,t表示每帧。
进一步地,预测轨迹为二维空间预测轨迹,车辆中还设置有深度相机,
获取模块301,还用于通过深度相机,分别获取车辆与各周围车辆的最小相对距离。
则装置还包括转换模块304,
转换模块304,用于根据最小相对距离,将二维空间预测轨迹转换为三维空间预测轨迹。
进一步地,转换模块304,还用于通过以下公式,根据最小相对距离,将二维空间预测轨迹转换为三维空间预测轨迹:
Figure BDA0001725930000000091
其中,x,y,w,h分别表示二维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,xr,yr,wr,hr分别表示三维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,f表示为深度相机的焦距,dmin表示为车辆与各周围车辆的最小相对距离。
上述模块实现各自功能的过程具体可参考上述如图1至图4所示实施例中的相关内容,此处不再赘述。
在本发明实施例中,通过车载摄像头获取包括周围车辆和车辆背景的视频序列,并且将视频序列进行图像分割获取场景语义信息,接着将场景语义信息和历史轨迹信息输入神经网络模型获取预测轨迹,而不是采用静态图像来提取场景语义信息进行分析,从而保证了本实施例中神经网络模型的时间连续性,进而提高了预测车辆轨迹的准确度。
在本申请所提供的多个实施例中,应该理解到,所揭露的方法及装置,可以通过其他的方式实现。例如,以上所描述的实施例仅仅是示意性的,例如,所述模块的划分,仅仅作为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信链接可以使通过一些接口,模块的间接耦合或通信链接,可以是电性,机械或其他的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中。也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的方式实现,也可以采用软件功能模块的形式实现。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上为对本发明所提供的一种轨迹预测方法及装置、终端及计算机可读存储介质的描述,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。

Claims (6)

1.一种轨迹预测方法,应用于设置有车载摄像头的车辆,其特征在于,所述方法包括:
利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列;
从所述视频序列中定位所述周围车辆并提取所述周围车辆的历史轨迹信息,将所述视频序列进行图像分割得到的场景语义信息作为辅助信息;
将所述历史轨迹信息和所述辅助信息输入神经网络模型,得到所述周围车辆的预测轨迹;
所述预测轨迹为二维空间预测轨迹,所述车辆中还设置有深度相机,则所述方法还包括:
通过所述深度相机,分别获取所述车辆与各所述周围车辆的最小相对距离;
根据所述最小相对距离,将所述二维空间预测轨迹转换为三维空间预测轨迹;
其中,通过以下公式,根据所述最小相对距离,将所述二维空间预测轨迹转换为三维空间预测轨迹:
Figure FDA0002166441740000011
其中,x,y,w,h分别表示二维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,xr,yr,wr,hr分别表示三维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,f表示为所述深度相机的焦距,dmin表示为所述车辆与各所述周围车辆的最小相对距离。
2.如权利要求1所述的轨迹预测方法,其特征在于,所述神经网络模型包括卷积神经网络、第一层长短期记忆网络、第二层长短期记忆网络和全连接层,则所述将所述历史轨迹信息和所述辅助信息输入神经网络模型,得到所述周围车辆的预测轨迹包括:
将所述辅助信息输入给所述卷积神经网络,得到空间特征信息;
将所述历史轨迹信息输入所述第一层长短期记忆网络,得到时间特征信息;
将所述空间特征信息和所述时间特征信息输入所述第二层长短期记忆网络,得到联合特征信息;
将所述联合特征信息输入全连接层,得到所述预测轨迹。
3.如权利要求1所述的轨迹预测方法,其特征在于,所述神经网络模型包括以下公式:
J←Mp(h,a):H×A;
Figure FDA0002166441740000021
Figure FDA0002166441740000022
Figure FDA0002166441740000023
其中,J表示所述预测轨迹,M表示H、A与J之间的映射关系,H表示所述历史轨迹信息,A表示所述辅助信息,p表示所述周围车辆,h表示在第t帧视频序列中车辆p的位置信息,a表示在第t帧视频序列中车辆p的场景语义信息,j表示在从T+1帧起第t帧视频序列中车辆p的位置信息,t表示每帧。
4.一种轨迹预测装置,应用于设置有车载摄像头的车辆,其特征在于,所述装置包括:
获取模块,用于利用车载摄像头对周围环境进行摄影,获取包括有周围车辆和车辆背景的视频序列;
提取分割模块,用于从所述视频序列中定位所述周围车辆并提取所述周围车辆的历史轨迹信息,将所述视频序列进行图像分割得到的场景语义信息作为辅助信息;
输出模块,用于将所述历史轨迹信息和所述辅助信息输入神经网络模型,得到所述周围车辆的预测轨迹;
所述预测轨迹为二维空间预测轨迹,所述车辆中还设置有深度相机;
所述获取模块,还用于通过所述深度相机,分别获取所述车辆与各所述周围车辆的最小相对距离;
则所述装置还包括转换模块,
所述转换模块,用于根据所述最小相对距离,将所述二维空间预测轨迹转换为三维空间预测轨迹;
其中,所述转换模块,还用于通过以下公式,根据所述最小相对距离,将所述二维空间预测轨迹转换为三维空间预测轨迹:
Figure FDA0002166441740000031
其中,x,y,w,h分别表示二维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,xr,yr,wr,hr分别表示三维空间预测轨迹在每一帧视频序列中的像素边界框中的元素,f表示为所述深度相机的焦距,dmin表示为所述车辆与各所述周围车辆的最小相对距离。
5.如权利要求4所述的轨迹预测装置,其特征在于,所述神经网络模型包括卷积神经网络、第一层长短期记忆网络、第二层长短期记忆网络和全连接层,则,
所述输出模块,还用于将所述辅助信息输入给所述卷积神经网络,得到空间特征信息;
所述输出模块,还用于将所述历史轨迹信息输入所述第一层长短期记忆网络,得到时间特征信息;
所述输出模块,还用于将所述空间特征信息和所述时间特征信息输入所述第二层长短期记忆网络,得到联合特征信息;
所述输出模块,还用于将所述联合特征信息输入全连接层,得到所述预测轨迹。
6.如权利要求4所述的轨迹预测装置,其特征在于,所述神经网络模型包括以下公式:
J←Mp(h,a):H×A;
Figure FDA0002166441740000041
Figure FDA0002166441740000042
Figure FDA0002166441740000043
其中,J表示所述预测轨迹,M表示H、A与J之间的映射关系,H表示所述历史轨迹信息,A表示所述辅助信息,p表示所述周围车辆,h表示在第t帧视频序列中车辆p的位置信息,a表示在第t帧视频序列中车辆p的场景语义信息,j表示在从T+1帧起第t帧视频序列中车辆p的位置信息,t表示每帧。
CN201810752554.5A 2018-07-10 2018-07-10 轨迹预测方法及装置 Active CN108803617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810752554.5A CN108803617B (zh) 2018-07-10 2018-07-10 轨迹预测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810752554.5A CN108803617B (zh) 2018-07-10 2018-07-10 轨迹预测方法及装置

Publications (2)

Publication Number Publication Date
CN108803617A CN108803617A (zh) 2018-11-13
CN108803617B true CN108803617B (zh) 2020-03-20

Family

ID=64075916

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810752554.5A Active CN108803617B (zh) 2018-07-10 2018-07-10 轨迹预测方法及装置

Country Status (1)

Country Link
CN (1) CN108803617B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020010517A1 (zh) * 2018-07-10 2020-01-16 深圳大学 轨迹预测方法及装置
JP2020095612A (ja) * 2018-12-14 2020-06-18 株式会社小松製作所 運搬車両の管理システム及び運搬車両の管理方法
CN109631915B (zh) * 2018-12-19 2021-06-29 百度在线网络技术(北京)有限公司 轨迹预测方法、装置、设备及计算机可读存储介质
CN109523574B (zh) * 2018-12-27 2022-06-24 联想(北京)有限公司 一种行走轨迹预测方法和电子设备
WO2020164089A1 (en) * 2019-02-15 2020-08-20 Bayerische Motoren Werke Aktiengesellschaft Trajectory prediction using deep learning multiple predictor fusion and bayesian optimization
CN109583151B (zh) * 2019-02-20 2023-07-21 阿波罗智能技术(北京)有限公司 车辆的行驶轨迹预测方法及装置
CN111738037B (zh) * 2019-03-25 2024-03-08 广州汽车集团股份有限公司 一种自动驾驶方法及其***、车辆
CN109885066B (zh) * 2019-03-26 2021-08-24 北京经纬恒润科技股份有限公司 一种运动轨迹预测方法及装置
CN111316286A (zh) * 2019-03-27 2020-06-19 深圳市大疆创新科技有限公司 轨迹预测方法及装置、存储介质、驾驶***与车辆
CN110007675B (zh) * 2019-04-12 2021-01-15 北京航空航天大学 一种基于行车态势图的车辆自动驾驶决策***及基于无人机的训练集制备方法
CN110223318A (zh) * 2019-04-28 2019-09-10 驭势科技(北京)有限公司 一种多目标轨迹的预测方法、装置、车载设备及存储介质
CN110262486B (zh) * 2019-06-11 2020-09-04 北京三快在线科技有限公司 一种无人驾驶设备运动控制方法及装置
CN112078592B (zh) * 2019-06-13 2021-12-24 魔门塔(苏州)科技有限公司 一种车辆行为和/或车辆轨迹的预测方法及装置
CN110275531B (zh) * 2019-06-21 2020-11-27 北京三快在线科技有限公司 障碍物的轨迹预测方法、装置及无人驾驶设备
CN110852342B (zh) * 2019-09-26 2020-11-24 京东城市(北京)数字科技有限公司 一种路网数据的获取方法、装置、设备及计算机存储介质
CN110834645B (zh) * 2019-10-30 2021-06-29 中国第一汽车股份有限公司 车辆的自由空间确定方法、装置、存储介质及车辆
US11351996B2 (en) 2019-11-01 2022-06-07 Denso International America, Inc. Trajectory prediction of surrounding vehicles using predefined routes
CN112784628B (zh) * 2019-11-06 2024-03-19 北京地平线机器人技术研发有限公司 轨迹预测方法、用于轨迹预测的神经网络训练方法及装置
US11650072B2 (en) 2019-11-26 2023-05-16 International Business Machines Corporation Portable lane departure detection
CN111114554B (zh) * 2019-12-16 2021-06-11 苏州智加科技有限公司 行驶轨迹预测方法、装置、终端及存储介质
WO2021134354A1 (zh) * 2019-12-30 2021-07-08 深圳元戎启行科技有限公司 轨迹预测方法、装置、计算机设备和存储介质
CN111260122A (zh) * 2020-01-13 2020-06-09 重庆首讯科技股份有限公司 一种高速公路上车流量预测方法及装置
CN111114543B (zh) * 2020-03-26 2020-07-03 北京三快在线科技有限公司 一种轨迹预测方法及装置
CN113496268B (zh) * 2020-04-08 2024-07-05 北京图森智途科技有限公司 一种轨迹预测方法和装置
CN111523643B (zh) * 2020-04-10 2024-01-05 商汤集团有限公司 轨迹预测方法、装置、设备及存储介质
CN111595352B (zh) * 2020-05-14 2021-09-28 陕西重型汽车有限公司 一种基于环境感知和车辆行驶意图的轨迹预测方法
EP4192713B1 (en) 2020-08-10 2024-04-24 Dr. Ing. h.c. F. Porsche Aktiengesellschaft Device for and method of predicting a trajectory for a vehicle
CN112562331A (zh) * 2020-11-30 2021-03-26 的卢技术有限公司 一种基于视觉感知的他方车辆轨迹预测方法
CN112558608B (zh) * 2020-12-11 2023-03-17 重庆邮电大学 一种基于无人机辅助的车机协同控制及路径优化方法
CN113554060B (zh) * 2021-06-24 2023-06-20 福建师范大学 一种融合dtw的lstm神经网络轨迹预测方法
CN114387782B (zh) * 2022-01-12 2023-06-27 智道网联科技(北京)有限公司 预测交通状态的方法、装置和电子设备
CN114460943B (zh) * 2022-02-10 2023-07-28 山东大学 服务机器人自适应目标导航方法及***
CN115881286B (zh) * 2023-02-21 2023-06-16 创意信息技术股份有限公司 一种防疫管理调度***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700538A (zh) * 2016-01-28 2016-06-22 武汉光庭信息技术股份有限公司 基于神经网络和pid算法的轨迹跟随方法
CN106873580A (zh) * 2015-11-05 2017-06-20 福特全球技术公司 基于感知数据在交叉口处自主驾驶
CN106952303A (zh) * 2017-03-09 2017-07-14 北京旷视科技有限公司 车距检测方法、装置和***
CN107144285A (zh) * 2017-05-08 2017-09-08 深圳地平线机器人科技有限公司 位姿信息确定方法、装置和可移动设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838426B2 (en) * 2016-07-21 2020-11-17 Mobileye Vision Technologies Ltd. Distributing a crowdsourced sparse map for autonomous vehicle navigation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106873580A (zh) * 2015-11-05 2017-06-20 福特全球技术公司 基于感知数据在交叉口处自主驾驶
CN105700538A (zh) * 2016-01-28 2016-06-22 武汉光庭信息技术股份有限公司 基于神经网络和pid算法的轨迹跟随方法
CN106952303A (zh) * 2017-03-09 2017-07-14 北京旷视科技有限公司 车距检测方法、装置和***
CN107144285A (zh) * 2017-05-08 2017-09-08 深圳地平线机器人科技有限公司 位姿信息确定方法、装置和可移动设备

Also Published As

Publication number Publication date
CN108803617A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
CN108803617B (zh) 轨迹预测方法及装置
Choi et al. SDDNet: Real-time crack segmentation
WO2020244653A1 (zh) 物体识别方法及装置
Ramos et al. Detecting unexpected obstacles for self-driving cars: Fusing deep learning and geometric modeling
CN109726627B (zh) 一种神经网络模型训练及通用接地线的检测方法
US11455813B2 (en) Parametric top-view representation of complex road scenes
EP3561727A1 (en) A device and a method for extracting dynamic information on a scene using a convolutional neural network
Saha et al. Enabling spatio-temporal aggregation in birds-eye-view vehicle estimation
CN111563446A (zh) 一种基于数字孪生的人-机交互安全预警与控制方法
CN107545263B (zh) 一种物体检测方法及装置
CN113936139A (zh) 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及***
WO2021218786A1 (zh) 一种数据处理***、物体检测方法及其装置
Wulff et al. Early fusion of camera and lidar for robust road detection based on U-Net FCN
CN111563415A (zh) 一种基于双目视觉的三维目标检测***及方法
Kim et al. Vision-based real-time obstacle segmentation algorithm for autonomous surface vehicle
Bhalla et al. Simulation of self-driving car using deep learning
CN111860269A (zh) 一种多特征融合的串联rnn结构及行人预测方法
CN111098850A (zh) 一种自动停车辅助***及自动泊车方法
CN110942037A (zh) 一种用于视频分析中的动作识别方法
CN116597270A (zh) 基于注意力机制集成学习网络的道路损毁目标检测方法
CN116912485A (zh) 一种基于热感图像和可见光图像特征融合的场景语义分割方法
CN113408550B (zh) 基于图像处理的智能称重管理***
CN114419603A (zh) 一种自动驾驶车辆控制方法、***和自动驾驶车辆
CN117693768A (zh) 语义分割模型的优化方法和装置
CN113012191A (zh) 一种基于点云多视角投影图的激光里程计算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant