CN111340880B - 用于生成预测模型的方法和装置 - Google Patents

用于生成预测模型的方法和装置 Download PDF

Info

Publication number
CN111340880B
CN111340880B CN202010097489.4A CN202010097489A CN111340880B CN 111340880 B CN111340880 B CN 111340880B CN 202010097489 A CN202010097489 A CN 202010097489A CN 111340880 B CN111340880 B CN 111340880B
Authority
CN
China
Prior art keywords
vehicle
sample
value
angle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010097489.4A
Other languages
English (en)
Other versions
CN111340880A (zh
Inventor
蒋旻悦
谭啸
孙昊
文石磊
章宏武
丁二锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010097489.4A priority Critical patent/CN111340880B/zh
Publication of CN111340880A publication Critical patent/CN111340880A/zh
Application granted granted Critical
Publication of CN111340880B publication Critical patent/CN111340880B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了用于生成预测模型的方法和装置。该方法的一具体实施方式包括:获取样本集,样本包括利用摄像装置拍摄的样本图像和样本结果,样本结果表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;从样本集中选取样本,执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。该实施方式实现了对预测模型的训练,从而可以利用预测模型确定车辆的行驶方向。

Description

用于生成预测模型的方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成预测模型的方法和装置。
背景技术
无人车,也称为无人驾驶汽车、智能汽车、轮式移动机器人等。目前,无人车主要依靠车内的以计算机***为主的智能驾驶仪(如车载传感***等)来感知无人车的周围环境,并根据感知所获得的道路、障碍物等信息,控制无人车的转向和速度等,从而使无人车能够在道路上行驶。如何保证无人车行驶的安全性和可靠性是无人车研究领域的主要研究方向之一。
在无人车的行驶过程中,道路上通常还会有其他许多行驶中的车辆。因此,如果可以准确地判断周围其他车辆的行驶方向,无人车就可以更好地规划自身的行驶路线,以保证无人车的安全行驶。
发明内容
本公开的实施例提出了用于生成预测模型的方法和装置。
第一方面,本公开的实施例提供了一种用于生成预测模型的方法,该方法包括:获取样本集,其中,样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;从样本集中选取样本,以及执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
在一些实施例中,上述训练步骤还包括:响应于根据损失函数的值确定初始模型未训练完成,调整初始模型的参数,以及从样本集中重新选取样本,使用调整后的初始模型作为初始模型,继续执行上述训练步骤。
在一些实施例中,样本结果包括角度区间标识和相对角度,其中,角度区间标识用于指示车辆对应的目标方向与车辆的行驶方向之间的夹角所在的角度区间,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角在其所在的角度区间中的位置,其中,角度区间通过以预设角度单位对全向角度划分得到。
在一些实施例中,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值。
在一些实施例中,样本结果包括车辆对应的目标方向与车辆的行驶方向之间的夹角对应的正弦值和/或余弦值。
在一些实施例中,根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值,包括:根据得到的预测结果中的正弦值和对应的样本结果中的正弦值,利用L1损失函数得到第一损失值;根据得到的预测结果中的余弦值和对应的样本结果中的余弦值,利用L1损失函数得到第二损失值;确定第一损失值对应的权重,其中,第一损失值对应的权重反比于正弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;确定第二损失值对应的权重,其中,第二损失值对应的权重反比于余弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;根据第一损失值和第二损失值的加权和,确定损失函数的值。
第二方面,本公开的实施例提供了一种用于预测行驶方向的方法,该方法包括:利用在无人车上设置的拍摄装置拍摄图像;将图像输入至预测模型,得到用于表征图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果,其中,预测模型通过如上述第一方面中任一实现方式描述的方法生成,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;根据得到的预测结果,确定图像中的车辆的行驶方向。
第三方面,本公开的实施例提供了一种用于生成预测模型的装置,该装置包括:获取单元,被配置成获取样本集,其中,样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;训练单元,被配置成从样本集中选取样本,以及执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
在一些实施例中,上述训练步骤还包括:响应于根据损失函数的值确定初始模型未训练完成,调整初始模型的参数,以及从样本集中重新选取样本,使用调整后的初始模型作为初始模型,继续执行上述训练步骤。
在一些实施例中,样本结果包括角度区间标识和相对角度,其中,角度区间标识用于指示车辆对应的目标方向与车辆的行驶方向之间的夹角所在的角度区间,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角在其所在的角度区间中的位置,其中,角度区间通过以预设角度单位对全向角度划分得到。
在一些实施例中,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值。
在一些实施例中,样本结果包括车辆对应的目标方向与车辆的行驶方向之间的夹角对应的正弦值和/或余弦值。
在一些实施例中,上述训练单元进一步被配置成根据得到的预测结果中的正弦值和对应的样本结果中的正弦值,利用L1损失函数得到第一损失值;根据得到的预测结果中的余弦值和对应的样本结果中的余弦值,利用L1损失函数得到第二损失值;确定第一损失值对应的权重,其中,第一损失值对应的权重反比于正弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;确定第二损失值对应的权重,其中,第二损失值对应的权重反比于余弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;根据第一损失值和第二损失值的加权和,确定损失函数的值。
第四方面,本公开的实施例提供了一种用于预测行驶方向的装置,该装置包括:拍摄单元,被配置成利用在无人车上设置的拍摄装置拍摄图像;预测单元,被配置成将图像输入至预测模型,得到用于表征图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果,其中,预测模型通过如上述第一方面中任一实现方式描述的方法生成,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;确定单元,被配置成根据得到的预测结果,确定图像中的车辆的行驶方向。
第五方面,本公开的实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开的实施例提供的用于生成预测模型的方法和装置,利用采集大量包括样本图像和样本结果的训练样本,训练得到预测模型,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向,从而可以利用训练得到的预测模型得到用于表征拍摄到的车辆的实际位置与摄像装置的实际位置之间的连线所在的方向与该车辆的行驶方向之间的夹角的预测结果,进而可以根据预测结果计算出拍摄到的车辆的行驶方向。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性***架构图;
图2是根据本公开的用于生成预测模型的方法的一个实施例的流程图;
图3是根据本公开的实施例的用于生成预测模型的方法的又一个实施例的流程图;
图4是根据本公开的用于预测行驶方向的方法的一个实施例的流程图;
图5是根据本公开的用于生成预测模型的装置的一个实施例的结构示意图;
图6是根据本公开的用于预测行驶方向的装置的一个实施例的结构示意图;
图7是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的用于生成预测模型的方法或用于生成预测模型的装置的实施例的示例性架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用。例如图像处理类应用、浏览器类应用、搜索类应用等等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是支持图像处理的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如根据终端设备101、102、103发送的样本集对初始模型进行训练以得到预测模型的服务器。进一步地,服务器105还可以利用训练完成的初始模型对接收或采集到的图像进行处理,以得到图像对应的输出结果,进而可以根据输出结果,确定拍摄出的图像中的车辆的行驶方向。
需要说明的是,上述样本集也可以直接存储在服务器105的本地,服务器105可以直接提取本地所存储的样本集对初始模型进行训练,此时,可以不存在终端设备101、102、103和网络104。
需要说明的是,本公开的实施例所提供的用于生成预测模型的方法一般由服务器105执行,相应地,用于生成预测模型的装置一般设置于服务器105中。
还需要指出的是,终端设备101、102、103中也可以具备图像处理功能。此时,终端设备101、102、103也可以基于样本集对初始模型进行训练,以得到预测模型。此时,用于生成预测模型的方法也可以由终端设备101、102、103执行,相应地,用于生成预测模型的装置也可以设置于终端设备101、102、103中。此时,示例性***架构100可以不存在服务器105和网络104。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本公开的用于生成预测模型的方法的一个实施例的流程200。该用于生成预测模型的方法包括以下步骤:
步骤201,获取样本集,样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果。
在本实施例中,用于生成预测模型的方法的执行主体(如图1所示的服务器105)可以从本地或其他存储设备(如图1所示的终端设备101、102、103或数据库等)获取样本集。
在本实施例中,摄像装置可以指各种能够拍摄图像的装置。例如摄像装置可以包括但不限于摄像头、摄像机等等。其中,利用摄像装置拍摄的样本图像可以包括至少一个车辆。
其中,车辆可以指各种类型的可行驶的车辆。例如,车辆可以包括但不限于汽车、客车、货车、公交车等等。应当可以理解,在样本图像包括两个以上车辆时,样本图像包括的各个车辆的类型可以相同,也可以不同。
可选地,摄像装置可以在道路上拍摄样本图像。例如,摄像装置可以设置于道路边。又例如,摄像装置可以设置在无人车上。
样本图像对应的样本结果可以用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角。其中,车辆对应的目标方向可以为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向。
其中,实际位置可以指地理位置。根据实际的应用需求,可以基于各种坐标系表示车辆的实际位置和摄像装置的实际位置。当然,车辆的实际位置与摄像装置的实际位置是采用同一坐标系进行表示的。
需要说明的是,若样本图像中包括两个以上的车辆,则样本图像对应的样本结果可以包括样本图像中的各个车辆分别对应的子样本结果。即样本结果可以包括分别用于表征样本图像中的各个车辆分别对应的目标方向与各自的行驶方向之间的夹角的子样本结果。
根据不同的应用场景或应用需求,可以采用不同的表征车辆对应的目标方向与车辆的行驶方向之间的夹角的方法。例如,样本结果可以包括车辆对应的目标方向与车辆的行驶方向之间的夹角。又例如,样本结果可以包括车辆对应的目标方向与车辆的行驶方向之间的夹角的归一化值。
又例如,样本结果可以包括车辆对应的目标方向与车辆的行驶方向之间的夹角的正弦值和/或余弦值。此时,即是利用正弦值和/或余弦值来表征车辆对应的目标方向与车辆的行驶方向之间的夹角。
步骤202,从样本集中选取样本,执行如下步骤2021-2023的训练步骤:
在本实施例中,可以根据实际的应用场景从样本集灵活选取样本。例如,可以从样本集中随机选取预设数目的样本。其中,预设数目可以由技术人员根据实际的应用需求预先设置。
步骤2021,将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果。
在本步骤中,初始模型可以是各种类型的未经训练的或训练完成的人工神经网络。例如,初始模型可以是深度学习模型。初始模型也可以是对多种未经训练的或未训练完成的人工神经网络进行组合得到的模型。当然,技术人员也可以根据实际的应用需求利用现有的各种深度学习框架搭建初始模型。
应当可以理解,若选取的样本的数目为两个以上,则可以将选取的各个样本中的样本图像分别输入至初始模型,得到初始模型输出的、与各个样本图像分别对应的样本结果。
步骤2022,根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值。
在本实施例中,可以根据得到的预测结果与选取的样本中的样本结果的比较结果,确定损失函数的值。其中,技术人员可以预先根据实际的应用需求灵活设计损失函数。例如,损失函数可以包括但不限于L1损失函数、平滑L1损失函数、L2损失函数等等。
步骤2023,响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
在本实施例中,可以根据损失函数的值确定初始模型是否训练完成。确定初始模型是否训练完成的方式可以由技术人员根据实际的应用需求灵活设置。例如,可以通过确定损失函数的值是否不大于预设的损失阈值来判断初始模型是否训练完成。若损失函数的值大于损失阈值,则可以确定初始模型未训练完成。
在本实施例的一些可选的实现方式中,响应于根据损失函数的值确定初始模型未训练完成,调整初始模型的参数,以及从样本集中重新选取样本,使用调整后的初始模型作为初始模型,继续执行训练步骤202。
其中,在得到损失函数的值之后,可以利用如梯度下降和反向传播等算法调整初始模型各网络层的参数。一般地,通常需要多次迭代训练才能够训练完成。
在训练过程中,可以灵活采用多种确定初始模型是否训练完成的方式。例如,第一次对初始模型进行训练时,可以根据损失函数的值与预设的损失阈值,确定初始模型是否训练完成,也可以设置无论损失函数的值是什么,都确定初始模型未训练完成等。在对初始模型进行参数调整之后,可以根据连读多次调整参数后的初始模型分别对应的损失函数的值之间的差异与预设的差异阈值,确定初始模型是否训练完成。
在本实施例的一些可选的实现方式中,样本结果可以包括角度区间标识和相对角度。角度区间标识可以用于指示车辆对应的目标方向与车辆的行驶方向之间的夹角所在的角度区间。其中,角度区间可以通过以预设角度单位对全向角度划分得到。相对角度可以用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角在其所在的角度区间中的位置。换言之,相对角度可以用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角相对于其所在的角度区间中的角度。
其中,全向角度可以由技术人员根据实际的应用需求灵活设置。例如,全向角度可以为360°,也可以为180°。预设角度单位也可以由技术人员预先设置。例如,预设角度单位可以为30°、60°等。以预设角度单位为60°对全向角度为360°进行划分作为示例,可以得到0°~60°、60°~120°、120°~180°、180°~240°、240°~300°、300°~360°共六个角度区间。若车辆对应的目标方向与车辆的行驶方向之间的夹角为115°,则可以确定车辆对应的目标方向与车辆的行驶方向之间的夹角位于上述60°~120°角度区间。
其中,相对角度可以灵活采用各种表示方法来确定。例如,相对角度可以用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角,与,其所在的角度区间的起始角度之间的差值。
举例来说,若车辆对应的目标方向与车辆的行驶方向之间的夹角为115°,位于60°~120°角度区间。则相对角度可以为115°与角度区间的起始角度60°之间的差值55°。
通过按照预设角度单位对全向角度进行划分得到多个角度区间,从而可以利用角度区间标识和位于所在的角度区间中的位置来表征车辆对应的目标方向与车辆的行驶方向之间的夹角。这种表示方式可以缩小相对角度的取值范围,有助于降低预测模型的输出误差。
在本实施例的一些可选的实现方式中,以预设角度单位对全向角度划分得到的各个角度区间中的任意两个相邻角度区间可以具有交集。
作为示例,得到的各个角度区间可以如下:(330°~360°和0°~90°)0°~90°、60°~150°、120°~210°、180°~270°、(240°~300°和0°~30°)240°~300°、300°~360°共六个角度区间。
通过设置划分得到的各个角度区间中的任意两个相邻角度区间可以具有交集的方式可以保证预测模型的输出结果的连续性和稳定性。
需要说明的是,在划分得到的各个角度区间中的任意两个相邻角度区间具有交集时,对于处于任意两个相邻角度区间的角度,该角度对应的区间标识可以包括其所在的两个相邻角度区间分别对应对的角度区间标识。
可选地,相对角度可以用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值。其中,角度区间的半角可以指位于角度区间的中心的角度。
举例来说,若车辆对应的目标方向与车辆的行驶方向之间的夹角为115°,位于60°~120°角度区间。角度区间60°~120°的半角为60°+((120°-60°)/2)=90°。此时,相对角度可以为115°与角度区间的半角90°之间的差值25°。
通过车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值来表征通过车辆对应的目标方向与车辆的行驶方向之间的夹角,可以进一步缩小相对角度的取值范围,从而有助于进一步降低预测模型的输出误差。
在本实施例的一些可选的实现方式中,可以利用对应的正弦值和/或余弦值表征车辆对应的目标方向与车辆的行驶方向之间的夹角。此时,样本结果可以包括车辆对应的目标方向与车辆的行驶方向之间的夹角对应的正弦值和/或余弦值。
在本实施例的一些可选的实现方式中,在样本结果包括角度区间标识和相对角度时,可以利用对应的正弦值和/或余弦值表征车辆对应的目标方向与车辆的行驶方向之间的夹角在其所在的角度区间中的位置。此时,相对角度可以包括车辆对应的目标方向与车辆的行驶方向之间的夹角相对于其所在的角度区间的角度的正弦值和/或余弦值。
需要说明的是,车辆对应的目标方向与车辆的行驶方向之间的夹角的表征方法可以灵活设置。例如,可以选定坐标系和参考位置,使用相对角度来表征车辆对应的目标方向与车辆的行驶方向之间的夹角。本公开对此不做限制。
在本实施例的一些可选的实现方式中,在样本结果采用正弦值和余弦值表征角度时,可以通过如下步骤根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值:
步骤一,根据得到的预测结果中的正弦值和对应的样本结果中的正弦值,利用L1损失函数得到第一损失值。
由于L1损失函数使用最小绝对值偏差来计算损失值。因此,可以确定预测结果中的正弦值和对应的样本结果中的正弦值的差的绝对值作为第一损失值。
步骤二,根据得到的预测结果中的余弦值和对应的样本结果中的余弦值,利用L1损失函数得到第二损失值。
在本步骤中,可以确定预测结果中的余弦值和对应的样本结果中的余弦值的差的绝对值作为第二损失值。
步骤三,根据得到的预测结果中的正弦值,确定第一损失值对应的权重。
在本步骤中,第一权值可以反比于正弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数。
第一权值的具体计算方式可以由技术人员根据实际的应用场景灵活设置。例如,第一权值可以为正弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数的倒数。又例如,可以先计算正弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数与预设调节值的和,得到调节后的导数,然后可以确定得到的调节后的导数的倒数作为第一权值。
步骤四,根据得到的预测结果中的余弦值,确定第二损失值对应的权重。
在本步骤中,第二权值可以反比于余弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数。
与上述第一权值类似地,第二权值的具体计算方式可以由技术人员根据实际的应用场景灵活设置。例如,第二权值可以为余弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数的倒数。又例如,可以先计算余弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数与预设调节值的和,得到调节后的导数,然后可以确定得到的调节后的导数的倒数作为第二权值。
步骤五,根据第一损失值和第二损失值的加权和,确定损失函数的值。
在本步骤中,损失函数的值可以正比于第一损失值和第二损失值的加权和。例如,可以直接确定第一损失值和第二损失值的加权和作为损失函数的值。
由于正弦函数和预先函数本身的非线性,会影响计算出的L1损失函数的值的精确度。通过利用正弦函数和预先函数分别在对应的夹角处的导数的倒数来确定L1损失函数的值的权重,可以得到更精确的损失函数的值,从而提升预测模型的输出结果的精确度。
本公开的上述实施例提供的方法通过训练预测模型,以回归车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向,与车辆的行驶方向之间的夹角可以保证拍摄到的图像中呈现的车辆的外观变化与车辆行驶方向的同步性,从而提升预测模型的输出结果的准确度和稳定度。
进一步参考图3,图3是根据本实施例的用于生成预测模型的方法的又一个实施例的流程300。该用于生成预测模型的方法的流程300包括以下步骤:
步骤301,获取样本集,样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,样本结果包括角度区间标识和相对角度,相对角度包括车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值的正弦值和余弦值。
步骤302,从样本集中选取样本,执行如下步骤3021-3023的训练步骤:
步骤3021,将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果。
步骤3022,通过如下步骤30221-30225确定损失函数的值:
步骤30221,根据得到的预测结果中的正弦值和对应的样本结果中的正弦值,利用L1损失函数得到第一损失值。
步骤30222,根据得到的预测结果中的余弦值和对应的样本结果中的余弦值,利用L1损失函数得到第二损失值。
步骤30223,确定第一损失值对应的权重。
在本步骤中,第一损失值对应的权重可以反比于正弦函数在得到的预测结果中的相对角度所表征的车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值处的导数。例如,可以先根据预测结果中的相对角度所包括的正弦值和余弦值确定车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值,然后计算正弦函数在所得到的差值处的导数的倒数作为第一损失值。
步骤30224,确定第二损失值对应的权重。
在本步骤中,第二损失值对应的权重可以反比于余弦函数在得到的预测结果中的相对角度所表征的车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值处的导数。
例如,可以先根据预测结果中的相对角度所包括的正弦值和余弦值确定车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值,然后计算余弦函数在所得到的差值处的导数的倒数作为第一损失值。
步骤30225,确定第一损失值和第二损失值的加权和作为损失函数的值。
步骤3023,响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
步骤3024,响应于根据损失函数的值确定初始模型未训练完成,调整初始模型的参数,以及从样本集中重新选取样本,使用调整后的初始模型作为初始模型,继续执行上述训练步骤302。
上述步骤301和302中未说明的步骤的具体执行过程可以参考图2对应实施例中的步骤201和202的相关说明,在此不再赘述。
本公开的上述实施例提供的方法通过将全向角度划分为若干角度区间,从而可以减小训练过程中所涉及到的相对角度的取值范围,有助于降低预测模型的输出误差,提升预测模型的输出结果的稳定度。同时,利用正弦函数和预先函数在对应的角度处的导数的倒数作为权重来调节损失函数的值,可以减小正弦函数和余弦函数的非线性影响,从而提升预测模型的输出结果的准确度。
进一步参考图4,其示出了一种用于预测行驶方向的方法的一个实施例的流程400。该用于预测行驶方向的方法的流程400,包括以下步骤:
步骤401,利用在无人车上设置的拍摄装置拍摄图像。
在本实施例中,用于预测行驶方向的方法的执行主体可以与图2对应实施例所描述的方法的执行主体可以相同,也可以不同。其中,摄像装置可以指各种能够设置在无人车上的各种用于拍摄图像的装置。例如摄像装置可以包括但不限于摄像头、摄像机等等。其中,利用摄像装置拍摄的图像可以包括至少一个车辆。
步骤402,将图像输入至预测模型,得到用于表征图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果。
在本实施例中,预测模型可以通过图2或图3对应实施例所描述的方法生。车辆对应的目标方向可以为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向。
步骤403,根据得到的预测结果,确定图像中的车辆的行驶方向。
在得到预测结果之后,可以结合无人车上设置的摄像装置所在的实际位置与图像中的车辆所在的位置,计算出图像中的车辆的行驶方向。
其中,无人车可以检测自身所在的实际位置,从而得到无人车上设置的摄像装置所在的实际位置。可以利用各种方法确定图像中的车辆所在的实际位置。例如,可以根据摄像装置的外参和/或内参,以及基于图像分析技术和计算机视觉计算得到图像中的车辆所在的实际位置。
应当可以理解,在拍摄的图像包括两个以上的车辆时,可以分别确定出各个车辆各自的行驶方向。
本公开的上述实施例提供的方法利用训练好的预测模型得到用于表征无人车所拍摄的图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向,从而可以根据得到的预测结果确定出图像中的各个车辆各自的行驶方向。基于此,无人车在行驶过程中,可以根据确定出的周围车辆的行驶方向,及时地调整自身的行驶轨迹,从而保证行驶过程的安全性。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了用于生成预测模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例提供的用于生成预测模型的装置500包括获取单元501和训练单元502。其中,获取单元501被配置成获取样本集,其中,样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;训练单元502被配置成从样本集中选取样本,以及执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
在本实施例中,用于生成预测模型的装置500中:获取单元501和训练单元502的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201和步骤202的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述训练步骤还包括:响应于根据损失函数的值确定初始模型未训练完成,调整初始模型的参数,以及从样本集中重新选取样本,使用调整后的初始模型作为初始模型,继续执行上述训练步骤。
在本实施例的一些可选的实现方式中,样本结果包括角度区间标识和相对角度,其中,角度区间标识用于指示车辆对应的目标方向与车辆的行驶方向之间的夹角所在的角度区间,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角在其所在的角度区间中的位置,其中,角度区间通过以预设角度单位对全向角度划分得到。
在本实施例的一些可选的实现方式中,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值。
在本实施例的一些可选的实现方式中,样本结果包括车辆对应的目标方向与车辆的行驶方向之间的夹角对应的正弦值和/或余弦值。
在本实施例的一些可选的实现方式中,上述训练单元502进一步被配置成根据得到的预测结果中的正弦值和对应的样本结果中的正弦值,利用L1损失函数得到第一损失值;根据得到的预测结果中的余弦值和对应的样本结果中的余弦值,利用L1损失函数得到第二损失值;确定第一损失值对应的权重,其中,第一损失值对应的权重反比于正弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;确定第二损失值对应的权重,其中,第二损失值对应的权重反比于余弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;根据第一损失值和第二损失值的加权和,确定损失函数的值。
本公开的上述实施例提供的装置通过获取单元获取样本集,其中,样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;训练单元从样本集中选取样本,以及执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。通过这种方式训练预测模型,以回归出车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向,与车辆的行驶方向之间的夹角可以保证拍摄到的图像中呈现的车辆的外观变化与车辆行驶方向的同步性,从而提升预测模型的输出结果的准确度和稳定度。
进一步参考图6,作为对上述各图所示方法的实现,本公开提供了用于预测行驶方向的装置的一个实施例,该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例提供的用于预测行驶方向的装置600包括拍摄单元601、预测单元602和确定单元603。其中,拍摄单元601被配置成利用在无人车上设置的拍摄装置拍摄图像;预测单元602将图像输入至预测模型,得到用于表征图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果,其中,预测模型通过如图2实施例所描述的方法生成,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;确定单元603,被配置成根据得到的预测结果,确定图像中的车辆的行驶方向。
在本实施例中,用于预测行驶方向的装置600中:拍摄单元601、预测单元602和确定单元603的具体处理及其所带来的技术效果可分别参考图4对应实施例中的步骤401、步骤402和步骤403的相关说明,在此不再赘述。
本公开的上述实施例提供的装置,通过拍摄单元利用在无人车上设置的拍摄装置拍摄图像;预测单元将图像输入至预测模型,得到用于表征图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果,其中,预测模型通过如上述第一方面中任一实现方式描述的方法生成,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;确定单元根据得到的预测结果,确定图像中的车辆的行驶方向,从而无人车可以根据确定出的周围车辆的行驶方向,及时地调整自身的行驶轨迹,保证行驶过程的安全性。
下面参考图7,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器)700的结构示意图。图7示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开的实施例的方法中限定的上述功能。
需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取样本集,其中,样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;从样本集中选取样本,以及执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元和训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取样本集的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (11)

1.一种用于生成预测模型的方法,包括:
获取样本集,其中,所述样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;
从所述样本集中选取样本,以及执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
2.根据权利要求1所述的方法,其中,所述训练步骤还包括:
响应于根据损失函数的值确定初始模型未训练完成,调整初始模型的参数,以及从所述样本集中重新选取样本,使用调整后的初始模型作为初始模型,继续执行所述训练步骤。
3.根据权利要求1所述的方法,其中,样本结果包括角度区间标识和相对角度,其中,角度区间标识用于指示车辆对应的目标方向与车辆的行驶方向之间的夹角所在的角度区间,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角在其所在的角度区间中的位置,其中,角度区间通过以预设角度单位对全向角度划分得到。
4.根据权利要求3所述的方法,其中,相对角度用于表征车辆对应的目标方向与车辆的行驶方向之间的夹角与其所在的角度区间的半角之间的差值。
5.根据权利要求1所述的方法,其中,样本结果包括车辆对应的目标方向与车辆的行驶方向之间的夹角对应的正弦值和/或余弦值。
6.根据权利要求5所述的方法,其中,所述根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值,包括:
根据得到的预测结果中的正弦值和对应的样本结果中的正弦值,利用L1损失函数得到第一损失值;
根据得到的预测结果中的余弦值和对应的样本结果中的余弦值,利用L1损失函数得到第二损失值;
确定所述第一损失值对应的权重,其中,所述第一损失值对应的权重反比于正弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;
确定所述第二损失值对应的权重,其中,所述第二损失值对应的权重反比于余弦函数在得到的预测结果所表征的样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角处的导数;
根据所述第一损失值和所述第二损失值的加权和,确定损失函数的值。
7.一种用于预测行驶方向的方法,包括:
利用在无人车上设置的拍摄装置拍摄图像;
将所述图像输入至预测模型,得到用于表征所述图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果,其中,所述预测模型通过如权利要求1-6之一所述的方法生成,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;
根据得到的预测结果,确定所述图像中的车辆的行驶方向。
8.一种用于生成预测模型的装置,包括:
获取单元,被配置成获取样本集,其中,所述样本集中的样本包括利用摄像装置拍摄的样本图像和样本图像对应的样本结果,其中,样本结果用于表征样本图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;
训练单元,被配置成从所述样本集中选取样本,以及执行如下的训练步骤:将选取的样本中的样本图像输入至初始模型,得到样本图像对应的预测结果;根据得到的预测结果与选取的样本中的样本结果,确定损失函数的值;响应于根据损失函数的值确定初始模型训练完成,将初始模型确定为预测模型。
9.一种用于预测行驶方向的装置,包括:
拍摄单元,被配置成利用在无人车上设置的拍摄装置拍摄图像;
预测单元,被配置成将所述图像输入至预测模型,得到用于表征所述图像中的车辆对应的目标方向与车辆的行驶方向之间的夹角的预测结果,其中,所述预测模型通过如权利要求1-6之一所述的方法生成,车辆对应的目标方向为车辆的实际位置与摄像装置的实际位置之间的连线所在的方向;
确定单元,被配置成根据得到的预测结果,确定所述图像中的车辆的行驶方向。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
11.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN202010097489.4A 2020-02-17 2020-02-17 用于生成预测模型的方法和装置 Active CN111340880B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010097489.4A CN111340880B (zh) 2020-02-17 2020-02-17 用于生成预测模型的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010097489.4A CN111340880B (zh) 2020-02-17 2020-02-17 用于生成预测模型的方法和装置

Publications (2)

Publication Number Publication Date
CN111340880A CN111340880A (zh) 2020-06-26
CN111340880B true CN111340880B (zh) 2023-08-04

Family

ID=71187000

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010097489.4A Active CN111340880B (zh) 2020-02-17 2020-02-17 用于生成预测模型的方法和装置

Country Status (1)

Country Link
CN (1) CN111340880B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113029146A (zh) * 2021-03-02 2021-06-25 北京白龙马云行科技有限公司 导航动作预测模型训练方法、导航动作生成方法及装置
CN113344237A (zh) * 2021-03-24 2021-09-03 安徽超视野智能科技有限公司 一种违法车辆路线预测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105752081A (zh) * 2014-12-30 2016-07-13 株式会社万都 车道变换控制装置及控制方法
CN107554430A (zh) * 2017-09-20 2018-01-09 京东方科技集团股份有限公司 车辆盲区可视化方法、装置、终端、***及车辆
CN107703937A (zh) * 2017-09-22 2018-02-16 南京轻力舟智能科技有限公司 基于卷积神经网络的自动导航小车***及其冲突规避方法
CN108053067A (zh) * 2017-12-12 2018-05-18 深圳市易成自动驾驶技术有限公司 最优路径的规划方法、装置及计算机可读存储介质
CN109087485A (zh) * 2018-08-30 2018-12-25 Oppo广东移动通信有限公司 驾驶提醒方法、装置、智能眼镜及存储介质
CN109389863A (zh) * 2017-08-02 2019-02-26 华为技术有限公司 提示方法及相关设备
CN110356405A (zh) * 2019-07-23 2019-10-22 桂林电子科技大学 车辆辅助行驶方法、装置、计算机设备及可读存储介质
CN110400490A (zh) * 2019-08-08 2019-11-01 腾讯科技(深圳)有限公司 轨迹预测方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498448B2 (en) * 2011-07-15 2013-07-30 International Business Machines Corporation Multi-view object detection using appearance model transfer from similar scenes
TWI491524B (zh) * 2012-03-08 2015-07-11 Ind Tech Res Inst 全周鳥瞰影像產生方法、訓練方法及應用其之車體端裝置及訓練裝置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105752081A (zh) * 2014-12-30 2016-07-13 株式会社万都 车道变换控制装置及控制方法
CN109389863A (zh) * 2017-08-02 2019-02-26 华为技术有限公司 提示方法及相关设备
CN107554430A (zh) * 2017-09-20 2018-01-09 京东方科技集团股份有限公司 车辆盲区可视化方法、装置、终端、***及车辆
CN107703937A (zh) * 2017-09-22 2018-02-16 南京轻力舟智能科技有限公司 基于卷积神经网络的自动导航小车***及其冲突规避方法
CN108053067A (zh) * 2017-12-12 2018-05-18 深圳市易成自动驾驶技术有限公司 最优路径的规划方法、装置及计算机可读存储介质
CN109087485A (zh) * 2018-08-30 2018-12-25 Oppo广东移动通信有限公司 驾驶提醒方法、装置、智能眼镜及存储介质
CN110356405A (zh) * 2019-07-23 2019-10-22 桂林电子科技大学 车辆辅助行驶方法、装置、计算机设备及可读存储介质
CN110400490A (zh) * 2019-08-08 2019-11-01 腾讯科技(深圳)有限公司 轨迹预测方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱会强.基于视频跟踪的车辆行为分析技术研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2012,(第01期),I138-365. *

Also Published As

Publication number Publication date
CN111340880A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
CN111626208B (zh) 用于检测小目标的方法和装置
JP6644742B2 (ja) 頑健で効率的な車両測位用のアルゴリズム及びインフラ
US10803324B1 (en) Adaptive, self-evolving learning and testing platform for self-driving and real-time map construction
CN110163153B (zh) 用于识别交通标志牌边界的方法及装置
CN111079619A (zh) 用于检测图像中的目标对象的方法和装置
CN110654381B (zh) 用于控制车辆的方法和装置
CN111340880B (zh) 用于生成预测模型的方法和装置
CN109213144A (zh) 人机接口(hmi)架构
JP2015076077A (ja) 交通量推定システム、端末装置、交通量推定方法および交通量推定プログラム
CN111401255B (zh) 用于识别分歧路口的方法和装置
JP6224344B2 (ja) 情報処理装置、情報処理方法並びに情報処理システム及び情報処理プログラム
CN111382695A (zh) 用于检测目标的边界点的方法和装置
CN111461980B (zh) 点云拼接算法的性能估计方法和装置
JP2019087969A (ja) 走行現調支援装置
CN113409393B (zh) 用于识别交通标志牌的方法及装置
CN112558036B (zh) 用于输出信息的方法和装置
CN115512336B (zh) 基于路灯光源的车辆定位方法、装置和电子设备
CN116776151A (zh) 可与车外人员进行自主交互的自动驾驶模型和训练方法
CN110588666B (zh) 用于控制车辆行驶的方法及装置
CN113312403B (zh) 地图获取方法、装置、电子设备及存储介质
CN115556769A (zh) 障碍物状态量确定方法及装置、电子设备和介质
CN112859109B (zh) 无人机全景图像处理方法、装置及电子设备
CN111383337B (zh) 用于识别对象的方法和装置
CN110135517B (zh) 用于获取车辆相似度的方法及装置
CN113920174A (zh) 点云配准方法、装置、设备、介质和自动驾驶车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant