CN116745191A - 场景相关轨迹评分***与方法 - Google Patents

场景相关轨迹评分***与方法 Download PDF

Info

Publication number
CN116745191A
CN116745191A CN202180091369.6A CN202180091369A CN116745191A CN 116745191 A CN116745191 A CN 116745191A CN 202180091369 A CN202180091369 A CN 202180091369A CN 116745191 A CN116745191 A CN 116745191A
Authority
CN
China
Prior art keywords
category
candidate vehicle
scene
vehicle
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180091369.6A
Other languages
English (en)
Inventor
王宇翔
纳撒尼尔·洪卡
克里斯托弗·康宁汉姆
达米尔·米尔科维奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of CN116745191A publication Critical patent/CN116745191A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

用于操作自主车辆的***和方法。方法包括:获取自主车辆的一个或多个候选车辆轨迹和定义自主车辆周围环境状态的情景信息;为由情景信息和第一候选车辆轨迹指定的场景分配类别;使用基于分配的类别选择的评分函数来生成第一候选车辆轨迹的第一质量分数;基于与第一候选车辆轨迹相关联的第一质量分数和与至少一个第二候选车辆轨迹相关联的第二质量分数来选择候选车辆轨迹;以及使得自主车辆使用所选择的候选车辆轨迹来执行自主驾驶操作。

Description

场景相关轨迹评分***与方法
背景技术
交叉引用和优先权要求
本专利申请要求2021年1月20日提交的专利申请号为17/152,894的美国专利申请的优先权,该专利申请的全部内容通过引用并入本文。
技术领域声明
本公开总体上涉及自主车辆。更具体地,本公开涉及用于场景相关轨迹评分的实现***和方法。
相关技术的描述
现代车辆至少有一台车载计算机,并具有互联网/卫星连接。在这些车载计算机上运行的软件监视和/或控制车辆的操作。软件被配置为执行车辆的运动规划。运动规划通常包括基于经处理和未经处理的传感器数据生成车辆的轨迹,并执行所生成的轨迹。
发明内容
本公开涉及用于操作自主车辆的实施***和方法。该方法包括由计算设备(例如,车辆车载计算设备)执行以下操作:获取自主车辆的一个或多个候选车辆轨迹和定义自主车辆周围环境状态的情景信息(例如,十字路口信息、对象相关信息(例如,对象的观测传感器数据、对象类别的先验知识、对象的推断属性、预测的对象轨迹)、道路地图、交通信息和/或环境信息);为由情景信息和候选车辆轨迹中的第一候选车辆轨迹指定的场景分配多个类别(例如,左转场景类别、右转场景、超车场景类别、行驶场景类别、加速场景类别、减速场景类别、静止场景类别、向前行驶场景类别、向后行驶场景类别和/或乘客接载场景类别)中的至少一个类别;基于分配给场景的至少一个类别从多个不同的评分函数中选择至少一个评分函数(多个不同评分函数分别与多个类别相关联);使用评分函数生成第一候选车辆轨迹的至少一个第一质量分数;基于与第一候选车辆轨迹相关联的第一质量分数和与至少一个第二候选车辆轨迹相关联的第二质量分数,从候选车辆轨迹中选择候选车辆轨迹;和/或使自主车辆使用所选择的候选车辆轨迹执行自主驾驶操作(例如,使自主车辆遵循所选择的候选车辆轨迹)。
计算设备还可以(i)使用情景信息和第一候选车辆轨迹生成特征向量,以及(ii)使用特征向量生成第一候选车辆轨迹的质量分数。第一候选车辆轨迹的第一质量分数可以通过组合两个或更多个分数来产生。例如,为由情景信息和第一候选车辆轨迹指定的场景分配第一类别和第二类别。基于第一类别来选择第一评分函数。基于第二类别来选择第二评分函数。第二评分函数不同于第一评分函数。使用第一评分函数生成第一分数,使用第二评分函数生成第二分数。将第一分数和第二分数组合在一起以产生第一候选车辆轨迹的第一质量分数。本发明的方案不限于该示例的细节。
在这些或其他场景中,计算设备基于分配给场景的类别,从多个不同的组或权重中选择一组评分函数。所选择的一组评分函数和/或权重用于生成第一候选车辆轨迹的至少一个第一质量分数。附加地或替代地,通过将第一质量分数和第二质量分数彼此比较或与阈值比较,从候选车辆轨迹中选择候选车辆轨迹。
实施***包括:处理器;以及包括编程指令的非暂时性计算机可读存储介质,编程指令被配置为使处理器实现上述方法。
附图说明
将参考附图描述本发明的方案,在附图中,相同的附图标记表示相同的项目。
图1是说明性***的图示。
图2是用于车辆的说明性架构的图示。
图3是说明性计算设备的图示。
图4提供了说明性车辆轨迹规划过程的框图。
图5A-5B(此处统称为“图5”)提供了操作车辆的说明性方法的流程图。
图6提供了根据本发明的方案生成高质量车辆轨迹的说明性方法的流程图。
图7提供了实现本发明的方案的说明性***架构的图示。
具体实施方式
除非上下文另有明确规定,否则本文中使用的单数形式“一”、“一个”和“该”包括复数形式。除非另有定义,否则本文中使用的所有技术和科学术语具有本领域普通技术人员通常理解的含义。本文中使用的术语“包含”是指“包括但不限于”。与本文相关的附加术语的定义包含在本具体实施方式的末尾。
“电子设备”或“计算设备”是指包括处理器和存储器的设备。每个设备可以具有其自己的处理器和/或存储器,或者可以与其他设备共享处理器和/或者存储器,如在虚拟机或容器布置中。存储器将包含或接收编程指令,该编程指令在由处理器执行时使电子设备根据编程指令执行一个或多个操作。
术语“存储器”、“存储器设备”、“数据存储器”、“数据存储设备”等均指存储计算机可读数据、编程指令或两者的非暂时性设备。除非另有特别说明,否则术语“存储器”、“存储器设备”、“数据存储器”、“数据存储设备”等旨在包括单个设备实施例、多个存储器设备一起或共同存储一组数据或指令的实施例以及这些设备内的单个扇区。
术语“处理器”和“处理设备”是指被配置为执行编程指令的电子设备的硬件组件。除非另有特别说明,否则单数术语“处理器”或“处理设备”旨在包括单个处理设备实施例和多个处理设备一起或共同执行过程的实施例。
术语“车辆”是指能够承载一名或多名人类乘员和/或货物并由任何形式的能量提供动力的任何移动形式的运输工具。术语“车辆”包括但不限于轿车、卡车、货车、火车、自主车辆、飞机、无人机等。“自主车辆”是指具有处理器、编程指令和传动系部件的车辆,传动系部件可由处理器控制,无需人工操作。自主车辆可以是完全自主的,对于大多数或所有驾驶条件和功能,不需要人工操作,或者可以是半自主的,在某些条件下或对于某些操作,可能需要人工操作,或者人工操作可以超驰车辆的自主***并承担车辆的控制。
在本文中,当使用“第一”和“第二”等术语来修饰名词时,这种使用只是为了将一个项目与另一个项目区分开来,除非特别说明,否则不需要顺序。此外,“垂直”和“水平”、或“前”和“后”等相对位置的术语在使用时,旨在彼此相对,而不必是绝对的,并且仅指与这些术语相关联的设备的一个可能位置,这取决于设备的方向。
自主车辆(AV)至少有一台车载计算机和无线通信连接。在这些车载计算机上运行的软件监视和/或控制车辆的操作。该软件被配置为执行车辆的运动规划。运动规划的主要任务是为AV生成要遵循的高质量的轨迹。为此,AV的车载计算机包括轨迹评分模块,用于基于新颖的评分方案来评估多个候选轨迹的质量。新颖的评分方案总体上包括:为每个候选轨迹确定质量分数;以及选择具有最佳或最期望的质量分数(例如,最高分数、最低分数、超过阈值的分数、或者边界值之内或之外的分数)的候选轨迹。
轨迹评分模块包括轨迹特征生成器、场景分类器、评分函数和聚合器。轨迹特征生成器被配置为分析候选轨迹和情景信息以得到特征向量。情景信息包括但不限于十字路口信息、对象相关信息(例如,对象的观测传感器数据、对象类别的先验知识、对象的推断属性、预测的对象轨迹)、道路地图、交通信息和/或环境信息。然后使用特征向量来为候选轨迹分配分数。特征向量有助于确保方案适用于不同的场景(例如,当AV在十字路口处、转弯、直行或靠近骑自行车的人行驶时)。场景分类器总体上被配置为将给定的情景信息分类为多个场景中的至少一个(例如,在引导车辆后面行驶、从左侧经过对象、从右侧经过对象等)。情景信息总体上定义自主车辆周围环境的状态(例如,情况和/或条件)。场景分类可以是离散的,也可以是连续的。在离散情况下,情景信息被分类为多个场景中的一个。在连续情况下,为多个场景中的每个场景提供概率值。每个评分函数总体上被配置为生成候选车辆轨迹的分数。对于每个场景分类,评分函数可以相同或不同。聚合器总体上被配置为聚合来自评分函数的输出,以产生给定候选轨迹的质量分数。
本文在自主车辆的背景下描述了本发明的方案。本发明的方案不限于自主车辆应用。本发明的方案可用于其他应用,例如机器人应用、雷达***应用、度量应用和/或***性能应用。
说明性***
现在参考图1,提供了说明性***100的图示。***100包括车辆1021,车辆1021以半自主或自主的方式沿着道路行驶。车辆1021在本文中也被称为AV。AV 1021可以包括但不限于陆地车辆(如图1所示)、飞行器、航天器或船只。
AV 1021总体上被配置为检测其附近的对象1022、114、116。对象可以包括但不限于车辆1022、骑车人114(例如自行车、电动滑板车、摩托车等的骑车人)和/或行人116。例如,可以通过分析由AV 1021上的至少一个传感器设备生成的传感器数据和/或经由通信链路150、152、154从对象的通信设备(例如,收发器、信标和/或智能电话)接收的信息来进行该对象检测。通信链路150、152、154可以包括但不限于V2X通信链路。术语“V2X”是指车辆与任何可能影响车辆或可能受到车辆的影响的任何实体之间的通信。信息可以包括但不限于:指定对象已经执行、正在执行和/或将要执行的动作或操作的信息;和/或指定对象的未来意图(例如,驾驶意图、停车意图、乘客接载意图、递送意图等)的信息。
当进行这样的检测时,AV 1021执行以下操作:为检测到的对象生成一个或多个可能的对象轨迹;确定检测对象的一个或多个对象分类、目标和/或未来意图;并且使用所生成的可能对象轨迹、对象分类、目标和未来意图中的至少一个来促进车辆轨迹的确定。AV1021然后可以执行操作以遵循车辆轨迹。
在一些场景中,AV 1021执行额外的操作,以确定是否存在AV和对象之间在阈值时间段(例如,1分钟)内将发生碰撞的不期望的风险水平。如果存在,则AV 1021执行操作以确定在AV 1021遵循车辆轨迹并且在预定义的时间段(例如,N毫秒)内执行多个动态生成的紧急机动中的任何一个的情况下是否可以避免碰撞。如果可以避免碰撞,则AV 1021不采取措施或可选地执行谨慎机动(例如,稍微减速)。相反,如果不能避免碰撞,则AV 1021立即采取紧急机动(例如,刹车和/或改变行进方向)。
现在参考图2,提供了用于车辆的说明性***架构200的图示。图1的车辆1021和/或1022可以具有与图2中所示的***架构相同或相似的***架构。因此,以下对***架构200的讨论足以理解图1的车辆1021、1022
如图2所示,车辆200包括发动机或马达202和用于测量车辆各种参数的各种传感器204-218。在具有燃料动力发动机的气体动力或混合动力车辆中,传感器可以包括例如发动机温度传感器204、电池电压传感器206、发动机每分钟转数(RPM)传感器208和节气门位置传感器210。如果车辆是电动或混合动力车辆,则车辆可以具有电动马达,并且相应地将具有电池监测***212(用于测量电池的电流、电压和/或温度)、马达电流传感器214和马达电压传感器216以及诸如解算器和编码器218的马达位置传感器等传感器。
这两种类别型的车辆通用的操作参数传感器包括,例如:位置传感器236,例如加速度计、陀螺仪和/或惯性测量单元;速度传感器238;以及里程计传感器240。车辆还可以具有时钟242,***使用该时钟来确定操作期间的车辆时间。时钟242可以被编码到车辆车载计算设备中,它可以是单独的设备,或者可以有多个时钟。
车辆还将包括用于收集有关车辆行驶环境的信息的各种传感器。这些传感器可以包括,例如:定位传感器260(例如,全球定位***(GPS)设备);对象检测传感器,例如一个或多个摄像机262;激光雷达传感器***264;和/或雷达和/或声纳***266。传感器还可以包括环境传感器268,例如降水传感器和/或环境温度传感器。对象检测传感器可以使车辆能够在任何方向上检测在车辆200的给定距离范围内的对象,而环境传感器收集关于车辆行驶区域内的环境条件的数据。
在操作过程中,信息从传感器传送到车载计算设备220。车载计算设备220分析由传感器捕获的数据,并且可选地基于分析结果控制车辆的操作。例如,车载计算设备220可以经由制动控制器232控制制动;经由转向控制器224控制方向;经由节气门控制器226(在燃气动力车辆中)或马达速度控制器228(例如电动车辆中的电流水平控制器)控制速度和加速度;控制差速齿轮控制器230(在具有变速器的车辆中);和/或控制其他控制器。
地理位置信息可以从定位传感器260传送到车载计算设备220,然后车载计算设备可以访问与位置信息相对应的环境地图,以确定环境的已知固定特征,例如街道、建筑物、停车标志和/或停/走信号。从摄像机262捕获的图像和/或从诸如激光雷达传感器***264之类的传感器捕获的对象检测信息从这些传感器传送到车载计算设备220。对象检测信息和/或捕获的图像由车载计算设备220处理,以检测车辆200附近的对象。基于传感器数据和/或捕获的图像进行对象检测的任何已知或将要已知的技术都可以用于本文公开的实施例中。
激光雷达信息从激光雷达传感器264传送到车载计算设备220。此外,所捕获的图像被从摄像机262传送到车载计算设备220。车载计算设备220对激光雷达信息和/或捕获的图像进行处理,以检测车辆200附近的对象。
当车载计算设备220检测到移动对象时,车载计算设备200将为检测到的对象生成一个或多个可能的对象轨迹,并使用可能的对象轨迹来确定AV的车辆轨迹。车载计算设备220然后执行操作以使AV遵循所定义的车辆轨迹。例如,车载计算设备220使用对象轨迹信息来决定对象已经占据了什么空间,然后生成规划AV不行进到该空间的车辆轨迹。
在一些场景中,车载计算设备220分析可能的对象轨迹和车辆轨迹,以评估对象和AV之间碰撞的风险。如果风险超过可接受的阈值,则车载计算设备220执行操作以确定在AV遵循车辆轨迹和/或在预定义的时间段(例如,N毫秒)内执行一个或多个动态生成的紧急机动的情况下是否可以避免碰撞。如果可以避免碰撞,则车载计算设备220可以使车辆200执行谨慎机动(例如,稍微减速、加速或转向)。相反,如果不能避免碰撞,则车载计算设备220将使车辆200采取紧急机动(例如,刹车和/或改变行进方向)。
现在参考图3,提供了计算设备300的说明性架构的图示。图1的计算设备110和/或图2的车辆车载计算设备220与计算设备300相同或相似。因此,对计算设备300的讨论足以理解图1的计算设备110和图2的车辆车载计算设备220。
计算设备300可以包括比图3中所示的组件更多或更少的组件。然而,所示的组件足以公开实现本发明的方案的说明性方案。图3的硬件架构表示被配置为操作车辆的代表性计算设备的一种实现方式,如本文所述。因此,图3的计算设备300实现本文所描述的方法的至少一部分。
计算设备300的一些或所有组件可以实现为硬件、软件和/或硬件和软件的组合。硬件包括但不限于一个或多个电子电路。电子电路可以包括但不限于无源部件(例如电阻器和电容器)和/或有源部件(例如放大器和/或微处理器)。无源部件和/或有源部件可以适于、布置成和/或编程成执行本文所述的方法、过程或功能中的一个或多个。
如图3所示,计算设备300包括用户接口302、中央处理单元(CPU)306、***总线310、通过***总线310连接到计算设备300的其他部分并可由其访问的存储器312、***接口360以及连接到***总线310的硬件实体314。用户接口可以包括输入设备和输出设备,它们促进用于控制计算设备300的操作的用户-软件交互。输入设备包括但不限于,物理和/或触摸键盘350。输入设备可以经由有线或无线连接(例如连接)连接到计算设备300。输出设备包括但不限于扬声器352、显示器354和/或发光二极管356。***接口360被配置为便于与外部设备(例如,接入点等网络节点)进行有线或无线通信。
至少一些硬件实体314执行包括访问和使用存储器312的动作,存储器312可以是随机存取存储器(RAM)、磁盘驱动器、闪存、光盘只读存储器(CD-ROM)和/或能够存储指令和数据的另一硬件设备。硬件实体314可以包括磁盘驱动单元316,该磁盘驱动单元包括计算机可读存储介质318,在该计算机可读存储媒体318上存储被配置为实现本文所描述的方法、过程或功能中的一个或多个的一组或多组指令320(例如,软件代码)。在计算设备300执行指令320期间,指令320还可以完全或至少部分地驻留在存储器312内和/或CPU 306内。存储器312和CPU 306也可以构成机器可读介质。本文使用的术语“机器可读介质”是指存储一组或多组指令320的单个介质或多个介质(例如,集中式或分布式数据库,和/或相关联的高速缓存和服务器)。本文使用的术语“机器可读介质”还指能够存储、编码或携带由计算设备300执行的一组指令320并且使得计算设备300进行本公开的方法中的任何一个或多个的任何介质。
现在参考图4,提供了有助于理解根据本发明的方案如何实现AV的移动的框图。框402-410中执行的所有操作都可以由车辆(例如,图1的AV 1021)的车载计算设备执行。
在框402中,检测AV(例如,图1的AV 1021)的位置。该检测可以基于从AV的定位传感器(例如图2的定位传感器260)输出的传感器数据来进行。该传感器数据可以包括但不限于GPS数据。检测到的AV的位置然后被传递到框406。
在框404中,在AV附近(例如,<100+米)检测对象(例如,图1的车辆1021)。该检测是基于从AV的摄像机(例如,图2的摄像机262)、AV的激光雷达***(例如,图2的激光雷达***264)和/或AV的雷达/声纳***(例如图2的雷达/声纳***266)输出的传感器数据进行的。例如,执行图像处理以检测图像中特定类别的对象(例如,车辆或行人)的实例。附加地或替代地,可以分析激光雷达点云以检测特定类别的对象。附加地或替代地,雷达/声纳***生成的轨迹信息可以用于检测对象。传感器数据(例如,图像、激光雷达点云和雷达/声纳数据)处理/对象检测可以根据任何已知或将要已知的图像处理/对象探测算法来实现。
此外,在框404中确定对象的预测轨迹。在框404中,基于例如对象的类别、长方体几何形状、雷达踪迹信息和/或地图414的内容(例如,人行道位置、车道位置、车道行驶方向、驾驶规则等)来预测对象的轨迹。可以使用激光雷达数据集和地图414来确定长方体几何形状。基于长方体几何形状和/或其他列出的信息预测对象轨迹的技术在本领域是众所周知的。例如,一种技术包含预测对象在与长方体的航向相同的方向上的线性路径上移动。预测的对象轨迹可以包括但不限于以下轨迹:由对象的实际速度(例如,1英里/小时)和实际行进方向(例如,向西)定义的轨迹;由对象的实际速度(例如,1英里/小时)和对象的另一个可能的行进方向(例如,在朝向AV的方向上,从对象的实际行进方向向南、西南或X度(例如,40°))定义的轨迹;由对象的另一可能速度(例如,2-10英里/小时)和对象的实际行进方向(例如,向西)定义的轨迹;和/或由对象的另一个可能速度(例如,2-10英里/小时)和对象的另一个可能的行进方向(例如,在朝向AV的方向上,从对象的实际行进方向向南、西南或X度(例如,40°))定义的轨迹。可能的速度和/或可能的行进方向可以针对与对象处于同一类别和/或子类别中的对象进行预先定义。长方体定义了对象的完整范围和对象的航向。航向定义了对象前部指向的方向,因此提供了对象实际和/或可能行进方向的指示。
指定对象的预测轨迹和/或长方体几何形状的信息412被提供给框406。在一些场景中,对象的分类也被传递到框406。在框406中,使用来自框402和404的信息生成高质量车辆轨迹420。高质量车辆轨迹是从多个候选车辆轨迹中选择的。确定候选车辆轨迹的技术在本领域是众所周知的。例如,在某些情况下,这种技术包含确定AV的候选轨迹,当对象在AV前面时,该候选轨迹将经过对象,长方体的航向方向与AV移动的方向一致,并且长方体的长度大于阈值。本发明的方案并不局限于这种情况的细节。每个候选车辆轨迹可以基于来自框402的位置信息、来自框404的对象检测信息和/或地图信息428(其预先存储在车辆的数据存储器中)来确定。为每个候选车辆轨迹确定质量分数。然后选择具有最佳或最期望质量分数(例如,最高分数、最低分数或超过阈值的分数)的候选车辆轨迹作为高质量车辆轨迹420。下面将更详细地描述对候选车辆轨迹进行评分和/或选择的方式。
高质量车辆轨迹420可以代表一条平滑的路径,该路径不具有给乘客带来不适的突变。例如,车辆轨迹由沿着道路的给定车道的行驶路径定义,预测对象在给定的时间量内不在该给定车道中行驶。然后将高质量车辆轨迹420提供给框408。
在框408中,基于车辆轨迹420生成转向角和速度命令。转向角和速度命令被提供给用于车辆动力学控制的框410,即,转向角和速度命令使AV遵循车辆轨迹408。
说明性方法
现在参考图5,提供了用于操作车辆(例如,图1的车辆1021)的说明性方法500的流程图。方法500可以由图2的车辆车载计算设备220和/或图3的计算设备300来实现。方法500针对在任何给定时间被检测到在距离车辆一定距离范围内的每个对象(例如,图1的车辆1022、图1的骑车人114和/或图1的行人116)执行。
方法500包括多个操作502-530。本发明的方案不限于图5中所示的操作502-530的特定顺序。例如,504的操作可以在506之后执行,而不是如图5A所示在506之前执行。附加地或可替换地,520的操作可以与504-518的操作并行执行,而不是如图5所示在504-518的操作之后执行。
如图5A所示,方法500从502开始,并继续到504,在504中,生成AV的高质量车辆轨迹(例如,图4的车辆轨迹420)。下面将参照图6描述生成高质量车辆轨迹的方式。高质量车辆轨迹可以表示平滑的路径,该路径不具有给乘客带来不适的突变,或者可以引起紧急机动以避免碰撞。在一些场景中,基于由AV的定位传感器(例如,图2的定位传感器260)生成的位置信息、由AV的车载计算设备(例如,图2的车载计算设备220)生成的对象检测信息、由AV的至少一个摄像机(例如,图2的摄像机)捕获的图像、由AV的激光雷达***(例如,图2的激光雷达体系264)生成的激光雷达数据集、由AV的雷达/声纳***(例如,图2的雷达/声纳***266)生成的雷达/声纳数据、存储在AV的存储器(例如图4的存储器412)中的地图信息和/或车道信息,确定高质量车辆轨迹。
在505中,AV执行操作以检测其附近的对象。对象检测算法在本领域中是众所周知的。这里可以使用任何已知或将要已知的对象检测算法。然后使用对象检测来促进至少一个自主驾驶操作(例如,对象跟踪操作、对象轨迹预测操作、车辆轨迹确定操作和/或防撞操作)。
因此,方法500继续到506,在506中,为在505中检测到的对象(例如,图1中的车辆1022、骑车人114或行人116)确定一个或多个可能的对象轨迹(例如,图4的可能对象轨迹412)。用于确定检测到的对象的轨迹的技术是众所周知的。在一些场景中,传感器数据用于确定对象轨迹。替代地或附加地,其他信息可以用于确定对象轨迹。该其他信息可以包括但不限于经由无线通信链路(例如,图1中的链路150、152、154)从对象的通信设备(例如,收发器、信标和/或智能电话)接收到的信息。该信息可以指定对象已经执行、正在执行和/或将要执行的动作或操作(例如,右转/左转、变道、加速/减速、行驶路径等)。
接下来,在510中,确定504中生成的车辆轨迹和506中生成的可能对象轨迹是否彼此相交。如果它们彼此不相交[511:否],则执行512,在512中,方法500返回504。
相反,如果它们确实彼此相交[511:是],则方法500继续到514,在514中,确定时间值。该时间值表示在AV遵循高质量车辆轨迹并且对象(例如,其已被分类为行驶的车辆并且具有驾驶意图)遵循可能的对象行驶轨迹的情况下将发生碰撞的时间。然后将在514中确定的时间值与阈值时间值进行比较,如516所示。阈值时间值是根据给定的应用来选择的(例如,一秒或多秒)。如果时间值大于阈值时间值[516:否],则执行518,在518中,方法500返回504。如果时间值等于或小于阈值时间值[516:是],则方法500继续到520-522。520-522包含:基于高质量车辆轨迹和可能的对象轨迹/预测的行进路径动态生成一个或多个紧急机动配置文件;并且确定在AV遵循高质量车辆轨迹并且在预定义的时间段(例如N毫秒)内执行任何一个紧急机动的情况下是否可以避免碰撞。在完成522之后,方法500继续到图5B的524。
现在参考图5B,如果不能在预定义的时间段内避免碰撞[524:否],则执行526,在526中,使AV立即采取紧急机动。紧急机动可以包括但不限于上面关于520讨论的动态生成的紧急机动中的一个。使AV采取紧急机动的技术在本领域是众所周知的。随后,执行530,在530中,方法500结束或执行其他处理。
相反,如果可以在预定义的时间段内避免碰撞[524:是],则执行528,在528中,可选地使AV执行谨慎机动(例如,稍微减速)。用于使AV采取谨慎机动(例如减速)的技术在本领域中是众所周知的。随后,执行530,在530中,方法500结束或执行其他处理。
现在参考图6,提供了根据本发明的方案生成高质量车辆轨迹的说明性方法600的流程图。方法600可以在图4的框406和/或图5的框504中执行。方法600可以由图2的车辆车载计算设备220和/或图3的计算设备300来实现。
如图6所示,方法600从602开始,并继续到604,在604中,计算设备从数据存储器(例如,图3的存储器312)获取候选车辆轨迹和情景信息。情景信息总体上定义自主车辆周围环境的情况和/或条件。情景信息可以包括但不限于检测到的对象的预测轨迹、地图(例如,3D道路地图)、交通信息(例如,交通流、交通堵塞、缓慢移动、延误、道路封闭、道路维修、施工、事故等)、环境信息(例如下雨、下雪、有雾等)和/或其他信息(例如,通过图1的通信链路150、152、154接收的信息)。在606中,选择候选车辆轨迹。在608中使用所选择的候选车辆轨迹和情景信息来生成特征向量。
使用已知或即将已知的几何算法、深度学习技术(例如,变分自动编码器)和/或其他特征提取算法来确定特征向量。特征向量可以包括但不限于指定距离车辆最近的检测到的对象(例如行人)、从检测到的对象(例如灯光、停车标志等)到车辆的最近距离和/或车辆是否阻塞十字路口的值。特征向量还可以包括但不限于检测到的对象的以下信息:前景/背景分类、位置和delta值(即,地上高度)。
在610中,还使用所选择的候选车辆轨迹和情景信息将由此指定的场景分类为一个或多个场景类别。场景分类可以是离散的,也可以是连续的。在离散情况下,情景被归类为场景之一。在连续情况下,场景分类器给出每个可能场景的概率。场景空间本身可以是离散的,也可以是连续的。在离散情况下,存在有限数量的场景。在连续情况下,场景空间是多维向量空间,其中每个场景由多维实值向量表示。
场景类别可以包括但不限于左转场景类别、右转场景、超车场景类别、行驶场景类别、加速场景类别、减速场景类别、静止场景类别、向前行驶场景类别、向后行驶场景类别和/或乘客接载场景类别。在一些场景中,使用机器学习算法,机器学习算法中使用机器学习模型来确定场景分类。在这些或其他场景中,预定义分类标准以指定可能的场景分类。例如,如果选择的候选车辆轨迹和情景信息的地图指示AV要左转或右转,则该场景可以被分类为左转或右转场景。如果所选择的候选车辆轨迹、检测到的对象的预测轨迹、道路地图和交通信息指示AV要经过检测到的对象,则该场景可以被分类为超车场景。如果所选择的候选车辆轨迹指示AV是静止的,并且情景信息指示个体接近AV,则该场景可以被分类为乘客接载场景。本发明的方案不限于该示例的细节。
机器学习算法可以采用监督式机器学习、半监督式机器学习、无监督式机器学习和/或强化机器学习。这些列出的机器学习算法的类型中的每一种都是本领域众所周知的。在一些场景中,机器学习算法包括但不限于决策树学习算法、关联规则学习算法、人工神经网络学习算法、深度学习算法、基于归纳逻辑编程的算法,基于支持向量机的算法、基于贝叶斯网络的算法、表示学习算法、相似性和度量学习算法、稀疏字典学习算法、遗传算法、基于规则的机器学习算法和/或基于学习分类器***的算法。本发明的方案实现的机器学习过程可以使用Commercial-Off-The-Shelf(COTS,商用货架产品)工具构建(例如,SAS可从北卡罗来纳州卡里的SAS Institute Inc.获取)。
对于610中确定的每个场景类别,计算设备在612中(i)从多个不同的评分函数SF1、SF2、…、SFN中选择评分函数,(ii)从多个不同的组(例如,ST1=[SF1,SF2,SF10],ST2=[SF2,SF5,SF10,SFN]和/或ST3=[SF6,SF8])中选择一组评分函数,和/或(iii)为至少一个评分函数选择权重wz。N和Z是整数。评分函数可以包括但不限于线性回归函数、非线性回归函数、特征向量中的二次函数特征和/或特征向量中特征的多项式函数。说明性的评分函数SF(f)由以下数学方程(2)定义。
SF(f)=w\dot f (2)其中SF(f)是特征向量f和相关场景的权重w的内积。
在614中执行评分函数,以生成候选车辆轨迹的质量分数sX。X是整数。可以为与候选车辆轨迹相关联的每个场景类别生成一个或多个质量分数。例如,为在610中为候选车辆轨迹确定的第一场景类别(例如,右转场景类别)生成第一质量分数s1。为在610中为候选车辆轨迹确定的第二场景类别(例如乘客接载场景类别)生成第二质量分数s2和第三质量分数s3。本发明的方案不限于该示例的细节。
如果为所有场景类别仅生成了一个质量分数[616:否],则方法600继续到622,如618所示。在622中,将所有场景类别的质量分数组合在一起以产生最终质量分数Sfinal。例如,可以通过以下数学方程(3)、数学方程(4)或数学方程(5)来定义最终质量分数Sfinal
sfinal=s1-class1+s2-class2+...+sX-classX (3)
sfinal=avg(s1-class1+s2-class2+...+sX-classX) (4)
sfinal=(w1·s1-class1)+(w2·s2-class2)+...+(wX·sX-classX) (5)其中,s1-class1表示为第一场景类别生成的质量分数,s2-class2表示为第二场景类别生成的质量分数,sx-classx表示为第X场景类别生成的质量分数,w1,w2,…,wX各自表示权重。
如果为至少一个场景类别生成了两个或更多个质量分数[616:是],则方法600继续到620,在620中,将质量分数组合在一起以产生给定场景类别的聚合质量分数saggregate。例如,如果为给定类别X生成了两个质量分数s1-classX和S2-classX,则给定类别的聚合质量分数可以由以下数学方程(5)、数学方程(6)、数学方程式(7)或数学方程(8)定义。
saggregate-classX=s1-classX+s2-classX (5)
saggregate-classX=avg(s1-classX,s2-classX) (6)
saggregate-classX=(w1·S1-elassX)+(w1·S2-classX) (7)
saggregate-classX=s1-classX+S2-classX+sclassX-previous (8)
其中sclassX-previous表示为给定类别生成的先前质量分数。本发明的方案不限于这些数学方程的细节。聚合函数可以是(加权)平均、最大值(max out)或任何其他实值向量函数。聚合函数可以是静态的,也可以是动态的。动态聚合函数可以包括但不限于用于平滑不同场景之间的转换的过滤和其他平滑函数,和/或质量分数的任何历史值(例如,在前一个周期或某一时间量之前计算的质量分数)的函数。
聚合质量分数可以与其他场景类别的质量分数/聚合质量分数组合,以生成给定候选车辆轨迹的最终质量分数Sfinal,如622所示。因此,最终质量分数Sfinal可替换地由以下数学方程(8)、(9)、(10)、(11)、(12)、(13)或(14)定义。
sfinal=sXaggregate-classX (8)
sfinal=S1-class1+s2-class2+...+sXaggregate-classX (9)
sfinal=avg(s1-class1+s2-class2+...+sXaggregare-classX) (10)
sfinal=(w1·s1-class1)+(w2·s2-class2)+...+(wX·sXaggregate-classX) (11)
sfinal=s1aggregate-class1+s2aggregate-class2+...+sXaggregare-classX (12)
Sfinal=avg(s1aggregate-class1+s2aggregate-class2+...+sXaggregare-classX) (13)
sfinal=(w1·s1aggregate-class1)+(w2·s2aggregate-class2)+...+(wX·sXaggregate-classX)(14)
其中s1aggregate-class1表示第一类别的聚合质量分数,s2aggregate-class2表示第二类别的聚合质量分数。
一旦生成了给定候选轨迹的最终质量分数Sfinal,方法600可以返回606,以便对下一个候选车辆轨迹重复该过程,如可选624所示。在626中,基于表示候选车辆轨迹的质量的最终质量分数来选择候选车辆轨迹。例如,在616中,选择具有最高或最低最终质量分数的候选车辆轨迹。替代地或附加地,选择具有大于或小于给定阈值的质量分数的候选车辆轨迹。如果两个或更多个候选车辆轨迹具有大于或小于给定阈值的质量分数,则选择具有最高或最低质量分数的候选车辆轨迹。线性/非线性函数可用于基于最终质量分数来选择候选车辆轨迹。随后,执行628,在628中,方法600结束或执行其他操作。例如,计算设备可以将所选择的候选车辆轨迹视为高质量车辆轨迹,并因此执行操作以使AV遵循该轨迹(例如,假设不存在与对象碰撞的风险)。
现在参考图7,提供了用于实现本发明的方案的说明性***架构700的示意图(例如,图6的方法600)。***700可以用硬件、软件或其组合来实现。
如图7所示,***700包括轨迹采样器706、特征向量生成器708、场景分类器710、评分函数/权重选择器712、评分生成器716、718、…,720、可选组合器722、724、…、726、最终评分生成器728和候选车辆轨迹选择器730。轨迹采样器706被配置为对输入到***700中的候选车辆轨迹702进行采样。轨迹采样器706可以是确定性的或随机的。采样的候选车辆轨迹704然后被传递到场景分类器710和特征向量生成器708。场景分类器710被配置为分析车辆轨迹704和情景信息705,以将由此指定的场景分类为一个或多个场景类别。场景类别可以包括但不限于左转场景类别、右转场景、超车场景类别和/或乘客接载场景类别。在一些场景中,场景分类器710采用机器学习算法,在机器学习算法中使用机器学习模型来确定场景分类。在那些或其他场景中,场景分类器710使用预定义的分类标准来确定场景分类。
场景分类711被传递给评分函数/权重选择器712。基于场景分类,评分函数/权重选择器712(i)从多个不同的评分函数SF1、SF2、…SFN中选择评分函数,(ii)从多个不同的组(例如,ST1=[SF1,SF2,SF10],ST2=[SF2,SF5,SF10,SFN]和/或ST3=[SF6,SF8])中选择一组评分函数,和/或(iii)选择用于至少一个评分函数的权重wZ。评分函数可以包括但不限于线性回归函数、非线性回归函数、特征向量中的二次函数特征和/或特征向量中特征的多项式函数。控制信号715然后从评分函数/权重选择器712发送到与所选择的评分函数或所选择的一组评分函数相关联的评分生成器。控制信号715引起所选择的评分函数生成器或所选择的一组评分函数的启用。控制信号715还可以指定将由评分函数使用的选定权重。
当启用时,评分函数生成器716、718、720处理特征向量714,以生成与给定候选车辆轨迹704相关联的给定场景分类的一个或多个质量分数。例如,评分生成器716生成与给定候选车辆轨迹704相关联的第一场景的质量分数sX-class1。评分生成器718生成与给定候选车辆轨迹704相关联的第二场景的质量分数sX-class2。评分生成器720生成与给定候选车辆轨迹704相关联的第N个场景的质量分数sX-classN。本发明的方案不限于该示例的细节。可以针对不同的候选车辆轨迹启用相同或不同的评分生成器716、718、720。
质量分数从评分生成器716、718、720输出,并传递到可选组合器722、724、726和/或最终评分生成器728。每个组合器722、724、726被配置为产生相应场景的聚合质量分数。例如,组合器722被配置为组合从第一场景评分生成器716输出的质量分数,以产生聚合质量分数saggregate-class1。组合器724被配置为组合从第二场景评分生成器718输出的质量分数以产生聚合质量分数saggregate-class2。组合器726被配置用于组合从第N个场景评分生成器720输出的分数以产生聚合质量分数saggregate-classN
从评分生成器716-720输出的质量分数和/或从组合器722-726输出的聚合质量分数被传递到最终评分生成器728。最终评分生成器728基于接收到的质量分数和/或聚合质量分数确定最终质量分数sfinal。然后将最终质量分数sinal传递给候选车辆轨迹选择器730。对于包含在候选车辆轨迹702中的每个候选车辆轨迹执行框706-728的操作。
然后,候选车辆轨迹选择器730使用最终质量分数从候选车辆轨迹702中选择候选车辆轨迹。例如,候选车辆轨迹选择器730选择具有最高或最低最终质量分数的候选车辆轨迹。替代地或附加地,候选车辆轨迹选择器730选择具有大于或小于给定阈值的质量分数的候选车辆轨迹。如果两个或更多个候选车辆轨迹具有大于或小于给定阈值的质量分数,则候选车辆轨迹选择器730选择具有最高或最低质量分数的候选车辆轨迹。候选车辆轨迹选择器730可以使用线性/非线性函数以基于最终质量分数来选择候选车辆轨迹。
从上述讨论中可以明显看出,本发明的方案可以利用场景分类器和聚合器进行轨迹评分,这为评分计算引入了更多的体系和透明度。本发明的方案可以使用具有相同和/或不同类别型场景的多个评分函数。本发明的方案具有许多优点。例如,本发明的方案相对容易调整以专注于特定场景。本发明的方案还实现了开发中的并行性,其中每个团队成员可以并行地调整部分评分函数。场景分类器的使用降低了特征向量生成器所需的复杂性。
尽管本发明的方案已针对一个或多个实施方式进行了说明和描述,但在阅读和理解本说明书和附图后,本领域其他技术人员将进行等效的更改和修改。此外,虽然本发明的方案的特定特征已经针对几个实施方式中的一个进行了公开,但是这种特征可以与其他实施方式的一个或多个其他特征相结合,这对于任何给定或特定的应用来说都是期望的和有利的。因此,本发明的方案的广度和范围不应受到任何上述实施例的限制。相反,本发明的方案的范围应当根据以下权利要求及其等价物来定义。

Claims (20)

1.一种用于操作自主车辆的方法,包括:
通过计算设备获取所述自主车辆的一个或多个候选车辆轨迹以及定义所述自主车辆的周围环境状态的情景信息;
通过所述计算设备为由所述情景信息和所述候选车辆轨迹中的第一候选车辆轨迹指定的场景分配多个类别中的至少一个类别;
通过所述计算设备基于分配给所述场景的所述至少一个类别,从多个不同的评分函数中选择至少一个评分函数,所述多个不同的评分函数分别与所述多个类别相关联;
通过所述计算设备使用所选择的所述至少一个评分函数来生成所述第一候选车辆轨迹的至少一个第一质量分数;
通过计算设备基于与所述第一候选车辆轨迹相关联的所述第一质量分数和与至少一个第二候选车辆轨迹相关联的第二质量分数,从所述候选车辆轨迹中选择候选车辆轨迹;和
通过所述计算设备使所述自主车辆使用所选择的所述候选车辆轨迹来执行自主驾驶操作。
2.根据权利要求1所述的方法,其中所述情景信息包括十字路口信息、对象相关信息、道路地图、交通信息和环境信息中的至少一项。
3.根据权利要求1所述的方法,还包括通过所述计算设备执行操作以(i)使用所述情景信息和所述候选车辆轨迹中的第一候选车辆轨迹生成特征向量以及(ii)使用所述特征向量来生成第一候选特征向量的质量分数。
4.根据权利要求1所述的方法,还包括组合第一分数和第二分数以产生所述第一候选特征向量的所述第一质量分数。
5.根据权利要求1所述的方法,其中:
为由所述情景信息和第一候选车辆轨迹指定的所述场景分配第一类别和第二类别,
基于所述第一类别选择第一评分函数并且基于所述第二类别选择第二评分函数,所述第二评分函数不用于所述第一评分函数,
使用所述第一评分函数生成第一分数并且使用所述第二评分函数生成第二分数,以及
将所述第一分数和所述第二分数组合在一起以产生所述第一候选车辆轨迹的所述第一质量分数。
6.根据权利要求1所述的方法,其中所述多个类别包括左转场景类别、右转场景、超车场景类别、行驶场景类别、加速场景类别、减速场景类别、静止场景类别、向前行驶场景类别、向后行驶场景类别和/或乘客接载场景类别中的至少一个。
7.根据权利要求1所述的方法,还包括通过所述计算设备基于所述至少一个类别,从多个不同的组或权重中选择一组评分函数。
8.根据权利要求7所述的方法,其中所选择的一组评分函数或权重用于生成所述第一候选车辆轨迹的所述至少一个第一质量分数。
9.根据权利要求1所述的方法,其中通过将所述第一质量分数和所述第二质量分数彼此比较或与阈值比较来从所述候选车辆轨迹中选择所述候选车辆轨迹。
10.根据权利要求1所述的方法,其中所述自主驾驶操作包括使所述自主车辆遵循所选择的所述候选车辆轨迹。
11.一种***,包括:
处理器;
非暂时性计算机可读存储介质,包括编程指令,所述编程指令被配置为使所述处理器实现用于操作自主车辆的方法,其中所述编程指令包括以下指令:
获取所述自主车辆的一个或多个候选车辆轨迹和定义所述自主车辆的周围环境状态的情景信息;
为由所述情景信息和所述候选车辆轨迹中的第一候选车辆轨迹指定的场景分配多个类别中的至少一个类别;
基于分配给所述场景的所述至少一个类别,从多个不同的评分函数中选择至少一个评分函数,所述多个不同的评分函数分别与所述多个类别相关联;
使用所选择的所述至少一个评分函数生成所述第一候选车辆轨迹的至少一个第一质量分数;
基于与所述第一候选车辆轨迹相关联的所述第一质量分数和与至少一个第二候选车辆轨迹相关联的第二质量分数,从所述候选车辆轨迹中选择候选车辆轨迹;和
使自主车辆使用所选择的所述候选车辆轨迹来执行自主驾驶操作。
12.根据权利要求11所述的***,其中所述情景信息包括十字路口信息、对象相关信息、道路地图、交通信息和环境信息中的至少一项。
13.根据权利要求11所述的***,其中所述编程指令还包括以下指令:(i)使用所述情景信息和所述候选车辆轨迹中的第一候选车辆轨迹来生成特征向量,以及(ii)使用所述特征向量来生成第一候选特征向量的质量分数。
14.根据权利要求11所述的***,其中所述编程指令还包括组合第一分数和第二分数以产生所述第一候选特征向量的所述第一质量分数的指令。
15.根据权利要求11所述的***,其中:
第一类别和第二类别被分配给由所述情景信息和第一候选车辆轨迹指定的所述场景,
基于所述第一类别选择第一评分函数并且基于所述第二类别选择第二评分函数,所述第二评分函数不同于所述第一评分函数,
使用所述第一评分函数生成第一分数并且使用所述第二评分函数生成第二分数,以及
将所述第一分数和所述第二分数组合在一起以产生所述第一候选车辆轨迹的所述第一质量分数。
16.根据权利要求11所述的***,其中所述多个类别包括左转场景类别、右转场景、超车场景类别、行驶场景类别、加速场景类别、减速场景类别、静止场景类别、向前行驶场景类别、向后行驶场景类别和/或乘客接载场景类别中的至少一个。
17.根据权利要求11所述的***,其中所述编程指令还包括基于所述至少一个类别从多个不同的组或权重中选择一组评分函数的指令。
18.根据权利要求17所述的***,其中所述一组评分函数或权重用于生成所述第一候选车辆轨迹的所述至少一个第一质量分数。
19.根据权利要求11所述的***,其中通过将所述第一质量分数和所述第二质量分数彼此比较或与阈值比较来从所述候选车辆轨迹中选择所述候选车辆轨迹。
20.一种存储指令的非暂时性计算机可读介质,所述指令被配置为当由至少一个计算设备执行时使所述至少一个计算设备执行以下操作:
获取自主车辆的一个或多个候选车辆轨迹和定义所述自主车辆的周围环境状态的情景信息;
为由所述情景信息和所述候选车辆轨迹中的第一候选车辆轨迹指定的场景分配多个类别中的至少一个类别;
基于分配给所述场景的所述至少一个类别,从多个不同的评分函数中选择至少一个评分函数,所述多个不同的评分函数分别与所述多个类别相关联;
使用所选择的所述至少一个评分函数生成所述第一候选车辆轨迹的至少一个第一质量分数;
基于与所述第一候选车辆轨迹相关联的所述第一质量分数和与至少一个第二候选车辆轨迹相关联的第二质量分数,从所述候选车辆轨迹中选择候选车辆轨迹;和
使所述自主车辆使用所选择的所述候选车辆轨迹来执行自主驾驶操作。
CN202180091369.6A 2021-01-20 2021-12-27 场景相关轨迹评分***与方法 Pending CN116745191A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/152,894 2021-01-20
US17/152,894 US20220227391A1 (en) 2021-01-20 2021-01-20 Systems and methods for scenario dependent trajectory scoring
PCT/US2021/073112 WO2022159261A1 (en) 2021-01-20 2021-12-27 Systems and methods for scenario dependent trajectory scoring

Publications (1)

Publication Number Publication Date
CN116745191A true CN116745191A (zh) 2023-09-12

Family

ID=82406835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180091369.6A Pending CN116745191A (zh) 2021-01-20 2021-12-27 场景相关轨迹评分***与方法

Country Status (4)

Country Link
US (1) US20220227391A1 (zh)
CN (1) CN116745191A (zh)
DE (1) DE112021006846T5 (zh)
WO (1) WO2022159261A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11747156B2 (en) * 2021-01-14 2023-09-05 Wipro Limited Method and system for generating maneuvering trajectories for a vehicle
US11639180B1 (en) * 2021-06-30 2023-05-02 Gm Cruise Holdings Llc Notifications from an autonomous vehicle to a driver
CN115470872B (zh) * 2022-11-14 2023-04-18 武汉大学 一种基于车辆轨迹数据的司机画像构建方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9248834B1 (en) * 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
WO2018172849A1 (en) * 2017-03-20 2018-09-27 Mobileye Vision Technologies Ltd. Trajectory selection for an autonomous vehicle
US10452070B2 (en) * 2017-09-15 2019-10-22 Uber Technologies, Inc. Context-specific tolerance for motion control in autonomous vehicles
US20190286151A1 (en) * 2018-03-14 2019-09-19 GM Global Technology Operations LLC Automated driving systems and control logic for cloud-based scenario planning of autonomous vehicles
KR102195935B1 (ko) * 2019-08-13 2020-12-30 엘지전자 주식회사 자율 주행 차량의 주행 모드 및 경로 결정 방법 및 시스템
US11161502B2 (en) * 2019-08-13 2021-11-02 Zoox, Inc. Cost-based path determination
US11754408B2 (en) * 2019-10-09 2023-09-12 Argo AI, LLC Methods and systems for topological planning in autonomous driving
US20210173402A1 (en) * 2019-12-06 2021-06-10 Lyft, Inc. Systems and methods for determining vehicle trajectories directly from data indicative of human-driving behavior
US20220048535A1 (en) * 2020-08-12 2022-02-17 Woven Planet North America, Inc. Generating Goal States for Prioritizing Path Planning
US20220161786A1 (en) * 2020-11-24 2022-05-26 Hyundai Motor Company System for evaluating risk values associated with object on road for vehicle and method for the same
US11827240B2 (en) * 2020-12-09 2023-11-28 Uatc, Llc Systems and methods for costing autonomous vehicle maneuvers

Also Published As

Publication number Publication date
DE112021006846T5 (de) 2023-12-21
US20220227391A1 (en) 2022-07-21
WO2022159261A1 (en) 2022-07-28

Similar Documents

Publication Publication Date Title
EP3373200B1 (en) Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
EP3356900B1 (en) Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle
CN114391088B (zh) 轨线规划器
CN115038628A (zh) 对象速度和/或偏航率检测和跟踪
CN116745191A (zh) 场景相关轨迹评分***与方法
CN112512887B (zh) 一种行驶决策选择方法以及装置
US10909377B2 (en) Tracking objects with multiple cues
JP7313298B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US20210181749A1 (en) Method for predicting exiting intersection of moving obstacles for autonomous driving vehicles
US11167754B2 (en) Systems and methods for trajectory based safekeeping of vehicles
CN116547495A (zh) 协作车辆路径生成
US11884269B2 (en) Systems and methods for determining future intentions of objects
CN114074681A (zh) 基于概率的车道变更决策和运动规划***及其方法
US11072326B2 (en) Systems and methods for trajectory based safekeeping of vehicles
CN116867675A (zh) 车辆运动规划***与方法
CN114802250A (zh) 数据处理方法、装置、设备、自动驾驶车辆及介质
EP4163755B1 (en) Systems and methods for controlling speed of an autonomous vehicle
US20230084623A1 (en) Attentional sampling for long range detection in autonomous vehicles
US12043289B2 (en) Persisting predicted objects for robustness to perception issues in autonomous driving
EP4131174A1 (en) Systems and methods for image based perception
US11966452B2 (en) Systems and methods for image based perception
EP4145352A1 (en) Systems and methods for training and using machine learning models and algorithms
EP4361967A1 (en) Situation specific perception capability for autonomous and semi-autonomous vehicles
US20240043006A1 (en) Method and apparatus for generating virtual stop line
CN117284319A (zh) 基于横向对象控制纵向加速度的***和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination