CN114155272A - 自主机器应用中的自适应目标跟踪算法 - Google Patents

自主机器应用中的自适应目标跟踪算法 Download PDF

Info

Publication number
CN114155272A
CN114155272A CN202111030925.7A CN202111030925A CN114155272A CN 114155272 A CN114155272 A CN 114155272A CN 202111030925 A CN202111030925 A CN 202111030925A CN 114155272 A CN114155272 A CN 114155272A
Authority
CN
China
Prior art keywords
lane
objects
information
vehicle
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111030925.7A
Other languages
English (en)
Inventor
V·A·杰恩
S·S·谢尔柯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nvidia Corp
Original Assignee
Nvidia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nvidia Corp filed Critical Nvidia Corp
Publication of CN114155272A publication Critical patent/CN114155272A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了自主机器应用中的自适应目标跟踪算法。在各种示例中,车道位置标准和对象类标准可用于确定要跟踪的环境中的一组对象。例如,车道信息、自由空间信息和/或目标检测信息可用于从使用对象检测算法检测的对象中过滤掉或丢弃非必要对象(例如,不在自我车道或相邻车道中的对象)。此外,与非必要对象类相对应的对象可被过滤掉,以生成待跟踪的对象的最终过滤集,其数量可低于检测对象的实际数量。因此,目标跟踪可能仅在最终过滤的对象集上执行,从而减少***的计算需求和运行时间,而不会牺牲关于更相关对象的目标跟踪准确度和可靠性。

Description

自主机器应用中的自适应目标跟踪算法
背景技术
自动驾驶***和高级驾驶员辅助***(ADAS)可利用传感器,如摄像头、激光雷达传感器、雷达传感器等,执行各种任务,如目标检测、目标跟踪、车道保持、车道变换、车道分配、摄像头校准、转弯、路径规划和定位。例如,对于独立且高效地操作的自治和ADAS***,可以实时或近实时地生成对车辆周围环境的理解。对此理解至关重要的是目标跟踪,其中对象随时间的位置可用于通知自主***周围对象的运动模式、周围对象的位置、周围对象的未来估计位置等。
例如,在进行路径规划、避障和/或控制决策时,被跟踪对象信息可能证明是有用的。随着环境或场景变得更加拥挤,因此处理起来更加复杂(如在城市和/或半城市驾驶环境中),随着时间的推移,了解对象位置可能对车辆的安全运行变得更加重要。然而,采用目标跟踪的传统***——如实施基于图像的目标跟踪方法的***——检测并跟踪车辆环境中的每个目标。无论对象的位置、运动方向和/或对象对车辆安全有效驾驶决策的重要性如何,这都是正确的。随着检测到的对象数量的增加——例如在更复杂的驾驶场景中——计算资源需求增加,处理时间增加到无法以可接受的安全级别实时或近实时部署***的程度。
发明内容
本发明的实施例涉及用于自主机器应用的自适应目标跟踪算法。公开了检测对象,然后过滤掉检测到的对象以减少计算负担的***和方法,同时还减少实时或近实时的有时限操作(例如目标跟踪)的运行时间。与传统***(如上述***)相比,本发明的***和方法可以使用车道位置标准和/或必要对象类别标准来过滤掉对准确可靠的目标跟踪不太重要的检测对象子集。结果,可以处理检测到的对象的更聚焦子集以进行目标跟踪,这反过来减少了计算负担和***的运行时间。
例如,车道信息、自由空间信息和/或对象语义或位置信息可用于将检测到的对象分配给车道,并在目标***处理之前过滤掉非必要对象。可使用车道信息和/或自由空间信息生成车道图,以表示检测车道的位置和姿势,以帮助定位环境中的车辆和其他检测对象。检测到的车道的位置可以映射到相应车道内检测到的对象的位置,并且可以基于该映射和车道位置标准从检测到的对象中过滤出非必要对象。例如,车道位置标准可指示基本车道(例如,自我车道、自我车道的右相邻车道、自我车道的左相邻车道等),其中必要对象将被跟踪,并且非基本车道中的对象可被过滤掉以生成过滤后的对象集。与非必要对象类别(例如,行人、交通灯、停车标志、动物、某些车辆类别等)相关联的过滤对象集也可能被过滤掉。因此,可以在不牺牲质量或可靠性的情况下提高***的效率,因为只有与必要对象类别相关联的对象(例如,汽车、卡车、摩托车手、自行车手)和位于基本车道上的对象可以提供给目标***进行跟踪。
随着时间的推移,需要跟踪的对象数量减少,随着目标***要处理的数据量减少,检测和跟踪对象的过程可能会相对较少的时间消耗、较少的计算强度和更大的可伸缩性。此外,通过减少每帧传输的数据量,可以增加每秒处理的帧数,以在相同的时间内生成额外的结果,从而增加***的目标跟踪计算的粒度。
附图说明
以下参考附图详细描述用于自主机器应用的自适应目标跟踪算法的本***和方法,其中:
图1A是示出根据本公开的一些实施例的目标跟踪的示例过程的示例数据流程图;
图1B是示出根据本公开的一些实施例的过滤要跟踪的对象的示例过程的示例数据流程图;
图2是根据本公开的一些实施例的示例目标跟踪***的框图;
图3A是根据本公开的一些实施例的检测对象和检测车道之间的示例映射的图示;
图3B是根据本公开的一些实施例的由基于车道信息的对象过滤器生成的示例过滤对象集的图示;
图3C是根据本公开的实施例的由对象文件器基于对象类生成的对象的示例剩余列表的图示;
图4是示出根据本公开的一些实施例的用于检测对象、然后过滤掉检测到的对象以减少计算负担,同时还减少有时限操作的运行时间的方法的流程图;
图5是显示了根据本公开的一些实施例的方法500的流程图,其用于检测对象,然后过滤掉检测到的对象以减少计算负担,同时还减少有时限操作的运行时间;
图6A是根据本公开的一些实施例的示例性自主车辆的图示;
图6B是根据本公开的一些实施例的图6A的示例性自主车辆的相机位置和视野示例;
图6C是根据本公开的一些实施例的图6A的示例性自主车辆的示例性***架构的框图;
图6D是根据本公开的一些实施例的一个或更多个基于云的服务器与图6A的示例性自主车辆之间通信的***图;
图7是适合用于实施本公开的一些实施例的示例计算设备的框图;和
图8是适用于实施本公开的一些实施例的示例数据中心的框图。
具体实施方式
公开了与用于自主机器应用的自适应目标跟踪算法相关的***和方法。尽管本公开可以关于示例性自主车辆600(或者在本文中称为“车辆600”或“自我车辆600”,本文中关于图6A-6D描述了其示例)来描述,但是这并不旨在限制性的。例如,本文描述的***和方法可由非自主车辆、半自主车辆(例如,在一个或更多个高级驾驶员辅助***(ADAS)中)、机器人、仓库或工厂车辆或机器、越野车辆、飞艇、船只和/或其他车辆类型使用。此外,尽管本发明可以关于自动驾驶进行描述,但这并不旨在限制。例如,本文描述的***和方法可用于机器人(例如,机器人的目标检测和跟踪)、空中***(例如,无人机或其他飞行器的目标检测和跟踪)、划船***(例如,船艇的目标检测和跟踪)、模拟环境(例如。,用于在虚拟仿真环境中模拟虚拟车辆的目标检测和跟踪),和/或其他技术领域,如目标检测和目标跟踪。
与传统技术相比,当前的***和方法提供了检测对象的技术,然后过滤掉检测到的对象,以减少计算负担,同时减少有时限操作(如目标跟踪)的运行时间。例如,车辆的各种传感器(例如,相机、雷达传感器、激光雷达传感器等)的输出可以实时或近实时处理,例如,使用一个或更多个计算机视觉算法、机器学习模型,和/或深度神经网络(DNN)–在执行跟踪算法以跟踪周围环境中的对象之前,丢弃非必要对象。例如,车辆的实时感知可用于仅检测和分类车辆当前车道、车辆当前车道紧邻右侧的车道和/或车辆当前车道紧邻左侧的车道中的对象。这样,一个或更多个算法(如车道检测算法、目标检测和分类算法,和/或自由空间检测算法)的输出可用于在向目标跟踪算法提供有关待跟踪目标的信息之前,对车辆路径中的重要目标进行分类和/或确定。同样地,通过使用车道信息、自由空间信息、对象类别信息、路径分析中的对象(OIPA)和/或车辆定位信息,检测和分类车辆环境中的必要对象的过程可能相对较少耗时,计算强度较小,因为***可以学习以确定、存储和跟踪仅与车辆环境中的必要对象有关的信息,因此具有更高的可扩展性。
本***和方法能够实时或接近实时地跟踪自我车辆环境中的对象。例如,在跟踪之前,使用各种处理步骤过滤掉某些检测到的对象,仅将最重要或最高优先级的对象信息传递给用于跟踪环境中对象的目标跟踪算法。为了过滤出对象,可以使用各种计算机视觉算法、机器学习模型和/或深度神经网络(DNN)来处理自我车辆传感器生成的传感器数据,以产生对周围环境的理解(例如,通过车道图、定位等)。传感器数据可包括由自我车辆的任何类型传感器(例如,相机、雷达传感器、激光雷达传感器、超声波传感器、全球导航卫星***(GNSS)传感器、惯性测量单元(IMU)传感器等)生成的传感器数据,并可以任何可接受的格式表示以进行处理(例如,图像、视频、点云、深度图、距离图像(range images)、其他传感器数据表示等)。
传感器数据可用于车道检测、自由空间检测、目标检测和/或分类,最终用于目标跟踪。例如,可以计算与车辆环境中的车道相对应的位置、方向、方位、分类和/或其他信息。此外,在一些实施例中,可以计算将可驾驶自由空间与非可驾驶空间分离的边界的位置,和/或可以计算与可驾驶自由空间相对应的环境区域。还可以检测和/或分类环境中的对象。例如,可以按类和/或实例来检测和分类对象,使得唯一的对象实例最终可以由目标***跟踪。除此信息外,GNSS传感器、IMU、高清(HD)地图和/或其他定位信息可用于相对于计算或预测的环境信息(例如,车道图)定位自我车辆和/或其他对象。例如,可以使用计算的车道信息和车辆的定位信息生成车道图。因此,车道图可用于确定行驶路面的布局,并最终确定其上对象的位置。在一些实施例中,与可行驶自由空间相对应的信息也可包括在车道图中,和/或可用于映射要填充到车道的对象(例如,人行道上的对象可能不被跟踪,而行驶表面上的对象可能被跟踪)。
然后可使用车道和对象之间的映射来过滤非必要对象,从而确定一组必要对象。例如,可以使用映射来执行路径中对象分析(OIPA),以过滤出检测到的参与者的至少一个子集。在非限制性示例中,可以过滤掉不在自我车道、自我车道的右相邻车道和自我车道的左相邻车道(使用OIPA、车道图和映射确定)中的每个对象。然后,过滤后的对象集可传递给对象类关联器,该对象类关联器可使用与过滤后的对象集相对应的目标检测信息(例如,类和/或实例信息)来进一步过滤出与非基本类相对应的对象。因此,在非限制性示例中,可以过滤掉不是汽车、卡车、自行车或摩托车的每个剩余对象。然后,可将剩余的对象列表传递给目标***,并且目标***可开始或继续(例如,从跟踪算法的任何数量的先前实例)跟踪对象。
在一些实施例中,可以在一个或更多个图形处理单元(GPU)和一个或更多个中央处理单元(CPU)之间分割处理。例如,车道信息、自由空间信息、对象检测和/或分类和/或目标跟踪的计算或预测可以使用一个或更多个GPU执行,而这些输出的处理可以使用一个或更多个CPU执行。此外,在一些实施例中,可以使用两个或多个片上***(soc)来执行操作。因此,可以使用传输控制协议(TCP)在各个SOC之间传递该跟踪数据,并且在SOC之间传递的数据的大小直接影响***的延迟。因此,通过减少需要随时间跟踪的对象的数量,可以减少soc之间传输的数据量,从而提高***的效率。此外,通过减少每帧传输的数据量,可以增加每秒处理的帧数,以在相同的时间内生成额外的结果,从而提高***目标跟踪计算的准确度和粒度。
现在参考图1A,图1A是一个示例数据流程图,说明了一个示例过程100,该过程用于检测对象,然后过滤掉检测到的对象以减少计算负担,同时还减少有时限操作的运行时间,例如目标跟踪,根据本公开的一些实施例。应理解,本文所述的此布置和其它布置仅作为示例阐述。在高水平上,过程100可包括一个或更多个检测器104,其接收一个或更多个输入,例如传感器数据102,并生成一个或更多个输出,例如一个或更多个车道检测、对象检测和/或自由空间检测,其可用于生成车道图,和/或使用车道图生成器106和/或对象车道分配器108进行对象车道分配。对象过滤器110可以使用车道分配器108的输出来过滤检测到的对象。虽然传感器数据102主要是关于代表图像的图像数据来讨论的,但这并不旨在限制,并且传感器数据102可以包括其他类型的传感器数据,例如但不限于激光雷达数据、声纳数据、雷达数据和/或类似数据–例如,由车辆600的一个或更多个传感器生成(图6A-6D)。
过程100可包括从一个或更多个传感器生成和/或接收传感器数据102。作为非限制性示例,传感器数据102可从车辆(例如,图6A-6C中并在本文中描述的车辆600)的一个或更多个传感器接收。传感器数据102可由车辆600并在过程100内用于实时或接近实时地导航其环境。传感器数据102可以包括但不限于来自车辆的任何传感器的传感器数据102,包括例如并参考图6A-6C、一个或更多个全球导航卫星***(GNSS)传感器658(如全球定位***传感器)、一个或更多个雷达传感器660、一个或更多个超声波传感器662、一个或更多个激光雷达传感器664、一个或更多个惯性测量单元(IMU)传感器666(如一个或更多个加速计、一个或更多个陀螺仪、一个或更多个磁罗盘、一个或更多个磁强计等)、一个或更多个麦克风676、一个或更多个立体相机668、一个或更多个广角相机670(例如鱼眼相机)、一个或更多个红外相机672、一个或更多个环绕相机674(例如360度相机)、一个或更多个远程和/或中程相机678、一个或更多个速度传感器644(例如,用于测量车辆600的速度)和/或其他传感器类型。作为另一示例,传感器数据102可以包括从虚拟(例如,测试)环境中的虚拟车辆或其他虚拟对象的任意数量的传感器生成的虚拟传感器数据。在这样的示例中,虚拟传感器可对应于模拟环境中的虚拟车辆或其他虚拟对象(例如,用于测试、训练和/或验证神经网络性能),并且虚拟传感器数据可表示虚拟传感器在模拟或虚拟环境中捕获的传感器数据。
在一些实施例中,传感器数据102可包括表示一个或更多个图像的图像数据、表示视频(例如,视频快照)的图像数据和/或表示传感器感测场的传感器数据(例如,激光雷达传感器的深度图、超声波传感器的值图等)。在传感器数据102包括图像数据的情况下,可以使用任何类型的图像数据格式,例如但不限于诸如联合摄影专家组(JPEG)或亮度/色度(YUV)格式的压缩图像,作为源于压缩视频格式(例如H.264/高级视频编码(AVC)或H.265/高效视频编码(HEVC))的帧的压缩图像,原始图像(例如源于红色-清晰-蓝色(RCCB)、红色-清晰(RCCC)或其他类型的成像传感器)和/或其他格式。此外,在一些示例中,传感器数据102可在过程100内使用而无需任何预处理(例如,以原始或捕获的格式),而在其他示例中,传感器数据102可经历预处理(例如,噪声平衡、去马赛克(demosaicing)、缩放、裁剪、增强、白平衡、色调曲线调整等),例如使用传感器数据预处理器(未显示))。传感器数据102可以包括原始图像(例如,由一个或更多个图像传感器捕获)、下采样图像、上采样图像、裁剪图像或感兴趣区域(ROI)图像、其他增强图像和/或其组合。如本文所使用的,传感器数据102可参考未经处理的传感器数据、预处理的传感器数据或其组合。
检测器104可包括车道检测器104A、自由空间检测器104B和/或对象检测器104C。检测器104可包括一个或更多个计算机视觉算法、机器学习模型和/或DNN,其训练用于使用传感器数据102计算车道信息(例如,位置、姿势、几何体等)、自由空间边界位置和/或对象信息(例如,位置、姿势、类别等)。例如但非限制,检测器104可包括使用线性回归、逻辑回归、决策树、支持向量机(SVM)、朴素贝叶斯、k-最近邻(Knn)、k均值聚类、随机森林、降维算法、梯度提升算法、神经网络(例如,自动编码器、卷积、递归、感知器、长/短期记忆/LSTM、霍普菲尔德、玻尔兹曼、深度信念、反卷积、生成对抗、液态机器等)、感兴趣领域检测算法、计算机视觉算法和/或其他类型的机器学习模型或算法。
例如,在检测器104包括DNN——或者更具体地说是卷积神经网络(CNN)的情况下,检测器104可以包括任意数量的层。一个或更多个层可以包括输入层。输入层可保持与传感器数据102相关联的值(例如,在后处理之前或之后)。例如,当传感器数据102是图像时,输入层可以将代表一个或更多个图像的原始像素值的值保持为体积(例如,宽度、高度和颜色通道(例如,RGB),例如32x32x3)。
一个或更多个层可包括卷积层。卷积层可以计算连接到输入层中的局部区域的神经元的输出,每个神经元计算它们的权重和它们在输入体积中连接到的小区域之间的点积。卷积层的结果可以是另一个体积,其中一个尺寸基于应用的滤波器数量(例如,宽度、高度和滤波器数量,例如32x32x12,如果12是滤波器数量)。
一个或更多个层可包括整流线性单元(ReLU)层。例如,一个或更多个ReLU层可以应用逐元素激活函数,例如最大值(0,x),在零处阈值化。ReLU层的结果体积可能与ReLU层的输入体积相同。
一个或更多个层可包括池化层。池化层可沿空间维度(例如,高度和宽度)执行下采样操作,这可导致体积小于池化层的输入(例如,来自32x32x12输入体积的16x16x12)。
一个或更多个层可包括一个或更多个完全连接的层。全连接层中的每个神经元可以连接到前一个体积中的每个神经元。全连接层可以计算类分数,得到的体积可以是1x1x类数。在一些示例中,CNN可以包括全连接层,使得CNN的一个或更多个层的输出可以被提供为CNN的全连接层的输入。在一些示例中,一个或更多个卷积流可由检测器104实现,并且一些或所有卷积流可包括各自的全连接层。
在一些非限制性实施例中,检测器104可包括一系列卷积层和最大池化层以促进图像特征提取,随后是多尺度扩展卷积层和上采样层以促进全局上下文特征提取。
尽管本文针对检测器104讨论了输入层、卷积层、池化层、ReLU层和全连接层,但这并旨在限制。例如,可在一个或更多个机器学习模型104中使用附加或替代层,例如归一化层、SoftMax层和/或其他层类型。
在检测器104包括CNN的实施例中,可根据实施例使用CNN层的不同顺序和数量。换句话说,检测器104的层的顺序和数量不限于任何一种架构。
此外,一些层可能包括参数(例如权重和/或偏置),例如卷积层和全连接层,而其他层可能不包括参数,例如ReLU层和池化层。在一些示例中,参数可由检测器104在训练期间学习。此外,一些层可以包括额外的超参数(例如,学习速率、步幅、时期等),例如卷积层、全连接层和池化层,而其他层可以不包括,例如ReLU层。参数和超参数不受限制,并且可以根据实施例而不同。
检测器104可使用传感器数据102来检测车道、自由空间边界和/或对象,其可最终应用于车道图生成器106以生成车道图和/或对象车道分配器108以将对象与车道图中的车道相关联。例如,车道检测器104A可经训练或编程以检测传感器数据102中的车道和/或关联车道分类。例如,车道检测器104A可计算位置、方向、方位、分类,和/或与使用传感器数据102确定的车辆环境中的车道相对应的其他信息。
自由空间检测器104B可经过训练或编程,以使用传感器数据102检测车辆环境中的可驾驶自由空间和/或非可驾驶空间-或与其划分相对应的边界。例如,自由空间检测器104B可计算将可驾驶自由空间与非可驾驶空间分开的边界位置,和/或与可驾驶自由空间相对应的车辆环境区域。
车道图生成器106可以使用车道检测器104A和/或自由空间检测器104B的输出作为输入。例如,车道图生成器106可以基于车道和自由空间检测计算一个或更多个车道图。目标车道分配器108可以使用来自一个或更多个GNSS传感器、IMU、高清(HD)地图和/或其他定位信息的定位信息,相对于计算或预测的车道图或环境信息来定位车辆600(和/或周围对象)。例如,车道图生成器106可以使用来自车道检测器104A的计算车道信息和车辆600的当前位置信息(例如,车道图可以使用车辆600的当前位置信息指示车辆600的自我车道和相对于自我车辆位置的其他车道)。因此,车道图可以表示行驶路面的布局。在一些示例中,车道图可使用点阵列(例如,像素)来表示车道,并包括车道信息源(例如,车道检测器104A、高清地图)、车道分类(例如,当前车道、左车道、右车道、对向车道)和车辆600的定位。通过这种方式,车道图生成器106可以生成表示车道和车辆600在行驶路面上的定位的车道图。在一些示例中,车道图生成器106可以包括车道图中可行驶自由空间的表示。
目标检测器104C可经过训练或编程,以基于传感器数据102检测和/或分类车辆600环境中的对象。例如,可按类别和/或实例检测和分类对象,这样,唯一的对象实例最终可以被目标***112跟踪。目标检测器104可以计算检测到的对象周围的边界框,并且每个检测到的对象可以与一个类关联——例如但不限于:汽车、自行车、停车标志、让行标志、交通灯、行人、卡车、摩托车、和/或目标检测器104C可训练或编程以检测的对象的其他分类。在一些示例中,目标检测器104C可以使用传感器数据检测对象的位置。例如,目标检测器104的输出可对应于与对象和/或对象类相关联的对象位置处的像素,边界形状信息可由目标检测器104C输出,和/或可输出其他对象检测表示。
对象车道分配器108可以将车道图生成器106、目标检测器104C和/或自由空间检测器104B的输出作为输入,以生成对象和车道之间的映射,该映射将检测到的对象分配给车道图的车道或将检测到的对象与车道图的车道相关联。例如,可以使用计算的车道信息、车辆600的定位信息和/或关于检测到的对象的信息(例如,对象类别、对象姿势、对象位置等),生成对象到车道的映射。例如,可以基于属于也属于车道的对象的像素,将检测到的对象分配和/或映射到检测到的车道。映射可以包括车道的位置和相应车道内检测到的对象的位置。因此,映射不仅可以表示驾驶表面的布局,还可以表示其上对象的位置。在一些实施例中,对应于可驾驶自由空间的信息也可包括在映射中,和/或可用于确定要包括在映射中的对象(例如,人行道上的对象可以不映射,而驾驶表面上的对象可以映射)。以这种方式,对象车道分配器108可以通过将对象定位到相应的车道,将每个检测到的对象映射或分配到检测到的车道或不可驾驶表面。
对象过滤器110可将来自对象车道分配器108和/或目标检测器104C的映射输出作为输入,以从映射对象中过滤出非必要对象,以基于各种标准(例如车道位置标准、对象类型标准等)来确定非必要对象的集合。车道位置标准可包括用于过滤对象的一组规则。例如,在一些示例中,对象过滤器110可以基于映射执行路径中对象分析(OIPA),以过滤出检测到的对象的至少一个子集。例如,可以过滤掉不在车辆当前车道、当前车道的右相邻车道和当前车道的左相邻车道中的每个对象(使用OIPA和映射确定)。映射中的车道类可用于确定当前车道、当前车道的左相邻车道和当前车道的右相邻车道中的对象。然后可将经过滤的对象集提供给一个或更多个附加滤波器,或提供给目标***112以进行跟踪。
在一些示例中,对象过滤器110可以通过过滤掉对应于非必要对象类的对象来过滤对象集。例如,目标检测器104C的输出——例如对象位置、对象类、对象实例信息等——可用于过滤掉属于非必要(或非期望)对象类的对象。例如,对象滤波器110可以使用与过滤的对象集合相对应的目标检测器104C的输出来进一步过滤出与非必要对象类相对应的对象。在一些示例中,可以过滤掉不属于与汽车、卡车、自行车或摩托车相关联的对象类的过滤对象集的每个对象。因此,在跟踪之前,可能会过滤掉非必要对象(例如,交通灯、行人)。剩余的对象列表随后可传递给目标***112,并且目标***112可开始或继续(例如,从跟踪算法的任何数量的先前实例)跟踪剩余的对象列表。应当注意,尽管过滤被描述为包括基于车道信息的过滤,然后是基于对象类的过滤,但这并不意味着限制。在一些示例中,根据实施例,在基于车道信息进行过滤之前,可以基于对象类对检测到的对象进行过滤,和/或可以以任何顺序执行一个或更多个其他过滤类型。
目标***112可以接收与剩余对象列表相对应的对象和车道信息。目标***112可以具有当前正在跟踪的对象的先前列表,并且目标***112可以将剩余对象列表与当前正在跟踪的对象的先前列表进行比较,以继续跟踪对象或开始跟踪新对象。因此,随着时间的推移,可以从先前的对象列表中添加和/或删除对象。在一些示例中,目标***112可以从对象车道分配器108接收剩余对象列表中的每一个的对象关联分数。该分数可以基于关联对象在所分配车道中的置信度。得分低于预定分数的剩余对象列表中的对象可以从要跟踪的对象的更新列表中移除。待跟踪对象的更新列表可发送至车辆600的控制部件进行进一步处理,以协助车辆600的一个或更多个操作,例如路径规划、控制、致动、避障等。
现在参考图1B,图1B是示出根据本公开的一些实施例的用于过滤要跟踪的对象的示例过程120的示例数据流程图。在一些示例中,可以在一个或更多个图形处理单元(GPU)140和一个或更多个中央处理单元(CPU)150之间分割处理。例如,可以使用一个或更多个GPU执行车道信息、自由空间信息、目标检测和/或分类和/或目标跟踪的计算或预测,而这些输出的处理可以使用一个或更多个CPU执行。因此,一个或更多个GPU 140可执行检测器104和/或目标***112。由检测器104生成的车道信息、自由空间信息和目标检测信息最终可由目标***112用于跟踪车辆600环境中的对象。这样,车道信息可用于在目标***112跟踪对象之前确定必要对象。结果,一个或更多个GPU 140可用于有效地计算感知信息,一个或更多个CPU 150可处理感知信息,并且一个或更多个GPU 140可使用来自一个或更多个CPU 150的反馈执行目标***。在一些实施例中,可以使用一个或更多个并行处理单元(例如,一个或更多个GPU 140的并行处理单元)并行执行一个或更多个处理任务。
由一个或更多个GPU 140处理的每个检测器104(例如车道检测器104B、自由空间检测器104B和/或目标检测器104C)的输出可提供给一个或更多个CPU 150进行进一步处理。CPU 150可以处理检测器104的输出,以确定实时或接近实时地跟踪车辆600的安全和有效导航所需的必要对象。CPU 150可以包括车道处理器122、***124、车道图生成器106、对象处理器126、路径中对象分析器128和/或跟踪处理器112。车道处理器122可以从车道检测器104A接收作为输入的车道信息。车道处理器122可以处理检测到的车道位置信息和/或车道类别。
***124可将车道处理器122的输出作为输入,以将车辆600定位在已处理车道内。***124还可以基于来自GNSS传感器、IMU、高清(HD)地图和/或其他定位信息的定位信息来定位车辆。车道图生成器106可以使用处理后的车道信息和定位信息来生成与传感器数据102相关联的车道图。例如,车道图生成器106可以使用来自车道处理器122的计算车道信息和来自***124的定位信息生成车道图。因此,车道图可以表示驾驶表面的布局。在一些示例中,车道图可使用点阵列(例如,像素)来表示车道,并包括车道信息源(例如,车道检测器104A、高清地图)、车道分类(例如,当前车道、左车道、右车道、对向车道、交叉车道)和/或车辆600的定位。
对象处理器126可以使用目标检测器104C的输出来处理检测到的对象。对象处理器126可以处理对象检测以确定每个检测对象的对象位置和/或分类。作为非限制性示例,对象位置处的像素可与相应的检测对象和/或分类相关联。路径中对象分析器128可确定自我车道(例如,车辆600的当前车道)、自我车道的右相邻车道和自我车道的左相邻车道的车道位置和车道类别信息。路径中对象分析器128生成的车道位置和车道类别信息可以包括点阵列(例如,像素),以表示自我车道、自我车道的右相邻车道和自我车道的左相邻车道中的每一个。路径中对象分析器128可以基于在车道图中检测到的车道的位置内检测到的对象的位置,将检测到的对象与相应的车道相关联。每个对象可与车道图中的车道或不可驾驶区域相关联。
对象车道分配器108可将路径中对象分析器128的输出作为输入,以基于车道位置标准和/或对象类别标准执行对象过滤操作。对象车道分配器108可以生成关联车道位置和车道内对象位置的映射。对象车道分配器108可以过滤检测到的对象,以基于车道位置标准确定必要对象的集合。车道位置标准可以包括关于过滤掉与车道子集(例如,自我车道、自我车道的右相邻车道、自我车道的左相邻车道)无关的检测到的对象的规则。此外,在一些例子中,对象车道分配器108可以接收与对象处理器126处理的过滤对象集的每个对象相关联的类作为输入。对象车道分配器108可以基于对象类标准从过滤对象集进一步过滤出对象,该对象类标准指示对象类为高重要性/优先类(如轿车、卡车、摩托车手、自行车手)和/或非优先对象类(如行人、交通信号灯)。然后,可以对过滤对象集的对象进行过滤,以移除与非优先级对象类关联的对象。
对象车道分配器108还可以为剩余的必要或优先对象集合中的每对对象和通道生成关联分数。关联分数可指示对象位于特定基本车道内的概率(例如,自我车道、右邻车道到自我车道、左邻车道到自我车道),和/或对象属于必要或优先对象类别的概率。预定阈值分数可用于确定是否应在目标***112中预测和/或更新必要或优先对象。在选项134,当与必要或优先对象相关联的关联分数低于阈值时,在方框132处将该对象从考虑中移除。如果关联分数高于阈值,则可在方框136A处在相应车道内的相应位置处预测关联的必要或优先对象。此外,如果必要对象或优先对象存在于先前跟踪对象列表中,则在框136B,必要对象或优先对象的位置可在当前跟踪对象列表中更新。如果在传感器数据102的当前实例中未检测到先前跟踪对象列表中存在的对象,则可从当前跟踪对象列表中移除该对象。
剩余对象列表随后可由跟踪处理器130进行处理,以生成和/或更新具有剩余对象列表的位置和/或类别的跟踪对象列表。然后,可以向目标***112提供用于跟踪的当前跟踪对象列表。
现在参考图2,图2示出了根据本发明的一些实施例的用于拥有操作的示例***200。两个soc可用于处理本文描述的操作——例如,关于图1A-1B。可在第一SoC 210和第二SoC 240之间划分操作。例如,第一SoC 210可包括目标检测器212、车道图生成器214、对象车道分配器216、对象过滤器218、目标***220和/或一个或更多个控制组件222。第二SoC240可包括目标检测器242–例如,一个或更多个相机障碍感知模块。例如,第二SoC 240可包括N个相机障碍感知模块,其余模块或过程可在第一SoC 210上执行。在该示例中,网络260可用于在第一SoC 210和第二SoC 240的组件之间传递数据。在一些示例中,网络260可以利用传输控制协议(TCP)在两个soc之间传输数据。例如,第二SoC 240的目标检测器242的输出可以经由网络260发送到车道图生成器214、对象车道分配器216、对象滤波器218、目标***220和/或第一SoC 210的其他组件和/或由其使用以进行处理。所示的SoC配置仅用于示例目的,并且可以使用附加和/或替代SoC配置而不脱离本发明的范围。例如,在使用两个或多个soc的情况下,模块和/或相关任务可在SoC之间划分,以提高效率和/或向流程提供额外资源。在一个或更多个实施例中,使用两个或多个SoC可允许更多并行处理——不仅针对单个离散硬件组件,而且还跨两个或多个硬件组件。
现在参考图3A-3C,图3A-3C示出了根据本公开的一些实施例,应用于检测到的对象和检测到的车道之间的映射的示例对象过滤。例如,图3A示出了用于图像300的检测对象和从对象车道分配器(例如,对象车道分配器108)输出的检测车道之间的示例映射。可以使用边界框检测图像中的对象(例如,汽车312A-312R、314、316A-316B、318A-318C;步行320;红绿灯(322)。可将每个对象映射和/或分配给车道(例如,车道342A-342C)和/或不可驾驶区域(例如,不可驾驶区域344A-344C)。例如,汽车314可以映射到车道342C,汽车316A和316B可以映射到车道342A,行人320可以映射到不可驾驶区域344A,交通灯322可以映射到不可驾驶区域344B。
现在参考图3B,图3B示出了根据本公开的一些实施例,由对象过滤器(例如,对象过滤器110)基于车道信息生成的对象的示例过滤集。映射到除车辆当前车道(例如342B)、当前车道右邻车道(例如342A)、当前车道左邻车道(例如342C)以外的车道的对象可以从检测到的对象中过滤掉,以生成过滤后的对象集。然后,过滤的对象集可能包括映射到右相邻车道342A的汽车316A和316B、映射到左相邻车道342C的汽车314、行人320和交通灯322。例如,汽车312A-312R和汽车318A-318C可能会根据映射到当前车道当前车道的右侧相邻车道,以及当前车道的左侧相邻车道(例如,分隔带对面的车道,交叉交通车道)以外的车道而被过滤或丢弃。以这种方式,对象过滤器110可以移除存在于非必要车道中的非必要或非优先级对象,以生成过滤后的对象集。
参考图3C,图3C示出了根据本发明的一些实施例,由对象过滤器(例如,对象过滤器110)基于对象类生成的对象的示例剩余列表。可进一步过滤已过滤对象集中的对象(例如,汽车316A、汽车316B、汽车314、行人320、交通灯322)以移除对应于非必要对象类的对象。目标检测器104C的输出(例如,对象位置、分类)可用于确定过滤对象集中对应于非必要对象类的对象。因此,可移除行人320和交通灯322以生成剩余对象列表(例如,汽车316A、汽车316B、汽车314),如剩余边界框所示,作为与必要对象类相对应的必要对象。以这种方式,对象过滤器110可以在将剩余对象列表发送到目标***112进行跟踪之前,进一步移除与非必要对象类相对应的对象,以便最终实时或近实时地处理和/或执行安全驾驶操作。
现在参考图4-5,本文所述的方法400和500的每个块包括可使用硬件、固件和/或软件的任何组合执行的计算过程。例如,各种功能可以由执行存储在存储器中的指令的处理器执行。所述方法还可以实现为存储在计算机存储介质上的计算机可用指令。这些方法可以由独立应用程序、服务或托管服务(独立或与另一个托管服务组合)或另一个产品的插件提供。此外,通过示例的方式,针对图1的过程100和120描述方法400和500。分别为1A和1B。然而,这些方法可以由任何一个***或过程和***的任何组合(包括但不限于本文所述的那些)在任何一个过程中另外或可选地执行。
图4是示出根据本公开的一些实施例的用于检测对象,然后过滤掉检测到的对象以减少计算成本,同时还减少有时限操作的运行时间的方法400的流程图。在框B402,方法400包括使用由自我车辆的一个或更多个传感器生成的传感器数据计算车道信息、目标检测信息和目标分类信息。例如,检测器104可以使用传感器数据102计算使用车道检测器104A的车道信息,以及使用目标检测器104C的目标检测信息和对象类信息。
在方框B404,方法400包括至少部分基于车道信息和目标检测信息生成表示车道第一位置和车道内对象第二位置的映射。例如,对象车道分配器108可以生成表示车道的第一位置和车道内对象的第二位置的映射。
在方框B406,方法400包括至少部分基于映射执行路径中对象分析(OIPA),以确定车道子集内对象的第一子集。例如,对象过滤器110可以通过基于映射执行OIPA分析来确定对象的第一子集(例如,过滤的对象集)。
在框B408,方法400包括至少部分基于目标分类信息确定与对象的第一子集的每个对象相关联的类。例如,对象过滤器110可以基于目标检测器104C输出的目标分类信息来确定与第一对象子集的每个对象相关联的类。
在框B410,方法400包括至少部分基于类从对象的第一子集中过滤出一个或更多个对象,以确定对象的第二子集。例如,对象过滤器110可以从对象的第一子集中过滤出一个或更多个对象(例如,对应于非必要对象类的对象),以基于类确定对象的第二子集(例如,剩余对象列表)。
在框B412,方法400包括将代表对象的第二子集的数据传输到用于跟踪对象的第二子集的目标跟踪算法。例如,代表对象的第二子集的数据可以被发送到目标***112以跟踪对象的第二子集。
图5是根据本公开的一些实施例的流程图,显示了用于检测对象,然后过滤掉检测到的对象以减少计算成本,同时还减少有时限操作的运行时间的方法500。在方框B502,方法500包括使用由自我车辆的一个或更多个传感器生成的传感器数据计算车道信息和目标检测信息。例如,检测器104可以使用传感器数据102计算使用车道检测器104A的车道信息和使用目标检测器104C的目标检测信息。
在方框B504,方法500包括将对象定位到车道,以至少部分基于车道信息和目标检测信息生成映射。例如,对象车道分配器108可以基于车道检测器104A和目标检测器104C的输出生成将对象定位到车道的映射。
在方框B506,方法500包括至少部分基于地图和车道位置标准确定车道子集内的对象子集。例如,对象过滤器110可以基于映射和对象类信息确定车辆当前车道、当前车道的右相邻车道和当前车道的左相邻车道内的过滤对象集和/或剩余对象列表的位置。
在框B508,方法500包括将代表对象子集的数据传输到目标跟踪算法,用于跟踪对象的第二子集。例如,代表经过滤的对象集和/或剩余对象列表的数据可被发送到目标***112,以跟踪经过滤对象集和/或剩余对象列表。
示例自动驾驶车辆
图6A是根据本发明的一些实施例的示例性自主车辆600的图示。自动驾驶车辆600(或者在本文中称为“车辆600”)可以包括但不限于乘用车,例如汽车、卡车、公共汽车、第一响应车辆、穿梭车、电动或机动自行车、摩托车、消防车、警车、救护车、船、施工车辆,水下航行器、无人机和/或其他类型的交通工具(例如,无人驾驶和/或容纳一名或更多名乘客的交通工具)。自动驾驶车辆通常按照自动化水平进行描述,由美国交通部下属的国家公路交通安全管理局(NHTSA)定义,以及美国汽车工程师学会(SAE)“道路机动车辆驾驶自动化***相关术语的分类和定义”(标准编号:J3016-201806,于2018年6月15日发布,标准编号:J3016-201609,于2016年9月30日发布,以及本标准的先前和未来版本)。车辆600可以根据自动驾驶级别的3级至5级中的一个或更多个实现功能。例如,根据实施例,车辆600可以具有条件自动化(级别3)、高自动化(级别4)和/或全自动化(级别5)。
车辆600可包括底盘、车身、车轮(例如,2、4、6、8、18等)、轮胎、车轴和车辆的其他部件。车辆600可包括推进***650,例如内燃机、混合动力发电厂、全电动发动机和/或其他推进***类型。推进***650可连接至车辆600的传动系,该传动系可包括变速器,以实现车辆600的推进。推进***650可响应于接收来自节流阀/加速器652的信号进行控制。
当推进***650运行时(例如,当车辆运动时),可使用包括方向盘的转向***654来引导车辆600(例如,沿着所需路径或路线)。转向***654可以接收来自转向致动器656的信号。对于全自动(5级)功能而言,方向盘可以是可选的。
制动传感器***646可用来响应于从制动致动器648和/或制动传感器接收到的信号而操作车辆制动器。
一个或更多个控制器636可包括一个或更多个片上***(SoC)604(图6C)和/或一个或更多个GPU,可向车辆600的一个或更多个部件和/或***提供信号(例如,代表命令)。例如,一个或更多个控制器可通过一个或更多个制动致动器648发送信号以操作车辆制动器,通过一个或更多个转向致动器656操作转向***654,通过一个或更多个油门/加速器652操作推进***650。一个或更多个控制器636可包括一个或更多个车载(例如,集成)计算设备(例如,超级计算机),其处理传感器信号,并输出操作命令(例如,表示命令的信号),以启用自动驾驶和/或协助人类驾驶员驾驶车辆600。一个或更多个控制器636可包括用于自动驾驶功能的第一控制器636、用于功能安全功能的第二控制器636、用于人工智能功能的第三控制器636(例如,计算机视觉),用于信息娱乐功能的第四控制器636,用于紧急情况下冗余的第五控制器636,和/或其他控制器。在一些示例中,单个控制器636可处理上述功能中的两个或更多个,两个或更多个控制器636可处理单个功能和/或其任何组合。
一个或更多个控制器636可提供用于控制车辆600的一个或更多个部件和/或***的信号,以响应从一个或更多个传感器接收的传感器数据(例如,传感器输入)。传感器数据可从例如但不限于一个或更多个全球导航卫星***传感器658(例如,一个或更多个全球定位***传感器)、一个或更多个雷达传感器660、一个或更多个超声波传感器662、一个或更多个激光雷达传感器664、一个或更多个惯性测量单元(IMU)传感器666(例如,一个或更多个加速计、一个或更多个陀螺仪、一个或更多个磁罗盘)接收,磁强计等)、一个或更多个麦克风696、一个或更多个立体相机668、一个或更多个广角相机670(如鱼眼相机)、一个或更多个红外相机672、一个或更多个环绕相机674(如360度相机)、一个或更多个远程和/或中频相机698、一个或更多个速度传感器644(如用于测量车辆600的速度)、一个或更多个振动传感器642、一个或更多个转向传感器640、一个或更多个制动传感器(例如,作为制动传感器***646的一部分)和/或其他传感器类型。
控制器636中的一个或更多个可以从车辆600的仪表组632接收输入(例如,由输入数据表示),并通过人机接口(HMI)显示器634、音频信号器、扬声器等和/或通过车辆600的其他部件提供输出(例如,由输出数据表示、显示数据等)。输出可包括诸如车辆速度、速率、时间、地图数据(例如,图6C的HD地图622)、位置数据(例如,车辆600的位置,例如地图上的位置)、方向、其他车辆的位置(例如,占用网格)等信息,一个或更多个控制器636感知到的关于对象和对象状态的信息等。例如,HMI显示器634可以显示关于一个或更多个对象存在的信息(例如,街道标志、警告标志、交通灯改变等),和/或关于车辆已进行、正在进行、或将进行的驾驶操作的信息(例如,现在换车道,两英里后从34B出口驶出等)。
车辆600还包括网络接口624,其可使用一个或更多个无线天线626和/或调制解调器通过一个或更多个网络进行通信。例如,网络接口624可以能够通过LTE、WCDMA、UMTS、GSM、CDMA2000等进行通信。一个或更多个无线天线626还可以使用一个或更多个局域网(例如蓝牙、蓝牙LE、Z波、ZigBee等和/或低功耗广域网(LPWAN),如LoRaWAN、SigFox等)在环境中的对象(例如,车辆、移动设备等)之间实现通信。
图6B是根据本发明的一些实施例的图6A的示例性自主车辆600的相机位置和视野示例。相机和各自的视野是一个示例实施例,并不旨在限制。例如,可包括附加和/或替代相机和/或相机可位于车辆600上的不同位置。
相机的相机类型可包括但不限于数字相机,该相机可适用于车辆600的部件和/或***。一个或更多个相机可在汽车安全完整性等级(ASIL)B和/或其他ASIL下运行。根据实施例,相机类型可以具有任何图像捕获速率,例如每秒60帧(fps)、120帧、240帧等。相机可以使用卷帘式快门、全局快门、另一种类型的快门或其组合。在一些示例中,滤色器阵列可包括红色透明(RCCC)滤色器阵列、红色透明蓝色(RCCB)滤色器阵列、红蓝绿色透明(RBGC)滤色器阵列、Foveon X3滤色器阵列、拜耳传感器(RGGB)滤色器阵列、单色传感器滤色器阵列、和/或其他类型的滤色器阵列。在一些实施例中,可以使用清晰像素相机,例如具有RCCC、RCCB和/或RBGC滤色器阵列的相机,以努力提高光灵敏度。
在一些示例中,一个或更多个摄像头可用于执行高级驾驶员辅助***(ADAS)功能(例如,作为冗余或故障安全设计的一部分)。例如,可安装多功能单摄像头,以提供车道偏离警告、交通标志辅助和智能前照灯控制等功能。一个或更多个相机(例如,所有相机)可以同时记录和提供图像数据(例如,视频)。
一个或更多个摄像头可安装在安装组件中,如定制设计(3D打印)组件,以切断可能干扰摄像头图像数据捕获能力的杂散光和车内反射(例如,挡风玻璃后视镜反射的仪表板反射)。关于翼镜安装组件,翼镜组件可定制3D打印,以便摄像头安装板与翼镜形状匹配。在一些示例中,一个或更多个相机可以集成到机翼后视镜中。对于侧视图相机,一个或更多个相机也可以集成在驾驶室每个拐角的四根立柱内。
具有包括车辆600前方环境部分的视野的相机(例如,前置相机)可用于环绕视图,以帮助识别前向路径和障碍物,以及在一个或更多个控制器636和/或控制SOC的帮助下,辅助提供对生成占用网格和/或确定首选车辆路径至关重要的信息。前置相机可用于执行许多与激光雷达相同的ADAS功能,包括紧急制动、行人检测和防撞。前向摄像头也可用于ADAS功能和***,包括车道偏离警告(“LDW”)、自动巡航控制(“ACC”)和/或其他功能,如交通标志识别。
各种相机可用于前置配置,包括例如包括CMOS(互补金属氧化物半导体)彩色成像仪的单目相机平台。另一个示例可以是可用于感知从***进入视野的对象(例如,行人、交叉交通或自行车)的广角相机670。尽管图6B中仅示出了一个广角相机,但车辆600上可能有任意数量的广角相机670。此外,一个或更多个远程相机698(例如,长角立体相机对)可用于基于深度的对象检测,特别是对于尚未训练神经网络的对象。一个或更多个远程相机698还可用于对象检测和分类以及基本目标跟踪。
一个或更多个立体相机668也可包括在前置配置中。一个或更多个立体相机668可以包括集成控制单元,该集成控制单元包括可扩展处理单元,该可扩展处理单元可以在单个芯片上提供可编程逻辑(FPGA)和具有集成CAN或以太网接口的多核微处理器。该单元可用于生成车辆环境的三维地图,包括图像中所有点的距离估计。一个或更多个可替代的立体相机668可包括紧凑型立体视觉传感器,该传感器可包括两个相机镜头(左右各一个)和图像处理芯片,该图像处理芯片可测量从车辆到目标对象的距离并使用生成的信息(例如,元数据)以激活自动紧急制动和车道偏离警告功能。除了本文所述的立体相机之外,或者可选地,可以使用其他类型的立体相机668。
具有包括车辆600侧面环境部分的视野的相机(例如,侧视相机)可用于环绕视图,提供用于创建和更新占用网格以及生成侧面碰撞警告的信息。例如,一个或更多个环绕相机674(例如,如图6B所示的四个环绕相机674)可定位在车辆600上。一个或更多个环绕相机674可包括一个或更多个广角相机670、一个或更多个鱼眼相机、一个或更多个360度相机等。例如,四个鱼眼相机可位于车辆的前部、后部和侧面。在替代布置中,车辆可使用三个环绕摄像头674(例如,左、右和后),并可利用一个或更多个其他摄像头(例如,前置相机)作为第四个环绕视图相机。
具有包括车辆600后部环境部分的视野的相机(例如,后视相机)可用于泊车辅助、环绕视野、追尾警告以及创建和更新占用网格。可以使用多种相机,包括但不限于也适合作为前置相机的相机(例如,一个或更多个远程和/或中程相机698、一个或更多个立体相机668、一个或更多个红外相机672等),如本文所述。
图6C是根据本发明的一些实施例的图6A的示例性自主车辆600的示例性***架构的框图。应理解,本文所述的此布置和其它布置仅作为示例阐述。除了所示的布置和元件之外,还可以使用其他布置和元件(例如,机器、接口、功能、顺序、功能分组等),或者可以使用其他布置和元件代替所示布置和元件,并且可以完全省略一些元件。此外,本文所描述的许多元件是功能实体,其可以作为离散或分布式组件实现,或者与其他组件结合实现,并且可以以任何合适的组合和位置实现。在此描述为由实体执行的各种功能可以通过硬件、固件和/或软件来执行。例如,各种功能可以由执行存储在存储器中的指令的处理器执行。
图6C中车辆600的每个部件、特征和***均通过总线602连接。总线602可包括控制器局域网(CAN)数据接口(在本文中也可称为“CAN总线”)。CAN可以是车辆600内的网络,用于帮助控制车辆600的各种特征和功能,例如制动器、加速、制动、转向、挡风玻璃雨刮器等的驱动。CAN总线可以配置为具有数十个甚至数百个节点,每个节点具有其自己的唯一标识符(例如,CAN ID)。可以读取CAN总线以查找方向盘角度、地速(ground speed,)、每分钟发动机转速(RPM)、按钮位置和/或其他车辆状态指示灯。CAN总线可以符合ASIL B标准。
尽管总线602在本文中被描述为CAN总线,但这并非旨在限制。例如,除了CAN总线之外,或者从CAN总线,还可以使用FlexRay和/或以太网。此外,尽管使用单线表示总线602,但这并旨在限制性的。例如,可以存在任意数量的总线602,其可以包括一个或更多个CAN总线、一个或更多个FlexRay总线、一个或更多个以太网总线和/或使用不同协议的一个或更多个其他类型的总线。在一些示例中,两个或更多个总线602可用于执行不同的功能,和/或可用于冗余。例如,第一总线602可用于碰撞避免功能,第二总线602可用于驱动控制。在任何示例中,每条总线602可与车辆600的任何部件通信,且两条或更多条总线602可与相同部件通信。在一些示例中,车辆内的每个SoC 604、每个控制器636和/或每个计算机可以访问相同的输入数据(例如,来自车辆600的传感器的输入),并且可以连接到公共总线,例如CAN总线。
车辆600可包括一个或更多个控制器636,如本文关于图6A所述的控制器。控制器636可用于各种功能。一个或更多个控制器636可以耦合到车辆600的各种其他组件和***中的任何一个,并且可以用于控制车辆600、车辆600的人工智能、车辆600的信息娱乐等。
车辆600可包括一个或更多个片上***(SoC)604。SoC 604可包括一个或更多个CPU 606、一个或更多个GPU 608、一个或更多个处理器610、一个或更多个高速缓存612、一个或更多个加速器614、一个或更多个数据存储616和/或未示出的其他组件和特征。一个或更多个SoC 604可用于控制各种平台和***中的车辆600。例如,一个或更多个SoC 604可以与HD地图622组合在***(例如,车辆600的***)中,HD地图622可以经由网络接口624从一个或更多个服务器(例如,图6D的服务器678)获得地图刷新和/或更新。
一个或更多个CPU 606可以包括CPU集群或CPU复合体(或者在本文中称为“CCPLEX”)。一个或更多个CPU 606可以包括多个核心和/或二级高速缓存。例如,在一些实施例中,一个或更多个CPU 606可以包括相干多处理器配置中的八个核。在一些实施例中,一个或更多个CPU 606可包括四个双核集群,其中每个集群具有专用二级缓存(例如,2MB二级高速缓存)。一个或更多个CPU 606(例如,CCPLEX)可被配置为支持同时集群操作,使得CPU 606的集群的任何组合在任何给定时间处于活动状态。
一个或更多个CPU 606可实现包括以下一个或更多个特征的功率管理能力:单个硬件块可在空闲时自动时钟选通以节省动态功率;当内核由于执行WFI/WFE指令而未主动地执行指令时,可以对每个内核时钟进行选通;每个核心可以独立地进行功率选通;当所有核心都被时钟选通或电源选通时,每个核心集群可以独立地进行时钟选通;和/或当所有核心都是功率选通时,每个核心集群可以独立地功率选通。一个或更多个CPU 606可以进一步实现用于管理功率状态的增强算法,其中指定了允许的功率状态和预期唤醒时间,并且硬件/微码确定为核心、集群和CCPLEX进入的最佳电源状态。处理核心可支持软件中简化的电源状态输入序列,并将工作卸载到微码。
一个或更多个GPU 608可以包括集成的GPU(或者在本文中称为“iGPU”)。GPU 608可以是可编程的,并且可以对并行工作负载是高效的。在一些示例中,一个或更多个GPU608可以使用增强的张量指令集。一个或更多个GPU 608可以包括一个或更多个流微处理器,其中每个流微处理器可以包括一级高速缓存(例如,具有至少96KB存储容量的一级高速缓存),并且两个或更多个流微处理器可以共享二级高速缓存(例如,具有512KB存储容量的二级高速缓存)。在一些实施例中,一个或更多个GPU 608可包括至少八个流式微处理器。一个或更多个GPU 608可以使用一个或更多个计算应用程序编程接口(API)。此外,一个或更多个GPU 608可以使用一个或更多个并行计算平台和/或编程模型(例如,NVIDIA的CUDA)。
一个或更多个GPU 608可进行功率优化,以在汽车和嵌入式用例中获得最佳性能。例如,一个或更多个GPU 608可在鳍型场效应晶体管(FinFET)上制造。然而,这并非旨在限制,并且可以使用其他半导体制造工艺来制造一个或更多个GPU 608。每个流式微处理器可合并多个分割成多个块的混合精度处理核心。例如,但不限于,64个PF32核和32个PF64核可被划分为四个处理块。在这样的示例中,可以为每个处理块分配16个FP32核、8个FP64核、16个INT32核、两个用于深度学习矩阵算法的混合精度NVIDIA张量核、L0指令高速缓存、线程束调度器、分派单元和/或64KB寄存器文件。此外,流式微处理器可包括独立的并行整数和浮点数据路径,以通过混合计算和寻址计算来提供工作负载的有效执行。流式微处理器可以包括独立的线程调度能力,以实现并行线程之间更细粒度的同步和协作。流式微处理器可以包括组合的一级数据高速缓存和共享存储器单元,以便在简化编程的同时提高性能。
一个或更多个GPU 608可包括高带宽存储器(HBM)和/或16GB HBM2存储器子***,以在一些示例中提供约900GB/秒峰值存储器带宽。在一些示例中,除了HBM存储器之外,或者可选地从HBM存储器使用同步图形随机存取存储器(SGRAM),例如第五代图形双数据速率同步随机存取存储器(GDDR5)。
第五代GPU 608可包括统一内存技术,其包括访问计数器,以允许更准确地将内存页迁移到最频繁访问它们的处理器,从而提高处理器之间共享内存范围的效率。在一些示例中,地址转换服务(ATS)支持可用于允许一个或更多个GPU 608直接访问一个或更多个CPU 606页表。在这样的示例中,当一个或更多个GPU 608存储器管理单元(MMU)经历未命中时,地址转换请求可被发送到一个或更多个CPU 606。作为响应,一个或更多个CPU 606可在其页表中查找地址的虚拟到物理映射,并将转换发送回一个或更多个GPU 608。因此,统一存储器技术可允许一个或更多个CPU 606和一个或更多个GPU 608两者的存储器的单个统一虚拟地址空间,从而简化一个或更多个GPU 608编程和将应用程序移植到一个或更多个GPU 608。
此外,一个或更多个GPU 608可包括访问计数器,其可跟踪一个或更多个GPU 608对其他处理器的存储器的访问频率。访问计数器可帮助确保将内存页移动到访问页面最频繁的处理器的物理内存中。
一个或更多个SoC 604可包括任意数量的高速缓存612,包括本文所述的高速缓存612。例如,一个或更多个高速缓存612可以包括对一个或更多个CPU 606和一个或更多个GPU 608(例如,连接一个或更多个CPU 606和一个或更多个GPU 608两者)都可用的L3高速缓存。高速缓存612可包括可跟踪线的状态的回写高速缓存,例如通过使用高速缓存一致性协议(例如,MEI、MESI、MSI等)。尽管可以使用较小的缓存大小,但根据实施例,L3缓存可以包括4MB或更多。
一个或更多个SoC 604可包括一个或更多个算术逻辑单元(ALU),该算术逻辑单元可用于执行与车辆600的各种任务或操作相关的处理,例如处理DNN。此外,一个或更多个SoC 604可包括用于在***内执行数学运算的一个或更多个浮点单元(FPU)或其他数学协处理器或数字协处理器类型。例如,一个或更多个SoC 104可以包括集成为CPU 606和/或GPU 608内的执行单元的一个或更多个FPU。
一个或更多个SoC 604可包括一个或更多个加速器614(例如,硬件加速器、软件加速器或其组合)。例如,一个或更多个SoC 604可以包括硬件加速集群,该硬件加速集群可以包括优化的硬件加速器和/或大型片上存储器。大型片上存储器(例如4MB的SRAM)可以使硬件加速集群加速神经网络和其他计算。硬件加速集群可用于补充一个或更多个GPU 608并卸载一个或更多个GPU 608的一些任务(例如,释放一个或更多个GPU 608的更多周期以执行其他任务)。例如,一个或更多个加速器614可用于足够稳定以适于加速的目标工作负载(例如,感知、卷积神经网络(CNN)等)。本文使用的术语“CNN”可包括所有类型的CNN,包括基于区域或区域卷积神经网络(RCNN)和快速RCNN(例如,用于目标检测)。
一个或更多个加速器614(例如,硬件加速集群)可包括一个或更多个深度学习加速器(DLA)。一个或更多个DLA可包括一个或更多个张量处理单元(TPU),其可被配置为每秒为深度学习应用和推理提供额外的10万亿操作。TPU可以是配置为执行图像处理功能(例如,用于CNN、RCNN等)并针对其进行优化的加速器。一个或更多个DLA还可以针对特定的神经网络类型和浮点运算以及推理进行优化。一个或更多个DLA的设计可以提供比通用GPU更高的每毫米性能,并且大大超过CPU的性能。一个或更多个TPU可以执行多个功能,包括单实例卷积功能,例如,支持特征和权重的INT8、INT16和FP16数据类型,以及后处理器功能。
一个或更多个DLA可针对各种功能中的任何一种,在处理或未处理的数据上快速有效地执行神经网络,尤其是CNN,包括但不限于:用于使用来自相机传感器的数据进行对象识别和检测的CNN;利用相机传感器的数据进行距离估计的CNN;用于紧急车辆检测和识别并使用麦克风数据进行检测的CNN;用于使用来自摄像头传感器的数据来进行面部识别和车主识别的CNN;和/或用于安全和/或安全相关事件的CNN。
一个或更多个DLA可以执行一个或更多个GPU 608的任何功能,例如,通过使用推理加速器,设计者可以针对一个或更多个DLA或一个或更多个GPU 608执行任何功能。例如,设计者可以将CNN和浮点操作的处理集中在一个或更多个DLA上,并将其他功能留给一个或更多个GPU 608和/或一个或更多个其他加速器614。
一个或更多个加速器614(例如,硬件加速集群)可包括可编程视觉加速器(PVA),其在本文中也可称为计算机视觉加速器。一个或更多个PVA可设计和配置为加速用于高级驾驶员辅助***(ADAS)、自动驾驶和/或增强现实(AR)和/或虚拟现实(VR)应用的计算机视觉算法。一个或更多个PVA可在性能和灵活性之间提供平衡。例如,每个PVA可包括例如但不限于任何数量的精简指令集计算机(RISC)内核、直接存储器访问(DMA)和/或任何数量的向量处理器。
RISC内核可与图像传感器(例如,本文所述的任何相机的图像传感器)、一个或更多个图像信号处理器等交互。每个RISC核可以包括任意数量的存储器。RISC核心可以使用多种协议中的任何一种,具体取决于实施例。在一些示例中,RISC内核可以执行实时操作***(RTOS)。RISC核心可以使用一个或更多个集成电路设备、专用集成电路(asic)和/或存储器设备来实现。例如,RISC内核可以包括指令高速缓存和/或紧密耦合的RAM。
DMA可使PVA组件独立于一个或更多个CPU 606访问***内存。DMA可支持用于优化PVA的任何功能,包括但不限于支持多维寻址和/或循环寻址。在一些示例中,DMA可支持多达六个或更多维度的寻址,其可包括块宽度、块高度、块深度、水平块步进、垂直块步进和/或深度步进。
矢量处理器可以是可编程处理器,其设计可以高效灵活地执行计算机视觉算法的编程,并提供信号处理能力。在一些示例中,PVA可包括PVA核心和两个向量处理子***分区。PVA核心可包括处理器子***、一个或更多个DMA引擎(例如,两个DMA引擎)和/或其他***设备。向量处理子***可以作为PVA的主处理引擎运行,并且可以包括向量处理单元(VPU)、指令高速缓存和/或向量存储器(例如VMEM)。VPU核心可以包括数字信号处理器,例如,单指令、多数据(SIMD),超长指令字(VLIW)数字信号处理器。SIMD和VLIW的结合可以提高吞吐量和速度。
每个向量处理器可包括指令高速缓存,并可耦合至专用存储器。结果,在一些示例中,每个向量处理器可被配置为独立于其他向量处理器执行。在其他示例中,包括在特定PVA中的向量处理器可被配置为采用数据并行。例如,在一些实施例中,包括在单个PVA中的多个向量处理器可以在图像的不同区域上执行相同的计算机视觉算法。在其他示例中,包括在特定PVA中的向量处理器可以在同一图像上同时执行不同的计算机视觉算法,或者甚至在序列图像或图像的部分上执行不同的算法。除其他事项外,任何数量的PVA可以包括在硬件加速集群中,并且任何数量的向量处理器可以包括在每个PVA中。此外,PVA可包括额外的纠错码(ECC)存储器,以增强整体***安全性。
一个或更多个加速器614(例如,硬件加速集群)可包括计算机视觉网络片上和SRAM,用于为一个或更多个加速器614提供高带宽、低延迟SRAM。在一些示例中,片上存储器可包括至少4MB SRAM,包括但不限于,八个现场可配置内存块,可由PVA和DLA访问。每对存储器块可以包括高级***总线(APB)接口、配置电路、控制器和多路复用器。可以使用任何类型的存储器。PVA和DLA可通过为PVA和DLA提供高速内存访问的主干线访问内存。主干可包括将PVA和DLA互连至存储器(例如,使用APB)的片上计算机视觉网络。
片上计算机视觉网络可包括一个接口,该接口在传输任何控制信号/地址/数据之前,确定PVA和DLA均提供就绪且有效的信号。这种接口可以提供用于传输控制信号/地址/数据的独立相位和独立信道,以及用于连续数据传输的突发式通信。此类接口可符合ISO26262或IEC 61508标准,但也可使用其他标准和协议。
在一些示例中,一个或更多个SoC 604可包括实时光线跟踪硬件加速器,如2018年8月10日提交的第16/101232号美国专利申请中所述。实时光线跟踪硬件加速器可用于快速有效地确定对象的位置和范围(例如,在世界模型内),生成实时可视化模拟,用于雷达信号解释、声音传播合成和/或分析、声纳***模拟、一般波传播模拟、与激光雷达数据进行比较,以用于定位和/或其他功能和/或其他用途。在一些实施例中,一个或更多个树遍历单元(ttu)可用于执行一个或更多个射线跟踪相关操作。
一个或更多个加速器614(例如,硬件加速器集群)在自动驾驶方面有着广泛的用途。PVA可能是一种可编程视觉加速器,可用于ADA和自动驾驶车辆的关键加工阶段。PVA的能力非常适合需要以功耗低且延迟低进行可预测处理的算法域。换句话说,PVA在半密集或常规密集计算上表现良好,即使在小数据集上也是如此,这些数据集需要低延迟和低功耗的可预测运行时间。因此,在自主车辆平台的背景下,PVA被设计为运行经典的计算机视觉算法,因为它们在目标检测和整数数学运算方面非常有效。
例如,根据本技术的一个实施例,PVA用于执行计算机立体视觉。在一些示例中,可以使用基于半全局匹配的算法,尽管这不是为了限制。3-5级自主驾驶的许多应用需要即时运动估计/立体匹配(例如,运动结构、行人识别、车道检测等)。PVA可对来自两个单目相机的输入执行计算机立体视觉功能。
在一些示例中,PVA可用于执行密集光流。根据处理原始雷达数据(例如,使用4D快速傅里叶变换)提供处理后的雷达。在其他示例中,PVA用于飞行时间深度处理,例如,通过处理原始飞行时间数据来提供处理后的飞行时间数据。
DLA可用于运行任何类型的网络,以增强控制和驾驶安全性,例如,包括为每个目标检测输出置信度测量值的神经网络。这样的置信值可以解释为概率,或者提供每个检测相对于其他检测的相对“权重”。该置信值使***能够进一步决定哪些检测应被视为真阳性检测而不是假阳性检测。例如,***可以设置置信度的阈值,并且仅考虑超过阈值的检测作为真阳性检测。在自动紧急制动(AEB)***中,假阳性检测将导致车辆自动执行紧急制动,这显然是不希望的。因此,只有最可靠的检测才应被视为AEB的触发因素。DLA可以运行神经网络来回归置信值。神经网络可将至少一些参数子集作为其输入,例如边界框尺寸、获得的地平面估计(例如,从另一子***)、与车辆600方位、距离相关的惯性测量单元(IMU)传感器666输出,从神经网络和/或其他传感器(例如,激光雷达传感器664或雷达传感器660)等获得的对象的三维位置估计。
一个或更多个SoC 604可包括一个或更多个数据存储616(例如存储器)。数据存储616可以是SoC 604的片上存储器,其可以存储要在GPU和/或DLA上执行的神经网络。在一些示例中,数据存储616的容量可以足够大,以存储用于冗余和安全的多个神经网络实例。数据存储612可包括二级或三级高速缓存612。如本文所述,对一个或更多个数据存储616的引用可包括对与PVA、DLA和/或一个或更多个其他加速器614相关联的存储器的引用。
一个或更多个SoC 604可包括一个或更多个处理器610(例如嵌入式处理器)。处理器610可以包括引导和电源管理处理器,该处理器可以是专用处理器和子***,用于处理引导电源和管理功能以及相关安全实施。引导和电源管理处理器可以是一个或更多个SoC604引导序列的一部分,并且可以提供运行时电源管理服务。引导电源和管理处理器可提供时钟和电压编程、***低电源状态转换协助、SoC 604热传感器和温度传感器的管理和/或SoC 604电源状态的管理。每个温度传感器可实现为输出频率与温度成比例的环形振荡器,并且一个或更多个SoC 604可使用环形振荡器检测一个或更多个CPU 606、一个或更多个GPU 608和/或一个或更多个加速器614的温度。如果确定温度超过阈值,引导和电源管理处理器可进入温度故障例行程序,并将一个或更多个SoC 604置于低功率状态和/或将车辆600置于司机安全停车模式(例如,使车辆600安全停车)。
一个或更多个处理器610还可包括一组可作为音频处理引擎的嵌入式处理器。音频处理引擎可以是音频子***,该音频子***能够通过多个接口和广泛且灵活的音频I/O接口实现对多通道音频的完全硬件支持。在一些示例中,音频处理引擎是具有专用RAM的数字信号处理器的专用处理器核心。
一个或更多个处理器610还可包括常开处理器引擎,该引擎可提供必要的硬件功能,以支持低功耗传感器管理和唤醒用例。常开处理器引擎可以包括处理器核心、紧密耦合的RAM、支持***设备(例如定时器和中断控制器)、各种I/O控制器***设备和路由逻辑。
一个或更多个处理器610还可包括安全集群引擎,该引擎包括专用处理器子***,用于处理汽车应用的安全管理。安全集群引擎可以包括两个或更多个处理器核心、紧密耦合的RAM、支持***设备(例如定时器、中断控制器等)和/或路由逻辑。在安全模式下,两个或多个内核可在锁步模式下运行,并作为具有比较逻辑的单个内核运行,以检测其操作之间的任何差异。
一个或更多个处理器610还可包括实时相机引擎,该引擎可包括用于处理实时相机管理的专用处理器子***。
一个或更多个处理器610还可以包括高动态范围信号处理器,该处理器可以包括图像信号处理器,该图像信号处理器是作为相机处理管道一部分的硬件引擎。
一个或更多个处理器610可包括视频图像合成器,该视频图像合成器可为处理块(例如,在微处理器上实现),其实现视频回放应用程序所需的视频后处理功能,以生成播放器窗口的最终图像。视频图像合成器可在一个或更多个广角相机670、一个或更多个环绕相机674和/或驾驶舱内监控相机传感器上执行镜头失真校正。驾驶舱内监控相机传感器优选地由运行在高级SoC的另一实例上的神经网络监控,该神经网络被配置为识别舱内事件并相应地响应。驾驶舱内***可执行唇读,以激活蜂窝服务和拨打电话、口述电子邮件、更改车辆目的地、激活或更改车辆的信息娱乐***和设置,或提供语音激活的网络冲浪。某些功能仅在车辆以自动模式运行时才可供驾驶员使用,否则将禁用。
视频图像合成器可包括用于空间和时间降噪的增强的时间降噪。例如,在视频中发生运动的情况下,噪声降低适当地加权空间信息,从而减小由相邻帧提供的信息的权重。在图像或图像的一部分不包括运动的情况下,由视频图像合成器执行的时间噪声降低可以使用来自前一图像的信息来降低当前图像中的噪声。
视频图像合成器也可配置为对输入立体镜头帧执行立体校正。当操作***桌面正在使用时,视频图像合成器还可用于用户界面合成,并且不需要GPU 608连续渲染新表面。即使当一个或更多个GPU 608上电并且在进行3D渲染时处于活动状态,视频图像合成器也可用于卸载一个或更多个GPU 608以改进性能和响应性。
一个或更多个SoC 604还可包括用于接收来自相机的视频和输入的移动工业处理器接口(MIPI)相机串行接口、高速接口和/或可用于相机和相关像素输入功能的视频输入块。一个或更多个SoC 604还可以包括一个或更多个输入/输出控制器,其可以由软件控制,并且可以用于接收未指定特定角色的I/O信号。
一个或更多个SoC 604还可包括广泛的***接口,以实现与***设备、音频编解码器、电源管理和/或其他设备的通信。一个或更多个SoC 604可用于处理来自相机(例如,通过千兆多媒体串行链路和以太网连接)、传感器(例如,可通过以太网连接的一个或更多个激光雷达传感器664、一个或更多个雷达传感器660等)、来自总线602的数据(例如,车辆600的速度、方向盘位置等)、来自一个或更多个GNSS传感器658的数据(例如,通过以太网或CAN总线连接)。一个或更多个SoC 604还可以包括专用的高性能大容量存储控制器,该控制器可以包括其自己的DMA引擎,并且可以用于将一个或更多个CPU 606从常规数据管理任务中解放出来。
一个或更多个SoC 604可以是一个端到端平台,具有灵活的体系架构,跨越自动化水平3-5,从而提供一个全面的功能安全体系架构,该体系架构利用并有效利用计算机视觉和ADAS技术实现多样性和冗余,为灵活可靠的驱动软件堆栈以及深度学***台。与传统***相比,一个或更多个SoC604可以更快、更可靠、甚至更节能和节省空间。例如,当一个或更多个加速器614与一个或更多个CPU 606、一个或更多个GPU 608和一个或更多个数据存储616组合时,可为3-5级自主车辆提供快速、高效的平台。
因此,该技术提供了传统***无法实现的能力和功能。例如,计算机视觉算法可以在CPU上执行,CPU可以使用高级编程语言(例如C编程语言)来配置,以在各种各样的视觉数据上执行各种各样的处理算法。然而,CPU通常无法满足许多计算机视觉应用程序的性能要求,例如与执行时间和功耗相关的应用程序。特别是,许多CPU无法实时执行复杂的目标检测算法,这是车载ADAS应用的要求,也是实际3-5级自主车辆的要求。
与传统***相比,通过提供CPU复合体、GPU复合体和硬件加速集群,本文描述的技术允许同时和/或顺序执行多个神经网络,并允许将结果组合在一起以实现3-5级自主驾驶功能。例如,在DLA或dGPU(例如,一个或更多个GPU 620)上执行的CNN可以包括文本和字识别,从而允许超级计算机读取和理解交通标志,包括神经网络尚未针对其专门训练的标志。DLA还可以包括能够识别、解释和提供符号的语义理解的神经网络,并将该语义理解传递给CPU复合体上运行的路径规划模块。
另一个例子是,可以同时运行多个神经网络,如3级、4级或5级驾驶所需。例如,由“警告:闪烁的灯光指示结冰情况”和电灯组成的警告标志可以由多个神经网络独立或共同解释。标志本身可通过第一个部署的神经网络(例如,经过训练的神经网络)识别为交通标志,文本“闪光灯指示结冰条件”可由第二个部署的神经网络解释,当检测到闪光灯时,通知车辆路径规划软件(优选地在CPU复合体上执行)存在结冰情况。可通过在多个帧上操作第三个部署的神经网络来识别闪光灯,通知车辆路径规划软件是否存在闪光灯。所有三个神经网络可同时运行,例如在DLA内和/或在一个或更多个GPU 608上。
在一些示例中,用于面部识别和车主识别的CNN可使用相机传感器的数据来识别经授权的驾驶员和/或车辆600的所有者的存在。当所有者靠近驾驶员车门并打开车灯时,可使用常开传感器处理引擎解锁车辆,以及,在安全模式下,当所有者离开车辆时禁用车辆。通过这种方式,一个或更多个SoC 604提供了防盗和/或劫车保护。
在另一个示例中,用于紧急车辆检测和识别的CNN可使用来自麦克风696的数据来检测和识别紧急车辆警报器。与使用通用分类器检测警报器和手动提取特征的传统***不同,一个或更多个SoC(s)604使用CNN对环境和城市声音进行分类,以及对视觉数据进行分类。在优选实施例中,对DLA上运行的CNN进行训练以识别紧急车辆的相对关闭速度(例如,通过使用多普勒效应)。CNN还可接受训练,以识别特定于车辆运行区域的应急车辆,如一个或更多个GNSS传感器658所识别。因此,例如,当在欧洲运行时,CNN将寻求检测欧洲警报,当在美国时,CNN将寻求仅识别北美警报。一旦检测到紧急车辆,可使用控制程序在超声波传感器662的帮助下执行紧急车辆安全例行程序,使车辆减速、靠边停车、停车和/或使车辆怠速,直到一个或更多个紧急车辆通过。
车辆可包括一个或更多个CPU 618(例如,一个或更多个离散CPU或一个或更多个dCPU),其可通过高速互连(例如PCIE)耦合至一个或更多个SoC 604。例如,一个或更多个CPU 618可以包括X86处理器。CPU 618可用于执行各种功能中的任何一种,包括仲裁ADAS传感器和SoC 604之间可能不一致的结果,和/或监测一个或更多个控制器636和/或信息娱乐SoC 630的状态和健康状况。
车辆600可包括一个或更多个GPU 620(例如,一个或更多个离散GPU或一个或更多个dGPU),其可通过高速互连(例如,NVIDIA的NVLINK)耦合至SoC 604。一个或更多个GPU620可以提供额外的人工智能功能,例如通过执行冗余和/或不同的神经网络,并且可以用于基于来自车辆600的传感器的输入(例如,传感器数据)训练和/或更新神经网络。
车辆600还可以包括网络接口624,网络接口624可以包括一个或更多个无线天线626(例如,用于不同通信协议的一个或更多个无线天线,例如蜂窝天线、蓝牙天线等)。网络接口624可用于通过互联网实现与云(例如,与一个或更多个服务器678和/或其他网络设备)、与其他车辆和/或与计算设备(例如,乘客的客户端设备)的无线连接。为了与其他车辆通信,可在两辆车辆之间建立直接链路和/或建立间接链路(例如,通过网络和互联网)。可使用车对车通信链路提供直接链路。车辆到车辆通信链路可向车辆600提供关于车辆600附近车辆的信息(例如,车辆600前面、侧面和/或后面的车辆)。该功能可能是车辆600的协作自适应巡航控制功能的一部分。
网络接口624可包括提供调制和解调功能并使一个或更多个控制器636能够通过无线网络通信的SoC。网络接口624可以包括用于从基带到射频的上转换和从射频到基带的下转换的射频前端。频率转换可以通过众所周知的过程来执行,和/或可以使用超外差过程来执行。在一些示例中,射频前端功能可以由单独的芯片提供。网络接口可以包括用于通过LTE、WCDMA、UMTS、GSM、CDMA2000、蓝牙、蓝牙LE、Wi-Fi、Z-Wave、ZigBee、LoRaWAN和/或其他无线协议进行通信的无线功能。
车辆600可进一步包括一个或更多个数据存储628,其可包括片外(例如,SoC外)。数据存储628可包括一个或更多个存储元件,包括RAM、SRAM、DRAM、VRAM、闪存、硬盘和/或可存储至少一位数据的其他组件和/或设备。
车辆600还可包括一个或更多个GNSS传感器658。一个或更多个GNSS传感器658(例如,GPS、辅助GPS传感器、差分GPS(DGPS)传感器等)用于协助测绘、感知、占用网格生成和/或路径规划功能。可以使用任意数量的GNSS传感器658,包括例如但不限于使用具有以太网到串行(RS-232)网桥的USB连接器的GPS。
车辆600还可包括一个或更多个雷达传感器660。即使在黑暗和/或恶劣天气条件下,车辆600也可使用一个或更多个雷达传感器660进行远程车辆检测。雷达功能安全等级可以为ASIL B。一个或更多个雷达传感器660可以使用CAN和/或总线602(例如,传输由一个或更多个雷达传感器660生成的数据)进行控制和访问目标跟踪数据,在一些示例中,通过访问以太网访问原始数据。可使用多种雷达传感器类型。例如,但不限于,一个或更多个雷达传感器660可适用于前、后和侧面雷达使用。在一些示例中,使用脉冲多普勒雷达传感器。
一个或更多个雷达传感器660可包括不同的配置,例如窄视场的远程、宽视场的短程、短距离侧面覆盖等。在一些示例中,远程雷达可用于自适应巡航控制功能。远程雷达***可提供通过两次或两次以上独立扫描实现的广阔视野,例如在250米范围内。一个或更多个雷达传感器660可帮助区分静态和移动对象,并可由ADAS***用于紧急制动辅助和前向碰撞警告。远程雷达传感器可能包括具有多个(例如,六个或更多)固定雷达天线和高速CAN和FlexRay接口的单基地多模雷达。在具有六个天线的示例中,中央四个天线可创建聚焦波束图案,设计用于以较高速度记录车辆周围的600个环境,且相邻车道的交通干扰最小。另外两个天线可以扩大视野,使其能够快速检测进入或离开车辆600车道的车辆。
例如,中程雷达***可包括高达660米(前)或80米(后)的范围,以及高达42度(前)或650度(后)的视野。短程雷达***可能包括但不限于设计安装在后保险杠两端的雷达传感器。当安装在后保险杠两端时,此类雷达传感器***可能会产生两束光束,持续监测车辆后部和旁边的盲点。
ADAS***中可使用近程雷达***进行盲点检测和/或车道变换辅助。
车辆600还可包括一个或更多个超声波传感器662。一个或更多个超声波传感器662可位于车辆600的前部、后部和/或侧面,可用于泊车辅助和/或创建和更新占用网格。可使用多种超声波传感器662,不同的超声波传感器662可用于不同的检测范围(例如,2.5m、4m)。一个或更多个超声波传感器662可在ASIL B的功能安全水平下工作。
车辆600可包括一个或更多个激光雷达传感器664。一个或更多个激光雷达传感器664可用于对象和行人检测、紧急制动、防撞和/或其他功能。一个或更多个激光雷达传感器664的功能安全等级可以为ASIL B。在一些示例中,车辆600可包括可使用以太网(例如,向千兆以太网交换机提供数据)的多个激光雷达传感器664(例如,两个、四个、六个等)。
在一些示例中,一个或更多个激光雷达传感器664可以能够提供360度视野中的对象及其距离列表。一个或更多个商用激光雷达传感器664的广告范围约为600m,准确度为2cm-3cm,并支持例如600Mbps以太网连接。在一些示例中,可以使用一个或更多个非突出的激光雷达传感器664。在此类示例中,一个或更多个激光雷达传感器664可作为小型设备实施,该小型设备可嵌入车辆600的前部、后部、侧面和/或角落。在此类示例中,一个或更多个激光雷达传感器664可提供高达120度的水平和35度的垂直视野,即使对于低反射率对象,其范围也为200m。前安装的一个或更多个激光雷达传感器664可配置为45度到135度之间的水平视野。
在一些示例中,也可以使用激光雷达技术,如3D闪光激光雷达。3D闪光激光雷达使用激光闪光作为传输源,照亮车辆周围约200米。闪光激光雷达装置包括一个接收器,该接收器记录激光脉冲传输时间和每个像素上的反射光,而每个像素又对应于从车辆到对象的范围。闪光激光雷达可以利用每一次激光闪光生成高准确度、无失真的环境图像。在一些示例中,可部署四个闪光激光雷达传感器,一个位于车辆600的每侧。可用的3D闪光激光雷达***包括固态3D凝视阵列激光雷达相机,除风扇(例如,非扫描激光雷达设备)外,无任何运动部件。闪光激光雷达设备每帧可使用5纳秒I类(眼睛安全)激光脉冲,并可捕获3D距离点云和共同寄存的强度数据形式的反射激光。通过使用闪光激光雷达,并且因为闪光激光雷达是没有运动部件的固态设备,所以一个或更多个激光雷达传感器664可以不易受到运动模糊、振动和/或冲击的影响。
车辆可能还包括一个或更多个IMU传感器666。在一些示例中,一个或更多个IMU传感器666可位于车辆600后轴的中心。一个或更多个IMU传感器666可以包括例如但不限于一个或更多个加速计、一个或更多个磁强计、一个或更多个陀螺仪、一个或更多个磁罗盘和/或其他传感器类型。在一些示例中,例如在六轴应用中,一个或更多个IMU传感器666可包括加速计和陀螺仪,而在九轴应用中,一个或更多个IMU传感器666可包括加速计、陀螺仪和磁强计。
在一些实施例中,一个或更多个IMU传感器666可实现为微型、高性能GPS辅助惯性导航***(GPS/INS),该***结合了微电子机械***(MEMS)惯性传感器、高灵敏度GPS接收机和先进的卡尔曼滤波算法,以提供位置、速度、姿态的估计。因此,在一些示例中,一个或更多个IMU传感器666可通过直接观察和关联从GPS到一个或更多个IMU传感器666的速度变化,使车辆600能够估计航向,而无需来自磁性传感器的输入。在一些示例中,一个或更多个IMU传感器666和一个或更多个GNSS传感器658可组合在单个集成单元中。
车辆可能包括放置在车辆600内和/或周围的一个或更多个麦克风696。一个或更多个麦克风696可用于紧急车辆检测和识别等。
车辆还可包括任意数量的相机类型,包括一个或更多个立体相机668、一个或更多个广角相机670、一个或更多个红外相机672、一个或更多个环绕相机674、一个或更多个远程和/或中程相机698和/或其他相机类型。相机可用于捕获车辆600整个***的图像数据。使用的相机类型取决于车辆600的实施例和要求,相机类型的任何组合可用于提供车辆600周围的必要覆盖范围。此外,根据实施例,相机的数量可以不同。例如,车辆可包括六个相机、七个相机、十个相机、十二个相机和/或其他数量的相机。作为示例,相机可支持但不限于千兆多媒体串行链路(GMSL)和/或千兆以太网。本文将参照图6A和图6B更详细地描述每个照相机。
车辆600还可包括一个或更多个振动传感器642。一个或更多个振动传感器642可测量车辆部件(如车轴)的振动。例如,振动的变化可能表明路面的变化。在另一个示例中,当使用两个或多个振动传感器642时,振动之间的差异可用于确定路面的摩擦或滑动(例如,当振动差异在动力驱动轴和自由旋转轴之间时)。
车辆600可包括ADAS***638。在一些示例中,ADAS***638可包括SoC。ADAS***638可包括自动/自适应/自动巡航控制(ACC)、协同自适应巡航控制(CACC)、前向碰撞警告(FCW)、自动紧急制动(AEB)、车道偏离警告(LDW)、车道保持辅助(LKA)、盲点警告(BSW)、后交叉交通警告(RCTW)、碰撞警告***(CWS),车道对中(LC)和/或其他特征和功能。
ACC***可使用一个或更多个雷达传感器660、一个或更多个激光雷达传感器664和/或一个或更多个相机。ACC***可包括纵向ACC和/或横向ACC。纵向ACC监测和控制与车辆600正前方车辆的距离,并自动调整车速,以保持与前方车辆的安全距离。横向ACC执行距离保持,并建议车辆600在必要时改变车道。侧向ACC与其他ADAS应用相关,如LCA和CWS。
CACC使用来自其他车辆的信息,这些信息可通过网络接口624和/或一个或更多个无线天线626,通过无线链路,或通过网络连接(例如,通过互联网)间接从其他车辆接收。直接链路可以由车辆到车辆(V2V)通信链路提供,而间接链路可以是基础设施到车辆(I2V)通信链路。一般来说,V2V通信概念提供了关于前面车辆的信息(例如,车辆600正前方和同一车道上的车辆),而I2V通信概念提供了关于前方交通的信息。CACC***可包括I2V和V2V信息源之一或两者。考虑到车辆600前方的车辆信息,CACC可能更可靠,并且有可能改善交通流的平稳性并减少道路上的拥堵。
FCW***被设计为提醒驾驶员注意危险,以便驾驶员采取纠正措施。FCW***使用耦合到专用处理器、DSP、FPGA和/或ASIC的前向摄像头和/或一个或更多个雷达传感器660,该专用处理器、DSP、FPGA和/或ASIC电耦合到驱动器反馈,例如显示器、扬声器和/或振动组件。FCW***可提供警告,例如声音、视觉警告、振动和/或快速制动脉冲。
AEB***检测到与其他车辆或其他对象即将发生的前向碰撞,如果驾驶员未在规定的时间或距离参数内采取纠正措施,AEB***可能会自动应用制动器。AEB***可使用耦合到专用处理器、DSP、FPGA和/或ASIC的一个或更多个前置相机和/或一个或更多个雷达传感器660。当AEB***检测到危险时,通常首先提醒驾驶员采取纠正措施以避免碰撞,如果驾驶员未采取纠正措施,AEB***可自动应用制动器以防止或至少减轻预计碰撞的影响。AEB***可包括动态制动支撑和/或碰撞迫近制动等技术。
LDW***提供视觉、听觉和/或触觉警告,如方向盘或座椅振动,以在车辆600穿过车道标记时提醒驾驶员。当驾驶员通过激活转向信号指示有意偏离车道时,LDW***不会激活。LDW***可使用耦合到专用处理器、DSP、FPGA和/或ASIC的前侧朝向相机,该专用处理器、DSP、FPGA和/或ASIC电耦合到驱动器反馈,例如显示器、扬声器和/或振动组件。
LKA***是LDW***的一种变体。如果车辆600开始驶出车道,LKA***提供转向输入或制动以纠正车辆600。
BSW***检测并警告汽车盲点内的车辆驾驶员。BSW***可提供视觉、听觉和/或触觉警报,以指示合流或变道不安全。当驾驶员使用转向信号时,***可能会提供附加警告。BSW***可使用耦合到专用处理器、DSP、FPGA和/或ASIC的后侧朝向相机和/或雷达传感器660,该专用处理器、DSP、FPGA和/或ASIC电耦合到驱动器反馈,例如显示器、扬声器和/或振动组件。
当车辆600倒车时检测到后摄像头范围外的对象时,RCTW***可提供视觉、听觉和/或触觉通知。一些RCTW***包括AEB,以确保应用车辆制动器以避免碰撞。RCTW***可以使用一个或更多个一个或更多个后向雷达传感器660,该传感器耦合到专用处理器、DSP、FPGA和/或ASIC,该专用处理器、DSP、FPGA和/或ASIC电耦合到驱动器反馈,例如显示器、扬声器和/或振动组件。
传统的ADAS***可能容易出现假阳性结果,这可能会使驾驶员感到恼火和分心,但通常不会造成灾难性后果,因为ADAS***会提醒驾驶员,并允许驾驶员决定是否确实存在安全状况,并采取相应的行动。然而,在自主式车辆600中,在结果冲突的情况下,车辆600自身必须决定是听取来自主计算机还是辅助计算机(例如,第一控制器636或第二控制器636)的结果。例如,在一些实施例中,ADAS***638可以是用于向备份计算机模块提供感知信息的备份和/或辅助计算机。备用计算机合理性监视器可以在硬件组件上运行冗余的不同软件,以检测感知和动态驾驶任务中的故障。来自ADAS***638的输出可以提供给监控MCU。如果主计算机和辅助计算机的输出冲突,监控MCU必须确定如何协调冲突,以确保安全运行。
在一些示例中,主计算机可配置为向监控MCU提供置信分数,指示主计算机对所选结果的置信度。如果置信度得分超过阈值,则监控MCU可遵循主计算机的方向,而不管辅助计算机是否提供冲突或不一致的结果。如果置信度得分不符合阈值,并且主计算机和辅助计算机指示不同的结果(例如,冲突),则监控MCU可以在计算机之间进行仲裁,以确定适当的结果。
监控MCU可配置为运行经过训练和配置的一个或更多个神经网络,以根据主计算机和辅助计算机的输出确定辅助计算机提供假警报的条件。因此,监控MCU中的一个或更多个神经网络可以学习辅助计算机的输出何时可信,何时不可信。例如,当辅助计算机是基于雷达的FCW***时,监控MCU中的一个或更多个神经网络可以学习FCW***何时识别事实上不是危险的金属对象,例如触发警报的排水格栅或人孔盖。类似地,当辅助计算机是基于相机的LDW***时,监控MCU中的神经网络可以学习在自行车或行人在场且车道偏离实际上是最安全的操纵时覆盖LDW。在包括在监控MCU上运行的一个或更多个神经网络的实施例中,监控MCU可包括适于运行具有相关联的存储器的一个或更多个神经网络的DLA或GPU中的至少一个。在优选实施例中,监控MCU可包括和/或包括为SoC 604的组件。
在其他示例中,ADAS***638可包括使用传统计算机视觉规则执行ADAS功能的辅助计算机。因此,辅助计算机可以使用经典的计算机视觉规则(if-then),并且在监控MCU中存在一个或更多个神经网络可以提高可靠性、安全性和性能。例如,多样化的实现和有意的非标识使整个***更具容错性,特别是对由软件(或软硬件接口)功能引起的故障。例如,如果在主计算机上运行的软件中存在软件缺陷或错误,并且在辅助计算机上运行的不相同的软件代码提供相同的总体结果,则监控MCU可对总体结果的正确性有更大的信心,主计算机上的软件或硬件缺陷并没有导致重大错误。
在一些示例中,ADAS***638的输出可馈入主计算机的感知块和/或主计算机的动态驱动任务块。例如,如果ADAS***638指示由于正前方对象引起的前向碰撞警告,则感知块可在识别对象时使用该信息。在其他示例中,如本文所述,二级计算机可以具有其自己的经过训练的神经网络,从而降低假阳性的风险。
车辆600还可包括信息娱乐SoC 630(例如,车内信息娱乐***(IVI))。尽管示出并描述为SoC,但信息娱乐***可以不是SoC,并且可以包括两个或多个分立组件。信息娱乐SoC 630可包括可用于提供音频(例如,音乐、个人数字助理、导航指令、新闻、无线电等)、视频(例如,电视、电影、流媒体等)、电话(例如,免提通话)、网络连接(例如,LTE、Wi-Fi等)的硬件和软件的组合,和/或向车辆600提供信息服务(例如,导航***、后驻车辅助、无线电数据***、车辆相关信息,如燃油油位、行驶总距离、制动燃油油位、机油油位、车门打开/关闭、空气滤清器信息等)。例如,信息娱乐SoC 630可以是收音机、磁盘播放器,导航***、视频播放器、USB和蓝牙连接、车载电脑、车内娱乐、Wi-Fi、方向盘音频控制、免提语音控制、抬头显示器(HUD)、HMI显示器634、远程通信设备、控制面板(例如,用于控制和/或与各种组件、特征和/或***交互),和/或其他组件。信息娱乐SoC 630还可用于向车辆用户提供信息(例如,视觉和/或听觉),例如来自ADAS***638的信息、自主驾驶信息,例如计划车辆机动、轨迹、周围环境信息(例如,交叉口信息、车辆信息,道路信息等)和/或其他信息。
信息娱乐SoC 630可包括GPU功能。信息娱乐SoC 630可通过总线602(例如,CAN总线、以太网等)与车辆600的其他设备、***和/或部件进行通信。在一些示例中,信息娱乐SoC 630可以耦合到监控MCU,使得信息娱乐***的GPU可以在一个或更多个主控制器636(例如,车辆600的主计算机和/或备用计算机)发生故障的情况下执行一些自驱动功能。在这样的示例中,信息娱乐SoC 630可将车辆600置于司机至安全停车模式,如本文所述。
车辆600还可包括仪表组632(例如,数字仪表板、电子仪表组、数字仪表板等)。仪表组632可包括控制器和/或超级计算机(例如,离散控制器或超级计算机)。仪表组632可包括一组仪表,如车速表、燃油油位、机油压力、转速表、里程表、转向指示灯、换档位置指示灯、一个或更多个安全带警告灯、一个或更多个驻车制动警告灯、一个或更多个发动机故障灯、安全气囊(SRS)***信息、照明控制、安全***控制、,导航信息等。在一些示例中,信息可在信息娱乐SoC 630和仪表组632之间显示和/或共享。换句话说,仪表组632可作为信息娱乐SoC 630的一部分包括在内,反之亦然。
图6D是根据本公开的一些实施例的一个或更多个基于云的服务器与图6A的示例性自主车辆600之间通信的***图。***676可包括一个或更多个服务器678、一个或更多个网络690和车辆,包括车辆600。一个或更多个服务器678可包括多个GPU 684(a)-684(H)(统称为GPU 684)、PCIe交换机682(a)-682(H)(统称为PCIe交换机682),和/或CPU 680(A)-680(B)(本文统称为CPU 680)。GPU 684、CPU 680和PCIe交换机可通过高速互连互连,例如但不限于NVIDIA开发的NVLink接口688和/或PCIE连接686。在一些示例中,GPU 684通过NVLink和/或NV交换机SoC连接,GPU 684和PCIe交换机682通过PCIe互连连接。尽管图示了八个GPU684、两个CPU 680和两个PCIe交换机,但这并不是为了限制。根据实施例,一个或更多个服务器678中的每一个可以包括任意数量的GPU 684、CPU 680和/或PCIe交换机。例如,一个或更多个服务器678可各自包括八个、十六个、三十二个和/或更多gpu 684。
一个或更多个服务器678可通过一个或更多个网络690从车辆接收代表图像的图像数据,该图像显示意外或变化的路况,例如最近开始的道路作业。一个或更多个服务器678可以通过一个或更多个网络690向车辆发送神经网络692、更新的神经网络692和/或地图信息694,包括关于交通和路况的信息。对地图信息694的更新可以包括对HD地图622的更新,例如关于建筑场地、坑洞、绕道、洪水和/或其他障碍物的信息。在一些示例中,神经网络692、更新后的神经网络692和/或地图信息694可源于从环境中的任意数量的车辆接收的数据中表示的新的训练和/或经验,和/或基于在数据中心执行的训练(例如,使用一个或更多个服务器678和/或其他服务器)。
一个或更多个服务器678可用于基于训练数据训练机器学习模型(例如,神经网络)。训练数据可由车辆生成,和/或可在模拟中生成(例如,使用游戏引擎)。在一些示例中,训练数据被标记(例如,神经网络受益于监督学习)和/或经历其他预处理,而在其他示例中,训练数据未被标记和/或预处理(例如,神经网络不需要监督学习)。训练可根据任何一类或更多类机器学习技术执行,包括但不限于:监督训练、半监督训练、无监督训练、自学习、强化学习、联合学习、转移学习、特征学习(包括主成分和聚类分析)、多线性子空间学习、流形学习、表示学习(包括备用字典学习)、基于规则的机器学习、异常检测以及任何变体或组合。一旦机器学习模型被训练,机器学习模型可被车辆使用(例如,通过一个或更多个网络传输到车辆690,和/或机器学习模型可被一个或更多个服务器678用于远程监控车辆)。
在一些示例中,一个或更多个服务器678可以从车辆接收数据,并将数据应用到最新的实时神经网络,以进行实时智能推理。一个或更多个服务器678可包括深度学习超级计算机和/或由GPU 684供电的专用AI计算机,例如由NVIDIA开发的DGX和DGX站机器。然而,在一些示例中,一个或更多个服务器678可包括仅使用CPU供电的数据中心的深度学习基础设施。
一个或更多个服务器678的深度学习基础设施可以快速实时推理,并可以使用该能力评估和查证车辆600中处理器、软件和/或相关联的硬件的健康状况。例如,深度学习基础设施可以从车辆600接收定期更新,例如,车辆600在该图像序列中定位的图像和/或对象序列(例如,通过计算机视觉和/或其他机器学习对象分类技术)。深度学习基础设施可运行其自身的神经网络来识别对象,并将其与车辆600识别的对象进行比较,如果结果不匹配且基础设施得出结论,车辆600中的AI出现故障,一个或更多个服务器678可向车辆600发送信号,指示车辆600的故障安全计算机承担控制、通知乘客并完成安全停车操作。
对于推理,一个或更多个服务器678可包括一个或更多个GPU 684和一个或更多个可编程推理加速器(例如NVIDIA的TensorRT)。GPU供电的服务器和推理加速的结合可能使实时响应成为可能。在其他示例中,例如性能不太关键的地方,可以使用由CPU、FPGA和其他处理器供电的服务器进行推断。
示例计算设备
图7是适用于实施本公开的一些实施例的示例计算设备700的框图。计算设备700可包括直接或间接耦合以下设备的互连***702:存储器704、一个或更多个中央处理单元(CPU)706、一个或更多个图形处理单元(GPU)708、通信接口710、输入/输出(I/O)端口712、输入/输出组件714、电源716、一个或更多个呈现组件718(例如,显示器)和一个或更多个逻辑单元720。在至少一个实施例中,一个或更多个计算设备700可包括一个或更多个虚拟机(VM),和/或其任何组件可包括虚拟组件(例如,虚拟硬件组件)。对于非限制性示例,一个或更多个GPU 708可以包括一个或更多个vGPU,一个或更多个CPU706可以包括一个或更多个vCPU,和/或一个或更多个逻辑单元720可以包括一个或更多个虚拟逻辑单元。因此,一个或更多个计算设备700可包括离散组件(例如,专用于计算设备700的完整GPU)、虚拟组件(例如,专用于计算设备700的GPU的一部分)或其组合。
尽管图7中的各个模块显示为通过互连***702与线路连接,但这并非旨在限制,仅为清楚起见。例如,在一些实施例中,诸如显示设备的呈现组件718可以被视为I/O组件714(例如,如果显示器是触摸屏)。作为另一示例,CPU 706和/或GPU 708可以包括存储器(例如,除了GPU 708、CPU706和/或其他组件的存储器之外,存储器704还可以代表存储设备)。换句话说,图7的计算设备仅仅是说明性的。不区分“工作站”、“服务器”、“笔记本电脑”、“台式机”、“平板电脑”、“客户端设备”、“移动设备”、“手持设备”、“游戏控制台”、“电子控制单元(ECU)”、“虚拟现实***”和/或其他设备或***类型,正如在图7的计算设备的范围内所设想的那样。
互连***702可以表示一个或更多个链路或总线,例如地址总线、数据总线、控制总线或其组合。互连***702可包括一个或更多个总线或链路类型,例如工业标准体系结构(ISA)总线、扩展工业标准体系结构(EISA)总线、视频电子标准协会(VESA)总线、***组件互连(PCI)总线、***组件互连直通(PCIE)总线,和/或其他类型的总线或链路。在一些实施例中,组件之间存在直接连接。例如,CPU 706可以直接连接到存储器704。此外,CPU 706可以直接连接到GPU 708。在组件之间存在直接连接或点对点连接的情况下,互连***702可以包括用于执行连接的PCIe链路。在这些示例中,计算设备700中不需要包括PCI总线。
存储器704可包括各种计算机可读介质中的任何一种。计算机可读介质可以是可由计算设备700访问的任何可用介质。计算机可读介质可以包括易失性和非易失性介质以及可移除和不可移除介质。作为示例而非限制,计算机可读介质可以包括计算机存储介质和通信介质。
计算机存储介质可以包括易失性和非易失性介质和/或以任何方法或技术实现的可移除和不可移除介质,用于存储信息,例如计算机可读指令、数据结构、程序模块和/或其他数据类型。例如,存储器704可以存储计算机可读指令(例如,表示一个或更多个程序和/或一个或更多个程序元素的指令),例如操作***。计算机存储介质可包括但不限于RAM、ROM、EEPROM、闪存或其他存储技术、CD-ROM、数字多功能磁盘(DVD)或其他光盘存储、盒式磁带、磁带、磁盘存储或其他磁存储设备,或可用于存储所需信息且可由计算设备700访问的任何其他介质。如本文所使用的,计算机存储介质本身不包括信号。
计算机存储介质可将计算机可读指令、数据结构、程序模块和/或包含在调制数据信号(例如载波或其他传输机制)中的其他数据类型,并包括任何信息传递介质。术语“调制数据信号”可指以编码信号中的信息的方式设置或改变其一个或更多个特性的信号。作为示例而非限制,计算机存储介质可以包括有线介质,例如有线网络或直接有线连接,以及无线介质,例如声学、RF、红外和其他无线介质。上述任何组合也应包括在计算机可读介质的范围内。
一个或更多个CPU 706可被配置为执行至少一些计算机可读指令,以控制计算设备700的一个或更多个组件,以执行本文所述的一个或更多个方法和/或过程。一个或更多个CPU 706可各自包括一个或更多个能够同时处理多个软件线程的核心(例如,一个、两个、四个、八个、二十八个、七十二个等)。一个或更多个CPU 706可以包括任何类型的处理器,并且可以根据所实现的计算设备700的类型包括不同类型的处理器(例如,对于移动设备具有较少内核的处理器和对于服务器具有较多内核的处理器)。例如,根据计算设备700的类型,处理器可以是使用精简指令集计算(RISC)实现的高级RISC机器(ARM)处理器或使用复杂指令集计算(CISC)实现的x86处理器。除了一个或更多个微处理器或补充协处理器(例如数学协处理器)之外,计算设备700还可以包括一个或更多个cpu 706。
除了一个或更多个CPU 706之外,或者从一个或更多个CPU 706选择,一个或更多个GPU 708可以被配置为执行至少一些计算机可读指令,以控制计算设备700的一个或更多个组件来执行本文所述的一个或更多个方法和/或过程。一个或更多个GPU 708可以是集成GPU(例如,具有一个或更多个CPU 706和/或一个或更多个GPU 708可以是离散GPU)。在实施例中,一个或更多个GPU 708可以是一个或更多个CPU 706的协处理器。计算设备700可以使用一个或更多个GPU 708来渲染图形(例如,3D图形)或执行通用计算。例如,一个或更多个GPU 708可用于GPU(GPGPU)上的通用计算。一个或更多个GPU 708可以包括数百个或数千个内核,这些内核能够同时处理数百个或数千个软件线程。一个或更多个GPU 708可响应于渲染命令(例如,经由主机接口接收的来自一个或更多个CPU 706的渲染命令)生成用于输出图像的像素数据。一个或更多个GPU 708可以包括图形存储器,例如显示器存储器,用于存储像素数据或任何其他合适的数据,例如GPGPU数据。显示器存储器可以包括作为存储器704的一部分。一个或更多个GPU 708可以包括两个或更多个并行操作的GPU(例如,通过链路)。链路可直接连接GPU(例如,使用NVLINK)或通过交换机(例如,使用NVSwitch)连接GPU。当组合在一起时,每个GPU 708可为输出的不同部分或不同输出(例如,第一GPU用于第一图像,第二GPU用于第二图像)生成像素数据或GPGPU数据。每个GPU可以包括自己的内存,也可以与其他GPU共享内存。
除了一个或更多个CPU 706和/或一个或更多个GPU 708之外,或者从一个或更多个CPU 706和/或一个或更多个GPU 708选择,一个或更多个逻辑单元720可以被配置为执行至少一些计算机可读指令,以控制计算设备700的一个或更多个组件执行本文所述的一个或更多个方法和/或过程。在实施例中,一个或更多个CPU 706、一个或更多个GPU 708和/或一个或更多个逻辑单元720可以离散地或联合地执行方法、过程和/或其部分的任意组合。逻辑单元720中的一个或更多个可以是CPU 706和/或GPU 708中的一个或更多个的一部分和/或集成在其中,和/或逻辑单元720中的一个或更多个可以是分立组件,或以其他方式位于一个或更多个CPU 706和/或一个或更多个GPU 708外部,一个或更多个逻辑单元720可以是一个或更多个CPU 706和/或一个或更多个GPU 708的协处理器。
一个或更多个逻辑单元720的示例包括一个或更多个处理核心和/或其组件,例如张量核心(TC)、张量处理单元(TPU)、像素视觉核心(PVC)、视觉处理单元(VPU)、图形处理集群(GPC)、纹理处理集群(TPC)、流式多处理器(SM),树遍历单元(TTU)、人工智能加速器(AIA)、深度学习加速器(DLA)、算术逻辑单元(ALU)、专用集成电路(ASIC)、浮点单元(FPU)、输入/输出(I/O)元件、***组件互连(PCI)或***组件互连直通(PCIe)元件,和/或诸如此类。
通信接口710可以包括一个或更多个接收器、发射器和/或收发器,这些接收器、发射器和/或收发器使计算设备700能够通过包括有线和/或无线通信的电子通信网络与其他计算设备通信。通信接口710可以包括组件和功能,以支持通过多个不同网络中的任何一个进行通信,例如无线网络(例如,Wi-Fi、Z-Wave、蓝牙、蓝牙LE、ZigBee等)、有线网络(例如,通过以太网或InfiniBand进行通信)、低功耗广域网(例如,LoRaWAN、SigFox,等)和/或互联网。
I/O端口712可使计算设备700与其他设备逻辑耦合,包括I/O组件714、一个或更多个呈现组件718和/或其他组件,其中一些组件可内置(例如,集成在)计算设备700中。说明性I/O组件714包括麦克风、鼠标、键盘、操纵杆、游戏垫、游戏控制器、卫星天线、扫描仪、打印机、无线设备等。I/O组件714可以提供自然用户界面(NUI),该自然用户界面处理由用户生成的空中手势、语音或其他生理输入。在一些情况下,可以将输入传输到适当的网络元件以进行进一步处理。NUI可以实现语音识别、手写笔识别、面部识别、生物识别、屏幕上和屏幕附近的手势识别、空中手势、头部和眼睛跟踪的任意组合,以及与计算设备700的显示器相关联的触摸识别(如下更详细地描述)。计算设备700可以包括深度相机,例如立体相机***、红外相机***、RGB相机***、触摸屏技术,以及这些的组合,用于手势检测和识别。此外,计算设备700可包括能够检测运动的加速计或陀螺仪(例如,作为惯性测量单元(IMU)的一部分)。在一些示例中,加速度计或陀螺仪的输出可由计算设备700用于渲染沉浸式增强现实或虚拟现实。
电源716可包括硬接线电源、电池电源或其组合。电源716可以向计算设备700供电,以使计算设备700的组件能够工作。
一个或更多个呈现组件718可包括显示器(例如显示器、触摸屏、电视屏幕、平视显示器(HUD)、其他显示类型或其组合)、扬声器和/或其他演示组件。一个或更多个呈现组件718可以从其他组件(例如,一个或更多个GPU 708、一个或更多个CPU 706等)接收数据,并输出数据(例如,作为图像、视频、声音等)。
示例数据中心
图8示出了可在本公开的至少一个实施例中使用的示例数据中心800。数据中心800可以包括数据中心基础设施层810、框架层820、软件层830和/或应用层840。
如图8所示,数据中心基础设施层810可包括资源协调器812、分组计算资源814和节点计算资源(“节点C.R.s”)816(1)-816(N),其中“N”表示任何整数。在至少一个实施例中,节点C.R.s 816(1)-816(N)可包括但不限于任何数量的中央处理单元(“CPU”)或其他处理器(包括加速器、现场可编程门阵列(FPGA)、图形处理器或图形处理单元(GPU)等)、存储设备(例如,动态只读存储器),在一些实施例中,贮存设备(例如固态或磁盘驱动器)、网络输入/输出(“NW I/O”)设备、网络交换机、虚拟机(“VM”)、电源模块和/或冷却模块等,节点C.R.s 816(1)-816(N)中的一个或更多个节点C.R.s可对应于具有一个或更多个上述计算资源的服务器。此外,在一些实施例中,节点C.R.s 816(1)-8161(N)可以包括一个或更多个虚拟组件,例如vGPU、vCPU和/或类似组件,和/或节点C.R.s 816(1)-816(N)中的一个或更多个可以对应于虚拟机(VM)。
在至少一个实施例中,分组计算资源814可包括位于一个或更多个机架(未示出)内的节点C.R.s 816的单独分组,或位于不同地理位置(也未示出)的数据中心内的多个机架。分组计算资源814内的节点C.R.s 816的单独分组可包括分组计算、网络、内存或存储资源,其可被配置或分配以支持一个或更多个工作负载。在至少一个实施例中,包括CPU、GPU和/或其他处理器的多个节点C.R.s 816可分组在一个或更多个机架内,以提供计算资源以支持一个或更多个工作负载。一个或更多个机架还可以包括任意组合的任意数量的电源模块、冷却模块和/或网络交换机。
资源协调器822可配置或以其他方式控制一个或更多个节点C.R.s816(1)-816(N)和/或分组计算资源814。在至少一个实施例中,资源协调器822可包括用于数据中心800的软件设计基础设施(“SDI”)管理实体。资源协调器822可包括硬件、软件或其一些组合。
在至少一个实施例中,如图8所示,框架层820可包括作业调度器832、配置管理器834、资源管理器836,和/或分布式文件***838。框架层820可包括支持软件层830的软件832和/或应用层840的一个或更多个应用842的框架。软件832或一个或更多个应用842可分别包括基于网页的服务软件或应用,例如亚马逊网络服务、谷歌云和微软Azure提供的服务。框架层820可以是,但不限于,一种自由的开源软件网页应用框架,例如Apache SparkTM(以下简称“Spark”),它可以利用分布式文件***838进行大规模数据处理(例如,“大数据”)。在至少一个实施例中,作业调度器832可以包括Spark驱动器,以促进数据中心800的各个层所支持的工作负载的调度。配置管理器834可以配置不同的层,例如软件层830和框架层820,包括Spark和分布式文件***838,以支持大规模数据处理。资源管理器836可以能够管理映射到或分配用于支持分布式文件***838和作业调度器832的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可包括数据中心基础设施层810处的分组计算资源814。资源管理器1036可与资源协调器812协调以管理这些映射或分配的计算资源。
在至少一个实施例中,包括在软件层830中的软件832可包括由节点C.R.s 816(1)-816(N)、分组计算资源814和/或框架层820的分布式文件***838的至少部分使用的软件。一种或多种软件可包括但不限于互联网网页搜索软件,电子邮件病毒扫描软件、数据库软件和流式视频内容软件。
在至少一个实施例中,包括在应用层840中的应用842可以包括由节点C.R.s 816(1)-816(N)、分组计算资源814和/或框架层820的分布式文件***838的至少部分使用的一种或多种类型的应用,但不限于任何数量的基因组学应用、感知计算和机器学习应用,包括训练或推断软件、机器学习框架软件(例如,PyTorch、TensorFlow、Caffe等)和/或结合一个或更多个实施例使用的其他机器学习应用。
在至少一个实施例中,配置管理器834、资源管理器836和资源协调器812中的任何一个都可以基于以任何技术上可行的方式获取的任何数量和类型的数据来实施任何数量和类型的自修改动作。自修改动作可使数据中心800的数据中心操作员免于做出可能错误的配置决策,并可能避免数据中心未充分利用和/或性能不佳的部分。
根据本文所述的一个或更多个实施例,数据中心800可包括用于训练一个或更多个机器学习模型或使用一个或更多个机器学习模型预测或推理信息的工具、服务、软件或其他资源。例如,一个或更多个机器学习模型可通过使用上述关于数据中心800的软件和/或计算资源,根据神经网络架构计算权重参数来训练。在至少一个实施例中,与一个或更多个神经网络相对应的经过训练或部署的机器学习模型可用于通过使用通过一个或更多个训练技术(例如但不限于本文所述的训练技术)计算的权重参数,使用上述关于数据中心800的资源来推理或预测信息。
在至少一个实施例中,数据中心800可以使用CPU、专用集成电路(ASIC)、GPU、FPGA和/或其他硬件(或相应的虚拟计算资源)来使用上述资源执行训练和/或推断。此外,上述一个或更多个软件和/或硬件资源可配置为服务,以允许用户训练或执行信息推理,例如图像识别、语音识别或其他人工智能服务。
示例网络环境
适用于实施本发明实施例的网络环境可包括一个或更多个客户端设备、服务器、网络附接存储(NAS)、其他后端设备和/或其他设备类型。客户端设备、服务器和/或其他设备类型(例如,每个设备)可以在图7的一个或更多个计算设备700的一个或更多个实例上实现——例如,每个设备可以包括计算设备700的类似组件、特征和/或功能。另外,后端设备(服务器,NAS等)可被包括为数据中心800的一部分,其示例在本文中参照图8更详细地描述。
网络环境的组件可通过有线、无线或两者兼有的一个或更多个网络相互通信。该网络可以包括多个网络,或者网络的网络。举例来说,该网络可包括一个或更多个广域网(WAN)、一个或更多个局域网(LAN)、一个或更多个公共网络(例如互联网和/或公共交换电话网(PSTN))和/或一个或更多个专用网络。在网络包括无线电信网络的情况下,诸如基站、通信塔或甚至接入点的组件(以及其他组件)可以提供无线连接。
兼容的网络环境可能包括一个或更多个对等网络环境——在这种情况下,服务器可能不包括在网络环境中——以及一个或更多个客户机-服务器网络环境——在这种情况下,一个或更多个服务器可能包括在网络环境中。在对等网络环境中,本文描述的关于服务器的功能可以在任意数量的客户端设备上实现。
在至少一个实施例中,网络环境可包括一个或更多个基于云的网络环境、分布式计算环境及其组合等。基于云的网络环境可包括框架层、作业调度器、资源管理器,以及在一个或更多个服务器上实现的分布式文件***,其可以包括一个或更多个核心网络服务器和/或边缘服务器。框架层可以包括支持软件层的软件和/或应用层的一个或更多个应用的框架。软件或一个或更多个应用程序可分别包括基于网页的服务软件或应用程序。在实施例中,一个或更多个客户端设备可以使用基于网页的服务软件或应用(例如,通过经由一个或更多个应用编程接口(API)访问服务软件和/或应用)。框架层可以是,但不限于,一种免费的开源软件网页应用框架,例如,可以使用分布式文件***进行大规模数据处理(例如,“大数据”)。
基于云的网络环境可提供执行本文所述计算和/或数据存储功能(或其中一个或更多个部分)的任何组合的云计算和/或云存储。这些各种功能中的任何一种都可以从中央或核心服务器(例如,一个或更多个数据中心的服务器)分布到多个位置,这些数据中心可以分布在一个州、一个地区、一个国家、全球等地。如果与用户(例如,客户端设备)的连接相对靠近一个或更多个边缘服务器,则一个或更多个核心服务器可将功能的至少一部分指定给一个或更多个边缘服务器。基于云的网络环境可以是私有的(例如,限于单个组织),可以是公共的(例如,对许多组织可用),和/或其组合(例如,混合云环境)。
一个或更多个客户端设备可包括本文关于图7所述的一个或更多个示例计算设备700的至少一些组件、特征和功能。作为示例而非限制,客户端设备可体现为个人计算机(PC)、膝上型计算机、移动设备、智能手机、平板计算机、,智能手表、可穿戴计算机、个人数字助理(PDA)、MP3播放器、虚拟现实耳机、全球定位***(GPS)或设备、视频播放器、相机、监控设备或***、车辆、船只、飞行器、虚拟机、无人机、机器人、手持通信设备、医院设备、游戏设备或***、娱乐***、车辆计算机***、嵌入式***控制器、遥控器、设备、消费电子设备、工作站、边缘设备、这些描绘的设备的任何组合或任何其他合适的设备。
本公开可在计算机代码或机器可用指令的一般上下文中描述,包括由计算机或其他机器(如个人数据助理或其他手持设备)执行的计算机可执行指令,如程序模块。通常,程序模块包括例程、程序、对象、组件、数据结构等,是指执行特定任务或实现特定抽象数据类型的代码。本公开可以在多种***配置中实施,包括手持设备、消费电子产品、通用计算机、更多专业计算设备,等。本发明还可在分布式计算环境中实施,其中任务由通过通信网络链接的远程处理设备执行。
如本文所用,关于两个或多个元素的“和/或”的叙述应解释为仅指一个元素或元素的组合。例如,“元素A、元素B和/或元素C”可仅包括元素A、元素B、元素C、元素A和元素B、元素A和元素C、元素B和元素C,或元素A、元素B和元素C。此外,“元素A或元素B中的至少一个”可包括元素A中的至少一个、元素B中的至少一个或元素A中的至少一个和元素B中的至少一个。此外,“元素A和元素B中的至少一个”可包括元素A中的至少一个、元素B中的至少一个或元素A中的至少一个和元素B中的至少一个。
为了满足法定要求,本文对本公开的主题内容进行了详细描述。然而,描述本身并不打算限制本公开的范围。相反,发明人已经设想,所要求保护的主题内容也可以以其他方式体现,包括与本文件中描述的步骤类似的不同步骤或步骤组合,以及其他现有或未来技术。此外,尽管术语“步骤”和/或“块”可在本文中用于暗示所采用的方法的不同元素,但除非明确描述了各个步骤的顺序,否则不应将术语解释为暗示本文所公开的各个步骤之间的任何特定顺序。

Claims (23)

1.一种方法,包括:
使用由自我车辆的一个或更多个传感器生成的传感器数据,计算与所述自我车辆的环境相对应的环境信息;
至少部分基于所述环境信息,生成表示所述环境中一个或更多个车道的第一位置和所述车道内的对象的第二位置的映射;
至少部分地基于所述环境信息,执行路径中对象分析(OIPA),以确定所述车道的子集内的所述对象的第一子集;
至少部分地基于所述环境信息,确定与所述对象的所述第一子集中的每个对象相关联的类;
至少部分地基于所述类,过滤来自所述对象的所述第一子集的一个或更多个对象,以确定所述对象的第二子集;和
将表示所述对象的所述第二子集的数据发送到用于跟踪所述对象的所述第二子集的目标跟踪算法。
2.根据权利要求1所述的方法,其中所述计算使用一个或更多个图形处理单元(GPU)来执行,并且所述过滤使用一个或更多个中央处理单元(CPU)来执行。
3.根据权利要求1所述的方法,其中所述环境信息包括车道信息、目标检测信息或目标分类信息中的至少一个。
4.根据权利要求3所述的方法,其中所述环境信息至少包括车道信息,并且其中,计算所述车道信息是使用第一深度神经网络(DNN)来执行的。
5.根据权利要求3所述的方法,其中所述环境信息至少包括目标检测信息,并且其中,计算所述目标检测信息是使用第二DNN或第一计算机视觉算法(CVA)来执行的。
6.根据权利要求3所述的方法,其中所述环境信息至少包括目标分类信息,并且其中计算所述目标分类信息是使用所述第二DNN、第三DNN、第一CVA或第二CVA来执行的。
7.根据权利要求1所述的方法,其中生成所述映射还至少部分基于定位信息。
8.根据权利要求1所述的方法,其中所述计算还包括计算自由空间信息,并且所述自由空间信息被用于确定所述对象的所述第二子集。
9.根据权利要求1所述的方法,其中发送所述数据是从第一片上***(SoC)到第二SoC的。
10.根据权利要求1所述的方法,其中所述车道的所述子集包括所述自我车辆的自我车道、所述自我车道的左侧相邻车道和所述自我车道的右侧相邻车道。
11.一种***,包括:
自我车辆的一个或更多个传感器;
一个或更多个处理器;和
一个或更多个存储指令的存储器设备,当所述指令由所述一个或更多个处理器执行时,使所述一个或更多个处理器执行操作,所述操作包括:
使用所述自我车辆的一个或更多个传感器生成的传感器数据,计算车道信息和目标检测信息;
至少部分地基于所述车道信息和所述目标检测信息,将对象定位到车道以生成映射;
至少部分基于所述映射和车道位置标准,确定所述车道的子集内的所述对象的子集;和
将表示所述对象的所述子集的数据发送到用于跟踪所述对象的第二子集的目标跟踪算法。
12.根据权利要求11所述的***,其中所述计算是使用一个或更多个图形处理单元(GPU)来执行的,并且所述确定和所述定位是使用一个或更多个中央处理单元(CPU)来执行的。
13.根据权利要求11所述的***,其中确定所述对象的所述子集至少部分基于路径中对象分析(OIPA)。
14.根据权利要求11所述的***,其中所述计算还包括计算自由空间信息,并且所述自由空间信息被用于确定所述对象的所述子集。
15.根据权利要求11所述的***,其中所述传输所述数据是从第一片上***(SoC)到第二SoC。
16.根据权利要求11所述的***,其中所述车道的所述子集包括所述自我车辆的自我车道、所述自我车道的左侧相邻车道和所述自我车道的右侧相邻车道。
17.根据权利要求11所述的***,还包括:
至少部分地基于计算出的目标分类信息,确定与一个或更多个对象相关联的一个或更多个类,
其中,确定所述对象的所述子集进一步至少部分地基于所述一个或更多个类。
18.一种方法,包括:
使用一个或更多个图形处理单元(GPU)处理由自我车辆的一个或更多个传感器生成的传感器数据;
使用所述一个或更多个GPU并至少部分地基于所述处理,计算对应于车道位置信息的第一数据和对应于所述自我车辆的环境的对象位置信息;
使用一个或更多个中央处理器(CPU)并至少部分基于第一数据,生成表示车道的第一位置和所述车道内的对象的第二位置的映射;
使用所述一个或更多个CPU并至少部分地基于表示所述映射的第二数据,确定自我车道内的对象的子集和所述自我车道的一个或更多个相邻车道;和
将表示所述对象的所述子集的第三数据发送到使用所述一个或更多个GPU或所述一个或更多个CPU执行的目标跟踪算法。
19.根据权利要求18所述的方法,其中所述传输所述数据是从第一片上***(SoC)到第二SoC。
20.根据权利要求18所述的方法,其中使用一个或更多个并行处理单元执行对所述传感器数据的处理。
21.根据权利要求18所述的方法,还包括:
至少部分地基于计算出的目标分类信息,确定与一个或更多个对象相关联的一个或更多个类,
其中,所述确定所述对象的所述子集进一步至少部分地基于所述一个或更多个类。
22.根据权利要求18所述的方法,其中所述第一数据进一步表示自由空间信息,并且所述自由空间信息被用于确定所述对象的所述子集。
23.根据权利要求18所述的方法,其中确定所述对象的所述子集是使用路径中对象分析(OIPA)来执行的。
CN202111030925.7A 2020-09-08 2021-09-03 自主机器应用中的自适应目标跟踪算法 Pending CN114155272A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/014,075 US11636689B2 (en) 2020-09-08 2020-09-08 Adaptive object tracking algorithm for autonomous machine applications
US17/014,075 2020-09-08

Publications (1)

Publication Number Publication Date
CN114155272A true CN114155272A (zh) 2022-03-08

Family

ID=80266829

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111030925.7A Pending CN114155272A (zh) 2020-09-08 2021-09-03 自主机器应用中的自适应目标跟踪算法

Country Status (3)

Country Link
US (2) US11636689B2 (zh)
CN (1) CN114155272A (zh)
DE (1) DE102021123159A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018170074A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
US10564641B2 (en) 2018-07-20 2020-02-18 May Mobility, Inc. Multi-perspective system and method for behavioral policy selection by an autonomous agent
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
EP4165476A4 (en) 2020-07-01 2024-07-03 May Mobility Inc METHOD AND SYSTEM FOR DYNAMIC MANAGEMENT OF AUTONOMOUS VEHICLE INTERVENTIONS
US11884216B2 (en) * 2020-10-16 2024-01-30 Magna Mirrors Of America, Inc. Vehicular full mirror display system with auxiliary forward and rearward views
WO2022132774A1 (en) 2020-12-14 2022-06-23 May Mobility, Inc. Autonomous vehicle safety platform system and method
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
WO2022133242A1 (en) 2020-12-17 2022-06-23 May Mobility, Inc. Method and system for dynamically updating an environmental representation of an autonomous agent
WO2022169988A1 (en) * 2021-02-03 2022-08-11 Autonomous Solutions, Inc. Localization system for autonomous vehicles using sparse radar data
JP7244562B2 (ja) * 2021-03-23 2023-03-22 本田技研工業株式会社 移動体の制御装置及び制御方法並びに車両
JP2024512980A (ja) 2021-04-02 2024-03-21 メイ モビリティー,インコーポレイテッド 不完全な環境情報で自律エージェントを動作させる方法及びシステム
KR20220139756A (ko) * 2021-04-08 2022-10-17 현대자동차주식회사 주변차량의 경로 예측 장치 및 그 방법
US12012123B2 (en) 2021-12-01 2024-06-18 May Mobility, Inc. Method and system for impact-based operation of an autonomous agent
WO2023154568A1 (en) 2022-02-14 2023-08-17 May Mobility, Inc. Method and system for conditional operation of an autonomous agent
CN115435779A (zh) * 2022-08-17 2022-12-06 南京航空航天大学 一种基于gnss/imu/光流信息融合的智能***姿估计方法
WO2024129832A1 (en) 2022-12-13 2024-06-20 May Mobility, Inc. Method and system for assessing and mitigating risks encounterable by an autonomous vehicle

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8254625B2 (en) * 2006-11-02 2012-08-28 Hyperactive Technologies, Inc. Automated service measurement, monitoring and management
DE102008063328A1 (de) * 2008-12-30 2010-07-01 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer Änderung des Nickwinkels einer Kamera eines Fahrzeugs
US10121082B2 (en) * 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
US9701239B2 (en) * 2015-11-04 2017-07-11 Zoox, Inc. System of configuring active lighting to indicate directionality of an autonomous vehicle
US9517767B1 (en) * 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
US10210406B2 (en) * 2016-08-19 2019-02-19 Dura Operating, Llc System and method of simultaneously generating a multiple lane map and localizing a vehicle in the generated map
EP3360747A1 (en) * 2017-02-13 2018-08-15 Autoliv Development AB Improvements in or relating to driver assistance systems
US10427631B1 (en) * 2017-02-13 2019-10-01 Zoox, Inc. Vehicular adaptation for impact mitigation
US10460180B2 (en) * 2017-04-20 2019-10-29 GM Global Technology Operations LLC Systems and methods for visual classification with region proposals
US20180341821A1 (en) * 2017-05-26 2018-11-29 Dura Operating, Llc Method and system for generating and using a perception scene graph in motor vehicle applications
US10997433B2 (en) * 2018-02-27 2021-05-04 Nvidia Corporation Real-time detection of lanes and boundaries by autonomous vehicles
US10854011B2 (en) * 2018-04-09 2020-12-01 Direct Current Capital LLC Method for rendering 2D and 3D data within a 3D virtual environment
US11138745B2 (en) * 2018-04-30 2021-10-05 Uatc, Llc Object association for autonomous vehicles
US10839522B2 (en) * 2018-05-11 2020-11-17 Toyota Research Institute, Inc. Adaptive data collecting and processing system and methods
JP2019207655A (ja) * 2018-05-30 2019-12-05 株式会社Ihi 検知装置及び検知システム
CN109191492B (zh) * 2018-07-11 2021-07-27 东南大学 一种基于轮廓分析的智能视频黑烟车检测方法
US10885698B2 (en) 2018-08-10 2021-01-05 Nvidia Corporation Method for programmable timeouts of tree traversal mechanisms in hardware
JP7078021B2 (ja) * 2019-08-08 2022-05-31 トヨタ自動車株式会社 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US11597406B2 (en) * 2020-02-19 2023-03-07 Uatc, Llc Systems and methods for detecting actors with respect to an autonomous vehicle
US20210403001A1 (en) * 2020-06-30 2021-12-30 Lyft, Inc. Systems and methods for generating lane data using vehicle trajectory sampling

Also Published As

Publication number Publication date
US20220076032A1 (en) 2022-03-10
DE102021123159A1 (de) 2022-03-10
US20230206651A1 (en) 2023-06-29
US11636689B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
US11928822B2 (en) Intersection region detection and classification for autonomous machine applications
US11841458B2 (en) Domain restriction of neural networks through synthetic data pre-training
US11989642B2 (en) Future object trajectory predictions for autonomous machine applications
US11688181B2 (en) Sensor fusion for autonomous machine applications using machine learning
US11995895B2 (en) Multi-object tracking using correlation filters in video analytics applications
US11636689B2 (en) Adaptive object tracking algorithm for autonomous machine applications
US20210406679A1 (en) Multi-resolution image patches for predicting autonomous navigation paths
WO2020210127A1 (en) Neural network training using ground truth data augmented with map information for autonomous machine applications
US20210264175A1 (en) Object Detection Using Image Alignment for Autonomous Machine Applications
US20230054759A1 (en) Object tracking using lidar data for autonomous machine applications
US20230110713A1 (en) Training configuration-agnostic machine learning models using synthetic data for autonomous machine applications
CN116767245A (zh) 使用自主***和应用的神经网络的地图信息对象数据管理
US20220301186A1 (en) Motion-based object detection for autonomous systems and applications
US20240096102A1 (en) Freespace detection using machine learning for autonomous systems and applications
US20240020953A1 (en) Surround scene perception using multiple sensors for autonomous systems and applications
US20240017743A1 (en) Task-relevant failure detection for trajectory prediction in machines
WO2024015632A1 (en) Surround scene perception using multiple sensors for autonomous systems and applications
US20230360255A1 (en) Joint 2d and 3d object tracking for autonomous systems and applications
WO2023158556A1 (en) Dynamic object detection using lidar data for autonomous machine systems and applications
US12026955B2 (en) Assigning obstacles to lanes using neural networks for autonomous machine applications
US20230298361A1 (en) Image to world space transformation for ground-truth generation in autonomous systems and applications
US20230294727A1 (en) Hazard detection using occupancy grids for autonomous systems and applications
US20230236314A1 (en) Sampling radar signals for automotive radar perception
US20230186640A1 (en) Single and across sensor object tracking using feature descriptor mapping in autonomous systems and applications
US20230142299A1 (en) Particle-Based Hazard Detection for Autonomous Machine Applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination