CN110345955A - 用于自动驾驶的感知与规划协作框架 - Google Patents
用于自动驾驶的感知与规划协作框架 Download PDFInfo
- Publication number
- CN110345955A CN110345955A CN201910034390.7A CN201910034390A CN110345955A CN 110345955 A CN110345955 A CN 110345955A CN 201910034390 A CN201910034390 A CN 201910034390A CN 110345955 A CN110345955 A CN 110345955A
- Authority
- CN
- China
- Prior art keywords
- key area
- automatic driving
- driving vehicle
- perception information
- perception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008447 perception Effects 0.000 title claims abstract description 103
- 238000000034 method Methods 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 16
- 230000006399 behavior Effects 0.000 claims 1
- 238000003860 storage Methods 0.000 description 35
- 238000004891 communication Methods 0.000 description 16
- 230000001149 cognitive effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013479 data entry Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 241000630329 Scomberesox saurus saurus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012517 data analytics Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005036 potential barrier Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/10—Number of lanes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
感知模块配置成基于传感器数据感知自动驾驶车辆(ADV)周围的驾驶环境,以及使用各种感知模型或方法生成感知信息。感知信息描述感知到的驾驶环境。基于感知信息,规划模块配置成规划表示用于当前规划周期的路线或路径的轨迹。然后,基于该轨迹控制和驱动ADV。另外,规划模块根据ADV的当前定位或位置基于轨迹确定ADV周围的关键地区(也称为关键区域)。描述关键地区的元数据经由应用程序编程接口(API)传输至感知模块,以允许感知模块根据关键地区生成用于下一规划周期的感知信息。
Description
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及自动驾驶的感知与规划。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
自动驾驶是一种复杂的技术,涉及多个模块,包括高清地图、定位、感知、预测、规划,控制等模块。在当前技术中,为模块中的每个限定了接口,并且每个模块执行其自己的工作。模块之间的信息是单边或单向的。然而,复杂的环境和计算限制使得单个模块无法在驾驶或规划周期内计算所有内容。因此,模块需要有效地交换信息和使用计算资源。自动驾驶模块之间缺乏协作。
发明内容
在本公开的一方面,提供了一种用于操作自动驾驶车辆的计算机实施的方法,包括:
基于从多个传感器获得的传感器数据,通过感知模块感知自动驾驶车辆周围的驾驶环境,使用多个感知模型生成感知信息;
基于从所述感知模块接收的所述感知信息,通过规划模块规划用于当前驾驶周期的轨迹;
根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区;
控制所述自动驾驶车辆根据所述轨迹行驶;以及
将描述所述关键地区的元数据经由应用程序编程接口传输至所述感知模块,以允许所述感知模块根据所述自动驾驶车辆的所述关键地区生成用于下一驾驶周期的感知信息。
在本公开的另一方面,提供了一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行操作,所述操作包括:
基于从多个传感器获得的传感器数据,通过感知模块感知自动驾驶车辆周围的驾驶环境,使用多个感知模型生成感知信息;
基于从所述感知模块接收的所述感知信息,通过规划模块规划用于当前驾驶周期的轨迹;
根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区;
控制所述自动驾驶车辆根据所述轨迹行驶;以及
将描述所述关键地区的元数据经由应用程序编程接口传输至所述感知模块,以允许所述感知模块根据所述自动驾驶车辆的所述关键地区生成用于下一驾驶周期的感知信息。
在本公开的再一方面,提供了一种数据处理***,包括:
处理器;以及
存储器,联接至所述处理器;以及
感知模块和规划模块,加载在所述存储器中并由所述处理器执行以执行操作,所述操作包括:
基于从多个传感器获得的传感器数据,通过所述感知模块感知自动驾驶车辆周围的驾驶环境,使用多个感知模型生成感知信息,
基于从所述感知模块接收的所述感知信息,通过所述规划模块规划用于当前驾驶周期的轨迹,
根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区,
控制所述自动驾驶车辆根据所述轨迹行驶;以及
将描述所述关键地区的元数据经由应用程序编程接口传输至所述感知模块,以允许所述感知模块根据所述自动驾驶车辆的所述关键地区生成用于下一驾驶周期的感知信息。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考标记指示相似元件。
图1是示出根据一个实施方式的网络化***的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3A至图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划***的示例的框图。
图4是示出根据一个实施方式的规划模块的示例的框图。
图5A至图5C示出根据某些实施方式的用于不同驾驶场景的关键地区。
图6示出根据一个实施方式的用于存储关键地区信息的数据结构的示例。
图7是示出根据一个实施方式的操作自动驾驶车辆的过程的流程图。
图8是示出根据一个实施方式的数据处理***的框图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是本公开的说明,而不应当解释为对本公开进行限制。描述了许多特定细节以提供对本公开的各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节,以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,利用感知与规划协作框架来帮助感知更有效地使用他们的计算资源。感知模块配置成基于从各种传感器获得的传感器数据感知自动驾驶车辆(ADV)周围的驾驶环境,以及使用各种感知模型或方法生成感知信息。感知信息描述感知到的驾驶环境。基于感知信息,规划模块配置成规划表示用于当前规划周期(也称为驾驶周期)的路线或路径的轨迹。然后,基于该轨迹控制和驱动ADV。另外,规划模块根据ADV的当前定位或位置基于轨迹确定ADV周围的关键地区(也称为关键区域)。描述关键地区的元数据经由应用程序编程接口(API)传输至感知模块,以允许感知模块根据关键地区生成用于下一规划周期的感知信息。
在一个实施方式中,关键地区可包括在下一规划周期期间ADV可能潜在地干扰其它交通或其它交通可能潜在地干扰ADV的一个或多个区域。在生成用于下一周期的感知信息时,感知模块使用第一感知模型或方法生成感知关键地区的第一感知信息。感知模块使用第二感知模型或方法为除关键地区之外的其余区域生成第二感知信息。第一感知模型可用于基于3D传感器数据生成具有更高精度或分辨率的感知信息,这需要更多处理资源和/或更长时间来完成。第二感知模型可用于基于2D传感器数据生成具有较低精度或分辨率的感知信息,这需要较少的处理资源和/或较短的时间来完成。
在一个实施方式中,在确定关键地区时,规划模块基于ADV的轨迹和当前定位确定ADV的驾驶场景。基于驾驶场景在数据库中执行查找操作,以获得描述或限定与驾驶场景相对应的关键地区的元数据或定义。例如,元数据可包括具体说明用于限定、确定或计算关键地区的方法或规则的信息。数据库可以是具有多个映射条目的驾驶场景至关键地区(驾驶场景/关键地区)映射表。每个映射条目均将特定驾驶场景映射到限定特定关键地区的元数据。基于元数据,根据一个实施方式,确定多边形以表示关键地区。多边形的形状可基于元数据进行确定,同时多边形的尺寸可基于以下进行确定:轨迹(例如,ADV的当前定位、速度、前进方向)、ADV的物理特性(例如,ADV的物理尺寸或维度)、和/或由感知模块提供的当前感知信息(例如,车道配置)。然后,确定多边形顶点的坐标。多边形顶点的坐标用于表示关键地区。然后,将多边形的顶点反馈给感知模块,以允许感知模块使用不同的感知方法生成用于下一规划周期的感知信息。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。
自动驾驶车辆是指可被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可包括传感器***,所述传感器***具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划***110、车辆控制***111、无线通信***112、用户接口***113和传感器***115。自动驾驶车辆101还可包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可由车辆控制***111和/或感知与规划***110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器***115包括但不限于一个或多个摄像机211、全球定位***(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS单元212可包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的***。在一些实施方式中,除感测对象之外,雷达单元214可另外感测对象的速度和/或前进方向。LIDAR单元215可使用激光来感测自动驾驶车辆所处环境中的对象。除其它***部件之外,LIDAR单元215还可包括一个或多个激光源、激光扫描器以及一个或多个检测器。摄像机211可包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。摄像机211可以是静物摄像机和/或视频摄像机。摄像机可以是可机械地移动的,例如,通过将摄像机安装在旋转和/或倾斜平台上。
传感器***115还可包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制***111包括但不限于转向单元201、油门单元202(也被称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
返回参考图1,无线通信***112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部***之间的通信。例如,无线通信***112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信***112可使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或***通信。无线通信***112可例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口***113可以是在车辆101内实施的***装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可由感知与规划***110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划***110包括必要的硬件(例如,处理器、存储器、存储装置)和软件(例如,操作***、规划和路线安排程序),以从传感器***115、控制***111、无线通信***112和/或用户接口***113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。可替代地,感知与规划***110可与车辆控制***111集成在一起。
例如,作为乘客的用户可例如经由用户接口来指定行程的起始位置和目的地。感知与规划***110获得行程相关数据。例如,感知与规划***110可从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。可替代地,此类位置和MPOI信息可本地高速缓存在感知与规划***110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划***110也可从交通信息***或服务器(TIS)获得实时交通信息。应注意,服务器103至104可由第三方实体进行操作。可替代地,服务器103至104的功能可与感知与规划***110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器***115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划***110可规划最佳路线并且根据所规划的路线例如经由控制***111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是数据分析***,从而为各种客户执行数据分析服务。在一个实施方式中,数据分析***103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(自动驾驶车辆或由人类驾驶员驾驶的常规车辆)收集驾驶统计数据123。驾驶统计数据123包括指示所发出的驾驶指令(例如,油门、制动、转向指令)以及由车辆的传感器在不同的时间点捕捉到的车辆的响应(例如,速度、加速、减速、方向)的信息。驾驶统计数据123还可包括描述不同时间点下的驾驶环境的信息,例如,路线(包括起始位置和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,出于各种目的,机器学习引擎122生成或训练一组规则、算法和/或预测模型124。例如,数据123可包括限定各种驾驶场景的信息。对于每个驾驶场景,数据123还可包括元数据或算法,以在给定ADV的当前定位或位置的情况下确定ADV的关键地区。在一个实施方式中,可生成驾驶场景/关键地区映射表。然后,可将驾驶场景/关键地区映射表上载到ADV中以确定实时驾驶的关键地区。
图3A和图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划***的示例的框图。***300可被实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划***110、控制***111和传感器***115。参考图3A至图3B,感知与规划***110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、以及路线安排模块307。
模块301至307中的一些或全部可以以软件、硬件或其组合实施。例如,这些模块可安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可通信地联接到图2的车辆控制***111的一些或全部模块或者与它们集成在一起。模块301至307中的一些可一起集成为集成模块。
定位模块301确定自动驾驶车辆300的当前定位(例如,利用GPS单元212)以及管理与用户的行程或路线相关的任何数据。定位模块301(又称作为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图与路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可作为地图与路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可从交通信息***或服务器获得实时交通信息。
基于由传感器***115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可包括例如采用对象形式的车道配置(例如,直线车道或弯曲车道)、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。
感知模块302可包括计算机视觉***或计算机视觉***的功能,以处理并分析由一个或多个摄像机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉***可使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉***可绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
针对每个对象,预测模块303预测对象在这种情况下将如何表现。预测是基于感知数据执行的,该感知数据在考虑一组地图/路线信息311和交通规则312的时间点感知驾驶环境。例如,如果对象为相反方向上的车辆且当前驾驶环境包括十字路口,则预测模块303将预测车辆是否可能会笔直向前移动或转弯。如果感知数据表明十字路口没有交通灯,则预测模块303可能会预测车辆在进入十字路口之前可能需要完全停车。如果感知数据表明车辆目前处于左转唯一车道或右转唯一车道,则预测模块303可能预测车辆将更可能分别左转或右转。
针对每个对象,决策模块304作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何与所述对象相遇(例如,超车、让行、停止、超过)。决策模块304可根据诸如交通规则或驾驶规则312的规则集来作出此类决定,所述规则集可存储在永久性存储装置352中。
路线安排模块307配置成提供从起始点到目的地点的一个或多个路线或路径。对于从起始位置到目的地位置的给定行程,例如从用户接收的给定行程,路线安排模块307获得路线与地图信息311,并确定从起始位置至到达目的地位置的所有可能路线或路径。路线安排模块307可生成地形图形式的参考线,它确定了从起始位置至到达目的地位置的每个路线。参考线是指不受其它诸如其它车辆、障碍物或交通状况的任何干扰的理想路线或路径。即,如果道路上没有其它车辆、行人或障碍物,则ADV应精确地或紧密地跟随参考线。然后,将地形图提供至决策模块304和/或规划模块305。决策模块304和/或规划模块305检查所有可能的路线,以根据由其它模块提供的其它数据选择和更改最佳路线中的一个,其中,其它数据诸如为来自定位模块301的交通状况、由感知模块302感知到的驾驶环境以及由预测模块303预测的交通状况。根据时间点下的特定驾驶环境,用于控制ADV的实际路径或路线可能接近于或不同于由路线安排模块307提供的参考线。
基于针对所感知到的对象中的每个的决定,规划模块305使用由路线安排模块307提供的参考线作为基础,为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304可决定超过所述对象,而规划模块305可确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制***111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动和转弯命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个规划周期(也称作为命令周期)中执行,例如,在每个时间间隔为100毫秒(ms)的周期中执行。对于规划周期或命令周期中的每一个,将基于规划和控制数据发出一个或多个控制命令。即,对于每100ms,规划模块305规划下一个路线段或路径段,例如,包括目标位置和ADV到达目标位置所需要的时间。可替代地,规划模块305还可规定具体的速度、方向和/或转向角等。在一个实施方式中,规划模块305为下一个预定时段(诸如,5秒)规划路线段或路径段。对于每个规划周期或驾驶周期,规划模块305基于在前一周期中规划的目标位置规划用于当前周期(例如,下一个5秒)的目标位置。控制模块306然后基于当前周期的规划和控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
应注意,决策模块304和规划模块305可集成为集成模块。决策模块304/规划模块305可包括导航***或导航***的功能,以确定自动驾驶车辆的驾驶路径。例如,导航***可确定用于实现自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可根据经由用户接口***113进行的用户输入来设定。导航***可在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航***可将来自GPS***和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
决策模块304/规划模块305还可包括防撞***或防撞***的功能,以识别、评估并且避免或以其它方式越过自动驾驶车辆的环境中的潜在障碍物。例如,防撞***可通过以下方式实现自动驾驶车辆的导航中的变化:操作控制***111中的一个或多个子***来采取变向操纵、转弯操纵、制动操纵等。防撞***可基于周围的交通模式、道路状况等自动确定可行的障碍物回避操纵。防撞***可被配置成使得当其它传感器***检测到位于自动驾驶车辆将变向进入的相邻区域中的车辆、建筑障碍物等时不采取变向操纵。防撞***可自动选择既可使用又使得自动驾驶车辆乘员的安全性最大化的操纵。防撞***可选择预测使得自动驾驶车辆的乘客舱中出现最小量的加速度的避让操纵。
根据一个实施方式,感知模块302基于传感器数据感知驾驶环境,并使用各种感知方法或模型313生成感知信息。用于处理传感器数据的感知方法或模型中的一些可涉及较多处理资源和较长时间,诸如处理3D LIDAR数据,以生成更高精度和分辨率的感知信息,而其它感知方法或模型可涉及较少处理资源和较短时间,以生成较低精度和分辨率的感知信息。考虑到具体规划/驾驶周期的有限时间(例如,100ms至200ms),大多数常规自动驾驶***选择使用较低分辨率的感知方法来满足受限的规划时间。然而,更高分辨率的感知数据将为规划模块305提供更好的驾驶环境可见性,以规划更好的路线或路径从而避免潜在的碰撞,但是它也需要更多的处理资源和时间。
在一个实施方式中,参考图3A和图3B,当规划轨迹时,规划模块305配置成除了生成当前规划周期的用于控制ADV的轨迹之外,还确定ADV周围的关键地区。然后,将关于关键地区的信息320反馈给感知模块302。基于关键地区,感知模块302可选择不同的感知方法或模型313来处理关键地区和除关键地区之外的区域(称为非关键地区),以用于下一规划周期。具体地,例如,感知模块302利用更高精度和分辨率的感知方法或模型来生成关键地区的感知信息,同时利用较低精度和分辨率的感知方法或模型来生成其它区域的感知信息。
尽管可能花费更多处理资源和较长时间来为关键地区生成更高精度和分辨率的感知信息,但是出于安全目的,可以为关键地区调整采用这种方法。在大多数时间,对于除了关键地区之外的区域(例如,更远区域),规划模块305不需要高分辨率感知信息。由于关键地区与其余区域部分相比相对较小,因此附加处理资源和时间可限制为仍然满足规划周期时间要求的可管理量。例如,感知模块302可利用3D LIDAR数据来生成关键地区的感知信息,同时使用2D LIDAR数据来生成非关键区域的感知信息。通常,用于处理3D LIDAR数据的资源和时间高于处理2D LIDAR数据的资源和时间。通过将关键地区信息提供回感知模块302,感知模块302可使用不同感知方法/模型313的组合以混合模式操作,从而处理不同区域,同时它仍然满足规划周期的有限时间要求。
图4是示出根据一个实施方式的规划模块的示例的框图。参考图4,规划模块305,除了其他之外,包括场景确定模块401和关键地区确定模块402。根据一个实施方式,在确定关键地区时,场景确定模块401配置成基于ADV的轨迹和当前定位确定该时间点下的驾驶场景。驾驶场景可以是直线驾驶、左转或右转、U形转弯或车道改变等的场景。驾驶场景可基于由规划模块305生成的轨迹的信息来确定,例如,在轨迹上的不同时间点处,ADV的轨迹的曲线和速度以及前进方向。
基于驾驶场景,关键地区确定模块402配置成确定上述特定驾驶场景的关键地区。不同的驾驶场景可与关键地区的不同形状或尺寸相关联。在一个实施方式中,规划模块305维持数据库,该数据库存储各种驾驶场景的关键地区定义信息。基于特定驾驶场景,可向数据库发出搜索,以搜索限定给定驾驶场景的关键地区的信息。在一个实施方式中,这种数据库可实施为驾驶场景/关键地区映射表314的一部分。
如图4中所示,驾驶场景/关键地区映射表314包括多个映射条目。每个映射条目均将驾驶场景411映射到描述或限定与驾驶场景相对应的关键地区的元数据或定义。在一个实施方式中,关键地区的元数据可包括一组规则或算法,以基于该时间点的驾驶环境来确定或计算关键地区。由于每个驾驶环境(例如,车道配置和尺寸,车辆物理尺寸和限制等)不同,因此至少必须动态地确定关键地区的尺寸,例如,基于轨迹。在一个实施方式中,基于驾驶场景,关键地区确定模块402在驾驶场景/关键地区映射表314中执行查找操作,以定位与驾驶场景匹配的映射条目。然后从相匹配的条目处获得关键地区定义412的元数据。然后,使用从元数据获得的关键地区算法或方法来计算关键地区。
图5A示出用于直线驾驶的驾驶场景的关键地区的示例。在该示例中,ADV在车道上直线驾驶。因此,该场景中的关键地区将包括ADV前面的区域以及相邻车道的左右紧邻区域,因为这些区域中的交通可能潜在地影响ADV的驾驶,反之亦然。图5B示出用于十字路口处的右转弯驾驶场景的关键地区的示例。在该示例中,ADV试图右转弯,因此关键地区将包括相反方向上的相反交通以及从左到右的交叉方向区域。图5C示出用于十字路口处的左转变或U形转弯驾驶场景的关键地区的示例。在该示例中,关键地区包括图5B的类似区域。此外,关键地区包括影响从右到左的交叉交通的区域。
然后,将描述关键地区的信息传输回感知模块302,以允许感知模块302针对关键地区和非关键地区使用不同的感知方法或模型来处理传感器数据。根据一个实施方式,当传输关于关键地区的信息时,特定数据结构被限定并用于存储关键地区信息。
图6是示出根据一个实施方式的用于存储用于感知的反馈信息的数据结构的示例的框图。参考图6,数据结构600包括多个数据成员601至605。标头601存储指示相应轨迹和关键地区被确定的时间的时间戳。路径长度602存储轨迹或路径的长度(例如,以米为单位)。路径时间603存储ADV完成轨迹将花费的时间(例如,以秒为单位)。轨迹点阵列604包括数据条目阵列,以存储构成轨迹的轨迹点中的每个的信息。每个轨迹点的轨迹点信息至少包括轨迹点的坐标(x,y,z)、轨迹点的前进方向(θ)以及ADV从当前定位到该轨迹点处的时间(t)。关键地区点阵列605包括数据条目阵列,以存储限定关键地区的顶点形式的、多边形的点的坐标(x,y)。关键点是指如图5A至图5B所示的多边形的转折点(表示为转弯角的小圆圈)。
一旦感知模块302接收到数据结构,感知模块302就可解析数据结构,以基于轨迹点604和关键地区点605确定关键地区和非关键地区。然后,感知模块可对不同传感器数据(例如,2D LIDAR数据与3D LIDAR数据)应用不同感知方法或模型,以生成用于下一规划周期的关键地区和非关键地区的感知信息。因此,优化了感知信息的质量以及生成感知信息所需的处理时间和资源。
图7是示出根据本发明的一个实施方式的用于操作自动驾驶车辆的过程的示例的流程图。过程700可由处理逻辑执行,所述处理逻辑可包括软件、硬件或它们的组合。例如,过程700可由感知模块302和/或规划模块305执行。参考图7,在操作701中,感知模块基于从各种传感器(例如,LIDAR、RADAR、摄像机)获得的传感器数据来感知ADV周围的驾驶环境。使用各种感知方法和模型生成感知信息。在操作702中,规划模块基于从感知模块接收的感知信息来规划表示用于当前规划周期的路径或路线的轨迹。在操作703中,根据ADV的当前定位,基于轨迹确定ADV周围的关键地区。在操作704中,然后根据轨迹控制和驾驶ADV。另外,在操作705中,然后将关于关键地区的信息传输至感知模块,以允许感知模块根据关键地区和非关键地区使用不同的感知方法或模型来生成用于下一规划周期的感知信息。
应注意,如上文示出和描述的部件中的一些或全部可在软件、硬件或其组合中实施。例如,此类部件可实施为安装并存储在永久性存储装置中的软件,所述软件可通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。可替代地,此类部件可实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可经由来自应用的相应驱动程序和/或操作***来访问。此外,此类部件可实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图8是示出可与本公开的一个实施方式一起使用的数据处理***的示例的框图。例如,***1500可表示以上所述的执行上述过程或方法中的任一个的任何数据处理***,例如,图1的感知与规划***110或者服务器103至104中的任一个。***1500可包括许多不同的部件。这些部件可实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机***的主板或***卡)的其它模块或者实施为以其它方式并入计算机***的机架内的部件。
还应注意,***1500旨在示出计算机***的许多部件的高阶视图。然而,应当理解的是,某些实施例中可具有附加的部件,此外,其它实施例中可具有所示部件的不同布置。***1500可表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或***,但是术语“机器”或“***”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或***的任何集合。
在一个实施方式中,***1500包括通过总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可充当用于与所述***的各种部件通信的主处理单元和中央集线器。这种处理器可实施为片上***(SoC)。处理器1501被配置成执行用于执行本文所讨论的操作和步骤的指令。***1500还可包括与可选的图形子***1504通信的图形接口,图形子***1504可包括显示控制器、图形处理器和/或显示装置。
处理器1501可与存储器1503通信,存储器1503在一个实施方式中可经由多个存储器装置实施以提供给定量的***存储。存储器1503可包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作***、装置驱动程序、固件(例如,输入输出基本***或BIOS)和/或应用的可执行代码和/或数据可加载到存储器1503中并由处理器1501执行。操作***可以是任何类型的操作***,例如,机器人操作***(ROS)、来自公司的操作***、来自苹果公司的Mac来自公司的、LINUX、UNIX,或者其它实时或嵌入式操作***。
***1500还可包括IO装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506,以及其它可选的IO装置1507。网络接口装置1505可包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位***(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可包括鼠标、触摸板、触敏屏幕(其可与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
IO装置1507可包括音频装置。音频装置可包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它IO装置1507还可包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可包括成像处理子***(例如,摄像机),所述成像处理子***可包括用于促进摄像机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可根据***1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供对诸如数据、应用、一个或多个操作***等信息的永久性存储,大容量存储装置(未示出)也可联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的***设计并且改进***响应性,这种大容量存储装置可经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储装置可主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储装置充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在***活动重新启动时能够实现快速通电。另外,闪存装置可例如经由串行***接口(SPI)联接到处理器1501。这种闪存装置可提供***软件的非易失性存储,所述***软件包括所述***的BIOS以及其它固件。
存储装置1508可包括计算机可访问的存储介质1509(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可表示上述部件中的任一个,例如规划模块305、控制模块306等。处理模块/单元/逻辑1528还可在其由数据处理***1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理***1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本公开的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然***1500被示出为具有数据处理***的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本公开的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理***也可与本公开的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机***或类似电子计算装置的动作和处理,所述计算机***或电子计算装置操控计算机***的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机***存储器或寄存器或者其它此类信息存储装置、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可按不同的顺序执行。此外,一些操作可并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本公开的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本公开的更宽泛精神和范围的情况下,可对本发明作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (20)
1.一种用于操作自动驾驶车辆的计算机实施的方法,包括:
基于从多个传感器获得的传感器数据,通过感知模块感知自动驾驶车辆周围的驾驶环境,使用多个感知模型生成感知信息;
基于从所述感知模块接收的所述感知信息,通过规划模块规划用于当前驾驶周期的轨迹;
根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区;
控制所述自动驾驶车辆根据所述轨迹行驶;以及
将描述所述关键地区的元数据经由应用程序编程接口传输至所述感知模块,以允许所述感知模块根据所述自动驾驶车辆的所述关键地区生成用于下一驾驶周期的感知信息。
2.根据权利要求1所述的方法,其中,所述自动驾驶车辆周围的所述关键地区包括所述自动驾驶车辆在所述下一驾驶周期中可能潜在地干扰其它交通的一个或多个区域。
3.根据权利要求1所述的方法,其中,在生成用于所述下一驾驶周期的所述感知信息时,所述方法包括:
使用所述感知模型中的第一感知模型生成感知所述关键地区的第一感知信息;以及
使用所述感知模型中的第二感知模型生成感知除了所述关键地区之外的剩余区域的第二感知信息。
4.根据权利要求3所述的方法,其中,所述第一感知信息以比所述第二感知信息更高的分辨率描述驾驶环境,以及其中,
所述感知模块消耗比所述第二感知信息更多的处理资源来生成所述第一感知信息。
5.根据权利要求1所述的方法,其中,根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区包括:
基于所述自动驾驶车辆的当前定位和所述轨迹,确定与所述自动驾驶车辆相关联的驾驶场景;以及
基于所述驾驶场景在数据库中执行查找操作,以获得描述与所述驾驶场景相对应的关键地区的元数据。
6.根据权利要求5所述的方法,还包括:
基于描述与所述驾驶场景相对应的所述关键地区的所述元数据,根据所述自动驾驶车辆的当前定位构建所述关键地区。
7.根据权利要求5所述的方法,还包括:
基于描述所述关键地区的所述元数据,确定限定所述自动驾驶车辆周围的所述关键地区的多边形;以及
基于所述多边形的形状计算所述多边形的顶点,其中,所述多边形的顶点用于确定所述关键地区的尺寸和定位。
8.根据权利要求5所述的方法,其中,所述数据库包括多个数据库条目,其中,每个数据库条目均将特定驾驶场景映射到一组元数据,所述一组元数据描述限定表示关键地区的多边形的一个或多个规则。
9.一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行操作,所述操作包括:
基于从多个传感器获得的传感器数据,通过感知模块感知自动驾驶车辆周围的驾驶环境,使用多个感知模型生成感知信息;
基于从所述感知模块接收的所述感知信息,通过规划模块规划用于当前驾驶周期的轨迹;
根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区;
控制所述自动驾驶车辆根据所述轨迹行驶;以及
将描述所述关键地区的元数据经由应用程序编程接口传输至所述感知模块,以允许所述感知模块根据所述自动驾驶车辆的所述关键地区生成用于下一驾驶周期的感知信息。
10.根据权利要求9所述的机器可读介质,其中,所述自动驾驶车辆周围的所述关键地区包括所述自动驾驶车辆在下一驾驶周期中可能潜在地干扰其它交通的一个或多个区域。
11.根据权利要求9所述的机器可读介质,其中,在生成用于所述下一驾驶周期的所述感知信息时,所述方法包括:
使用所述感知模型中的第一感知模型生成感知所述关键地区的第一感知信息;以及
使用所述感知模型中的第二感知模型生成感知除了所述关键地区之外的剩余区域的第二感知信息。
12.根据权利要求11所述的机器可读介质,其中,所述第一感知信息以比所述第二感知信息更高的分辨率描述驾驶环境,以及其中,
所述感知模块消耗比所述第二感知信息更多的处理资源来生成所述第一感知信息。
13.根据权利要求9所述的机器可读介质,其中,根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区包括:
基于所述自动驾驶车辆的当前定位和所述轨迹,确定与所述自动驾驶车辆相关联的驾驶场景;以及
基于所述驾驶场景在数据库中执行查找操作,以获得描述与所述驾驶场景相对应的关键地区的元数据。
14.根据权利要求13所述的机器可读介质,其中,所述操作还包括:
基于描述与所述驾驶场景相对应的所述关键地区的所述元数据,根据所述自动驾驶车辆的当前定位构建所述关键地区。
15.根据权利要求13所述的机器可读介质,其中,所述操作还包括:
基于描述所述关键地区的所述元数据,确定限定所述自动驾驶车辆周围的所述关键地区的多边形;以及
基于所述多边形的形状计算所述多边形的顶点,其中,所述多边形的顶点用于确定所述关键地区的尺寸和定位。
16.根据权利要求13所述的机器可读介质,其中,所述数据库包括多个数据库条目,其中,每个数据库条目均将特定驾驶场景映射到一组元数据,所述一组元数据描述限定表示关键地区的多边形的一个或多个规则。
17.一种数据处理***,包括:
处理器;以及
存储器,联接至所述处理器;以及
感知模块和规划模块,加载在所述存储器中并由所述处理器执行以执行操作,所述操作包括:
基于从多个传感器获得的传感器数据,通过所述感知模块感知自动驾驶车辆周围的驾驶环境,使用多个感知模型生成感知信息,
基于从所述感知模块接收的所述感知信息,通过所述规划模块规划用于当前驾驶周期的轨迹,
根据所述自动驾驶车辆的当前定位,基于所述轨迹,确定所述自动驾驶车辆周围的关键地区,
控制所述自动驾驶车辆根据所述轨迹行驶;以及
将描述所述关键地区的元数据经由应用程序编程接口传输至所述感知模块,以允许所述感知模块根据所述自动驾驶车辆的所述关键地区生成用于下一驾驶周期的感知信息。
18.根据权利要求17所述的***,其中,所述自动驾驶车辆周围的所述关键地区包括所述自动驾驶车辆在下一驾驶周期中可能潜在地干扰其它交通的一个或多个区域。
19.根据权利要求17所述的***,其中,在生成用于所述下一驾驶周期的所述感知信息时,所述方法包括:
使用所述感知模型中的第一感知模型生成感知所述关键地区的第一感知信息;以及
使用所述感知模型中的第二感知模型生成感知除了所述关键地区之外的剩余区域的第二感知信息。
20.根据权利要求19所述的***,其中,所述第一感知信息以比所述第二感知信息更高的分辨率描述驾驶环境,以及其中,
所述感知模块消耗比所述第二感知信息更多的处理资源来生成所述第一感知信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/944,289 | 2018-04-03 | ||
US15/944,289 US11378956B2 (en) | 2018-04-03 | 2018-04-03 | Perception and planning collaboration framework for autonomous driving |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110345955A true CN110345955A (zh) | 2019-10-18 |
CN110345955B CN110345955B (zh) | 2023-07-21 |
Family
ID=68054336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910034390.7A Active CN110345955B (zh) | 2018-04-03 | 2019-01-15 | 用于自动驾驶的感知与规划协作框架 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11378956B2 (zh) |
JP (1) | JP6722312B2 (zh) |
CN (1) | CN110345955B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113551662A (zh) * | 2020-04-24 | 2021-10-26 | 深圳裹动科技有限公司 | 应用于自动驾驶车辆的感知方法、动态感知装置、以及自动驾驶车辆 |
CN113626545A (zh) * | 2020-05-08 | 2021-11-09 | 大众汽车股份公司 | 用于确定合并环境地图的车辆、装置、方法和计算机程序 |
WO2024066798A1 (zh) * | 2022-09-27 | 2024-04-04 | 腾讯科技(深圳)有限公司 | 车辆控制方法、装置、设备及存储介质 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977426B2 (en) | 2012-06-04 | 2015-03-10 | Geotab Inc. | VIN based accelerometer threshold |
US20190185012A1 (en) | 2017-12-18 | 2019-06-20 | PlusAI Corp | Method and system for personalized motion planning in autonomous driving vehicles |
US11273836B2 (en) * | 2017-12-18 | 2022-03-15 | Plusai, Inc. | Method and system for human-like driving lane planning in autonomous driving vehicles |
US11130497B2 (en) | 2017-12-18 | 2021-09-28 | Plusai Limited | Method and system for ensemble vehicle control prediction in autonomous driving vehicles |
US10782699B2 (en) * | 2018-03-10 | 2020-09-22 | Baidu Usa Llc | Real-time perception adjustment and driving adaption based on surrounding vehicles' behavior for autonomous driving vehicles |
US11597403B2 (en) | 2018-04-11 | 2023-03-07 | Hyundai Motor Company | Apparatus for displaying driving state of vehicle, system including the same and method thereof |
EP3552901A3 (en) | 2018-04-11 | 2020-04-29 | Hyundai Motor Company | Apparatus and method for providing safety strategy in vehicle |
US11084491B2 (en) | 2018-04-11 | 2021-08-10 | Hyundai Motor Company | Apparatus and method for providing safety strategy in vehicle |
US11173910B2 (en) | 2018-04-11 | 2021-11-16 | Hyundai Motor Company | Lane change controller for vehicle system including the same, and method thereof |
US11077854B2 (en) | 2018-04-11 | 2021-08-03 | Hyundai Motor Company | Apparatus for controlling lane change of vehicle, system having the same and method thereof |
US11084490B2 (en) | 2018-04-11 | 2021-08-10 | Hyundai Motor Company | Apparatus and method for controlling drive of vehicle |
EP3552902A1 (en) | 2018-04-11 | 2019-10-16 | Hyundai Motor Company | Apparatus and method for providing a driving path to a vehicle |
EP3569460B1 (en) | 2018-04-11 | 2024-03-20 | Hyundai Motor Company | Apparatus and method for controlling driving in vehicle |
US11548509B2 (en) | 2018-04-11 | 2023-01-10 | Hyundai Motor Company | Apparatus and method for controlling lane change in vehicle |
ES2889930T3 (es) * | 2018-04-11 | 2022-01-14 | Hyundai Motor Co Ltd | Aparato y método para el control para habilitar un sistema autónomo en un vehículo |
US11334067B2 (en) | 2018-04-11 | 2022-05-17 | Hyundai Motor Company | Apparatus and method for providing safety strategy in vehicle |
US11351989B2 (en) | 2018-04-11 | 2022-06-07 | Hyundai Motor Company | Vehicle driving controller, system including the same, and method thereof |
US10843710B2 (en) | 2018-04-11 | 2020-11-24 | Hyundai Motor Company | Apparatus and method for providing notification of control authority transition in vehicle |
US11602999B1 (en) * | 2018-05-01 | 2023-03-14 | Zoox, Inc. | Predictive control strategies for vehicles |
ES2736901A1 (es) | 2018-06-29 | 2020-01-08 | Geotab Inc | Caracterización de una colisión de vehículo |
US11397089B2 (en) * | 2018-07-13 | 2022-07-26 | Uatc, Llc | Autonomous vehicle routing with route extension |
US11199847B2 (en) * | 2018-09-26 | 2021-12-14 | Baidu Usa Llc | Curvature corrected path sampling system for autonomous driving vehicles |
EP3663978A1 (en) * | 2018-12-07 | 2020-06-10 | Thinkware Corporation | Method for detecting vehicle and device for executing the same |
US11161504B2 (en) * | 2019-03-19 | 2021-11-02 | Honda Motor Co., Ltd. | Vehicle control apparatus and method |
US11245909B2 (en) * | 2019-04-29 | 2022-02-08 | Baidu Usa Llc | Timestamp and metadata processing for video compression in autonomous driving vehicles |
US11180165B2 (en) * | 2019-12-26 | 2021-11-23 | Baidu Usa Llc | Autonomous driving vehicle three-point turn |
US11941986B2 (en) | 2021-02-03 | 2024-03-26 | Geotab Inc. | Methods for characterizing a low-impact vehicle collision using high-rate acceleration data |
US11862022B2 (en) | 2021-02-03 | 2024-01-02 | Geotab Inc. | Methods for characterizing a vehicle collision |
US11884285B2 (en) | 2021-02-03 | 2024-01-30 | Geotab Inc. | Systems for characterizing a vehicle collision |
CN113406955B (zh) * | 2021-05-10 | 2022-06-21 | 江苏大学 | 基于复杂网络的自动驾驶汽车复杂环境模型、认知***及认知方法 |
CN115691099A (zh) * | 2021-07-30 | 2023-02-03 | 华为技术有限公司 | 感知能力信息生成方法、使用方法及装置 |
US20230065284A1 (en) * | 2021-09-01 | 2023-03-02 | Baidu Usa Llc | Control and planning with localization uncertainty |
US20230093601A1 (en) * | 2021-09-14 | 2023-03-23 | Motional Ad Llc | Environmental limitation and sensor anomaly system and method |
US11851091B2 (en) | 2021-09-14 | 2023-12-26 | Motional Ad Llc | Immobility detection within situational context |
US11845454B2 (en) | 2021-09-14 | 2023-12-19 | Motional Ad Llc | Operational envelope detection with situational assessment |
US20230303092A1 (en) * | 2022-03-28 | 2023-09-28 | Gm Cruise Holdings Llc | Perception error identification |
CN115056784B (zh) * | 2022-07-04 | 2023-12-05 | 小米汽车科技有限公司 | 车辆控制方法、装置、车辆、存储介质及芯片 |
US20240131984A1 (en) * | 2022-10-20 | 2024-04-25 | Motional Ad Llc | Turn signal assignment for complex maneuvers |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1834686A (zh) * | 2005-03-17 | 2006-09-20 | 三洋电机株式会社 | 检测装置 |
CN104943684A (zh) * | 2014-03-31 | 2015-09-30 | 比亚迪股份有限公司 | 无人驾驶汽车控制***和具有其的汽车 |
DE102015205133A1 (de) * | 2015-03-20 | 2016-09-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Ermitteln einer Bewegungsplanung für ein zumindest teilweise automatisiertes Fahren eines Fahrzeugs |
CN106871915A (zh) * | 2015-12-04 | 2017-06-20 | 大众汽车有限公司 | 在机动车中用于自动驾驶的方法和装置 |
US20170314954A1 (en) * | 2016-05-02 | 2017-11-02 | Google Inc. | Systems and Methods for Using Real-Time Imagery in Navigation |
WO2018014917A1 (de) * | 2016-07-22 | 2018-01-25 | Conti Temic Microelectronic Gmbh | Kameravorrichtung zur aufnahme eines umgebungsbereichs eines eigenen fahrzeugs sowie verfahren zur bereitstellung einer fahrerassistenzfunktion |
WO2018014916A1 (de) * | 2016-07-22 | 2018-01-25 | Conti Temic Microelectronic Gmbh | Kameravorrichtung sowie verfahren zur erfassung eines umgebungsbereichs eines eigenen fahrzeugs |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19536512A1 (de) * | 1995-09-29 | 1997-04-03 | Bayerische Motoren Werke Ag | Gangwechselsteuerung für Automatikgetriebe in Kraftfahrzeugen mit einem elektronischen Steuergerät |
JP2006514382A (ja) * | 2003-08-18 | 2006-04-27 | フィコ ミロールス,エセ ア | 自動車の外部環境を監視するためのシステム及び方法 |
JP4980076B2 (ja) * | 2007-01-11 | 2012-07-18 | 富士重工業株式会社 | 車両の運転支援装置 |
JP5115792B2 (ja) * | 2007-07-04 | 2013-01-09 | オムロン株式会社 | 画像処理装置および方法、並びに、プログラム |
JP5600330B2 (ja) * | 2012-02-16 | 2014-10-01 | 富士重工業株式会社 | 車両の運転支援装置 |
GB201219742D0 (en) * | 2012-11-02 | 2012-12-12 | Tom Tom Int Bv | Methods and systems for generating a horizon for use in an advanced driver assistance system (adas) |
DE102013013867A1 (de) * | 2013-08-20 | 2015-03-12 | Audi Ag | Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs |
US10422649B2 (en) * | 2014-02-24 | 2019-09-24 | Ford Global Technologies, Llc | Autonomous driving sensing system and method |
ES2876449T3 (es) * | 2014-09-05 | 2021-11-12 | Sz Dji Technology Co Ltd | Cartografía de entorno de múltiples sensores |
US9493157B2 (en) * | 2015-01-29 | 2016-11-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation in obstructed occupant view and sensor detection environments |
US9779312B2 (en) * | 2015-01-30 | 2017-10-03 | Honda Motor Co., Ltd. | Environment recognition system |
CA3067160A1 (en) * | 2015-02-10 | 2016-08-18 | Mobileye Vision Technologies Ltd. | Sparse map for autonomous vehicle navigation |
US10152882B2 (en) * | 2015-11-30 | 2018-12-11 | Nissan North America, Inc. | Host vehicle operation using remote vehicle intention prediction |
JP6561819B2 (ja) | 2015-12-15 | 2019-08-21 | 株式会社デンソー | 通信制御装置 |
JP6768787B2 (ja) * | 2016-03-15 | 2020-10-14 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、および車両制御プログラム |
CN105751230B (zh) * | 2016-03-31 | 2018-12-21 | 纳恩博(北京)科技有限公司 | 一种路径控制方法、路径规划方法、第一设备及第二设备 |
US10317900B2 (en) * | 2016-05-13 | 2019-06-11 | GM Global Technology Operations LLC | Controlling autonomous-vehicle functions and output based on occupant position and attention |
KR101851155B1 (ko) * | 2016-10-12 | 2018-06-04 | 현대자동차주식회사 | 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법 |
DE102016223579A1 (de) * | 2016-11-28 | 2018-05-30 | Robert Bosch Gmbh | Verfahren zum Ermitteln von Daten einer Verkehrssituation |
TWI611280B (zh) * | 2016-12-12 | 2018-01-11 | 財團法人工業技術研究院 | 遠端操作載具及其載具控制裝置與控制方法 |
US10837773B2 (en) * | 2016-12-30 | 2020-11-17 | DeepMap Inc. | Detection of vertical structures based on LiDAR scanner data for high-definition maps for autonomous vehicles |
KR102254079B1 (ko) * | 2017-01-04 | 2021-05-20 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
US10281920B2 (en) * | 2017-03-07 | 2019-05-07 | nuTonomy Inc. | Planning for unknown objects by an autonomous vehicle |
WO2018176000A1 (en) * | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
JP6450413B2 (ja) | 2017-03-31 | 2019-01-09 | 本田技研工業株式会社 | 車両制御装置 |
US10453351B2 (en) * | 2017-07-17 | 2019-10-22 | Aurora Flight Sciences Corporation | System and method for detecting obstacles in aerial systems |
JP7009834B2 (ja) * | 2017-08-23 | 2022-01-26 | 株式会社デンソー | 収集システム及びセンタ |
US10866588B2 (en) * | 2017-10-16 | 2020-12-15 | Toyota Research Institute, Inc. | System and method for leveraging end-to-end driving models for improving driving task modules |
US10436885B2 (en) * | 2017-10-19 | 2019-10-08 | DeepMap Inc. | Calibrating sensors mounted on an autonomous vehicle |
EP3477333B1 (en) * | 2017-10-26 | 2023-08-09 | Continental Autonomous Mobility Germany GmbH | Method and device of determining kinematics of a target |
US11163309B2 (en) * | 2017-11-30 | 2021-11-02 | Direct Current Capital LLC | Method for autonomous navigation |
US11620906B2 (en) * | 2017-12-27 | 2023-04-04 | Direct Current Capital LLC | Method for accessing supplemental sensor data from other vehicles |
US20190204834A1 (en) * | 2018-01-04 | 2019-07-04 | Metawave Corporation | Method and apparatus for object detection using convolutional neural network systems |
US10860020B2 (en) * | 2018-01-23 | 2020-12-08 | Toyota Research Institute, Inc. | System and method for adaptive perception in a vehicle |
US10976745B2 (en) * | 2018-02-09 | 2021-04-13 | GM Global Technology Operations LLC | Systems and methods for autonomous vehicle path follower correction |
KR102420568B1 (ko) * | 2018-04-27 | 2022-07-13 | 삼성전자주식회사 | 차량의 위치를 결정하는 방법 및 이를 위한 차량 |
RU2756872C1 (ru) * | 2018-05-31 | 2021-10-06 | Ниссан Норт Америка, Инк. | Структура вероятностного отслеживания объектов и прогнозирования |
US10699167B1 (en) * | 2018-10-19 | 2020-06-30 | Waymo Llc | Perception visualization tool |
US11153721B2 (en) * | 2018-12-27 | 2021-10-19 | Intel Corporation | Sensor network enhancement mechanisms |
-
2018
- 2018-04-03 US US15/944,289 patent/US11378956B2/en active Active
-
2019
- 2019-01-15 CN CN201910034390.7A patent/CN110345955B/zh active Active
- 2019-02-04 JP JP2019017849A patent/JP6722312B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1834686A (zh) * | 2005-03-17 | 2006-09-20 | 三洋电机株式会社 | 检测装置 |
CN104943684A (zh) * | 2014-03-31 | 2015-09-30 | 比亚迪股份有限公司 | 无人驾驶汽车控制***和具有其的汽车 |
DE102015205133A1 (de) * | 2015-03-20 | 2016-09-22 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Ermitteln einer Bewegungsplanung für ein zumindest teilweise automatisiertes Fahren eines Fahrzeugs |
CN106871915A (zh) * | 2015-12-04 | 2017-06-20 | 大众汽车有限公司 | 在机动车中用于自动驾驶的方法和装置 |
US20170314954A1 (en) * | 2016-05-02 | 2017-11-02 | Google Inc. | Systems and Methods for Using Real-Time Imagery in Navigation |
WO2018014917A1 (de) * | 2016-07-22 | 2018-01-25 | Conti Temic Microelectronic Gmbh | Kameravorrichtung zur aufnahme eines umgebungsbereichs eines eigenen fahrzeugs sowie verfahren zur bereitstellung einer fahrerassistenzfunktion |
WO2018014916A1 (de) * | 2016-07-22 | 2018-01-25 | Conti Temic Microelectronic Gmbh | Kameravorrichtung sowie verfahren zur erfassung eines umgebungsbereichs eines eigenen fahrzeugs |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113551662A (zh) * | 2020-04-24 | 2021-10-26 | 深圳裹动科技有限公司 | 应用于自动驾驶车辆的感知方法、动态感知装置、以及自动驾驶车辆 |
CN113626545A (zh) * | 2020-05-08 | 2021-11-09 | 大众汽车股份公司 | 用于确定合并环境地图的车辆、装置、方法和计算机程序 |
WO2024066798A1 (zh) * | 2022-09-27 | 2024-04-04 | 腾讯科技(深圳)有限公司 | 车辆控制方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6722312B2 (ja) | 2020-07-15 |
US20190302768A1 (en) | 2019-10-03 |
JP2019182399A (ja) | 2019-10-24 |
US11378956B2 (en) | 2022-07-05 |
CN110345955B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110345955A (zh) | 用于自动驾驶的感知与规划协作框架 | |
CN110388931A (zh) | 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法 | |
JP6644742B2 (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
CN110239562A (zh) | 自动驾驶车辆的基于周围车辆行为的实时感知调整与驾驶调适 | |
CN110377024A (zh) | 用于自动驾驶车辆的自动数据标注 | |
CN109489673A (zh) | 用于自动驾驶车辆的数据驱动地图更新*** | |
CN110377025A (zh) | 用于自动驾驶车辆的传感器聚合框架 | |
CN110386142A (zh) | 用于自动驾驶车辆的俯仰角校准方法 | |
CN109947090A (zh) | 用于自动驾驶车辆规划的非阻塞边界 | |
CN110389583A (zh) | 生成自动驾驶车辆的轨迹的方法 | |
CN108981730A (zh) | 用于为操作自动驾驶车辆生成参考路径的方法和*** | |
CN108387241A (zh) | 更新自动驾驶车辆的定位地图的方法和*** | |
CN110389584A (zh) | 用于评估自动驾驶车辆的轨迹候选项的方法 | |
CN109935077A (zh) | 用于为自动驾驶车辆构建车辆与云端实时交通地图的*** | |
CN110096053A (zh) | 用于自动驾驶车辆的驾驶轨迹生成方法、***和机器可读介质 | |
CN110389580A (zh) | 用于规划自动驾驶车辆的路径的漂移校正的方法 | |
CN110378483A (zh) | 部署在模拟平台上的用于训练机器学习模型的***和方法 | |
CN109429518A (zh) | 基于地图图像的自动驾驶交通预测 | |
CN110325935A (zh) | 用于自动驾驶车辆的路径规划的基于驾驶场景的车道引导线 | |
CN110119140A (zh) | 用于加速曲线投影的***和方法 | |
CN110389585A (zh) | 用于自动驾驶车辆的基于学习的速度规划器 | |
CN110462543A (zh) | 用于评估自动驾驶车辆的感知要求的基于仿真的方法 | |
CN108732589A (zh) | 利用3d lidar和定位自动采集用于对象识别的训练数据 | |
CN110083149A (zh) | 用于自动驾驶车辆的路径与速度优化后馈机制 | |
CN108604095A (zh) | 动态调整自动驾驶车辆的转向率的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |