CN110119138A - 用于自动驾驶车辆的自定位方法、***和机器可读介质 - Google Patents

用于自动驾驶车辆的自定位方法、***和机器可读介质 Download PDF

Info

Publication number
CN110119138A
CN110119138A CN201811563290.5A CN201811563290A CN110119138A CN 110119138 A CN110119138 A CN 110119138A CN 201811563290 A CN201811563290 A CN 201811563290A CN 110119138 A CN110119138 A CN 110119138A
Authority
CN
China
Prior art keywords
adv
distance
lane
vehicle
video camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811563290.5A
Other languages
English (en)
Inventor
朱帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of CN110119138A publication Critical patent/CN110119138A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

公开了用于自动驾驶车辆(ADV)的自定位方法、***和机器可读介质。在ADV中利用自定位***通过使用安装在车辆的各个位置的某些传感器确定车道内的相对位置。某些摄像机可以安装在车辆的不同位置以捕获关于车辆的周围环境的图像。基于所捕获的图像,车辆与车道边缘之间的距离可以使用图像识别处理或算法来确定。基于车辆与车道边缘之间的距离,车辆在车道内的相对位置可被确定。车辆在车道内的相对位置指车辆的前进方向与车道的中心线或参考线的纵向矢量之间的角度、以及车辆与车道的中心线或参考线之间的距离。

Description

用于自动驾驶车辆的自定位方法、***和机器可读介质
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及用于自动驾驶车辆的车道自定位。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可以使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
运动规划和控制是自动驾驶中的关键操作。这些操作依赖于车辆的位置或地点,车辆的位置或地点可以基于全球定位***(GPS)和例如车辆的IMU单元的其他传感器被确定。这种位置被称为基于地图的绝对位置。然而,有时候道路或车道内的本地相对位置对自动驾驶也是很重要的。这种本地相对位置的确定被称为自定位。自定位一直是一个挑战性的问题,还没有任何有效的方式来确定自动驾驶车辆(ADV)的相对位置。
发明内容
根据本公开的一方面,一种用于自动驾驶车辆的自定位的计算机实现方法包括:基于安装在自动驾驶车辆(ADV)的前端的第一位置的第一摄像机捕获的第一图像测量所述ADV的前端与所述ADV所驾驶的车道的左边缘之间的第一距离(L1);基于安装在所述ADV的前端的第二位置的第二摄像机捕获的第二图像测量所述ADV的前端与所述车道的右边缘之间的第二距离(L2);基于安装在所述ADV的后端的第三位置的第三摄像机捕获的第三图像测量所述ADV的后端与所述车道的左边缘之间的第三距离(L3);基于安装在所述ADV的后端的第四位置的第四摄像机捕获的第四图像测量所述ADV的后端与所述车道的右边缘之间的第四距离(L4);以及基于所述第一距离、所述第二距离、所述第三距离和所述第四距离确定所述ADV在所述车道内的本地相对位置。
根据本公开的另一方面,一种非暂时性机器可读介质存储有指令,所述指令在由处理器执行时致使所述处理器执行如下操作:基于安装在自动驾驶车辆(ADV)的前端的第一位置的第一摄像机捕获的第一图像测量所述ADV的前端与所述ADV所驾驶的车道的左边缘之间的第一距离(L1);基于安装在所述ADV的前端的第二位置的第二摄像机捕获的第二图像测量所述ADV的前端与所述车道的右边缘之间的第二距离(L2);基于安装在所述ADV的后端的第三位置的第三摄像机捕获的第三图像测量所述ADV的后端与所述车道的左边缘之间的第三距离(L3);基于安装在所述ADV的后端的第四位置的第四摄像机捕获的第四图像测量所述ADV的后端与所述车道的右边缘之间的第四距离(L4);以及基于所述第一距离、所述第二距离、所述第三距离和所述第四距离确定所述ADV在所述车道内的本地相对位置。
根据本公开的又一方面,一种数据处理***,包括:处理器;以及存储器,所述存储器联接到所述处理器以存储指令,所述指令在由所述处理器执行时致使所述处理器执行操作,所述操作包括:基于安装在自动驾驶车辆(ADV)的前端的第一位置的第一摄像机捕获的第一图像测量所述ADV的前端与所述ADV所驾驶的车道的左边缘之间的第一距离(L1);基于安装在所述ADV的前端的第二位置的第二摄像机捕获的第二图像测量所述ADV的前端与所述车道的右边缘之间的第二距离(L2);基于安装在所述ADV的后端的第三位置的第三摄像机捕获的第三图像测量所述ADV的后端与所述车道的左边缘之间的第三距离(L3);基于安装在所述ADV的后端的第四位置的第四摄像机捕获的第四图像测量所述ADV的后端与所述车道的右边缘之间的第四距离(L4);以及基于所述第一距离、所述第二距离、所述第三距离和所述第四距离确定所述ADV在所述车道内的本地相对位置。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考数字指示相似元件。
图1是示出根据一个实施方式的网络化***的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3A至图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划***的示例的框图。
图4是示出根据一个实施方式的自动驾驶车辆的自定位的示图。
图5是示出根据一个实施方式的确定车道内车辆的本地相对位置的过程的流程图。
图6是示出根据一个实施方式的评估自动驾驶***的过程的流程图。
图7是示出根据一个实施方式的数据处理***的框图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是对本公开的说明,而不应当解释为限制本公开。描述了许多特定细节以提供对本公开各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可以包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,在自动驾驶车辆中利用自定位***通过使用安装在车辆的各个位置或点的某些传感器确定在车辆所驾驶的车道内的相对位置。例如,某些摄像机可以安装在车辆的不同位置以捕获关于车辆的周围环境的图像。基于所捕获的图像,车辆与车道或道路的边缘之间的距离可使用图像识别处理或算法被确定。基于车辆与车道的边缘之间的距离,车辆在车道内的相对位置可被确定。车辆在车道内的相对位置指车辆的前进方向与车道的中心线或参考线的纵向矢量之间的角度、以及车辆与车道的中心线或参考线之间的距离。
根据一个实施方式,ADV的前端与ADV所驾驶的车道的左边缘之间的第一距离(L1)基于安装在ADV的前端的第一位置的第一摄像机捕获的第一图像来测量。ADV的前端与车道的右边缘之间的第二距离(L2)基于安装在ADV的前端的第二位置的第二摄像机捕获的第二图像来测量。ADV的后端与车道的左边缘之间的第三距离基于安装在ADV的后端的第三位置的第三摄像机捕获的第三图像来测量。ADV的后端与车辆的右边缘之间的第四距离基于安装在ADV的后端的第四位置的第四摄像机捕获的第四图像来测量。ADV在车道内的本地相对位置基于第一距离、第二距离、第三距离和第四距离被确定。
另外,ADV的前进方向与车道的中心线之间的角度基于第一距离、第二距离、第三距离和第四距离并考虑ADV的物理尺寸来计算。在一个实施方式中,考虑到ADV的车辆长度(VL),ADV的前进方向与车道的中心线之间的角度基于距离L1与距离L3的差或距离L2与距离L4的差被确定。特别地,根据具体的实施方式,该角度可以基于arcsin(|L1-L3|/VL)或arcsin(|L2-L4|/VL)被确定。
在计算在车道内的相对位置时,根据一个实施方式,基于第一距离、第二距离、第三距离和第四距离确定ADV的中心点与车道的中心线之间的第五距离,第五距离和车辆的前进方向与中心线之间的角度用于表示车辆在车道内的本地相对位置。在一个具体实施方式中,第五位置基于(L1+L3-L2-L4)/2被确定。在一个实施方式中,第一摄像机安装在ADV的左前角,第二摄像机安装在ADV的右前角。第三摄像机安装在ADV的左后角,第四摄像机安装在ADV的右后角。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可以通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或者位置服务器等。
自动驾驶车辆是指可以被配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可以包括传感器***,所述传感器***具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可以在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划***110、车辆控制***111、无线通信***112、用户接口***113、资讯娱乐***114和传感器***115。自动驾驶车辆101还可以包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可以由车辆控制***111和/或感知与规划***110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可以经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可以经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是被设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器***115包括但不限于一个或多个摄像机211、全球定位***(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS***212可以包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可以表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的***。在一些实施方式中,除感测对象之外,雷达单元214可以另外感测对象的速度和/或前进方向。LIDAR单元215可以使用激光来感测自动驾驶车辆所处环境中的对象。除其它***部件之外,LIDAR单元215还可以包括一个或多个激光源、激光扫描器以及一个或多个检测器。摄像机211可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。摄像机211可以是静物摄像机和/或视频摄像机。摄像机可以是可机械地移动的,例如,通过将摄像机安装在旋转和/或倾斜平台上。
传感器***115还可以包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可以被配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可以集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制***111包括但不限于转向单元201、油门单元202(也被称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
回到图1,无线通信***112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部***之间的通信。例如,无线通信***112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信***112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或***通信。无线通信***112可以例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口***113可以是在车辆101内实施的***装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可以由感知与规划***110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划***110包括必要的硬件(例如,处理器、存储器、存储设备)和软件(例如,操作***、规划和路线安排程序),以从传感器***115、控制***111、无线通信***112和/或用户接口***113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。替代地,感知与规划***110可以与车辆控制***111集成在一起。
例如,作为乘客的用户可以例如经由用户接口来指定行程的起始位置和目的地。感知与规划***110获得行程相关数据。例如,感知与规划***110可以从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。替代地,此类位置和MPOI信息可以本地高速缓存在感知与规划***110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划***110也可以从交通信息***或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。替代地,服务器103至104的功能可以与感知与规划***110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器***115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划***110可以规划最佳路线并且根据所规划的路线例如经由控制***111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是数据分析***以为各种客户执行数据分析服务。在一个实施方式中,数据分析***103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(自动驾驶车辆或由驾驶员驾驶的普通车辆)收集驾驶统计数据123。驾驶统计数据123包括指示所发布的驾驶命令(例如,油门、制动、转向命令)的信息和由车辆的传感器在不同时间点采集的车辆响应(例如,速度、加速度、减速度、方向)。驾驶统计数据123还可以包括描述不同时间点的驾驶环境的信息,例如路线(包括起始位置和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,机器学习引擎122生成或训练一组规则、算法和/或预测模型124用于各种目的。在一个实施方式中,算法124可以包括至少一个算法以计算和确定ADV在车道内的本地相对位置。车辆的本地相对位置指车辆的前进方向与车辆所处车道的方向之间的角度。车道的方向可以指与与车道的中心线相关联的纵向矢量。本地相对位置还可以由车辆与中心线之间的距离(例如车辆的中心与中心线之间的横向或最短距离)表示。也就是说,车辆的本地相对位置由(1)车辆的前进方向与中心线的纵向矢量之间的角度和(2)车辆的中心与中心线之间的最短距离表示。在一个实施方式中,车辆与中心线之间的角度和距离可基于安装在车辆的不同位置或点的各个摄像机捕获的图像来计算。算法124然后可实时被上传到自动驾驶车辆。
根据一个实施方式,图像也可由车辆使用具体的自动驾驶***或方法收集并在一段时间后存储为驾驶统计数据123的一部分。评估***125可以被唤醒以通过基于图像确定车辆在已驾驶经过的车道内的本地相对位置来分析该具体的自动驾驶***或方法。基于在不同时间点或不同驾驶情形或驾驶环境下车辆的本地相对位置并考虑到全球绝对位置,评估***125可确定自动驾驶***是否需要调整或改进。这种评估过程可基于从在过去的时间驾驶的各种车辆收集的驾驶统计数据123被离线地执行。
图3A和图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划***的示例的框图。***300可以被实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划***110、控制***111和传感器***115。参考图3A至图3B,感知与规划***110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、路程安排模块307、以及自定位模块308。
模块301至308中的一些或全部可以以软件、硬件或其组合实施。例如,这些模块可以安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可以通信地联接到图2的车辆控制***111的一些或全部模块或者与它们集成在一起。模块301至308中的一些可以一起集成为集成模块。
定位模块301确定自动驾驶车辆300(例如,利用GPS单元212)的当前位置并管理与用户的行程或路线相关的任何数据。定位模块301(也被称为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可以例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图和路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可以从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可以作为地图和路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可以从交通信息***或服务器获得实时交通信息。
基于由传感器***115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可以包括例如采用对象形式的车道配置(例如,直线车道或弯曲车道)、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。
感知模块302可以包括计算机视觉***或计算机视觉***的功能,以处理并分析由一个或多个摄像机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可以包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉***可以使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉***可以绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可以基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
针对每个对象,预测模块303预测对象在环境下将会如何表现。所述预测鉴于地图/路线信息311和交通规则312的集合基于在时间点感知驾驶环境的感知数据而执行。例如,如果对象是沿相反方向的车辆且当前驾驶环境包括十字路口,则预测模块303预测车辆可能直行还是转弯。如果感知数据指示十字路口没有交通灯,则预测模块303可以预测车辆可能必须在进入十字路口之前完全停住。如果感知数据指示车辆当前位于只左转车道或只右转车道,则预测模块303可以预测车辆更可能左转或右转。
针对每个对象,决策模块304作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何与所述对象相遇(例如,超车、让行、停止、超过)。决策模块304可以根据诸如交通规则或驾驶规则312的规则集来作出此类决定,所述规则集可以存储在永久性存储装置352中。
路程安排模块307被配置为提供从起始点到目的地点的一个或多个路线或路径。对于(例如,从用户接收的)从起始位置到目的地位置的给定行程,路程安排模块307获得路线和地图信息311并确定从起始位置开始到达目的地位置的所有可能路线或路径。路程安排模块307可以为它确定从起始位置开始到达目的地位置的每个路线生成地形图形式的参考线。参考线指没有来自例如其他车辆、障碍物或交通状况的其他事物的任何干扰的理想的路线或路径。也就是说,如果道路上没有其他车辆、行人或障碍物,ADV应该准确地或严密地遵循参考线。然后,地形图被提供给决策模块304和/或规划模块305。考虑到由其他模块提供的其他数据,例如来自定位模块301的交通状况、感知模块302感知的驾驶环境和预测模块303预测的交通状况,决策模块304和/或规划模块305检查所有可能的路线以选择和修改最佳路线之一。依赖于在时间点的特定驾驶环境,用于控制ADV的实际路径或路线可以与由路程安排模块307提供的参考线接近或不同。
基于针对所感知到的对象中的每个的决定,规划模块305以路程安排模块307提供的参考线为基础为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304可以决定超过所述对象,而规划模块305可以确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可以指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制***111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动和转弯命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个也称为命令周期的规划周期中执行,例如在每100毫秒(ms)时间段中执行。对于每个规划周期或命令周期,一个或多个控制命令将基于规划和控制数据被发出。也就是说,对于每100ms,规划模块305规划下一路线段或路径段,例如包括目标位置和ADV到达目标位置所需的时间。替代地,规划模块305还可以规定具体的速度、方向、和/或转向角度等。在一个实施方式中,规划模块305规划下一预定时间段例如5秒的路线段或路径段。对于每个规划周期,规划模块305基于前一周期中规划的目标位置规划当前周期(例如,下一5秒)的目标位置。然后,控制模块306基于当前周期的规划和控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
注意,决策模块304和规划模块305可以集成为集成模块。决策模块304/规划模块305可以包括导航***或导航***的功能,以确定自动驾驶车辆的驾驶路径。例如,导航***可以确定用于实现自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可以根据经由用户接口***113进行的用户输入来设定。导航***可以在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航***可以将来自GPS***和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
决策模块304/规划模块305还可以包括防撞***或防撞***的功能,以识别、评估并且避免或以其它方式越过自动驾驶车辆的环境中的潜在障碍物。例如,防撞***可以通过以下方式实现自动驾驶车辆的导航中的变化:操作控制***111中的一个或多个子***来采取变向操纵、转弯操纵、制动操纵等。防撞***可以基于周围的交通模式、道路状况等自动确定可行的障碍物回避操纵。防撞***可以被配置成使得当其它传感器***检测到位于自动驾驶车辆将变向进入的相邻区域中的车辆、建筑障碍物等时不采取变向操纵。防撞***可以自动选择既可使用又使得自动驾驶车辆乘员的安全性最大化的操纵。防撞***可以选择预测使得自动驾驶车辆的乘客舱中出现最小量的加速度的避让操纵。
在一个实施方式中,自定位模块308被配置为使用安装在车辆的各个位置或点的某些传感器确定车辆在所驾驶的车道内的相对位置。例如,某些摄像机可以安装在车辆的不同位置以捕获关于车辆的周围环境的图像。摄像机可用于捕获关于车道边缘的图像。基于所捕获的图像,车辆与车道或道路的边缘之间的距离可以使用图像识别处理或算法被确定。
基于车辆与车道的边缘之间的距离,车辆在车道内的本地相对位置可被确定。车辆在车道内的本地相对位置指车辆的前进方向与车道方向(例如,中心线或参考线的纵向矢量)之间的角度、以及车辆(例如,车辆的中心)与车道的中心线/参考线之间的距离(例如,最短距离)。车辆的本地相对位置可被反馈回定位模块301以帮助确定车辆的位置/地点,车辆的位置/地点可由例如如图3B中所示的规划模块305和控制模块306等的其他下游模块使用。
在一个实施方式中,自定位模块308包括横向距离计算器321和方向角计算器322。横向距离计算器321被配置为计算车辆与车道的中心线之间的距离。方向角计算器322被配置为计算车辆的前进方向与车道的中心线之间的角度。所述距离和角度可以基于车辆的多个点与车道的左边缘和右边缘之间的距离来计算。车辆的点与车道的边缘之间的距离可从使用这些点附近的摄像机捕获的图像得到。因此,将某些摄像机安装在车辆的某些点对于确定车辆在车道内的本地相对位置是很重要的。在一个实施方式中,摄像机安装在车辆的最外面的点,即离车道边缘最近的点处。
现在参考图4,在此实施方式中,存在安装在车辆400的四个角的至少四个摄像机,例如摄像机401-404。摄像机401-404的镜头被配置为向外面向车道410的边缘405-406。摄像机在车辆上的安装位置被确定以测量车辆的最近点与车道410的边缘405-406之间的距离。在一个实施方式中,摄像机401-404安装在车辆的四个角。在此实施方式中,摄像机401安装在车辆的左前角,摄像机402安装在车辆的右前角。摄像机403安装在车辆的左后角,摄像机404安装在车辆的右后角。
当车辆移动通过车道410时,摄像机401-404周期性地或不断地捕获关于车道410的边缘405-406的图像。图像可以存储在例如永久性存储装置352的永久性存储装置中作为图像315的一部分。注意,图像315可以作为在车辆的自动驾驶期间采集和记录的(例如,具有时间戳、相关联的位置的)驾驶统计数据的一部分被存储或与所述驾驶统计数据相关联被存储。所捕获的图像可由自定位模块308使用以确定车辆在车道410内的本地相对位置,所述车辆的本地相对位置可由定位模块301使用以确定车辆的精确位置。车辆的精确位置可包括基于GPS和IMU信息确定的绝对位置和基于安装在车辆的各个战略安装点的摄像机捕获的图像确定的车道内的相对位置。
根据一个实施方式,自定位模块308包括距离测量模块或图像分析模块(未示出)以分析和测量捕获图像的摄像机与目标对象(例如,车道的边缘)之间的距离。存在可用于基于图像测量距离的许多已知的算法或方法,它们的细节将不在本文中描述。如图4所示,距离测量模块基于摄像机401捕获的第一图像测量摄像机401与车道410的边缘405之间的第一距离(L1)(例如,摄像机401与左边缘405之间的最短距离)。距离测量模块基于摄像机402捕获的第二图像测量摄像机402与车道410的边缘406之间的第二距离(L2)(例如,摄像机402与右边缘406之间的最短距离)。类似地,距离测量模块基于摄像机403捕获的第三图像测量摄像机403与车道410的边缘405之间的距离(L3)。距离测量模块基于摄像机404捕获的第四图像测量摄像机404与车道410的边缘406之间的第四距离(L4)。
基于距离L1至L4,横向距离计算器321被配置为计算车辆的位置与车道410的中心线(或参考线)之间的距离(S)。在一个实施方式中,车辆的位置由考虑到车辆长度(VL)和车辆宽度(VW)的车辆的中心点415表示。车辆的物理尺寸(例如,VL和VW)可依赖于车辆制造商改变。车辆的物理规格可从制造商获得并存储在车辆内。在一个实施方式中,横向距离S可基于(L1+L3)与(L2+L4)的差被确定。在具体的实施方式中,横向距离S可按如下被确定:
S=[(L1+L3)–(L2+L4)]/2
横向距离S的正值指示车辆的大部分(例如,车辆的中心)当前位于车道410的中心线420的右侧。类似地,横向距离S的负值指示车辆当前位于车道410的中心线420的左侧。
另外,方向角计算器322被配置为计算车辆的前进方向与车道410的方向之间的角度(θ)。车道410的方向由于中心线420相关联的纵向矢量表示。类似地,车辆的前进方向指沿车辆的前端和后端的纵向矢量,例如,线或矢量425。在一个实施方式中,车辆的方向与车道410的方向之间的角度θ可基于L1与L3的差并考虑车辆的车辆长度VL而确定。替代地,角度θ可基于L2与L4的差并考虑长度VL而确定。例如,角度θ可基于比值|L1–L3|/VL或|L2–L4|/VL被确定。在具体的实施方式中,角度θ可按如下被确定:
θ=arcsin(|L1–L3|/VL),或
θ=arcsin(|L2–L4|/VL)
图5是示出根据一个实施方式的确定自动驾驶车辆在车道内的本地相对位置的过程的流程图。过程500可由处理逻辑执行,所述处理逻辑可包括软件、硬件或其组合。例如,过程500可由自定位模块308执行。参考图5,在操作501中,处理逻辑基于安装在ADV的第一安装位置或安装点的第一摄像机捕获的第一图像测量ADV的前端与ADV所驾驶的车道的左边缘之间的第一距离。在操作中,处理逻辑基于安装在ADV的前端的第一安装位置或安装点的第一摄像机捕获的第一图像测量ADV的前端与ADV所驾驶的车道的第一边缘(例如,左边缘)之间的第一距离。在操作502中,处理逻辑基于安装在ADV的前端的第二安装位置或安装点的第二摄像机捕获的第二图像测量ADV的前端与车道的第二边缘(例如,右边缘)之间的第二距离。在操作503中,处理逻辑基于安装在ADV的后端的第三安装位置或安装点的第三摄像机捕获的第三图像测量ADV的后端与车道的第一边缘之间的第三距离。在操作504中,处理逻辑基于安装在ADV的后端的第四安装位置或安装点的第四摄像机捕获的第四图像测量ADV的后端与车道的第二边缘之间的第四距离。在操作505中,基于第一距离、第二距离、第三距离和第四距离确定ADV的本地相对位置/地点(例如,横向距离、角度)。
如上所述,上述的自定位技术还可用于评估用于规划和控制自动驾驶车辆的自动驾驶方法或算法的质量。车辆的本地相对位置可用于确定具体的规划和控制算法是否被执行以实现了期望的结果等。所述评估过程可基于车辆收集的(包括摄像机捕获的关于车辆所行驶的车道的边缘的图像的)驾驶统计数据被离线执行。例如,评估***125可包括自定位模块308以确定不同时间点的车辆在不同车道或道路内的本地相对位置。自动驾驶算法或方法可在考虑评估的前提下进行修改或改进。
图6是示出根据一个实施方式的评估自动驾驶规划方法的过程的流程图。过程600可由处理逻辑执行,所述处理逻辑可包括软件、硬件、或其组合。例如,过程600可由图1的评估***125执行。参考图6,在操作601中,处理逻辑接收驾驶在各种车道和道路上的各个车辆收集的驾驶统计数据。驾驶统计数据可以包括由车辆的摄像机捕获的关于车辆所驾驶的车道或道路的边缘的图像。在操作602中,对于所选择的车辆的某些车道的所选择的每个车道段,处理逻辑基于安装在车辆的不同安装位置的摄像机捕获的图像测量车辆与车道的边缘之间的距离(例如,L1至L4)。在操作603中,处理逻辑基于车辆与车道的边缘之间的距离确定车辆在车道内的本地相对位置。在操作604中,处理逻辑基于不同时间点的车辆在不同车道或道路内的本地相对位置对驾驶相同车辆所使用的自动驾驶方法或算法进行评估。如果有必要,在操作605中,自动驾驶算法可以基于所述评估进行修改或调整。
应注意,如上文示出和描述的部件中的一些或全部可以在软件、硬件或其组合中实施。例如,此类部件可以实施为安装并存储在永久性存储装置中的软件,所述软件可以通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。替代地,此类部件可以实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可以经由来自应用的相应驱动程序和/或操作***来访问。此外,此类部件可以实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图7是示出可以与本公开的一个实施方式一起使用的数据处理***的示例的框图。例如,***1500可以表示以上所述的执行上述过程或方法中的任一个的任何数据处理***,例如,图1的感知与规划***110或者服务器103至104中的任一个。***1500可以包括许多不同的部件。这些部件可以实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机***的主板或***卡)的其它模块或者实施为以其它方式并入计算机***的机架内的部件。
还应注意,***1500旨在示出计算机***的许多部件的高阶视图。然而,应当理解的是,某些实施例中可以具有附加的部件,此外,其它实施例中可以具有所示部件的不同布置。***1500可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或***,但是术语“机器”或“***”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或***的任何集合。
在一个实施方式中,***1500包括通过总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可以表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可以表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可以充当用于与所述***的各种部件通信的主处理单元和中央集线器。这种处理器可以实施为片上***(SoC)。处理器1501被配置成执行用于执行本文所讨论的操作和步骤的指令。***1500还可以包括与可选的图形子***1504通信的图形接口,图形子***1504可以包括显示控制器、图形处理器和/或显示装置。
处理器1501可以与存储器1503通信,存储器1503在一个实施方式中可以经由多个存储器装置实施以提供给定量的***存储。存储器1503可以包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可以存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作***、装置驱动程序、固件(例如,输入输出基本***或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器1503中并由处理器1501执行。操作***可以是任何类型的操作***,例如,机器人操作***(ROS)、来自公司的操作***、来自苹果公司的来自公司的LINUX、UNIX,或者其它实时或嵌入式操作***。
***1500还可以包括IO装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506,以及其它可选的IO装置1507。网络接口装置1505可以包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位***(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可以包括鼠标、触摸板、触敏屏幕(其可以与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可以包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
IO装置1507可以包括音频装置。音频装置可以包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它IO装置1507还可以包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可以包括成像处理子***(例如,摄像机),所述成像处理子***可以包括用于促进摄像机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可以根据***1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供对诸如数据、应用、一个或多个操作***等信息的永久性存储,大容量存储设备(未示出)也可以联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的***设计并且改进***响应性,这种大容量存储设备可以经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储设备可以主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储设备充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在***活动重新启动时能够实现快速通电。另外,闪存装置可以例如经由串行***接口(SPI)联接到处理器1501。这种闪存装置可以提供***软件的非易失性存储,所述***软件包括所述***的BIOS以及其它固件。
存储装置1508可以包括计算机可访问的存储介质1509(也被称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可以表示上述部件中的任一个,例如规划模块305、控制模块306和/或自定位模块308。处理模块/单元/逻辑1528还可以在其由数据处理***1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理***1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可以通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本公开的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可以实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可以实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然***1500被示出为具有数据处理***的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本公开的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理***也可以与本公开的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机***或类似电子计算装置的动作和处理,所述计算机***或电子计算装置操控计算机***的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机***存储器或寄存器或者其它此类信息存储设备、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可以按不同的顺序执行。此外,一些操作可以并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可以使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本发明的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本发明的更宽泛精神和范围的情况下,可以对本公开作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。

Claims (22)

1.一种用于自动驾驶车辆的自定位的计算机实现方法,所述方法包括:
基于安装在自动驾驶车辆ADV的前端的第一位置的第一摄像机捕获的第一图像测量所述ADV的前端与所述ADV所驾驶的车道的左边缘之间的第一距离L1;
基于安装在所述ADV的前端的第二位置的第二摄像机捕获的第二图像测量所述ADV的前端与所述车道的右边缘之间的第二距离L2;
基于安装在所述ADV的后端的第三位置的第三摄像机捕获的第三图像测量所述ADV的后端与所述车道的左边缘之间的第三距离L3;
基于安装在所述ADV的后端的第四位置的第四摄像机捕获的第四图像测量所述ADV的后端与所述车道的右边缘之间的第四距离L4;以及
基于所述第一距离、所述第二距离、所述第三距离和所述第四距离确定所述ADV在所述车道内的本地相对位置。
2.如权利要求1所述的方法,其中确定所述ADV在所述车道内的本地相对位置包括:考虑到所述ADV的物理尺寸,基于所述第一距离和所述第三距离或基于所述第二距离和所述第四距离计算所述ADV的前进方向与所述车道的中心线之间的角度。
3.如权利要求2所述的方法,其中考虑到所述ADV的长度,所述ADV的前进方向与所述车道的中心线之间的角度基于L1与L3的差或L2与L4的差被确定。
4.如权利要求3所述的方法,其中所述ADV的前进方向与所述车道的中心线之间的角度基于arcsin(|L3-L1|/所述ADV的长度)或基于arcsin(|L2-L4|/所述ADV的长度)被确定。
5.如权利要求2所述的方法,进一步包括:基于所述第一距离、所述第二距离、所述第三距离和所述第四距离计算所述ADV的中心与所述车道的中心线之间的第五距离。
6.如权利要求5所述的方法,其中所述ADV的中心与所述车道的中心线之间的所述第五距离基于(L1+L3-L2-L4)/2来计算。
7.如权利要求1所述的方法,其中所述第一摄像机安装在所述ADV的左前角,所述第二摄像机安装在所述ADV的右前角。
8.如权利要求1所述的方法,其中所述第四摄像机安装在所述ADV的左后角,所述第四摄像机安装在所述ADV右后角。
9.一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行操作,所述操作包括:
基于安装在自动驾驶车辆ADV的前端的第一位置的第一摄像机捕获的第一图像测量所述ADV的前端与所述ADV所驾驶的车道的左边缘之间的第一距离L1;
基于安装在所述ADV的前端的第二位置的第二摄像机捕获的第二图像测量所述ADV的前端与所述车道的右边缘之间的第二距离L2;
基于安装在所述ADV的后端的第三位置的第三摄像机捕获的第三图像测量所述ADV的后端与所述车道的左边缘之间的第三距离L3;
基于安装在所述ADV的后端的第四位置的第四摄像机捕获的第四图像测量所述ADV的后端与所述车道的右边缘之间的第四距离(L4);以及
基于所述第一距离、所述第二距离、所述第三距离和所述第四距离确定所述ADV在所述车道内的本地相对位置。
10.如权利要求9所述的机器可读介质,其中确定所述ADV在所述车道内的本地相对位置包括:考虑到所述ADV的物理尺寸,基于所述第一距离和所述第三距离或基于所述第二距离和所述第四距离计算所述ADV的前进方向与所述车道的中心线之间的角度。
11.如权利要求10所述的机器可读介质,其中考虑到所述ADV的长度,所述ADV的前进方向与所述车道的中心线之间的角度基于L1与L3的差或L2与L4的差被确定。
12.如权利要求11所述的机器可读介质,其中所述ADV的前进方向与所述车道的中心线之间的角度基于arcsin(|L3-L1|/所述ADV的长度)或基于arcsin(|L2-L4|/所述ADV的长度)被确定。
13.如权利要求10所述的机器可读介质,其中所述操作进一步包括基于所述第一距离、所述第二距离、所述第三距离和所述第四距离计算所述ADV的中心与所述车道的中心线之间的第五距离。
14.如权利要求13所述的机器可读介质,其中所述ADV的中心与所述车道的中心线之间的所述第五距离基于(L1+L3-L2-L4)/2来计算。
15.如权利要求9所述的机器可读介质,其中所述第一摄像机安装在所述ADV的左前角,所述第二摄像机安装在所述ADV的右前角。
16.如权利要求9所述的机器可读介质,其中所述第三摄像机安装在所述ADV的左后角,所述第四摄像机安装在所述ADV的右后角。
17.一种数据处理***,包括:
处理器;以及
存储器,所述存储器联接到所述处理器以存储指令,所述指令在由所述处理器执行时致使所述处理器执行操作,所述操作包括:
基于安装在自动驾驶车辆ADV的前端的第一位置的第一摄像机捕获的第一图像测量所述ADV的前端与所述ADV所驾驶的车道的左边缘之间的第一距离L1;
基于安装在所述ADV的前端的第二位置的第二摄像机捕获的第二图像测量所述ADV的前端与所述车道的右边缘之间的第二距离L2;
基于安装在所述ADV的后端的第三位置的第三摄像机捕获的第三图像测量所述ADV的后端与所述车道的左边缘之间的第三距离L3;
基于安装在所述ADV的后端的第四位置的第四摄像机捕获的第四图像测量所述ADV的后端与所述车道的右边缘之间的第四距离L4;以及
基于所述第一距离、所述第二距离、所述第三距离和所述第四距离确定所述ADV在所述车道内的本地相对位置。
18.如权利要求17所述的***,其中确定所述ADV在所述车道内的本地相对位置包括:考虑到所述ADV的物理尺寸,基于所述第一距离和所述第三距离或基于所述第二距离和所述第四距离计算所述ADV的前进方向与所述车道的中心线之间的角度。
19.如权利要求18所述的***,其中考虑到所述ADV的长度,所述ADV的前进方向与所述车道的中心线之间的角度基于L1与L3的差或L2与L4的差被确定。
20.如权利要求19所述的***,其中所述ADV的前进方向与所述车道的中心线之间的角度基于arcsin(|L3-L1|/所述ADV的长度)或基于arcsin(|L2-L4|/所述ADV的长度)被确定。
21.如权利要求18所述的***,其中所述操作进一步包括基于所述第一距离、所述第二距离、所述第三距离和所述第四距离计算所述ADV的中心与所述车道的中心线之间的第五距离。
22.如权利要求21所述的***,其中所述ADV的中心与所述车道的中心线之间的所述第五距离基于(L1+L3-L2-L4)/2来计算。
CN201811563290.5A 2018-02-07 2018-12-20 用于自动驾驶车辆的自定位方法、***和机器可读介质 Pending CN110119138A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/891,360 2018-02-07
US15/891,360 US20190241180A1 (en) 2018-02-07 2018-02-07 Lane self-localization system using multiple cameras for autonomous driving vehicles

Publications (1)

Publication Number Publication Date
CN110119138A true CN110119138A (zh) 2019-08-13

Family

ID=65199345

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811563290.5A Pending CN110119138A (zh) 2018-02-07 2018-12-20 用于自动驾驶车辆的自定位方法、***和机器可读介质

Country Status (5)

Country Link
US (1) US20190241180A1 (zh)
EP (1) EP3524494B1 (zh)
JP (1) JP6667688B2 (zh)
KR (1) KR102309496B1 (zh)
CN (1) CN110119138A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113311844A (zh) * 2021-07-28 2021-08-27 福勤智能科技(昆山)有限公司 一种伺服控制方法、装置、计算机设备及存储介质
CN113525365A (zh) * 2021-07-21 2021-10-22 上汽通用五菱汽车股份有限公司 道路规划方法、装置及计算机可读存储介质
CN113822930A (zh) * 2020-06-19 2021-12-21 黑芝麻智能科技(重庆)有限公司 用于高精度定位停车场中的物体的***和方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114364589A (zh) * 2019-09-27 2022-04-15 株式会社爱信 驾驶支援装置以及计算机程序
CN111860319B (zh) * 2020-07-20 2024-03-26 阿波罗智能技术(北京)有限公司 车道线的确定方法、定位精度的评测方法、装置、设备
KR102633705B1 (ko) * 2020-12-03 2024-02-06 재단법인대구경북과학기술원 자율주행을 위한 차량의 위치추정 장치 및 방법
CN113900070B (zh) * 2021-10-08 2022-09-27 河北德冠隆电子科技有限公司 雷达车道自动绘制目标数据精准输出的方法、装置与***
JP2024011401A (ja) * 2022-07-14 2024-01-25 三菱重工機械システム株式会社 データ処理アルゴリズム評価装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6173222B1 (en) * 1997-10-10 2001-01-09 Hyundai Motor Company Steering control system and method for autonomous intelligent vehicles
US6476731B1 (en) * 1998-12-03 2002-11-05 Aisin Aw Co., Ltd. Driving support device
US20140257640A1 (en) * 2011-11-08 2014-09-11 Toyota Jidosha Kabushiki Kaisha Vehicle travel track control device
US20160314358A1 (en) * 2015-04-21 2016-10-27 Alpine Electronics, Inc. Electronic Device, Traveling Lane Identifying System, and Traveling Lane Identifying Method
WO2017159509A1 (ja) * 2016-03-15 2017-09-21 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4329088B2 (ja) * 1998-02-18 2009-09-09 株式会社エクォス・リサーチ 車両制御装置
JP2001180401A (ja) * 1999-12-24 2001-07-03 Aisin Aw Co Ltd 運転支援装置及び運転支援方法
US20020084894A1 (en) * 2001-01-03 2002-07-04 Horng Chun Hsien Traffic condition monitoring system with cameras for vehicle
JP2009253673A (ja) * 2008-04-07 2009-10-29 Clarion Co Ltd 車両用周囲状況表示装置
KR101262921B1 (ko) * 2009-11-10 2013-05-09 한국전자통신연구원 차량의 차선 유지 및 이탈 방지 장치, 및 그 방법
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
EP3081433A1 (en) * 2015-10-12 2016-10-19 Continental Automotive GmbH An improved camera module for vehicle
US10322717B2 (en) * 2016-01-04 2019-06-18 GM Global Technology Operations LLC Expert mode for vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6173222B1 (en) * 1997-10-10 2001-01-09 Hyundai Motor Company Steering control system and method for autonomous intelligent vehicles
US6476731B1 (en) * 1998-12-03 2002-11-05 Aisin Aw Co., Ltd. Driving support device
US20140257640A1 (en) * 2011-11-08 2014-09-11 Toyota Jidosha Kabushiki Kaisha Vehicle travel track control device
US20160314358A1 (en) * 2015-04-21 2016-10-27 Alpine Electronics, Inc. Electronic Device, Traveling Lane Identifying System, and Traveling Lane Identifying Method
WO2017159509A1 (ja) * 2016-03-15 2017-09-21 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822930A (zh) * 2020-06-19 2021-12-21 黑芝麻智能科技(重庆)有限公司 用于高精度定位停车场中的物体的***和方法
CN113822930B (zh) * 2020-06-19 2024-02-09 黑芝麻智能科技(重庆)有限公司 用于高精度定位停车场中的物体的***和方法
CN113525365A (zh) * 2021-07-21 2021-10-22 上汽通用五菱汽车股份有限公司 道路规划方法、装置及计算机可读存储介质
CN113311844A (zh) * 2021-07-28 2021-08-27 福勤智能科技(昆山)有限公司 一种伺服控制方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
EP3524494A1 (en) 2019-08-14
JP6667688B2 (ja) 2020-03-18
KR20190100855A (ko) 2019-08-29
EP3524494B1 (en) 2021-06-09
US20190241180A1 (en) 2019-08-08
JP2019137391A (ja) 2019-08-22
KR102309496B1 (ko) 2021-10-07

Similar Documents

Publication Publication Date Title
US12017663B2 (en) Sensor aggregation framework for autonomous driving vehicles
US10816984B2 (en) Automatic data labelling for autonomous driving vehicles
CN109489673A (zh) 用于自动驾驶车辆的数据驱动地图更新***
CN110388931A (zh) 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法
CN110119138A (zh) 用于自动驾驶车辆的自定位方法、***和机器可读介质
CN110389584A (zh) 用于评估自动驾驶车辆的轨迹候选项的方法
CN109426256A (zh) 自动驾驶车辆的基于驾驶员意图的车道辅助***
CN109195860A (zh) 自动驾驶车辆的车道路缘辅助离道检查和车道保持***
CN110096053A (zh) 用于自动驾驶车辆的驾驶轨迹生成方法、***和机器可读介质
CN108732589A (zh) 利用3d lidar和定位自动采集用于对象识别的训练数据
CN110345955A (zh) 用于自动驾驶的感知与规划协作框架
CN108139884A (zh) 模拟自动驾驶车辆移动的物理模型和结合机器学习的方法
CN110389585A (zh) 用于自动驾驶车辆的基于学习的速度规划器
CN110389583A (zh) 生成自动驾驶车辆的轨迹的方法
CN110347145A (zh) 用于自动驾驶车辆的感知辅助
CN108137015A (zh) 用于自动驾驶车辆的侧滑补偿控制方法
JP6890639B2 (ja) 自動運転のための交差検証に基づく自動lidarキャリブレーション
CN109429518A (zh) 基于地图图像的自动驾驶交通预测
CN110531750A (zh) 用于自动驾驶车辆的pid嵌入式lqr
CN109937343A (zh) 用于自动驾驶车辆交通预测中的预测轨迹的评估框架
CN110239562A (zh) 自动驾驶车辆的基于周围车辆行为的实时感知调整与驾驶调适
CN109196432A (zh) 用于自动驾驶车辆的速度控制参数估计方法
CN110462543A (zh) 用于评估自动驾驶车辆的感知要求的基于仿真的方法
CN108604095A (zh) 动态调整自动驾驶车辆的转向率的方法
CN110378483A (zh) 部署在模拟平台上的用于训练机器学习模型的***和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination