CN108089571B - 用于预测无人驾驶车辆的车辆交通行为以做出驾驶决策的方法和*** - Google Patents
用于预测无人驾驶车辆的车辆交通行为以做出驾驶决策的方法和*** Download PDFInfo
- Publication number
- CN108089571B CN108089571B CN201710779810.5A CN201710779810A CN108089571B CN 108089571 B CN108089571 B CN 108089571B CN 201710779810 A CN201710779810 A CN 201710779810A CN 108089571 B CN108089571 B CN 108089571B
- Authority
- CN
- China
- Prior art keywords
- gesture
- gestures
- vehicles
- detected
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 9
- 238000004904 shortening Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 abstract description 3
- 230000008447 perception Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 10
- 230000006399 behavior Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000002085 persistent effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910000078 germane Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18154—Approaching an intersection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00276—Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/175—Autonomous driving
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/65—Data transmitted between vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
响应于从无人驾驶车辆的一个或多个传感器接收的传感器数据,生成一个或多个预测轨迹,其中每个预测轨迹具有相关联的概率。对触发手势辨识的一个或多个驾驶场景进行识别。针对每个所识别的驾驶场景,根据手势检测协议检测来自一个或多个车辆的一个或多个手势。基于检测到的手势,根据手势发出协议从无人驾驶车辆发出用于与车辆通信的一个或多个手势。基于检测到的手势、所发出的手势和预测轨迹的相关联的概率来修改预测轨迹。基于所修改的预测轨迹来控制无人驾驶车辆。
Description
技术领域
本发明的实施方案总体涉及操作无人驾驶车辆。更具体地,本发明的实施方案涉及预测无人驾驶车辆的车辆交通行为以做出驾驶决策。
背景技术
以自主模式运行(例如,无人驾驶)的车辆可以将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自主模式运行时,车辆可以使用车载传感器导航到各种位置,从而允许车辆在最少人机交互的情况下或在一些没有任何乘客的情况下行驶。
类似于人类在驾驶时做出各种决策,无人驾驶车辆总是必须根据实际的周围环境做出即时驾驶决策,所述周围环境包括但不限于停车控制交叉点或交叉口、让行控制交叉口等。这种环境常常造成驾驶困难(例如,死锁),因为可能难以确定哪个车辆例如具有通行权。然而,人类可以通过手势(例如,手部运动)彼此沟通来容易地解决困难。不幸的是,这对于无人驾驶车辆来说可能具有挑战性。
发明内容
为了解决现有技术中的至少一些问题,本发明提供了一种用于操作无人驾驶车辆的由计算机实现的方法。
根据本发明的一方面,提供了一种用于操作无人驾驶车辆的由计算机实现的方法,该方法包括:基于从无人驾驶车辆的一个或多个传感器接收的传感器数据生成一个或多个预测轨迹,预测轨迹中的每一个均与概率相关联;根据手势检测协议检测来自一个或多个车辆的一个或多个手势;基于检测到的手势,根据手势发出协议从无人驾驶车辆发出用于与一个或多个车辆通信的一个或多个手势;基于检测到的手势、所发出的手势和预测轨迹的相关联概率来修改预测轨迹;以及基于修改的预测轨迹来控制无人驾驶车辆。
根据本发明的一方面,提供了一种具有存储在其中的指令的非暂时性机器可读介质,所述指令在由处理器执行时,致使所述处理器执行用于操作无人驾驶车辆的操作,所述操作包括:基于从无人驾驶车辆的一个或多个传感器接收的传感器数据生成一个或多个预测轨迹,预测轨迹中的每一个与概率相关联;根据手势检测协议检测来自一个或多个车辆的一个或多个手势;基于检测到的手势,根据手势发出协议从无人驾驶车辆发出用于与一个或多个车辆通信的一个或多个手势;基于检测到的手势、所发出的手势和预测轨迹的相关联概率来修改预测轨迹;以及基于修改的预测轨迹来控制无人驾驶车辆。
根据本发明的一方面,提供了一种数据处理***,包括:处理器;以及存储器,存储器联接到处理器以存储指令,指令在由处理器执行时,致使处理器执行用于操作无人驾驶车辆的操作,操作包括:基于从无人驾驶车辆的一个或多个传感器接收的传感器数据生成一个或多个预测轨迹,预测轨迹中的每一个与概率相关联,根据手势检测协议检测来自一个或多个车辆的一个或多个手势,基于检测到的手势、根据手势发出协议从无人驾驶车辆发出用于与一个或多个车辆通信的一个或多个手势,基于检测到的手势、所发出的手势和预测轨迹的相关联概率来修改预测轨迹,以及基于修改的预测轨迹来控制无人驾驶车辆。
附图说明
本发明的实施方案在附图的各图中以示例而非限制的方式示出,附图中的相似附图标记指示类似元件。
图1是示出根据本发明一个实施方案的网络化***的框图。
图2是示出根据本发明一个实施方案的无人驾驶车辆的示例的框图。
图3是示出根据本发明一个实施方案的用于无人驾驶车辆的感知和规划***的示例的框图。
图4是示出根据本发明一个实施方案的操作无人驾驶车辆的示例的框图。
图5是示出根据本发明一个实施方案的操作无人驾驶车辆的过程的流程图。
图6A和图6B示出根据本发明一个实施方案的驾驶场景的示例。
图7是示出根据一个实施方案的数据处理***的框图。
具体实施方式
以下将参考所讨论的细节来描述本发明的各种实施方案和方面,附图将示出各种实施方案。以下描述和附图是对本发明的说明,而不应当解释为限制本发明。描述了许多特定细节以提供对本发明各种实施方案的全面理解。然而,在某些实例中,并未描述众所周知的或常规的细节以提供对本发明实施方案的简洁讨论。
本说明书中对“一个实施方案”或“一实施方案”的提及意味着结合该实施方案所描述的特定特征、结构或特性可包括在本发明的至少一个实施方案中。短语“在一个实施方案中”在本说明书中各个地方的出现不必全部是指同一实施方案。
根据一些实施方案,***模拟人类之间的通信并且通过对驾驶场景(例如,停车标志交叉点)内的一个或多个车辆执行轨迹预测以产生车辆的若干预测轨迹从而解决驾驶环境中的驾驶困难。***检测或辨识来自车辆的一个或多个手势(例如,人类手势)并且基于检测到的手势来发出用于与车辆通信的一个或多个手势。例如,所发出的手势模仿人类的手势。基于检测到的手势和所发出的手势,***校正或修改车辆的预测轨迹,并且使用所修改的轨迹有效地做出针对无人驾驶车辆的驾驶决策。所修改的轨迹确定无人驾驶车辆例如是对驾驶场景内的车辆让行还是超过所述车辆。
在一个实施方案中,响应于从无人驾驶车辆的一个或多个传感器接收的传感器数据,生成一个或多个预测轨迹,其中每个预测轨迹具有相关联的概率。识别一个或多个驾驶场景,所述驾驶场景可触发手势辨识。针对每个所识别的驾驶场景,根据手势检测协议检测来自一个或多个车辆的一个或多个手势。基于检测到的手势、根据手势发出协议,发出来自无人驾驶车辆的用于与所述车辆通信的一个或多个手势。基于检测到的手势、所发出的手势和预测轨迹的相关联的概率来修改预测轨迹。基于所修改的预测轨迹来控制无人驾驶车辆。
图1是示出根据本发明一个实施方案的无人驾驶车辆网络配置的框图。参考图1,网络配置100包括可以通过网络102通信地联接到一个或多个服务器103至104的无人驾驶车辆101。尽管示出了一个无人驾驶车辆,但是多个无人驾驶车辆可通过网络102彼此联接和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网、蜂窝网络、卫星网络的广域网(WAN)或其组合。服务器103至104可以是任何类型的服务器或服务器集群,诸如Web服务器或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。
无人驾驶车辆是指可以被配置成处于自主模式下的车辆,在自主模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种无人驾驶车辆可包括传感器***,所述传感器***具有被配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用检测到的信息来导航通过环境。无人驾驶车辆101可以以手动模式、完全自主模式或部分自主模式操作。
在一个实施方案中,无人驾驶车辆101包括但不限于感知和规划***110、车辆控制***111、无线通信***112、用户接口***113和传感器***114。无人驾驶车辆101还可以包括包含在普通车辆中的某些常见组件诸如发动机、车轮、方向盘、变速器等,所述组件可以由车辆控制***111和/或感知和规划***110使用多种通信信号和/或命令(例如加速度信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等)来控制。
组件110至114可以经由互连件、总线、网络或其组合彼此通信地联接。例如,组件110至114可以经由控制器局域网(CAN)总线彼此通信地联接。CAN总线是一种车辆总线标准,其被设计成允许微控制器和装置在没有主计算机的情况下在应用中彼此通信。它是一种基于消息的协议,最初被设计用于汽车中的多路电线,但是也被用于许多其他情况。
现在参考图2,在一个实施方案中,传感器***114包括但不限于一个或多个相机211、全球定位***(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS***212可包括收发器,所述收发器可操作来提供关于无人驾驶车辆的位置的信息。IMU单元213可基于惯性加速度来感测无人驾驶车辆的位置和定向变化。雷达单元214可表示利用无线电信号来感测无人驾驶车辆本地环境内的对象的***。在一些实施方案中,除感测对象之外,雷达单元214另外可以感测对象的速度和/或前进方向。LIDAR单元215可以使用激光器来感测无人驾驶车辆所处环境中的对象。除其他***组件之外,LIDAR单元215还可包括一个或多个激光源、激光扫描器以及一个或多个检测器。相机211可包括用于捕获无人驾驶车辆周围环境的图像的一个或多个装置。相机211可以是静物相机和/或视频相机。相机可以是可机械地移动的,例如通过将相机安装在旋转和/或倾斜平台上。
传感器***114还可包括其他传感器,诸如声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器和音频传感器(例如麦克风)。音频传感器可以被配置成从无人驾驶车辆周围的环境捕获声音。转向传感器可以被配置成感测方向盘、车辆的车轮或其组合的转向角。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情况下,油门传感器和制动传感器可以集成为一体式油门/制动传感器。
在一个实施方案中,车辆控制***111包括但不限于转向单元201、油门单元202(也称为加速单元)和制动单元203。转向单元201用于调整车辆的方向或前进方向。油门单元202用于控制马达或发动机的速度,其继而控制车辆的速度和加速度。制动单元203用于通过提供摩擦使车辆的车轮或轮胎放慢来使车辆减速。应注意,如图2所示的组件可以以硬件、软件或其组合来实现。
返回参考图1,无线通信***112允许无人驾驶车辆101与诸如装置、传感器、其他车辆等的外部***之间进行通信。例如,无线通信***112可以直接地或经由通信网络与一个或多个装置进行无线通信,诸如通过网络102与服务器103至104通信。无线通信***112可以使用任何蜂窝通信网络或无线局域网(WLAN),例如使用WiFi来与另一个组件或***进行通信。无线通信***112可以直接与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)进行通信,例如使用红外链路、蓝牙等。用户接口***113可以是在车辆101内实现的***装置的一部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
无人驾驶车辆101的一些或所有功能可以由感知和规划***110来控制或管理,特别是当以自主驾驶模式操作时。感知和规划***110包括必要的硬件(例如,处理器、存储器、存储装置)和软件(例如,操作***、规划和路由程序),用于从传感器***114、控制***111、无线通信***112和/或用户接口***113接收信息、处理所接收的信息、规划从起始地点到目的地点的路由或路径、并且然后基于规划和控制信息来驱动车辆101。可替代地,感知和规划***110可以与车辆控制***111集成。
例如,作为乘客的用户可以例如经由用户接口指定旅程的起始位置和目的地。感知和规划***110获得行程相关数据。例如,感知和规划***110可以从MPOI服务器获得位置和路由信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。可替代地,这种位置和MPOI信息可以本地高速缓存在感知和规划***110的持久存储装置中。
当无人驾驶车辆101沿着路线移动时,感知和规划***110还可以从交通信息***或服务器(TIS)获得实时交通信息。应注意,服务器103至104可以由第三方实体进行操作。可替代地,服务器103至104的功能可以与感知和规划***110集成。基于实时交通信息、MPOI信息和位置信息以及传感器***114检测或感测到的实时本地环境数据(例如,障碍物、对象、附近车辆),感知和规划***110可以规划最佳路线并且根据所规划的路线例如经由控制***111驱动车辆101以便安全且有效地到达指定的目的地。
在一个实施方案中,在预测驾驶环境中的车辆的交通行为时,无人驾驶车辆101从传感器***114接收传感器数据。基于传感器数据生成车辆的一个或多个预测轨迹,每个预测轨迹具有相关联的概率。无人驾驶车辆101识别可触发手势辨识的驾驶场景,并且针对所识别驾驶场景中的每一个,无人驾驶车辆101根据手势检测协议检测来自车辆的一个或多个手势。基于检测到的手势、根据手势发出协议,从无人驾驶车辆101发出一个或多个手势。基于检测到的手势、所发出的手势以及预测轨迹的相关联的概率来修改预测轨迹。
预测轨迹的修改包括去除第一组预测轨迹以及缩短第二组预测轨迹。例如,第一组是具有低相关联概率的预测轨迹,并且第二组是具有合理预测轨迹的预测轨迹。使用所修改的轨迹,无人驾驶车辆101可以做出驾驶决策,诸如为车辆让行或超过所述车辆。
图3是示出根据本发明一个实施方案的用于无人驾驶车辆的感知和规划***的示例的框图。***300可以实现为图1的无人驾驶车辆101的一部分,包括但不限于感知和规划***110、控制***111和传感器***114。参考图3,感知和规划***110包括但不限于定位模块301、感知模块302、决策模块303、规划模块304、控制模块305、特征提取模块306、行为预测模块307、场景检测模块308、手势发出模块309、轨迹增强模块310和手势检测模块311。
模块301至311中的一些或全部可以以软件、硬件或其组合来实现。例如,这些模块可以安装在持久存储装置352中,加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可以通信地联接到图2的车辆控制***111的一些或所有模块或与其集成。模块301至311中的一些可以集成在一起以作为集成模块。
定位模块301(也称为地图和路由模块)管理与用户的旅程或路线相关的任何数据。用户可以例如经由用户接口登录并指定旅程的起始位置和目的地。定位模块301与无人驾驶车辆300的其他组件(诸如地图和路线信息312)通信以获得行程相关数据。例如,定位模块301可以从位置服务器以及地图和POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和特定位置的POI,其可被高速缓存为地图和路线信息312的一部分。当无人驾驶车辆300沿着路线移动时,定位模块301还可以从交通信息***或服务器获得实时交通信息。
基于由传感器***114提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可以表示普通驾驶员将感知到的该驾驶员所驾驶的车辆周围的情况。感知可包括例如车道配置(例如,直的或弯曲车道)、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其他交通相关标志(例如,停止标志、让行标志)等等,这些例如是以对象形式呈现的。
感知模块302可包括计算机视觉***或计算机视觉***的功能,其用于处理和分析由一个或多个相机捕获的图像以识别无人驾驶车辆环境中的对象和/或特征。对象可包括交通信号、道路边界、其他车辆、行人和/或障碍物等。计算机视觉***可以使用对象辨识算法、视频跟踪以及其他计算机视觉技术。在一些实施方案中,计算机视觉***可以映射环境,跟踪对象并且估计对象的速度等。感知模块302也可以基于由其他传感器(诸如雷达和/或LIDAR)提供的其他传感器数据来检测对象。
针对每个对象,决策模块303做出关于如何处理对象的决策。例如,针对特定对象(例如,交叉路线中的另一车辆)以及对对象进行描述的元数据(例如,速度、方向、转向角),决策模块303决定遇到对象如何操作(例如,超车、让行、停止、通过)。决策模块303可以根据可存储在持久存储装置352(未示出)中的一组规则(诸如交通规则)来做出此类决策。
基于针对感知到的每个对象的决策,规划模块304规划用于无人驾驶车辆的路径或路线以及驾驶参数(例如,距离、速度和/或转向角)。也就是说,针对给定的对象,决策模块303决定针对所述对象如何操作,而规划模块304确定如何执行操作。例如,针对给定的对象,决策模块303可以决定通过对象,而规划模块304可以确定是在对象的左侧还是右侧通过。规划模块304生成规划和控制数据,包括描述车辆300在下一个移动周期(例如,下一个路线/路径段)中将如何移动的信息。例如,规划和控制数据可以指示车辆300以每小时30英里(mph)的速度移动10米,然后以25mph的速度改变到右车道。
基于规划和控制数据,控制模块305根据由规划和控制数据定义的路线或路径,通过向车辆控制***111发送适当的命令或信号来控制并驱动无人驾驶车辆。规划和控制数据包括足够的信息,以便沿着所述路径或路线在不同的地点适时地使用适当的车辆设置或驱动参数(例如,油门、制动和转向命令)来将车辆从第一路线或路径点驱动到第二路线或路径点。
应注意,决策模块303和规划模块304可以集成为集成模块。决策模块303/规划模块304可包括导航***或导航***的功能,用于确定无人驾驶车辆的驾驶路径。例如,导航***可以确定用于实现无人驾驶车辆沿以下路径移动的一系列速度和定向前进方向:所述路径在使无人驾驶车辆总体上沿通往最终目的地的车行道路径前进的同时,基本上避免所感知的障碍物。目的地可以根据经由用户接口***113实现的用户输入来设置。导航***可以在无人驾驶车辆正在运行的同时动态地更新行车路径。导航***可将来自GPS***和一个或多个地图的数据合并以确定用于无人驾驶车辆的行车路径。
决策模块303/规划模块304还可包括防撞***或防撞***的功能,用于识别、评估并且避免或以其他方式绕过无人驾驶车辆环境中的潜在障碍物。例如,防撞***可通过以下方式实现无人驾驶车辆的导航中的变化:操作控制***111中的一个或多个子***来采取转弯操纵、转向操纵、制动操纵等。防撞***可基于周围的交通模式、道路状况等自动确定可行的障碍物避让操纵。防撞***可以被配置成使得当其他传感器***检测到位于无人驾驶车辆将转弯进入的相邻区域中的车辆、建筑障碍物等时不采取转弯操纵。防撞***可以自动选择既可用又使得无人驾驶车辆乘员的安全性最大化的操纵。防撞***可以选择预测的避让操纵以致使无人驾驶车辆的乘客舱中出现最小量的加速度。
特征提取模块306从传感器***114中提取传感器数据,以构成用于行为预测模块307的数据。例如,特征提取模块306可以从传感器***114中的各种传感器读取或检索传感器数据,并将所述传感器数据存储到感知和规划***110的存储器中。
基于传感器数据,行为预测模块307计算并生成另一对象(诸如车辆、行人和/或骑自行车的人)的一个或多个预测行进轨迹,其中每个预测行进轨迹具有相关联的概率。相关联的概率例如可以是其他车辆或行人将在与所述概率相关联的预测轨迹中行进或行走的可能性或概率。
场景检测模块308检测触发手势辨识或基于交互式手势的通信的一个或多个驾驶场景。驾驶场景例如可以是停车控制交叉口、人行横道或让行控制交叉口。
当触发基于交互式手势的通信时,手势检测模块311被激活或调用以检测来自一个或多个车辆(例如,无人驾驶和/或非无人驾驶车辆)或行人的一个或多个手势(例如,摆手)。检测到的手势可包括经由无线接口(例如,Wi-Fi、蓝牙或任何其他合适的无线接口)接收到的人类手势和/或信号。
基于检测到的手势,手势发出模块309控制从无人驾驶车辆101发出一个或多个手势以便与车辆通信。所发出的手势例如可以是用于发信号通知另一车辆或行人(或骑自行车的人)通过的让行手势,或用于通知无人驾驶车辆101正在进行操纵并请求其他车辆或行人让行的超车手势。
轨迹增强模块310利用检测到的手势和所发出的手势,并且优化由行为预测模块307产生的预测行进轨迹。例如,轨迹增强模块310可以去除不太可能或不可能发生的一些预测行进轨迹,并且保持更可能的预测行进轨迹或具有合理的相关联概率(例如,大于或等于30%、40%或50%)的预测行进轨迹。
图4是示出根据本发明一个实施方案的操作无人驾驶车辆的示例的框图。在图4中,特征提取模块306被调用以从安装在无人驾驶车辆101上的多种传感器提取例如实时的传感器数据。传感器数据可包括无人驾驶车辆101的速度、方向或前进方向、当前位置,以及车道和交叉点信息(例如,停止标志、让行标志、会车标志、交通灯)。
基于传感器数据和预先建立的机器学习模型,例如恒定偏航速率和加速度(CYRA)运动模型和/或操纵辨识模型(MRM),行为预测模块307计算并输出另一移动对象(例如,车辆、行人、骑自行车的人)的一个或多个预测轨迹401。预测轨迹401中的每一个可包括表示另一移动对象将在预测轨迹内行进的可能性的相关联概率。
在行为预测模块307之后,场景检测模块308被调用以识别触发手势辨识的一个或多个驾驶场景。例如,场景检测模块308可以识别指示触发或需要手势辨识的场景的驾驶环境内的对象。在一些实施方案中,对象可以是停止标志,其指示车辆例如可同时到达的停车控制交叉口。
如果识别出触发手势辨识的至少一个场景,则针对每个所识别的驾驶场景,手势检测模块311根据手势检测协议检测来自一个或多个车辆(例如,停车控制交叉口内的车辆)的一个或多个手势。在一些实施方案中,手势可以是从车辆(例如,另一无人驾驶车辆)无线地接收到的人类手势(例如,人类手部运动)或信号。在一些实施方案中,通过一个或多个相机(例如,相机211)和执行计算机视觉算法(诸如空间手势算法)的软件或中间件来检测手势,所述计算机视觉算法可包括基于3D模型和/或基于外观的算法。在一些实施方案中,手势检测协议可包括预定义的一组值(例如,枚举的值),其中每个值对应于特定手势(例如,超车、让行)。
响应于检测到的手势,手势发出模块309根据手势发出协议来控制或命令无人驾驶车辆101发出用于与其他车辆通信的一个或多个手势。在一些实施方案中,如果检测到的手势是超车手势,则手势发出模块309可命令无人驾驶车辆101发出让行手势。可替代地,如果检测到的手势是让行手势,则手势发出模块309可以命令无人驾驶车辆101发出超车手势。在一些实施方案中,如果未检测手势或手势是无法辨识的,则手势发出模块309还可以命令无人驾驶车辆101发出让行手势以发信号通知其他车辆以通过或超车,从而符合自主驾驶中的“安全第一”规则。
手势例如可以以下若干方式发出:诸如音频(例如,扬声器)、视频(例如,经由安装在无人驾驶车辆101上的具有平面或弯曲屏幕的外部显示装置),物理信号(例如,通过安装在无人驾驶车辆101上或联接到无人驾驶车辆101的臂)、人类手势模仿(例如,人形机器人臂)、基于增强现实的人类手势和/或无线信号传输(例如,到另一无人驾驶车辆)。在一些实施方案中,手势发出协议可包括预定义的一组值(例如,枚举值),其中每个值对应于特定的发出手势。
检测到的手势、所发出的手势和预测轨迹401被提供给轨迹增强模块310,以增强或优化预测轨迹401并生成增强的预测轨迹402。例如,利用检测到的手势和所发出的手势,轨道增强模块310可通过删除一些不太可能的轨迹(例如,具有诸如小于30%、40%或50%的低相关联概率的预测轨迹)来修改预测轨迹401,并且使用例如隐马尔可夫模型来保持或选择更可能的轨迹。在一些实施方案中,基于所发出的手势,轨迹增强模块310可以通过分别为每个预测轨迹加时间戳(所述时间戳指示另一车辆(例如)将让行或超车的时间)来缩短或延长一些预测轨迹401。因此,例如,从无人驾驶车辆101的角度来看,发出让行手势可导致较短的规划轨迹,并且发出超车手势可导致无人驾驶车辆101的更长的规划轨迹。
图5是示出根据本发明一个实施方案的操作无人驾驶车辆的过程的流程图。过程500可以由处理逻辑来执行,所述处理逻辑可包括软件、硬件或其组合。例如,过程500可以由图1的感知和规划***110执行。参考图5,在框501处,处理逻辑从无人驾驶车辆(例如,无人驾驶车辆101)的一个或多个传感器接收传感器数据。在框502处,处理逻辑基于传感器数据生成一个或多个预测轨迹,其中每个预测轨迹具有相关联的概率。在框503处,处理逻辑识别触发手势辨识的一个或多个驾驶场景(例如,停止标志交叉路口)。针对每个驾驶场景,在框504处,处理逻辑根据手势检测协议检测来自其他车辆的一个或多个手势(例如,让行或超车手势)。在框505处,处理逻辑基于检测到的来自其他车辆的手势、根据手势发出协议,发出用于与其他车辆通信的一个或多个手势。在框506处,处理逻辑基于检测到的来自其他车辆的手势、所发出的手势和预测轨迹的相关联概率来增强预测轨迹。
图6A和图6B示出根据本发明一个实施方案的驾驶场景的示例。参考图6A,在这个示例中,可被称为“主车辆”的第一车辆601(例如,无人驾驶车辆101)和可被称为“其他车辆”的第二车辆602在同一时间或近似同一时间到达停止标志交叉路口。在这种情况下,主车辆可以计算并生成另一车辆的两个预测轨迹:通过轨迹604a和左转向轨迹604b,其中两个轨迹都介入主车辆的规划轨迹605。然后,主车辆可以识别触发手势辨识的一个或多个驾驶场景(例如,通过调用场景检测模块308)。由于这个示例是停止标志交叉路口,因此触发手势辨识的驾驶场景被识别出。随后,主车辆可以经由手势路径603检测来自另一车辆的一个或多个手势(例如,通过调用手势检测模块311)。如果主车辆没有检测到任何手势,或者检测到无法辨识的手势或超车手势,则主车辆因此经由手势路径603发出让行手势。利用所发出的手势,主车辆可以修改规划轨迹605并且生成较短的规划轨迹615,如图6B所示,从而在操纵之前为另一车辆让行或允许另一车辆采用例如左转向轨迹604b。
应注意,上文示出和描述的一些或所有组件可以以软件、硬件或其组合来实现。例如,此类组件可以实现为安装并存储在永久性存储装置中的软件,所述软件可以由处理器(未示出)在存储器中加载并执行以实施贯穿本申请所述的过程或操作。可替代地,此类组件可以实现为编程或嵌入到专用硬件(诸如集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可通过来自应用的对应驱动程序和/或操作***来访问。此外,此类组件可以实现为处理器或处理器核心中的特定硬件逻辑,作为可由软件组件经由一个或多个特定指令访问的指令集的一部分。
图7是示出可以与本发明一个实施方案一起使用的数据处理***的示例的框图。例如,***700可以表示以上所述的执行上述过程或方法中的任一个的任一数据处理***,例如图1的感知和规划***110或服务器103至104中的任一个。***700可包括许多不同的组件。这些组件可以实现为集成电路(IC)、集成电路的一部分、离散电子装置或适用于电路板(诸如计算机***的主板或附加卡)的其他模块,或者实现为以其他方式并入计算机***底盘内的组件。
还应注意,***700旨在示出计算机***的许多组件的上层视图。然而,应当理解的是,某些实现方式中可具有附加的组件,此外,其他实现方式中可具有所示组件的不同布置。***700可以表示台式机、笔记本电脑、平板电脑、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或***,但是术语“机器”或“***”也应当被视为机器或***的任何集合,所述机器或***包括单独或联合执行一个(或多个)指令集以执行本文所讨论方法中的任何一种或多种。
在一个实施方案中,***700包括通过总线或互连件710连接的处理器701、存储器703以及装置705至708。处理器701可以表示单个处理器或其中包括单个处理器核心或多个处理器核心的多个处理器。处理器701可以表示一个或多个通用处理器,诸如微处理器、中央处理单元(CPU)等。更具体地,处理器701可以是复杂指令集计算(CISC)微处理器、简化指令集计算(RISC)微处理器、非常长的指令字(VLIW)微处理器、或实现其他指令集的处理器或实现指令集的组合的处理器。处理器701还可以是一个或多个专用处理器,诸如专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、网络处理器、通信处理器、加密处理器、协同处理器、嵌入式处理器或能够处理指令的任何其他类型的逻辑。
处理器701(其可以是低功率多核处理器插座,诸如超低电压处理器)可充当用于与所述***的各种组件通信的主处理单元和中央集线器。这种处理器可以实现为片上***(SoC)。处理器701被配置成执行指令以执行本文所讨论的操作和步骤。***700还可包括与可选的图形子***704通信的图形接口,图形子***704可包括显示控制器、图形处理器和/或显示装置。
处理器701可以与存储器703通信,存储器703在一个实施方案中可以通过多个存储器装置实现以提供给定量的***存储器。存储器703可包括一个或多个易失性存储(或存储器)装置,诸如随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或其他类型的存储装置。存储器703可以存储包括由处理器701或任何其他装置执行的指令序列的信息。例如,多种操作***、装置驱动程序、固件(例如,输入输出基本***或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器703中并由处理器701执行。操作***可以是任何类型的操作***,例如机器人操作***(ROS)、公司的操作***、苹果公司的Mac 公司的Linux、Unix或其他实时或嵌入式操作***。
***700还可包括IO装置,诸如装置705至708,包括网络接口装置705、可选的输入装置706以及其他可选的IO装置707。网络接口装置705可包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位***(GPS)收发器)或其他射频(RF)收发器或其组合。NIC可以是以太网卡。
输入装置706可包括鼠标、触摸板、触敏屏幕(其可以与显示装置704集成在一起)、指示装置(诸如指示笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置706可包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用一种或多种触摸灵敏度技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及用于确定与触摸屏的一个或多个接触点的其他接近传感器阵列或其他元件来检测其接触和移动或间断。
IO装置707可包括音频装置。音频装置可包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音辨识、语音复制、数字记录和/或电话功能。其他IO装置707还可包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,运动传感器,诸如加速度计、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或其组合。装置707还可包括成像处理子***(例如,相机),所述成像处理子***可包括用来促进相机功能(诸如录制照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以通过传感器集线器(未示出)联接到互连件710,而其他装置诸如键盘或热传感器可以由嵌入式控制器(未示出)控制,这取决于***700的特定配置或设计。
为了提供信息(诸如数据、应用、一个或多个操作***等)的永久性存储,大容量存储装置(未示出)也可联接到处理器701。在各种实施方案中,为了实现更薄且更轻的***设计并且改进***响应能力,这种大容量存储装置可以通过固态装置(SSD)实现。然而,在其他实施方案中,大容量存储装置可以主要使用硬盘驱动器(HDD)来实现,其中较小量的SSD存储装置充当SSD高速缓存以在断电事件期间实现上下文状态以及其他此类信息的非易失性存储,从而使得在***活动重新启动时能够实现快速通电。另外,闪存装置可以例如通过串行***接口(SPI)联接到处理器701。这种闪存装置可以提供***软件的非易失性存储,所述***软件包括***的BIOS以及其他固件。
存储装置708可包括计算机可访问的存储介质709(也被称为机器可读存储介质或计算机可读介质),其上存储有体现任何一种或多种本文所述方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑728)。处理模块/单元/逻辑728可以表示上述组件中的任一个,例如规划模块304、控制模块305、或模块306至311中的任一个(单独地或组合地)。处理模块/单元/逻辑728还可以在其由数据处理***700、存储器703和处理器701执行期间完全地或至少部分地驻留在存储器703内和/或处理器701内,所述***700、存储器703和处理器701还构成机器可访问的存储介质。处理模块/单元/逻辑728还可以通过网络经由网络接口装置705被发送或接收。
计算机可读存储介质709也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质709在示例性实施方案中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且致使所述机器执行本发明的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质或者任何其他非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑728、组件以及其他特征可以实现为离散硬件组件或整合在硬件组件(诸如ASICS、FPGA、DSP或类似装置)的功能中。另外,处理模块/单元/逻辑728可以实现为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑728可以以硬件装置和软件组件的任何组合实现。
应注意,虽然***700被示出为具有数据处理***的各种组件,但是其不旨在表示互连组件的任何具体架构或方式;因为此类细节和本发明的实施方案没有密切关系。还应当认识到,具有更少组件或可能具有更多组件的网络计算机、手持计算机、移动电话、服务器和/或其他数据处理***也可与本发明的实施方案一起使用。
依据在计算机存储器内对数据位的运算的算法和符号表示,呈现了前述详细描述中的一些部分。这些算法描述和表示是数据处理领域中的技术人员所使用的方法,以便最有效地将其工作实质传达给本领域中的其他技术人员。这里,算法通常被认为是导致所期望结果的有条理的操作序列。这些操作是指需要对物理量进行物理操控的步骤。
然而,应该牢记的是,所有这些和类似的术语都与适当的物理量相关联,并且仅仅是适用于这些数量的便利标签。除非在以上讨论中另外明确地说明清楚,否则应当了解,贯穿本说明书利用术语(诸如以下权利要求书中所阐述的术语)的讨论涉及计算机***或类似电子计算装置的动作和处理,所述计算机***或电子计算装置对计算机***的寄存器和存储器内的表示为物理(例如,电子)量的数据进行操控,并将所述数据变换成计算机***存储器或寄存器或其他此类信息存储器、传输或显示装置内类似地表示为物理量的其他数据。
本发明的实施方案还涉及一种用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,呈现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所描述操作中的一些可以按不同的次序执行。此外,一些操作可以并行地而不是顺序地执行。
本发明的实施方案并未参考任何特定的编程语言进行描述。将认识到的是,可以使用多种编程语言来实现如本文描述的本发明的实施方案的教导。
在以上的说明书中,已经参考本发明的具体示例性实施方案对本发明的实施方案进行了描述。将显而易见的是:在不脱离如随附权利要求书中阐述的本发明的更宽的精神和范围的情况下,可以对其做出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (24)
1.一种用于操作无人驾驶车辆的由计算机实现的方法,所述方法包括:
基于从无人驾驶车辆的一个或多个传感器接收的传感器数据生成一个或多个预测轨迹,所述预测轨迹中的每一个均与概率相关联;
根据手势检测协议检测来自一个或多个车辆的一个或多个手势;
基于检测到的手势,根据手势发出协议从所述无人驾驶车辆发出用于与所述一个或多个车辆通信的一个或多个手势;
基于检测到的手势、所发出的手势和所述预测轨迹的相关联概率来修改所述预测轨迹;以及
基于修改的预测轨迹来控制所述无人驾驶车辆,
其中,如果所述检测到的手势是无法辨识的手势,则所发出的手势是让行手势。
2.如权利要求1所述的方法,其中修改所述预测轨迹包括去除第一组预测轨迹以及缩短第二组预测轨迹。
3.如权利要求2所述的方法,其中缩短所述第二组预测轨迹包括基于所述检测到的手势为所述第二组预测轨迹中的每一个加时间戳。
4.如权利要求2所述的方法,其中所述第一组预测轨迹是具有低相关联概率的预测轨迹。
5.如权利要求1所述的方法,其中所述一个或多个车辆是非无人驾驶车辆,并且其中来自所述一个或多个车辆的所述一个或多个手势是人类手部运动。
6.如权利要求1所述的方法,其中如果检测到的一个或多个手势是让行手势,则所发出的一个或多个手势是超车手势,并且其中如果检测到的一个或多个手势是超车手势,则所发出的一个或多个手势也是让行手势。
7.如权利要求1所述的方法,其中所述手势检测协议和所述手势发出协议包括预定义的一组值,所述值中的每一个对应于特定手势。
8.如权利要求1所述的方法,其中所述一个或多个车辆是无人驾驶车辆,并且其中所述手势检测模块通过无线地接收对所述一个或多个手势进行指示的一个或多个信号来检测所述一个或多个手势。
9.一种具有存储在其中的指令的非暂时性机器可读介质,所述指令在由处理器执行时,致使所述处理器执行用于操作无人驾驶车辆的操作,所述操作包括:
基于从无人驾驶车辆的一个或多个传感器接收的传感器数据生成一个或多个预测轨迹,所述预测轨迹中的每一个与概率相关联;
根据手势检测协议检测来自一个或多个车辆的一个或多个手势;
基于检测到的手势,根据手势发出协议从所述无人驾驶车辆发出用于与所述一个或多个车辆通信的一个或多个手势;
基于检测到的手势、所发出的手势和所述预测轨迹的相关联概率来修改所述预测轨迹;以及
基于修改的预测轨迹来控制所述无人驾驶车辆,
其中,如果所述检测到的手势是无法辨识的手势,则所发出的手势是让行手势。
10.如权利要求9所述的机器可读介质,其中修改所述预测轨迹包括去除第一组预测轨迹以及缩短第二组预测轨迹。
11.如权利要求10所述的机器可读介质,其中缩短所述第二组预测轨迹包括基于所述检测到的手势为所述第二组预测轨迹中的每一个加时间戳。
12.如权利要求10所述的机器可读介质,其中所述第一组预测轨迹是具有低相关联概率的预测轨迹。
13.如权利要求9所述的机器可读介质,其中所述一个或多个车辆是非无人驾驶车辆;并且来自所述一个或多个车辆的一个或多个手势是人类手部运动。
14.如权利要求9所述的机器可读介质,其中如果检测到的一个或多个手势是让行手势,则所发出的一个或多个手势是超车手势;并且其中如果检测到的一个或多个手势是超车手势,则所发出的一个或多个手势也是让行手势。
15.如权利要求9所述的机器可读介质,其中所述手势检测协议和所述手势发出协议包括预定义的一组值,所述值中的每一个对应于特定手势。
16.如权利要求9所述的机器可读介质,其中所述一个或多个车辆是其他无人驾驶车辆;并且其中所述手势检测模块通过从所述其他无人驾驶车辆无线地接收对所述一个或多个手势进行指示的一个或多个信号来检测所述一个或多个手势。
17.一种数据处理***,包括:
处理器;以及
存储器,所述存储器联接到所述处理器以存储指令,所述指令在由所述处理器执行时,致使所述处理器执行用于操作无人驾驶车辆的操作,所述操作包括:
基于从无人驾驶车辆的一个或多个传感器接收的传感器数据生成一个或多个预测轨迹,所述预测轨迹中的每一个与概率相关联,
根据手势检测协议检测来自一个或多个车辆的一个或多个手势,
基于检测到的手势、根据手势发出协议从所述无人驾驶车辆发出用于与所述一个或多个车辆通信的一个或多个手势,
基于检测到的手势、所发出的手势和所述预测轨迹的相关联概率来修改所述预测轨迹,以及
基于修改的预测轨迹来控制所述无人驾驶车辆,
其中,如果所述检测到的手势是无法辨识的手势,则所发出的手势是让行手势。
18.如权利要求17所述的***,其中修改所述预测轨迹包括去除第一组预测轨迹以及缩短第二组预测轨迹。
19.如权利要求18所述的***,其中缩短所述第二组预测轨迹包括基于所述检测到的手势为所述第二组预测轨迹中的每一个加时间戳。
20.如权利要求18所述的***,其中所述第一组预测轨迹是具有低相关联概率的预测轨迹。
21.如权利要求17所述的***,其中所述一个或多个车辆是非无人驾驶车辆,并且其中来自所述一个或多个车辆的所述一个或多个手势是人类手部运动。
22.如权利要求17所述的***,其中如果检测到的一个或多个手势是让行手势,则所发出的一个或多个手势是超车手势;并且其中如果检测到的一个或多个手势是超车手势,则所发出的一个或多个手势也是让行手势。
23.如权利要求17所述的***,其中所述手势检测协议和所述手势发出协议包括预定义的一组值,所述值中的每一个对应于特定手势。
24.如权利要求17所述的***,其中所述一个或多个车辆是其他无人驾驶车辆;并且其中所述手势检测模块通过从所述其他无人驾驶车辆无线地接收对所述一个或多个手势进行指示的一个或多个信号来检测所述一个或多个手势。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/359,466 US10394245B2 (en) | 2016-11-22 | 2016-11-22 | Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions |
US15/359,466 | 2016-11-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108089571A CN108089571A (zh) | 2018-05-29 |
CN108089571B true CN108089571B (zh) | 2021-05-28 |
Family
ID=59683444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710779810.5A Active CN108089571B (zh) | 2016-11-22 | 2017-09-01 | 用于预测无人驾驶车辆的车辆交通行为以做出驾驶决策的方法和*** |
Country Status (4)
Country | Link |
---|---|
US (1) | US10394245B2 (zh) |
EP (1) | EP3324332B1 (zh) |
JP (1) | JP6619778B2 (zh) |
CN (1) | CN108089571B (zh) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10739775B2 (en) * | 2017-10-28 | 2020-08-11 | Tusimple, Inc. | System and method for real world autonomous vehicle trajectory simulation |
US11971714B2 (en) * | 2018-02-19 | 2024-04-30 | Martin Tremblay | Systems and methods for autonomous vehicles |
JP7100998B2 (ja) * | 2018-03-08 | 2022-07-14 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
US11260855B2 (en) | 2018-07-17 | 2022-03-01 | Baidu Usa Llc | Methods and systems to predict object movement for autonomous driving vehicles |
US10678245B2 (en) * | 2018-07-27 | 2020-06-09 | GM Global Technology Operations LLC | Systems and methods for predicting entity behavior |
US10788841B2 (en) * | 2018-08-24 | 2020-09-29 | Baidu Usa Llc | Hardware centralized time synchronization hub for an autonomous driving vehicle |
JP6684533B2 (ja) * | 2018-08-28 | 2020-04-22 | 三菱ロジスネクスト株式会社 | 進路予測装置および進路予測方法 |
US20210339772A1 (en) * | 2018-10-16 | 2021-11-04 | Five Al Limited | Driving scenarios for autonomous vehicles |
US11110922B2 (en) * | 2018-11-05 | 2021-09-07 | Zoox, Inc. | Vehicle trajectory modification for following |
US10533862B1 (en) * | 2018-11-28 | 2020-01-14 | Uber Technologies, Inc. | Biasing map matched trajectories based on planned route information |
CN109540546A (zh) * | 2018-12-05 | 2019-03-29 | 交通运输部公路科学研究所 | 一种不安全驾驶行为监控装置的测试***及测试方法 |
US11782158B2 (en) * | 2018-12-21 | 2023-10-10 | Waymo Llc | Multi-stage object heading estimation |
JP7409324B2 (ja) * | 2019-01-17 | 2024-01-09 | 日本電気株式会社 | 制御装置、情報処理装置、並びに、移動制御システム、方法及びプログラム |
WO2020164090A1 (en) * | 2019-02-15 | 2020-08-20 | Bayerische Motoren Werke Aktiengesellschaft | Trajectory prediction for driving strategy |
JP2020166479A (ja) * | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | 運転支援装置 |
DE102019204780A1 (de) * | 2019-04-03 | 2020-10-08 | Audi Ag | Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug |
US11182623B2 (en) * | 2019-04-30 | 2021-11-23 | Baidu Usa Llc | Flexible hardware design for camera calibration and image pre-procesing in autonomous driving vehicles |
CN110082123A (zh) * | 2019-05-05 | 2019-08-02 | 中国汽车工程研究院股份有限公司 | 一种自动驾驶自动化测试*** |
US11292458B2 (en) | 2019-07-31 | 2022-04-05 | Toyota Research Institute, Inc. | Autonomous vehicle user interface with predicted trajectories |
US11292457B2 (en) | 2019-07-31 | 2022-04-05 | Toyota Research Institute, Inc. | Autonomous vehicle user interface with predicted trajectories |
US11328593B2 (en) | 2019-07-31 | 2022-05-10 | Toyota Research Institute, Inc. | Autonomous vehicle user interface with predicted trajectories |
CN114651457A (zh) * | 2019-09-23 | 2022-06-21 | 维卓有限公司 | 用于处理车辆事件数据以进行行程分析的***和方法 |
US11345342B2 (en) * | 2019-09-27 | 2022-05-31 | Intel Corporation | Potential collision warning system based on road user intent prediction |
WO2021062595A1 (en) * | 2019-09-30 | 2021-04-08 | Beijing Voyager Technology Co., Ltd. | Systems and methods for predicting a pedestrian movement trajectory |
US11643073B2 (en) * | 2019-10-24 | 2023-05-09 | Zoox, Inc. | Trajectory modifications based on a collision zone |
US11420630B2 (en) | 2019-10-24 | 2022-08-23 | Zoox, Inc. | Trajectory modifications based on a collision zone |
GB202311795D0 (en) | 2019-12-19 | 2023-09-13 | Motional Ad Llc | Foreground extraction using surface fitting |
RU2750243C2 (ru) | 2019-12-24 | 2021-06-24 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способ и система для формирования траектории для беспилотного автомобиля (sdc) |
US12001958B2 (en) * | 2020-03-19 | 2024-06-04 | Nvidia Corporation | Future trajectory predictions in multi-actor environments for autonomous machine |
US20210302189A1 (en) * | 2020-03-26 | 2021-09-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Remote Control of Vehicle via Smartphone and Gesture Input |
CN113741384B (zh) * | 2020-05-29 | 2023-12-29 | 华为技术有限公司 | 检测自动驾驶***的方法和装置 |
US11858532B2 (en) | 2020-06-04 | 2024-01-02 | Qualcomm Incorporated | Gesture-based control for semi-autonomous vehicle |
CN113771845A (zh) * | 2020-06-09 | 2021-12-10 | 奥迪股份公司 | 预测车辆轨迹的方法、装置、车辆和存储介质 |
CN113928324A (zh) * | 2020-06-29 | 2022-01-14 | 保时捷股份公司 | 用于预测目标车辆在车辆的环境中的轨迹的方法和*** |
US20220048503A1 (en) | 2020-08-12 | 2022-02-17 | Argo AI, LLC | Path-conditioned motion forecasting for vehicle motion planning |
CN114511999B (zh) * | 2020-11-17 | 2023-09-01 | 宇通客车股份有限公司 | 一种行人行为预测方法及装置 |
CN112489423B (zh) * | 2020-11-20 | 2022-06-03 | 湖南警察学院 | 一种基于视觉的城市道路交通交警指挥方法 |
CN112550315A (zh) * | 2020-12-21 | 2021-03-26 | 北京百度网讯科技有限公司 | 车辆轨迹规划方法、装置、电子设备及存储介质 |
EP4036892A1 (en) * | 2021-02-02 | 2022-08-03 | Aptiv Technologies Limited | Detection system for predicting information on pedestrian |
US11760388B2 (en) * | 2021-02-19 | 2023-09-19 | Argo AI, LLC | Assessing present intentions of an actor perceived by an autonomous vehicle |
CN114137976B (zh) * | 2021-11-26 | 2023-05-16 | 广州小鹏自动驾驶科技有限公司 | 超车规划方法、装置、电子设备及存储介质 |
CN114714358A (zh) * | 2022-04-18 | 2022-07-08 | 山东大学 | 基于手势协议遥操作机械臂方法及*** |
CN116572995B (zh) * | 2023-07-11 | 2023-12-22 | 小米汽车科技有限公司 | 车辆的自动驾驶方法、装置及车辆 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007048042A (ja) * | 2005-08-10 | 2007-02-22 | Nissan Motor Co Ltd | 走行支援装置および走行支援方法 |
JP4211794B2 (ja) * | 2006-02-28 | 2009-01-21 | トヨタ自動車株式会社 | 干渉評価方法、装置、およびプログラム |
JP4353192B2 (ja) * | 2006-03-02 | 2009-10-28 | トヨタ自動車株式会社 | 進路設定方法、装置、プログラム、および自動運転システム |
US8509982B2 (en) * | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
US8863256B1 (en) * | 2011-01-14 | 2014-10-14 | Cisco Technology, Inc. | System and method for enabling secure transactions using flexible identity management in a vehicular environment |
FR2988507B1 (fr) * | 2012-03-23 | 2014-04-25 | Inst Francais Des Sciences Et Technologies Des Transports De Lamenagement Et Des Reseaux | Systeme d'assistance pour vehicule routier |
DE102012009555A1 (de) * | 2012-05-12 | 2012-11-29 | Daimler Ag | Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs und Fahrerassistenzsystem |
KR101459441B1 (ko) * | 2012-12-18 | 2014-11-07 | 현대자동차 주식회사 | 차량 내 손가락 사이점을 이용한 사용자 인터페이스 조작 시스템 및 방법 |
JP2014134897A (ja) * | 2013-01-08 | 2014-07-24 | Denso Corp | 車両用意思疎通装置、及びそれを用いた車両用コミュニケーションシステム |
US9475422B2 (en) * | 2014-05-22 | 2016-10-25 | Applied Invention, Llc | Communication between autonomous vehicle and external observers |
DE102014111023A1 (de) * | 2014-08-04 | 2016-02-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum Steuern eines automatisierten Fahrzeuges |
EP2993083B1 (en) * | 2014-09-04 | 2023-11-22 | Nokia Technologies Oy | Apparatus, method and computer program for controlling road user acknowledgement |
FR3027127B1 (fr) * | 2014-10-10 | 2017-12-08 | Thales Sa | Interface tactile pour le systeme de gestion du vol d'un aeronef |
JP2016091039A (ja) * | 2014-10-29 | 2016-05-23 | 株式会社デンソー | 危険予測装置、運転支援システム |
US9855890B2 (en) * | 2014-12-11 | 2018-01-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle interaction with external environment |
CN104598108B (zh) * | 2015-01-02 | 2020-12-22 | 北京时代沃林科技发展有限公司 | 一种智能终端触控方式比例遥控被遥控设备的方法 |
JP2016133843A (ja) * | 2015-01-15 | 2016-07-25 | 株式会社東芝 | 交通調整支援装置、交通調整支援方法、およびコンピュータプログラム |
US10994712B2 (en) * | 2015-07-02 | 2021-05-04 | Sony Corporation | Vehicle control device and vehicle control method |
US9983591B2 (en) * | 2015-11-05 | 2018-05-29 | Ford Global Technologies, Llc | Autonomous driving at intersections based on perception data |
CN105629785A (zh) * | 2015-12-30 | 2016-06-01 | 小米科技有限责任公司 | 智能汽车行驶控制方法及装置 |
JP6128263B2 (ja) * | 2016-05-23 | 2017-05-17 | 株式会社デンソー | 車載装置 |
JP2018018389A (ja) * | 2016-07-29 | 2018-02-01 | パナソニックIpマネジメント株式会社 | 自動運転車輌の制御装置、及び制御プログラム |
-
2016
- 2016-11-22 US US15/359,466 patent/US10394245B2/en active Active
-
2017
- 2017-08-17 JP JP2017157510A patent/JP6619778B2/ja active Active
- 2017-08-18 EP EP17186929.0A patent/EP3324332B1/en active Active
- 2017-09-01 CN CN201710779810.5A patent/CN108089571B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108089571A (zh) | 2018-05-29 |
JP6619778B2 (ja) | 2019-12-11 |
US20180143644A1 (en) | 2018-05-24 |
EP3324332A1 (en) | 2018-05-23 |
EP3324332B1 (en) | 2020-04-29 |
JP2018083610A (ja) | 2018-05-31 |
US10394245B2 (en) | 2019-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108089571B (zh) | 用于预测无人驾驶车辆的车辆交通行为以做出驾驶决策的方法和*** | |
CN110389583B (zh) | 生成自动驾驶车辆的轨迹的方法 | |
JP6975512B2 (ja) | 自動運転車両の周辺車両の挙動に基づくリアルタイム感知調整と運転調整 | |
CN110667591B (zh) | 用于自动驾驶车辆的规划驾驶感知*** | |
CN110347145B (zh) | 用于自动驾驶车辆的感知辅助 | |
US10353393B2 (en) | Method and system for improving stability of autonomous driving vehicles | |
US10507813B2 (en) | Method and system for automated vehicle emergency light control of an autonomous driving vehicle | |
CN107985313B (zh) | 用于自主车辆的基于弹簧***的变换车道方法 | |
US10940795B2 (en) | Method for keeping distance between an autonomous driving vehicle and a following vehicle using a braking light | |
CN108255170B (zh) | 动态地调整自动驾驶车辆的速度控制率的方法 | |
CN108099918B (zh) | 用于确定自主车辆的命令延迟的方法 | |
CN108733046B (zh) | 用于自动驾驶车辆的轨迹重新规划的***和方法 | |
CN110794823A (zh) | 预测自动驾驶车辆的对象移动的方法和*** | |
CN110597243B (zh) | 自动驾驶车辆的基于v2x通信的车辆车道*** | |
CN110621541B (zh) | 用于生成轨迹以操作自动驾驶车辆的方法和*** | |
CN111857118B (zh) | 对停车轨迹分段以控制自动驾驶车辆停车 | |
KR20210134853A (ko) | 자율 주행 차량에 사용되는 터널에 기초한 계획 시스템 | |
US10909377B2 (en) | Tracking objects with multiple cues | |
CN111615476A (zh) | 用于自动驾驶车辆的基于螺旋曲线的竖直停车规划*** | |
CN111328313A (zh) | 用于自动驾驶车辆的控制占主导的三点转弯规划 | |
US20210188282A1 (en) | Methods for obstacle filtering for a non-nudge planning system in an autonomous driving vehicle | |
CN111103876A (zh) | 自动驾驶车辆的基于雷达通信的扩展感知 | |
CN111328385A (zh) | 用于自动驾驶车辆的基于螺旋路径的三点转弯规划 | |
US11084503B2 (en) | Mutual nudge algorithm for self-reverse lane of autonomous driving | |
CN111033418A (zh) | 用于自动驾驶车辆的速度控制命令自动校准*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |