CN113044059A - 用于车辆的安全*** - Google Patents
用于车辆的安全*** Download PDFInfo
- Publication number
- CN113044059A CN113044059A CN202011007437.XA CN202011007437A CN113044059A CN 113044059 A CN113044059 A CN 113044059A CN 202011007437 A CN202011007437 A CN 202011007437A CN 113044059 A CN113044059 A CN 113044059A
- Authority
- CN
- China
- Prior art keywords
- driving model
- vehicle
- uncertainty
- model parameters
- changed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 54
- 238000013528 artificial neural network Methods 0.000 claims description 42
- 238000013531 bayesian neural network Methods 0.000 claims description 38
- 230000015654 memory Effects 0.000 claims description 23
- 238000009826 distribution Methods 0.000 description 22
- 230000001276 controlling effect Effects 0.000 description 17
- 230000004044 response Effects 0.000 description 15
- 230000008447 perception Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000001149 cognitive effect Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000015556 catabolic process Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000032683 aging Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 206010068829 Overconfidence Diseases 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 231100000817 safety factor Toxicity 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000007983 Tris buffer Substances 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001973 epigenetic effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0018—Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0098—Details of control systems ensuring comfort, safety or stability not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0225—Failure correction strategy
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/20—Data confidence level
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2754/00—Output or target parameters relating to objects
- B60W2754/10—Spatial relation or speed relative to objects
- B60W2754/30—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
用于车辆的安全***可包括一个或多个处理器,所述处理器配置成:确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及向车辆的控制***提供一个或多个已改变或已更新的驾驶模型参数,以便根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
Description
技术领域
本公开的各个方面一般涉及用于车辆的安全***(safety system)。
背景技术
自主驾驶(AD)要求可靠的安全***,其处理自主车辆(AV)的环境的所检测数据以实现AV的驾驶策略。AV可需要在不同情形和气候条件下进行导航。但是,雨、雾、雪、霜、灰尘等或者甚至AV中安装的传感器的老化可使AV的感知/分类***降级,这可影响感知/分类***的预测。
发明内容
车辆的安全***可包括一个或多个处理器。一个或多个处理器可配置成:确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自包括预定义驾驶模型参数的驾驶模型的一个或多个预测中的不确定性;基于所确定的不确定性数据将驾驶模型参数的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及向车辆的控制***提供一个或多个已改变或已更新驾驶模型参数,以便根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
附图说明
附图中,贯穿不同的视图,相似的参考标号一般指代相同的部分。附图不一定按比例绘制,取而代之,一般将重点放在示出本发明的原理上。在以下描述中,参照以下附图来描述本发明的各个实施例,其中:
图1示出根据本公开的各个方面的自主车辆;
图2示出车辆的安全***的各种电子组件;
图3是示出检测距离和安全距离的图;
图4A至图4C示出对不确定性估计的语义分割的示例;
图5A是示出流程图,其示出影响安全驾驶模型的参数的方法,并且图5B示出图5A的不确定性估计器的框架;
图6示出示范性贝叶斯神经网络(BNN)的示意图;
图7示出根据本公开的各个方面操作车辆的安全***的方法;以及
图8示出根据本公开的各个方面操作车辆的安全***的方法。
具体实施方式
以下详细描述参照附图,附图通过举例说明示出可实施本发明的特定细节和实施例。
词语“示范性”在本文中用于意指“充当示例、实例或举例说明”。本文中描述为“示范性”的任何实施例或设计不一定被解释为相对其他实施例或设计是优选或有利的。
定义
术语“物体(object)”要被理解为指代:静止物体,包括例如建筑物、树、道路、交通标志或交通灯;以及移动物体,包括例如车辆、行人、动物。
术语“道路使用者”要被理解为交通中的任何参与者,并且可包括行人、骑自行车的人、骑摩托车的人、驾车者、骑踏板车的人(scooterist)、轮椅使用者。
“车辆”要被理解为任何类型的驾驶物体,并且可包括汽车、公共汽车、小型公共汽车、运货车、卡车、活动房屋、拖车、摩托车、自行车、三轮车、移动机器人、个人输送器。
“地面车辆”要被理解为在地面(例如在街道)上行驶的任何类型的物体。
术语“自主车辆”指的是能够在无需驾驶员输入的情况下实现至少一次导航改变(navigational change)的车辆。导航改变指的是车辆的转向、制动或者加速/减速中的一个或多个中的改变。为了是自主的,车辆不需要是全自动的(例如完全没有驾驶员或者没有驾驶员输入的情况下操作)。自主车辆包括下述车辆:所述车辆能够在某些时间段期间在驾驶员控制下以及在其他时间段期间在没有驾驶员控制的情况下操作。自主车辆还可包括下述车辆:所述车辆仅控制车辆导航的一些方面,例如转向(例如以将车辆路线(course)保持在车道约束之间)或者在某些情况下(但不是在全部情况下)的一些转向操作,但是可将其他方面留给驾驶员(例如在某些情况下的制动或中断(breaking))。在一些方面,自主车辆可操纵车辆的制动、速度控制和/或转向的一些或所有方面。
术语“偶然不确定性(aleatoric uncertainty)”(又称作“输入不确定性”)被理解为指的是源自观测固有的噪声的不确定性。这种类型的不确定性的原因是来自一个或多个传感器的噪声。
术语“认知(epistemic)不确定性”(又称作“模型不确定性”)被理解为指的是源自具体在有限数据的情形中缺乏表示模型参数方面的知识的不确定性。
图1示出根据本公开的各个方面包括安全***200(图2中所示)的车辆100。安全***200根据特定实现的要求可包括各种组件。如图1和图2中所示,安全***200可包括一个或多个处理器102、一个或多个图像获取装置104(例如一个或多个照相装置)、位置传感器106(例如,全球导航卫星***(GNSS),例如全球定位***(GPS))、一个或多个存储器202、地图数据库204、一个或多个用户接口206(诸如,例如显示器、触摸屏、话筒、扬声器、一个或多个按钮和/或开关等)以及一个或多个无线收发器208、210和212。无线收发器可配置成不同期望的无线电通信协议或标准。举例来说,第一无线收发器208可根据短程移动无线电通信标准(例如蓝牙、Zigbee等)来配置。此外,第二无线收发器210可根据中或广范围(widerange)移动无线电通信标准(诸如,例如根据3GPP(第三代合作伙伴项目)标准的3G(例如通用移动电信***——UMTS)、4G(例如长期演进——LTE)或5G移动无线电通信标准)来配置。第三无线收发器212可根据无线局域网通信协议或标准(诸如,例如根据IEEE 802.11(例如802.11、802.11a、802.11b、802.11g、802.11n、802.11p、802.11-12、802.11ac、802.11ad、802.11ah等))来配置。一个或多个无线收发器208、210和212可配置成经由空中接口来传送信号。图像获取装置104各自可包括适合于从环境捕获至少一个图像的任何类型的装置。
一个或多个处理器102可包括应用处理器214、图像处理器216、通信处理器218或者任何其他适当处理装置。类似地,图像获取装置104根据特定应用的要求可包括任何数量的图像获取装置和组件。图像获取装置104可包括一个或多个图像捕获装置(例如照相装置、CCD(电荷耦合装置)或者任何其他类型的图像传感器)。安全***200还可包括数据接口,该数据接口在通信上将一个或多个处理器102连接到图像获取装置104。例如,第一数据接口可包括任何一个或多个有线和/或无线第一链路220,以便将图像获取装置104所获取的图像数据传送到一个或多个处理器102,例如图像处理器216。
无线收发器208、210、212可例如经由第二数据接口耦合到一个或多个处理器102(例如,通信处理器218),该第二数据接口可包括一个或多个任何有线和/或无线第二链路222,以用于将无线收发器208、210和212所获取的无线电传送数据传送到一个或多个处理器102,例如,通信处理器218。
一个或多个存储器202以及一个或多个用户接口206可例如经由第三数据接口来耦合到一个或多个处理器102中的每个,该第三数据接口可包括任何一个或多个有线和/或无线第三链路224。此外,位置传感器106可例如经由第三数据接口耦合到一个或多个处理器102中的每个。
这类传输还可包括车辆100与车辆100的环境中的一个或多个其他(目标)车辆之间的通信(单向或双向)(例如以促进考虑到或者连同车辆100的环境中的其他(目标)车辆的车辆100的导航的协调)或者甚至对在传送车辆100附近的未指定接收方的广播传输。
一个或多个处理器102中的每个处理器214、216、218可包括各种类型的基于硬件的处理装置。举例来说,每个处理器214、216、218可包括微处理器、预处理器(例如,图像预处理器)、图形处理器、中央处理单元(CPU)、支持电路、数字信号处理器、集成电路、存储器或者适合于运行应用并且适合于图像处理和分析的任何其他类型的装置。在一些实施例中,每个处理器214、216、218可包括任何类型的单核或多核处理器、移动装置微控制器、中央处理单元等。
本文所公开处理器中的任一个可配置成根据程序指令执行某些功能,所述程序指令可存储在一个或多个存储器202的存储器中。换言之,一个或多个存储器202的存储器可存储软件,所述软件在由处理器执行时控制***(例如安全***200)的操作。一个或多个存储器202的存储器可包括一个或多个数据库和图像处理软件以及经训练的***,诸如,例如神经网络或深度神经网络。一个或多个存储器202可包括任何数量的随机存取存储器、只读存储器、闪速存储器、硬盘驱动器、光存储装置、磁带存储装置、可拆卸存储装置和其他类型的存储装置。
在一些实施例中,安全***200可进一步包括例如速度传感器(例如速度计)之类的用于测量车辆100的速度的组件。安全***200还可包括一个或多个加速计(单轴或多轴)(未示出),以便测量车辆100沿一个或多个轴的加速度。安全***200可进一步包括附加传感器或不同传感器类型,例如一个或多个雷达传感器110、一个或多个LIDAR传感器112(它们可集成在车辆100的车头灯中)等。一个或多个雷达传感器110和一个或多个LIDAR传感器112可例如经由第三数据接口耦合到一个或多个处理器102中的每个。
一个或多个存储器202可例如在数据库中或者采用任何不同格式来存储数据,所述数据例如指示已知界标(landmark)的位置。车辆100的环境的传感信息(例如图像、雷达信号、来自LIDAR的深度信息或者两个或更多图像的立体(stereo)处理)可连同位置信息(例如GPS坐标、车辆的自我运动等)一起处理,以确定车辆100相对于已知界标的当前位置,并且细化车辆位置。本技术的某些方面可包括在定位技术(例如标测(mapping)和路由模型)中。
地图数据库204可包括任何类型的数据库,其用于存储车辆100(例如安全***)的(数字)地图数据。地图数据库204可包括与参考坐标系中的位置相关的各种物品(包括道路、水域特征、地理特征、商业、感兴趣点、餐馆、加油站等)的数据。地图数据库204可以不仅存储这类物品的位置,而且还存储与那些物品相关的描述符,包括例如与所存储特征的任何特征关联的名称。在这类实施例中,处理器可通过与通信网络的有线或无线数据连接(例如通过蜂窝网络和/或因特网等)从地图数据库204下载信息。在一些情况下,地图数据库204可存储稀疏数据模型,该稀疏数据模型包括车辆100的某些道路特征(例如车道标记)或目标轨迹的多项式表示。地图数据库204还可包括可用于确定或更新车辆100相对目标轨迹的已知位置的各种所识别界标的所存储表示。界标表示可包括数据字段,例如界标类型、界标位置以及(among)其他潜在标识符。
此外,安全***可包括驾驶模型,例如高级驾驶辅助***(ADAS)。举例来说,安全***可包括(例如作为驾驶模型的一部分)安全驾驶模型的计算机实现,该安全驾驶模型可以是将适用于自动驾驶(self-driving)(地面)车辆的法规解释公式化的严格(rigorous)数学模型。安全驾驶模型可设计成实现三个目标:第一,法规的解释在它遵守人类如何解释法规的意义上应当是健全的。第二,该解释应当得出有用的驾驶策略,意味着它将得出灵活的驾驶策略而不是过度防御驾驶,过度防御驾驶将不可避免地使其他人类驾驶员混乱以及将阻塞交通并且又限制***部署的可缩放性。第三,该解释在能够严格证明自动驾驶(自主)车辆正确地实施法规解释的意义上应当是可高效验证的。安全驾驶模型说明性地可以是或者包括安全保证的数学模型,其能够实现标识并且执行对危险状况的正确响应,使得能够避免自作自受的(self-perpetrated)事故。
安全驾驶模型可通过将下列五个规则公式化来构造:
-不要从后面碰撞某人。
-不要肆意地***(cut-in)。
-通行权是被给予的而不是取走的。
-小心具有受限可见度的区域。
-如果你能够避免事故而没有引起另一个事故,那么你必须这样做。
如上所述,车辆100可包括又如参照图2所述的安全***200。
一个或多个处理器102可包括在车辆100中,例如与车辆100的引擎控制单元(ECU)集成或者分离。
安全***一般可生成数据,以控制或者帮助控制车辆100的ECU和/或其他组件,从而直接或间接控制车辆100的驾驶。
通过不确定性估计在安全模型中的自适应安全系数
自主车辆(AV)可需要在不同情形和气候条件下进行导航。但是,雨、雾、雪、霜、灰尘等或者甚至传感器的老化可使AV的感知/分类***降级。在夜间期间或者在这类气候条件下进行导航的AV可正确地检测较近距离处的物体(例如行人和骑自行车的人)并将该物体分类,但是在对较远距离处的物体的分类中可能犯错。又为了安全导航,在确定车辆的安全速度中应当考虑因不太理想的感知条件引起的不确定性,因为响应时间可减少。
迄今为止,安全驾驶模型尚未考虑因老化或环境条件引起的感知/分类***的降级。根据本公开的一方面,提出一种***,该***不断监测与预测关联的不确定性,并且将它结合到安全驾驶模型中。
安全驾驶模型可以是或者包括用于交通情形中的安全保证的数学模型,该数学模型提供一种用于计算自主车辆(在理想检测/分类条件下)的正确响应的方法。它可首先根据道路使用者(例如行人)的速度来计算安全纵向距离。然后,它可确定车辆的运动学状态,使得如果应用正确响应,则车辆保持在安全距离处。但是,安全驾驶模型可仅在正确检测道路使用者(例如行人)并将该道路使用者分类之后触发正确响应。
常规安全驾驶模型没有考虑因不同环境条件引起的检测/分类***中的变化。虽然环境条件可能没有显著影响其他车辆的检测,但是它们可显著影响可主要基于视觉的、对行人和骑自行车的人的检测和分类。
作为示例,假定自主车辆(AV)的感知/分类***在理想条件下检测15 m距离处的行人,并且车辆的运动学状态是使得它允许车辆在这种距离处安全地停止。如果AV的感知/分类***仅在直到车辆处于7 m距离为止才检测到行人,则事故可能在雾中(under fog)发生。因此,车辆(在雾中)的运动学状态应当是使得车辆能够在7 m距离处施加安全制动。例如,对于在雾中的车辆最大允许的速度应当比理想条件下更低。
为了说明感知/分类***中的改变应当如何影响自主车辆(例如图1的车辆100)的允许速度并且参照图3,考虑在住宅区中行驶的车辆100,并且假定根据当前状况,车辆100的感知/分类***检测距车辆100的距离Dp处的道路使用者310(例如行人、骑自行车的人)。此外,假定从检测到动作的响应时间为tr。因此,如果车辆100的感知/分类***在时间tc处检测到距车辆100的距离Dp处的道路使用者310,则能够按照如下所述来推导使得车辆100在距道路使用者310至少dsafe的距离处停止的最大允许速度vmax ,其中所述车辆100在时间tc处以速度v行驶,并且在时间tc + tr处施加至少a min,break的制动。
应用运动方程得出:
车辆100在时间间隔[tc, tc+ tr]中行驶的距离是:
以及车辆100从tc+ tr到完全停止(其在ts处发生)所行驶的距离通过下式给出:
因此,车辆100从时间tc处的检测直到时间ts处的完全停止所行驶的距离通过下式给出:
因此,如果车辆100的感知/分类***检测到距车辆100的距离Dp处的道路使用者310,则确保车辆100将在距道路使用者310的至少dsafe的距离处停止的最大允许速度vmax通过vmax = max(v)给出,使得:
因此,这种vmax影响安全驾驶模型中的安全纵向距离的定义,例如沿单车道道路以相同方向(一个接一个)行驶的两个车辆(前车和后车)之间的最小安全纵向距离的定义,其可通过下式给出:
以及其中
-v r 是前车开始制动时后车的速度
-ρ是后车的响应时间(即,前车开始制动的时间与后车开始制动的时间之间的时间)
-a max,acc 是响应时间期间后车的最大加速度
-a min,br是响应时间之后直到完全停止为止后车的最小减速度
-a max,br是前车开始制动之后前车的最大减速度
-v f 是前车开始制动时的前车的速度
因此,本公开的一方面是:如果预计物体(例如行人、骑自行车的人或其他道路使用者)的置信检测/分类(基于当前不确定性估计)仅在低于某个距离Y的距离处发生,则确定(车辆的)最大允许速度。获得这种最大速度又允许在不同情形下重新定义车辆的安全纵向距离。因此,本公开的一方面是使安全驾驶模型能够将不确定性测量和传感器降级用于安全保障。通过重新定义安全纵向距离,根据本公开的方面的***和方法可实现:基于感知/分类***的降级,车辆的(如安全驾驶模型所定义的)正确响应在检测到物体(例如,道路使用者,例如行人或骑自行车的人)之后仍然存在。这可促成例如对行人和骑自行车的人的更安全并且更可靠的自主车辆。
常规方法使用利用***对行人的检测,所述***已经被示为提供乐观置信水平(换言之,它们在无法准确分类的同时提供高置信值)。这些方法没有考虑感知/分类***中的不确定性来调整速度。因此,常规***可能仅在理想条件下对行人是安全的。为了自主车辆(AV)的成功部署,不仅应当改进检测***,而且还应当在确定导航的安全速度时考虑不确定性。
本公开的一方面是将不确定性结合到安全驾驶模型中,以改进行人和骑自行车的人周围的导航,这在当前可能是自主车辆的采用的主要难题之一。
本公开的一方面是提供一种方法,该方法允许动态调整安全驾驶模型的参数,以考虑检测/分类***中的不确定性并且避免可能增加事故风险的过度置信动作。该方式可组合不同方法,以确定感知/分类***中的不确定性。它可使用概率方法来评估不确定性,同时区分由于传感器噪声引起的不确定性(偶然/输入不确定性)与由于远离训练集合的观测引起的不确定性(认知/模型不确定性)。它可跟踪被执行的检测以确定在什么距离处以允许限度内的不确定性正确检测道路使用者(例如行人和骑自行车的人)并将该道路使用者分类。它可利用同一区域的先前观测来确定感知的降级,例如比较静态物体的分类、所观测特征的数量等中的不确定性。它可使用不确定性量化来调整自主车辆(AV)的速度,以允许车辆安全地制动从而避免碰撞。因此,不确定性量化可允许例如动态调整安全驾驶模型在安全距离和正确响应的定义中的参数。
安全***的一个或多个处理器(例如包括安全***200的在图1中所示的车辆100的一个或多个处理器102)可实现上述及以下方面和方法。安全***的一个或多个存储器(例如安全***200的一个或多个存储器202)可存储(至少暂时)根据本公开的方面的方法中使用或得到(例如在任何方法步骤中或期间使用或得到)的任何信息(例如输入或输出数据、模型参数、计算结果等)。
下面将参照图4A和图4B、图5A至图5B以及图6更详细说明车辆的安全***的各个方面以及操作本公开的车辆的安全***的方法。
对其中检测到物体的距离的基于跟踪的估计
根据一方面,当车辆(例如车辆100)导航时,它可不断检测和跟踪物体(例如行人和骑自行车的人)以及记录每帧处从贝叶斯神经网络(BNN)所得到的认知和偶然不确定性的数据集。当车辆更靠近物体(例如,道路使用者,例如行人或骑自行车的人)并且将它正确分类时,可测量其中以所要求的置信将它(物体)进行了正确分类的距离。然后,这种数据集可用来训练全连接神经网络(例如,全连接循环(recurrent)神经网络),以输入每像素偶然和认知不确定性并且输出其中将对物体(例如,道路使用者,例如行人或骑自行车的人)正确分类的距离。
下面将更详细说明每像素偶然和认知不确定性的计算。
使用贝叶斯神经网络的不确定性估计
参照图4A至图4C,以一些语义分割示例来示出使用贝叶斯深度神经网络的不确定性估计能够如何用于适配安全驾驶模型中的安全系数。
示例A
图4A示出在高亮显示的场景(作为输入帧402所捕获)中存在作为道路或人行道的固有歧义(ambiguity)。也就是说,神经网络将场景的区段408中的像素的一部分分类为道路,但是将区段408中的像素的其他部分分类为人行道,如从与输入帧402对应的语义分割地图404中可见的那样。在模型训练期间可能没有观测到这种类型的数据。来自贝叶斯深度神经网络的不确定性估计(由不确定性地图406表示)可以捕获具有高不确定性估计的这个歧义(在408中)。当观测到高不确定性时,能够警告自主车辆中基于视觉感知***进行判定的控制***(例如,以降低速度或者(例如从人类驾驶员)请求专家介入)。
示例B
图4B示出通过贝叶斯深度神经网络所得到的不确定性地图426,其表示在正常气候条件下的场景(其作为输入帧422捕获)中的更远物体的更高不确定性。语义分割地图424示出由神经网络将输入帧422中的物体分类为各种类430(“道路”、“墙壁”、“交通灯”、...、“卡车”、“摩托车”)。如从不确定性地图426可见,更遥远的物体的分类与更高不确定性关联,而附近物体(例如输入帧422中的行人)的分类与低不确定性关联。
示例C
图4C示出模拟下雪条件,其描绘在危险的气候条件或有限可见度下对距离的预测的性能降级。在语义分割地图中没有标识距自主车辆(AV)的照相装置稍远过数米的骑自行车的人和轿车。这通过不确定性地图中的高不确定性估计来标记。更详细地,图4C示出正常气候条件下(作为输入帧442捕获)以及模拟下雪条件下(输入帧462)的场景、对应地面真值(ground truth)地图448和468(指示将输入帧442和462中的全部物体理想分类为类430;地面真值地图448和468是相同的)、示出将输入帧442和462中的物体分别分类为类430(如通过神经网络所得到)的对应语义分割地图444和464、以及对应不确定性地图446和466,其示出如通过神经网络所得到的在两种条件下的不确定性估计。如从分割地图464中可见,神经网络没有识别在距照相装置远过数米的距离处的骑自行车的人和汽车。这伴随有对应不确定性地图466中的高不确定性值。
在上述示范性情形中(备选地或额外地,在其它情形中),根据本公开的各个方面的方法和***能够使用不确定性估计来动态调整安全驾驶模型在安全距离和正确响应的定义中的参数(例如,调整AV的速度,以允许车辆减慢或者安全制动以避免碰撞)。
图5A示出流程图,其示出根据本公开的各个方面影响安全驾驶模型的参数的方法500,该方法500用于在对例如非预计传感器降级或危险气候条件的至少一个是健壮的同时实现自主车辆(AV)的更安全操作,以及图5B示出图5A中所示的不确定性估计器510的框架。安全***的一个或多个处理器(例如图1中所示车辆100中包括的安全***200的一个或多个处理器102)可实现方法500。安全***的一个或多个存储器(例如图2中所示安全***200的一个或多个存储器202)可(至少暂时)存储方法500中(例如在任何方法步骤中或期间)使用或得到的任何信息(例如输入或输出数据、模型参数、计算结果等)。
方法500可包括将(例如,通过车辆100的安全***200的一个或多个图像获取装置104(例如由一个或多个照相装置所馈送的照相装置)所得到的)图像数据作为输入502例如逐个像素地输入到分类器504中,该分类器504可以是或者包括贝叶斯神经网络(BNN)。图6示出示范性BNN 600的示意图,该示范性BNN 600包括层(包括输入层、输出层以及输入层与输出层之间的一个或多个隐藏层)中布置的并且经由边604连接的节点602、以及与节点602中的每个(除了输出层的节点602之外)的输出关联的权重606。权重606中的每个可从权重上的(例如可预定义)分布来取值。下文中将给出BNN 600的进一步说明。
分类器504(例如BNN 600)可提供预测分布505作为输出,从该预测分布505可得到三个输出分量:(1)预测结果507(例如,根据可预定类的(例如图像帧中包括的物体的)图像数据的分类),(2)偶然不确定性估计552,以及(3)认知不确定性估计554,其是与预测结果507关联的基于噪声和基于模型的不确定性。不确定性估计可包括输入图像数据的每个像素的不确定性估计。
不确定性估计器510可从分类器504(例如BNN 600)接收预测分布505作为输入,处理预测分布505,并且提供不确定性估计552和554作为结果(不确定性计算550)。
不确定性估计器510可包括全连接神经网络556,全连接神经网络556接收不确定性计算550中得到的不确定性估计552、554和所要求的置信水平558作为输入。置信水平558可预定义。作为示例,置信水平558可以是至少80%,例如至少85%、例如至少90%、例如至少95%、例如至少99%。全连接神经网络556可确定平均距离560,其中分类器504(BNN)检测例如公路使用者(例如行人和骑自行车的人)之类的物体并且以所要求的置信水平558将所述物体正确分类。平均距离560对于如上面所说明的不同类型(类)的物体、不同情形(驱动状况)、不同气候条件(阳光、雨、雾、灰尘、霜等)可以是不同的。
方法500可包括根据平均距离560来确定(在512)车辆100的最大允许速度vmax,并且在513将所确定的vmax作为参数来提供给安全驾驶模型。最大允许vmax例如可以是使车辆100能够在距物体(例如公路使用者)的距离dsafe处达到安全停止的速度,参见例如图3。因此,vmax又可称作“安全vmax”。方法500可将vmax输入到安全驾驶模型中,例如以便在514重新定义安全驾驶模型的“安全纵向距离”,如下面将进一步说明的那样。方法500可包括基于不确定性计算550中得到的不确定性估计来确定是否将控制权给予人类驾驶员。
方法500可包括根据分类器504(BNN)的预测结果505来确定(在506)分类器504是否已经检测到至少一个物体(例如,道路使用者,例如行人或骑自行车的人)。
如果分类器504已经检测到至少一个物体,则该方法可在508预测至少一个物体的轨迹。这可例如通过使用ABC(近似贝叶斯计算)方法进行,该方法使用生成模型来生成针对不同目标的可能轨迹,目的是基于它们与观测一致的程度来确定概率分布。生成模型能够是例如轨迹规划算法或神经网络。另一种方式可以是使用从所观测数据所训练的一个或多个神经网络。
方法500可包括在514基于在512所确定的最大允许速度vmax或者基于在508所确定的(一个或多个)预测轨迹或基于两者来重新定义(换言之,改变或更新)安全驾驶模型的参数“安全纵向距离”。如果在512所确定的vmax的值与vmax的先前确定值(例如在该方法的前一迭代中确定的vmax的值)不同,则方法500可将安全驾驶模型的安全纵向距离(例如上式(5)的距离dmin)调整成例如根据vmax的值变得更长或更短。
方法500可包括在516确定当前动作(例如,车辆的当前动作,例如当前驾驶操作,例如当前驾驶速度、加速度、减速度等)是否将满足(重新定义的)安全纵向距离。如果答案为“是”,则该方法可包括在518返回到分类器504,以便接收新输入502(例如新图像数据)以便处理。如果答案为“否”,则该方法可包括在520根据安全驾驶模型来发起正确响应(例如减速(制动)、停止加速等),以及在522返回到分类器504,以便接收新输入502(例如新图像数据)以便处理。
因此,上文所说明的方法的一方面是基于从贝叶斯神经网络(BNN)(例如贝叶斯深度神经网络(BDNN))的预测分布所得到的不确定性估计结果来重新定义安全驾驶模型的一个或多个参数(例如安全纵向距离)。
根据本公开的方面的不确定性估计可帮助设计更安全、可靠和健壮的人工智能(AI)***。根据本公开的方面捕获可靠不确定性估计可帮助建立用于决策的模型的置信中的信任。常规深度学习方法没有提供不确定性估计连同预测。常规深度神经网络(DNN)被训练以得到网络参数的最大似然估计,同时完全忽视预测中的不确定性。根据本公开的方面从DNN输出来捕获不确定性估计可帮助避免在馈送全新输入数据时的情形中的过度置信判定,所述全新输入数据尚未在训练期间被模型观测。
以下描述更详细说明贝叶斯神经网络(BNN)(例如图6所示的网络600)的方面。
贝叶斯神经网络(BNN)通过推断模型参数(权重)上的分布来提供深度学习模型的概率解释。
给定训练数据集D = {x, y}(其中输入x = {x1, … , xN},并且它们的对应输出y= {y1, … , yN}),在参数贝叶斯设定中,目标是推断函数y = f ω(x)的权重ω上的分布,该函数表示生成输出的神经网络的结构。先验分布p(ω)可在模型参数(权重)的空间上指配,p(ω)捕获关于哪些模型参数(权重)在观测任何数据之前可能将已经生成输出的先验信念(belief)。对给定输入p(y|x,ω),输出上的概率分布可定义为模型似然,所述模型似然通常被假定为分类设定中神经网络输出上的分类分布以及回归设定中神经网络输出上的高斯分布。给定证据数据、先验分布和模型似然,目标则是采用如下式(6)所示的贝叶斯推断来寻找参数p(ω|D)的空间上的后验分布。这个分布捕获模型参数的可能性如何,给定所观测数据:
其中
p(ω):权重先验
p(y|x,ω):模型似然
p(ω|D):权重后验
换言之,后验p(ω|D)捕获给定数据D情况下的可信(plausible)参数集。
利用在贝叶斯神经网络训练期间所推断的模型参数的近似后验,有可能通过在模型似然上传播,同时从已学习参数后验提取样本,来预测新数据点的输出。下式(7)示出给定新输入x*情况下的输出y*的预测分布。
图7示出操作车辆的安全***的方法700。方法700可包括:在702根据包括预定义驾驶模型参数的驾驶模型来控制车辆操作;在704,确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;在706基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及在708根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
图8示出操作车辆的安全***的方法800。方法800可包括:在802确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性,驾驶模型包括预定义驾驶模型参数;在804基于所确定的不确定性数据将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及在806向车辆的控制***提供一个或多个已改变或已更新的驾驶模型参数,以便根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
下面将说明本公开的各个方面。
示例1是车辆的安全***。该安全***可包括一个或多个处理器,所述处理器配置成:根据包括预定义驾驶模型参数的驾驶模型来控制车辆操作;确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
示例2是车辆的安全***。该安全***可包括一个或多个处理器,所述一个或多个处理器配置成:确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性,所述驾驶模型包括预定义驾驶模型参数;基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及向车辆的控制***提供一个或多个已改变或已更新的驾驶模型参数,以便根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
在示例3中,示例1或2的主题可选地能够包括:安全***进一步包括存储器,该存储器耦合到一个或多个处理器并且存储驾驶模型参数。
在示例4中,示例1至3中的任一个的主题可选地能够包括:一个或多个处理器配置成实现安全驾驶模型。
在示例5中,示例1至4中的任一个的主题可选地能够包括:一个或多个已改变或已更新的驾驶模型参数满足根据驾驶模型的预定义安全标准。
在示例6中,示例1至5中的任一个的主题可选地能够包括:一个或多个处理器配置成使用已训练***来确定不确定性数据。
在示例7中,示例6的主题可选地能够包括:已训练***包括神经网络。
在示例8中,示例7的主题可选地能够包括:神经网络包括贝叶斯神经网络(BNN)。
在示例9中,示例8的主题可选地能够包括:贝叶斯神经网络包括贝叶斯深度神经网络(BDNN)。
在示例10中,示例8或9的主题可选地能够包括:驾驶模型进一步配置成根据贝叶斯神经网络的预测分布来确定一个或多个预测。
在示例11中,示例8或9的主题可选地能够包括:驾驶模型进一步配置成根据贝叶斯神经网络的预测分布来确定不确定性数据。
在示例12中,示例10的主题可选地能够包括:驾驶模型进一步配置成根据贝叶斯神经网络的预测分布来确定不确定性数据。
在示例13中,示例6至12中的任一个的主题可选地能够包括:不确定性数据指示由于已训练***的输入数据中的噪声引起的不确定性。
在示例14中,示例6至13中的任一个的主题可选地能够包括:不确定性数据指示由于已训练***的模型参数中的不确定性引起的不确定性。
在示例15中,示例6至12中的任一个的主题可选地能够包括:不确定性数据指示由于已训练***的输入数据中的噪声引起的不确定性或者由于已训练***的模型参数中的不确定性引起的不确定性中的至少一个。
在示例16中,示例6至12中的任一个的主题可选地能够包括:不确定性数据指示偶然不确定性或认知不确定性中的至少一个。
在示例17中,示例6至12中的任一个的主题可选地能够包括:不确定性数据指示偶然不确定性和认知不确定性。
在示例18中,示例1至17中的任一个的主题可选地能够包括:一个或多个预测包括图像数据中包括的一个或多个物体的一个或多个分类。
在示例19中,示例18的主题可选地能够包括:一个或多个物体包括预定义分类类的一个或多个代理。
在示例20中,示例18或19的主题可选地能够包括:一个或多个物体包括预定义分类类的一个或多个用户。
在示例21中,示例18至20中的任一个的主题可选地能够包括:一个或多个物体包括一个或多个道路使用者。
在示例22中,示例18至21中的任一个的主题可选地能够包括:一个或多个物体包括下列中的至少一个:行人、骑自行车的人。
在示例23中,示例18至22中的任一个的主题可选地能够包括:安全***进一步包括获取图像数据的一个或多个图像获取装置,例如,一个或多个照相装置。
在示例24中,示例1至23中的任一个的主题可选地能够包括:驾驶模型参数包括车辆的最大允许速度。
在示例25中,示例1至24中的任一个的主题可选地能够包括:驾驶模型参数包括车辆的安全纵向距离。
在示例26中,示例1至25中的任一个的主题可选地能够包括:一个或多个已改变或已更新的驾驶模型参数包括车辆的最大允许速度。
在示例27中,示例1至26中的任一个的主题可选地能够包括:一个或多个已改变或已更新的驾驶模型参数包括车辆的安全纵向距离。
在示例28中,示例1至27中的任一个的主题可选地能够包括:一个或多个处理器进一步配置成基于不确定性数据来确定平均距离,在所述平均距离处,以预定义置信水平检测到例如预定义类的代理之类的物体(例如行人或骑自行车的人),并且基于所确定的平均距离,将一个或多个驾驶模型参数改变或更新成一个或多个已改变或已更新的驾驶模型参数。
在示例29中,示例28的主题可选地能够包括:一个或多个处理器配置成使用已训练***来确定平均距离。
在示例30中,示例29的主题可选地能够包括:已训练***包括神经网络。
在示例31中,示例30的主题可选地能够包括:神经网络包括全连接神经网络。
在示例32中,示例31的主题可选地能够包括:全连接神经网络包括全连接循环神经网络。
在示例33中,示例1至32中的任一个的主题可选地能够包括:一个或多个处理器配置成根据基于一个或多个已改变或已更新的驾驶模型参数的安全驾驶模型来发起正确响应。
在示例34中,示例1至33中的任一个的主题可选地能够包括:一个或多个处理器进一步配置成基于所确定的不确定性数据来确定是否将控制权给予人类驾驶员。
示例35是车辆。该车辆可包括示例1至34中的任一个的安全***。
示例36是车辆。该车辆可包括控制***,该控制***配置成根据包括预定义驾驶模型参数的驾驶模型来控制车辆操作。该车辆可进一步包括示例2至34中的任一个的安全***。安全***可耦合到控制***。
在示例37中,示例36的主题可选地能够包括,控制***进一步配置成从安全***的一个或多个处理器接收一个或多个已改变或已更新的驾驶模型参数,并且根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
示例38是车辆。该车辆可包括控制***,该控制***配置成根据包括预定义驾驶模型参数的驾驶模型来控制车辆操作。该车辆可进一步包括安全***,该安全***包括一个或多个处理器。一个或多个处理器可配置成:确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及向控制***提供一个或多个已改变或已更新的驾驶模型参数,以便根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
在示例39中,示例38的主题可选地能够包括,一个或多个处理器进一步配置成使用贝叶斯神经网络来确定不确定性数据。
示例40是一种操作车辆的安全***的方法。该方法可包括:根据包括预定义驾驶模型参数的驾驶模型来控制车辆操作;确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
示例41是一种操作车辆的安全***的方法。该方法可包括:确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及向车辆的控制***提供一个或多个已改变或已更新的驾驶模型参数,以便根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
示例42是一种操作车辆的安全***的方法。该方法可包括:确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;基于所确定的不确定性数据,将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及向车辆的控制***提供一个或多个已改变或已更新的驾驶模型参数。
在示例43中,示例42的主题可选地能够包括:控制***根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
在示例44中,示例40至43中的任一个的主题可选地能够包括:该方法进一步包括在存储器中存储驾驶模型参数。
在示例45中,示例40至44中的任一个的主题可选地能够包括:该方法进一步包括实现安全驾驶模型。
在示例46中,示例40至45中的任一个的主题可选地能够包括:一个或多个已改变或已更新的驾驶模型参数满足根据驾驶模型的预定义安全标准。
在示例47中,示例40至46中的任一个的主题可选地能够包括:确定不确定性数据包括使用已训练***。
在示例48中,示例47的主题可选地能够包括:已训练***包括神经网络。
在示例49中,示例48的主题可选地能够包括:神经网络包括贝叶斯神经网络(BNN)。
在示例50中,示例49的主题可选地能够包括:贝叶斯神经网络包括贝叶斯深度神经网络(BDNN)。
在示例51中,示例40至46中的任一个的主题可选地能够包括:确定不确定性数据包括使用贝叶斯神经网络。
在示例52中,示例50或51的主题可选地能够包括:根据贝叶斯神经网络的预测分布来确定来自驾驶模型的一个或多个预测。
在示例53中,示例50或51的主题可选地能够包括:根据贝叶斯神经网络的预测分布来确定不确定性数据。
在示例54中,示例52的主题可选地能够包括:根据贝叶斯神经网络的预测分布来确定不确定性数据。
在示例55中,示例47至54中的任一个的主题可选地能够包括:不确定性数据指示由于已训练***的输入数据中的噪声引起的不确定性。
在示例56中,示例47至55中的任一个的主题可选地能够包括:不确定性数据指示由于已训练***的模型参数中的不确定性引起的不确定性。
在示例57中,示例47至54中的任一个的主题可选地能够包括:不确定性数据指示偶然不确定性或认知不确定性中的至少一个。
在示例58中,示例47至54中的任一个的主题可选地能够包括:不确定性数据指示偶然不确定性和认知不确定性。
在示例59中,示例40至58中的任一个的主题可选地能够包括:一个或多个预测包括图像数据中包括的一个或多个物体的一个或多个分类。
在示例60中,示例59的主题可选地能够包括:一个或多个物体包括预定义分类类的一个或多个代理。
在示例61中,示例59或60的主题可选地能够包括:一个或多个物体包括预定义分类类的一个或多个用户。
在示例62中,示例59至61中的任一个的主题可选地能够包括:一个或多个物体包括一个或多个道路使用者。
在示例63中,示例59至62中的任一个的主题可选地能够包括:一个或多个物体包括下列中的至少一个:行人、骑自行车的人。
在示例64中,示例59至63中的任一个的主题可选地能够包括由安全***的一个或多个图像获取装置(例如一个或多个照相装置)来获取图像数据。
在示例65中,示例40至64中的任一个的主题可选地能够包括:驾驶模型参数包括车辆的最大允许速度。
在示例66中,示例40至65中的任一个的主题可选地能够包括:驾驶模型参数包括车辆的安全纵向距离。
在示例67中,示例40至66中的任一个的主题可选地能够包括:一个或多个已改变或已更新的驾驶模型参数包括车辆的最大允许速度。
在示例68中,示例40至67中的任一个的主题可选地能够包括:一个或多个已改变或已更新的驾驶模型参数包括车辆的安全纵向距离。
在示例69中,示例40至68中的任一个的主题可选地能够包括:基于不确定性数据来确定平均距离,在所述平均距离处,以预定义置信水平检测到例如道路使用者、例如预定义类的代理等的物体(例如行人或骑自行车的人),并且基于所确定的平均距离,将一个或多个驾驶模型参数改变或更新成一个或多个已改变或已更新的驾驶模型参数。
在示例70中,示例69的主题可选地能够包括:使用已训练***来确定平均距离。
在示例71中,示例70的主题可选地能够包括:已训练***包括神经网络。
在示例72中,示例71的主题可选地能够包括:神经网络包括全连接神经网络。
在示例73中,示例72的主题可选地能够包括:全连接神经网络包括全连接循环神经网络。
在示例74中,示例40至73中的任一个的主题可选地能够包括:根据基于一个或多个已改变或已更新的驾驶模型参数的安全驾驶模型来发起正确响应。
在示例75中,示例40至74中的任一个的主题可选地能够包括:基于所确定的不确定性数据来确定是否将控制权给予人类驾驶员。
示例76是车辆的安全***。该安全***可包括:存储器,存储驾驶模型的驾驶模型参数;以及一个或多个处理器,耦合到存储器并且配置成:确定来自检测和分类***的预测中的不确定性以便检测图像数据中的物体并且将该物体分类,以及基于所确定的不确定性来调整驾驶模型参数中的一个或多个。
示例77是车辆的安全***。该安全***可包括一个或多个处理器,所述一个或多个处理器配置成:根据包括预定义驾驶模型参数的驾驶模型来控制车辆操作;将图像数据分类以得到包括图像数据的一个或多个图像区段的分类的分类数据;确定不确定性数据,所述不确定性数据指示图像数据的一个或多个图像区段的分类中的不确定性;基于所确定的不确定性数据来改变或更新驾驶模型参数中的一个或多个;以及根据驾驶模型来控制车辆操作,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
在示例78中,示例79的主题可选地能够包括:安全***进一步包括存储器,该存储器耦合到一个或多个处理器并且存储驾驶模型参数。
在示例79中,示例77或78的主题可选地能够包括:安全***进一步包括配置成获取图像数据的一个或多个图像获取装置。
在示例80中,示例77至79中的任一个的主题可选地能够包括:一个或多个处理器进一步配置成:将图像数据分类,并且通过将贝叶斯深度神经网络应用于图像数据来确定不确定性数据。
示例81是一种存储指令的非易失性计算机可读介质,所述指令在由一个或多个处理器执行时使一个或多个处理器执行示例40至75中的任一个的、操作用于车辆的安全***的方法。
示例82是用于车辆的安全***。该安全***可包括:用于确定车辆的操作期间的不确定性数据的部件,所述不确定性数据指示来自包括预定义驾驶模型参数的驾驶模型的一个或多个预测中的不确定性;用于基于所确定的不确定性数据将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数的部件;以及用于向控制车辆的部件提供一个或多个已改变或已更新的驾驶模型参数的部件。
在示例83中,示例82的主题可选地能够包括:安全***进一步包括用于根据驾驶模型来控制车辆进行操作的部件,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
示例84是用于车辆的安全***。该安全***可包括:用于根据包括预定义驾驶模型参数的驾驶模型来控制车辆操作的部件;用于确定车辆的操作期间的不确定性数据的部件,所述不确定性数据指示来自驾驶模型的一个或多个预测中的不确定性;用于基于所确定的不确定性数据将驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数的部件;以及用于根据驾驶模型来控制车辆操作的部件,所述驾驶模型包括一个或多个已改变或已更新的驾驶模型参数。
在示例85中,示例82至84中的任一个的主题可选地能够包括:安全***进一步包括用于存储驾驶模型参数的部件。
虽然参照特定实施例特别示出和描述了本发明,但是本领域的技术人员应当理解,其中可进行形式和细节上的各种改变,而不背离如所附权利要求书所定义的本发明的精神和范围。因此,本发明的范围通过所附权利要求书来指示,并且因此意在包括落入权利要求书的等效性的含意和范围内的全部改变。
Claims (20)
1.一种用于车辆的安全***,所述安全***包括:
一个或多个处理器,配置成:
确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自包括预定义驾驶模型参数的驾驶模型的一个或多个预测中的不确定性;
基于所确定的不确定性数据,将所述驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及
向所述车辆的控制***提供所述一个或多个已改变或已更新的驾驶模型参数,以便根据所述驾驶模型来控制所述车辆操作,所述驾驶模型包括所述一个或多个已改变或已更新的驾驶模型参数。
2.如权利要求1所述的安全***,进一步包括:
存储器,耦合到所述一个或多个处理器并且存储所述驾驶模型的所述驾驶模型参数。
3.如权利要求1所述的安全***,其中,所述一个或多个处理器配置成实现安全驾驶模型。
4.如权利要求1所述的安全***,其中,所述一个或多个已改变或已更新的驾驶模型参数满足根据所述驾驶模型的预定义安全标准。
5.如权利要求1所述的安全***,其中,所述一个或多个处理器配置成使用已训练***来确定所述不确定性数据。
6.如权利要求5所述的安全***,其中,所述已训练***包括神经网络。
7.如权利要求6所述的安全***,其中,所述神经网络包括贝叶斯神经网络。
8.如权利要求5所述的安全***,其中,所述不确定性数据指示下列中的至少一个:由于所述已训练***的输入数据中的噪声引起的不确定性或者由于所述已训练***的模型参数中的不确定性引起的不确定性。
9.如权利要求1所述的安全***,其中,所述一个或多个预测包括图像数据中包括的一个或多个物体的一个或多个分类。
10.如权利要求1所述的安全***,其中,所述一个或多个已改变或已更新的驾驶模型参数包括所述车辆的最大允许速度。
11.如权利要求1所述的安全***,其中,所述一个或多个已改变或已更新的驾驶模型参数包括所述车辆的安全纵向距离。
12. 如权利要求1所述的安全***,其中,所述一个或多个处理器进一步配置成:
基于所述不确定性数据来确定平均距离,在所述平均距离处,以预定义置信水平检测到物体,以及
基于所确定的平均距离,将所述一个或多个驾驶模型参数改变或更新成所述一个或多个已改变或已更新的驾驶模型参数。
13.如权利要求12所述的安全***,其中,所述一个或多个处理器配置成使用已训练***来确定所述平均距离。
14.如权利要求13所述的安全***,其中,所述已训练***包括全连接神经网络。
15.如权利要求14所述的安全***,其中,所述一个或多个处理器进一步配置成:基于所确定的不确定性数据来确定是否将控制权给予人类驾驶员。
16.一种操作用于车辆的安全***的方法,所述方法包括:
确定车辆的操作期间的不确定性数据,所述不确定性数据指示来自驾驶模型中的一个或多个预测中的不确定性,所述驾驶模型包括预定义驾驶模型参数;
基于所确定的不确定性数据,将所述驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及
向所述车辆的控制***提供所述一个或多个已改变或已更新的驾驶模型参数,以便根据所述驾驶模型来控制所述车辆操作,所述驾驶模型包括所述一个或多个已改变或已更新的驾驶模型参数。
17.如权利要求16所述的方法,其中,确定所述不确定性数据包括使用贝叶斯神经网络。
18. 如权利要求16所述的方法,进一步包括:
基于所述不确定性数据来确定平均距离,在所述平均距离处,以预定义置信水平检测到物体,以及
基于所确定的平均距离,将所述一个或多个驾驶模型参数改变或更新成所述一个或多个已改变或已更新的驾驶模型参数。
19.一种车辆,包括:
控制***,配置成根据包括预定义驾驶模型参数的驾驶模型来控制所述车辆操作;
安全***,包括一个或多个处理器,所述一个或多个处理器配置成:
确定所述车辆的所述操作期间的不确定性数据,所述不确定性数据指示来自所述驾驶模型的一个或多个预测中的不确定性;
基于所确定的不确定性数据,将所述驾驶模型参数中的一个或多个改变或更新成一个或多个已改变或已更新的驾驶模型参数;以及
向所述控制***提供所述一个或多个已改变或已更新的驾驶模型参数,以便根据所述驾驶模型来控制所述车辆操作,所述驾驶模型包括所述一个或多个已改变或已更新的驾驶模型参数。
20.如权利要求19所述的车辆,其中,所述一个或多个处理器进一步配置成使用贝叶斯神经网络来确定所述不确定性数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/727,955 US11314258B2 (en) | 2019-12-27 | 2019-12-27 | Safety system for a vehicle |
US16/727955 | 2019-12-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113044059A true CN113044059A (zh) | 2021-06-29 |
Family
ID=70325311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011007437.XA Pending CN113044059A (zh) | 2019-12-27 | 2020-09-23 | 用于车辆的安全*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US11314258B2 (zh) |
CN (1) | CN113044059A (zh) |
DE (1) | DE102020127043A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115107765A (zh) * | 2022-06-29 | 2022-09-27 | 重庆长安汽车股份有限公司 | 车辆限速方法、装置、车辆及存储介质 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3071219B1 (fr) * | 2017-09-15 | 2019-10-18 | Jtekt Europe | Procede d’optimisation d’un parametre indicateur de vitesse vehicule destine aux fonctions d’assistance de direction et aux fonctions de securisation |
US11314258B2 (en) * | 2019-12-27 | 2022-04-26 | Intel Corporation | Safety system for a vehicle |
CN113128303A (zh) * | 2019-12-31 | 2021-07-16 | 华为技术有限公司 | 一种自动驾驶方法、相关设备及计算机可读存储介质 |
TWI734472B (zh) * | 2020-05-11 | 2021-07-21 | 國立陽明交通大學 | 基於深度學習的行車輔助系統及其方法 |
EP4162338A4 (en) * | 2020-06-05 | 2024-07-03 | Gatik Ai Inc | METHOD AND SYSTEM FOR DETERMINISTIC TRAJECTORY SELECTION BASED ON UNCERTAINTY ESTIMATION FOR AN AUTONOMOUS AGENT |
US11983625B2 (en) | 2020-06-24 | 2024-05-14 | Intel Corporation | Robust multimodal sensor fusion for autonomous driving vehicles |
CN112319479B (zh) * | 2020-10-21 | 2021-08-24 | 吉林大学 | 一种基于车辆信任度的车辆纵向行驶安全距离预估方法 |
US20210101619A1 (en) * | 2020-12-16 | 2021-04-08 | Mobileye Vision Technologies Ltd. | Safe and scalable model for culturally sensitive driving by automated vehicles |
EP4301643A1 (en) | 2021-03-04 | 2024-01-10 | Volvo Truck Corporation | Control-envelope based vehicle motion management |
US11899750B2 (en) | 2021-04-28 | 2024-02-13 | Ford Global Technologies, Llc | Quantile neural network |
WO2022243337A2 (en) * | 2021-05-17 | 2022-11-24 | Deep Safety Gmbh | System for detection and management of uncertainty in perception systems, for new object detection and for situation anticipation |
EP4370397A1 (en) * | 2021-07-16 | 2024-05-22 | Volvo Autonomous Solutions AB | A method for controlling a maximum allowed speed of an autonomous vehicle |
KR102595394B1 (ko) * | 2021-07-28 | 2023-10-31 | (주)골든플래닛 | Ai 기반 이미지 학습에서의 베이지안 알고리즘 적용을 통한 로드킬 방지 방법 및 이를 수행하는 전자 장치 |
US11807275B2 (en) * | 2021-08-09 | 2023-11-07 | GM Global Technology Operations LLC | Method and process for degradation mitigation in automated driving |
DE102022201702A1 (de) | 2022-02-18 | 2023-08-24 | Zf Friedrichshafen Ag | Computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells gegen eine Einsatzverlagerung, Computerprogramm, Datenträgersignal und automatisiertes Transportsystem zum Transportieren von Personen und/oder Gegenständen |
WO2023194978A1 (en) * | 2022-04-08 | 2023-10-12 | Mobileye Vision Technologies Ltd. | A safe and scalable model for culturally sensitive driving by automated vehicles using a probabilistic architecture |
DE102022207416B3 (de) | 2022-07-20 | 2023-10-05 | Zf Friedrichshafen Ag | Computerimplementiertes Verfahren zum Erkennen von Verdeckungen eines Bildgebungssensors |
KR20240071251A (ko) * | 2022-11-14 | 2024-05-22 | 주식회사 마키나락스 | 수집이 필요한 정보의 영역을 예측하는 방법 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201305067D0 (en) * | 2013-03-19 | 2013-05-01 | Massive Analytic Ltd | Apparatus for controlling a land vehicle which is self-driving or partially self-driving |
CN107111742B (zh) * | 2014-08-18 | 2021-04-02 | 无比视视觉技术有限公司 | 在导航中对车道限制和施工区域的识别和预测 |
US10496766B2 (en) * | 2015-11-05 | 2019-12-03 | Zoox, Inc. | Simulation system and methods for autonomous vehicles |
US10295363B1 (en) * | 2016-01-22 | 2019-05-21 | State Farm Mutual Automobile Insurance Company | Autonomous operation suitability assessment and mapping |
US10315649B2 (en) * | 2016-11-29 | 2019-06-11 | Ford Global Technologies, Llc | Multi-sensor probabilistic object detection and automated braking |
US10268200B2 (en) * | 2016-12-21 | 2019-04-23 | Baidu Usa Llc | Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle |
CN117740023A (zh) | 2017-03-01 | 2024-03-22 | 御眼视觉技术有限公司 | 用于利用感测不确定性导航的***和方法 |
WO2019033025A1 (en) * | 2017-08-10 | 2019-02-14 | Patroness, LLC | SYSTEMS AND METHODS FOR IMPROVED AUTONOMOUS OPERATIONS OF A MOTORIZED MOBILE SYSTEM |
US10509127B2 (en) * | 2017-12-13 | 2019-12-17 | Luminar Technologies, Inc. | Controlling vehicle sensors based on road configuration |
WO2019155065A1 (en) * | 2018-02-09 | 2019-08-15 | Deepmind Technologies Limited | Neural network systems implementing conditional neural processes for efficient learning |
US10748012B2 (en) * | 2018-02-13 | 2020-08-18 | Ford Global Technologies, Llc | Methods and apparatus to facilitate environmental visibility determination |
US10761538B2 (en) * | 2018-02-26 | 2020-09-01 | Fedex Corporate Services, Inc. | Systems and methods for enhanced collision avoidance on logistics ground support equipment using multi-sensor detection fusion |
US10564643B2 (en) * | 2018-05-31 | 2020-02-18 | Nissan North America, Inc. | Time-warping for autonomous driving simulation |
US11126187B2 (en) * | 2018-09-15 | 2021-09-21 | Toyota Research Institute, Inc. | Systems and methods for controlling the operation of a vehicle |
US11584368B2 (en) * | 2018-09-24 | 2023-02-21 | Intel Corporation | Evaluating risk factors of proposed vehicle maneuvers using external and internal data |
US11537127B2 (en) * | 2019-09-12 | 2022-12-27 | Uatc, Llc | Systems and methods for vehicle motion planning based on uncertainty |
US11314258B2 (en) * | 2019-12-27 | 2022-04-26 | Intel Corporation | Safety system for a vehicle |
US11586854B2 (en) * | 2020-03-26 | 2023-02-21 | Intel Corporation | Devices and methods for accurately identifying objects in a vehicle's environment |
-
2019
- 2019-12-27 US US16/727,955 patent/US11314258B2/en active Active
-
2020
- 2020-09-23 CN CN202011007437.XA patent/CN113044059A/zh active Pending
- 2020-10-14 DE DE102020127043.7A patent/DE102020127043A1/de active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115107765A (zh) * | 2022-06-29 | 2022-09-27 | 重庆长安汽车股份有限公司 | 车辆限速方法、装置、车辆及存储介质 |
CN115107765B (zh) * | 2022-06-29 | 2024-07-02 | 重庆长安汽车股份有限公司 | 车辆限速方法、装置、车辆及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11314258B2 (en) | 2022-04-26 |
DE102020127043A1 (de) | 2021-07-01 |
US20200133281A1 (en) | 2020-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11314258B2 (en) | Safety system for a vehicle | |
CN110349405B (zh) | 利用联网汽车的实时交通监视 | |
KR102446518B1 (ko) | 자율 주행 차량 제어 시스템을 위한 위치에 따른 지원 | |
US11531354B2 (en) | Image processing apparatus and image processing method | |
JP7188394B2 (ja) | 画像処理装置及び画像処理方法 | |
JP7499256B2 (ja) | ドライバの挙動を分類するためのシステムおよび方法 | |
KR102613792B1 (ko) | 촬상 장치, 화상 처리 장치 및 화상 처리 방법 | |
WO2019169031A1 (en) | Method for determining driving policy | |
KR20210112293A (ko) | 주석 달기를 위한 데이터 샘플의 자동 선택 | |
CN110738870A (zh) | 用于避免碰撞路线的***和方法 | |
US11887324B2 (en) | Cross-modality active learning for object detection | |
CN112469970A (zh) | 用于估计在车辆的自定位方面的定位质量的方法、用于执行该方法的方法步骤的设备以及计算机程序 | |
JPWO2019188391A1 (ja) | 制御装置、制御方法、並びにプログラム | |
WO2021060018A1 (ja) | 信号処理装置、信号処理方法、プログラム、及び、移動装置 | |
CN113460080A (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
US20230045772A9 (en) | Information processing apparatus, information processing method, and program | |
US20240087445A1 (en) | Method for providing an object message about an object, which is recognized in the surroundings of a road user, in a communication network for the communication with other road users | |
US20220165066A1 (en) | Information processing apparatus, information processing method, and program | |
KR20210100777A (ko) | 차량의 위치를 결정하는 장치 및 그의 동작 방법 | |
US11893889B2 (en) | Travel assistance system, travel assistance method, and non-transitory computer-readable storage medium that stores program | |
US20230168100A1 (en) | Automatic annotation of drivable road segments | |
US20220148283A1 (en) | Information processing apparatus, information processing method, and program | |
US20240051568A1 (en) | Discriminator network for detecting out of operational design domain scenarios | |
CN113424243B (zh) | 信息处理装置、信息处理方法和信息处理程序 | |
US20240132112A1 (en) | Path-based trajectory prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |