CN105109483A - 驾驶方法及*** - Google Patents
驾驶方法及*** Download PDFInfo
- Publication number
- CN105109483A CN105109483A CN201510532385.0A CN201510532385A CN105109483A CN 105109483 A CN105109483 A CN 105109483A CN 201510532385 A CN201510532385 A CN 201510532385A CN 105109483 A CN105109483 A CN 105109483A
- Authority
- CN
- China
- Prior art keywords
- action
- decision
- obstacle
- vehicle
- making
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000009471 action Effects 0.000 claims abstract description 332
- 238000010801 machine learning Methods 0.000 claims abstract description 46
- 230000008569 process Effects 0.000 claims abstract description 27
- 238000012544 monitoring process Methods 0.000 claims abstract description 4
- 230000002708 enhancing effect Effects 0.000 claims description 86
- 230000001186 cumulative effect Effects 0.000 claims description 45
- 230000001143 conditioned effect Effects 0.000 claims description 25
- 230000009286 beneficial effect Effects 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000007613 environmental effect Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 17
- 230000008859 change Effects 0.000 description 8
- 206010039203 Road traffic accident Diseases 0.000 description 7
- 238000005728 strengthening Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 206010049669 Dyscalculia Diseases 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
本发明公开一种驾驶方法及***,属于车辆安全技术领域。该驾驶***包括:环境感知模块和避撞控制模块,环境感知模块用于在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置;避撞控制模块用于根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶,本发明解决了相关技术中的驾驶***具有局限性,稳定性较低,灵活性较差的问题,达到了扩大驾驶***的应用范围,提高驾驶***的稳定性和灵活性的有益效果。本发明用于车辆的避撞驾驶。
Description
技术领域
本发明涉及车辆安全技术领域,特别涉及一种驾驶方法及***。
背景技术
随着电子技术的快速发展,车辆等车辆已经成为生活中必不可少的交通工具。而伴随着车辆的普及,道路上的车辆越来越密集,行车安全也越来越重要。
通常,驾驶员在驾驶车辆行驶的过程中,可能会发生一些诸如插车、障碍物阻挡等突发事件,此时,驾驶员可以手动操作方向盘,油门,刹车等以避免车辆与障碍物发生碰撞,但是由于在发生突发事件时,驾驶员通常处于紧张状态,驾驶员对方向盘,油门、刹车等操作的准确性较低。为此,相关技术提供了一种驾驶***,该驾驶***包括:环境感知模块和避撞控制模块,避撞控制模块中存储有驾驶员根据驾驶车辆过程中的避撞经验设置的环境状态量与决策动作的对应关系,其中,环境状态量可以为障碍物的位置,环境感知模块可以在车辆的行驶环境中存在由障碍物引发的突发事件时获取车辆当前的环境状态量,避撞控制模块可以根据车辆当前的环境状态量从环境状态量与决策动作的对应关系中确定与车辆当前的环境状态量对应的目标决策动作,然后根据该目标决策动作控制车辆行驶,从而避免车辆与障碍物发生碰撞。
在实现本发明的过程中,发明人发现相关技术至少存在以下问题:
相关技术中的驾驶***是以驾驶员的避撞经验为依据控制车辆行驶的,受驾驶员经验的限制,驾驶***具有一定的局限性,且由于是以驾驶员的避撞经验为依据控制车辆行驶的,因此,驾驶***的稳定性较低,灵活性较差。
发明内容
为了解决相关技术中驾驶***具有局限性,稳定性较低,灵活性较差的问题,本发明提供一种驾驶方法及***。所述技术方案如下:
第一方面,提供一种驾驶***,所述驾驶***包括:环境感知模块和避撞控制模块,
所述环境感知模块用于在车辆行驶过程中监测所述车辆的行驶环境;预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件;在所述车辆的行驶环境中会发生由障碍物引发的突发事件时,获取所述障碍物的位置;
所述避撞控制模块用于根据所述障碍物的位置,采用机器学习算法确定目标决策动作;根据所述目标决策动作控制所述车辆行驶。
可选地,所述避撞控制模块用于:
从经验存储库中确定与所述障碍物的位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
可选地,所述避撞控制模块用于获取驾驶员的决策动作;
所述环境感知模块用于获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
所述避撞控制模块用于从经验存储库中确定与所述障碍物的第一位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
所述避撞控制模块用于计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
可选地,所述避撞控制模块用于:
计算所述驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,所述n为大于或者等于1的整数;
判断所述n个增强信号中是否存在符合预设条件的增强信号;
在所述n个增强信号中存在符合预设条件的增强信号时,触发所述环境感知模块获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
其中,在执行所述符合预设条件的增强信号对应的决策动作时,所述车辆与所述车辆的行驶环境中的障碍物会发生碰撞。
可选地,所述环境感知模块用于:
判断所述车辆的行驶环境中是否存在障碍物;
在所述车辆的行驶环境中存在障碍物时,判断所述障碍物是否处于预设范围内;
在所述障碍物处于所述预设范围时,确定所述车辆的行驶环境中会发生由所述障碍物引发的突发事件。
第二方面,提供一种驾驶方法,所述方法包括:
在车辆行驶过程中监测所述车辆的行驶环境;
预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件;
若所述车辆的行驶环境中会发生由障碍物引发的突发事件,则获取所述障碍物的位置;
根据所述障碍物的位置,采用机器学习算法确定目标决策动作;
根据所述目标决策动作控制所述车辆行驶。
可选地,所述根据所述障碍物的位置,采用机器学习算法确定目标决策动作,包括:
从经验存储库中确定与所述障碍物的位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
可选地,所述根据所述障碍物的位置,采用机器学习算法确定目标决策动作,包括:
获取驾驶员的决策动作;
获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
从经验存储库中确定与所述障碍物的第一位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
可选地,所述获取执行所述驾驶员的决策动作之后所述障碍物的第一位置,包括:
计算所述驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,所述n为大于或者等于1的整数;
判断所述n个增强信号中是否存在符合预设条件的增强信号;
若所述n个增强信号中存在符合预设条件的增强信号,则获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
其中,在执行所述符合预设条件的增强信号对应的决策动作时,所述车辆与所述车辆的行驶环境中的障碍物会发生碰撞。
可选地,所述预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件,包括:
判断所述车辆的行驶环境中是否存在障碍物;
若所述车辆的行驶环境中存在障碍物,则判断所述障碍物是否处于预设范围内;
若所述障碍物处于所述预设范围内,则确定所述车辆的行驶环境中会发生由所述障碍物引发的突发事件。
本发明提供的技术方案带来的有益效果是:
本发明实施例提供的驾驶方法及***,驾驶***包括:环境感知模块和避撞控制模块,环境感知模块用于在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置;避撞控制模块用于根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶。由于本发明采用机器学习算法确定目标决策动作,目标决策动作的确定不受驾驶员的经验的限制,解决了相关技术中的驾驶***具有局限性,稳定性较低,灵活性较差的问题,达到了扩大驾驶***的应用范围,提高驾驶***的稳定性和灵活性的有益效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明各个实施例提供的驾驶方法所涉及的一种实施环境的结构示意图;
图2是本发明一个实施例提供的驾驶***的框图;
图3是本发明一个实施例提供的一种驾驶方法的方法流程图;
图4是本发明另一个实施例提供的一种驾驶方法的方法流程图;
图5是图4所示实施例提供的一种预测车辆的行驶环境中是否会发生由障碍物引发的突发事件的方法流程图;
图6是图4所示实施例提供的一种确定障碍物是否位于预设范围内的示意图;
图7是图4所示实施例提供的一种根据障碍物的位置采用机器学习算法确定目标决策动作的方法流程图;
图8是图4所示实施例提供的一种根据通过机器学习算法确定障碍物的位置与可执行动作的对应关系的示意图;
图9是图4所示实施例提供的另一种根据障碍物的位置采用机器学习算法确定目标决策动作的方法流程图;
图10是图4所示实施例提供的一种获取执行驾驶员的决策动作之后障碍物的第一位置的方法流程图。
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参考图1,其示出了本发明各个实施例提供的驾驶方法所涉及的一种实施环境的结构示意图,参见图1,道路S包括三个车道,分别为车道S1、车道S2和车道S3,车辆C1行驶于车道S1上,车辆C2行驶于车道S2上,车辆C3行驶于车道S3上,且车辆C1、车辆C2和车辆C3的行驶方向相同。在车辆C1和车辆C2行驶的过程中,车辆C3突然从车辆C2的前方变道至车道S2上行驶(插车),此时,车辆C3对于车辆C2来说可以称为障碍物,该障碍物出现时,车辆C2的驾驶员条件反射的旋转车辆C2的方向盘以避免车辆C2与车辆C3发生碰撞,车辆C2的驾驶员旋转车辆C2的方向盘的角度和方向不同,可以使得车辆C2按照不同的路径行驶,示例地,车辆C2可以按照图1所示的路径L1、路径L2和路径L3中的任一路径行驶,参见图1可知,该3条路径对应的方向盘的旋转方向均是向车辆C2的驾驶员的左侧旋转,且路径L2对应的旋转角度小于路径L1对应的旋转角度,路径L1对应的旋转角度小于路径L3对应的旋转角度。
通常情况下,车辆C3的突然插车会导致车辆C2的驾驶员处于精神紧张状态而无法精确把握方向盘的旋转角度,若车辆C2的方向盘的旋转角度过小,车辆C2可能会按照路径L2行驶,导致车辆C2与车辆C3发生刮擦甚至碰撞,进而引发交通事故;若车辆C2的方向盘的旋转角度过大,车辆C2可能会按照路径L3行驶,导致车辆C2与车辆C1发生刮擦甚至碰撞,进而引发交通事故。
在本实施环境中,在车辆C3插车时,车辆C2的理想行驶路径为路径L1,本发明实施例提供的驾驶***可以安装在车辆C2上,使得在车辆C3插车时,车辆C2按照路径L1行驶,避免车辆C2与车辆C3、车辆C1发生碰撞,从而避免交通事故的发生。
请参考图2,其示出了本发明一个实施例提供的驾驶***200的框图,该驾驶***200可以用于车辆驾驶,该驾驶***200能够在车辆的行驶环境中存在由障碍物引发的突发事件时,避免车辆与障碍物发生碰撞。参见图2,该驾驶***200可以包括但不限于:环境感知模块210和避撞控制模块220。
环境感知模块210用于在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置。
避撞控制模块220用于根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶。
可选地,避撞控制模块220用于:
从经验存储库中确定与障碍物的位置对应的目标可执行动作,经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与决策动作一一对应的增强信号,增强信号用于指示与增强信号一一对应的决策动作在执行时的立即回报;
计算目标可执行动作中的每个决策动作的未来无穷回报累加和;
将未来无穷回报累加和最大的决策动作作为目标决策动作。
可选地,避撞控制模块220用于获取驾驶员的决策动作;
环境感知模块210用于获取执行驾驶员的决策动作之后障碍物的第一位置;
避撞控制模块220用于从经验存储库中确定与障碍物的第一位置对应的目标可执行动作,经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与决策动作一一对应的增强信号,增强信号用于指示与增强信号一一对应的决策动作在执行时的立即回报;
避撞控制模块220用于计算目标可执行动作中的每个决策动作的未来无穷回报累加和;将未来无穷回报累加和最大的决策动作作为目标决策动作。
可选地,避撞控制模块220用于:
计算驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,n为大于或者等于1的整数;
判断n个增强信号中是否存在符合预设条件的增强信号;
在n个增强信号中存在符合预设条件的增强信号时,触发环境感知模块210获取执行驾驶员的决策动作之后障碍物的第一位置;
其中,在执行符合预设条件的增强信号对应的决策动作时,车辆与车辆的行驶环境中的障碍物会发生碰撞。
可选地,环境感知模块210用于:
判断车辆的行驶环境中是否存在障碍物;
在车辆的行驶环境中存在障碍物时,判断障碍物是否处于预设范围内;
在障碍物处于预设范围时,确定车辆的行驶环境中会发生由障碍物引发的突发事件。
综上所述,本发明实施例提供的驾驶***包括:环境感知模块和避撞控制模块,环境感知模块用于在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置;避撞控制模块用于根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶。由于本发明采用机器学习算法确定目标决策动作,目标决策动作的确定不受驾驶员的经验的限制,解决了相关技术中的驾驶***具有局限性,稳定性较低,灵活性较差的问题,达到了扩大驾驶***的应用范围,提高驾驶***的稳定性和灵活性的有益效果。
本发明实施例提供的驾驶***可以应用于下文的方法,本发明实施例中驾驶方法可以参见下文各实施例中的描述。
请参考图3,其示出了本发明一个实施例提供的驾驶方法的方法流程图,该驾驶方法可以由图2所示的驾驶***来执行,参见图3,该方法流程可以包括如下几个步骤:
在步骤301中,在车辆行驶过程中监测车辆的行驶环境。
在步骤302中,预测车辆的行驶环境中是否会发生由障碍物引发的突发事件。
在步骤303中,若车辆的行驶环境中会发生由障碍物引发的突发事件,则获取障碍物的位置。
在步骤304中,根据障碍物的位置,采用机器学习算法确定目标决策动作。
在步骤305中,根据目标决策动作控制车辆行驶。
综上所述,本发明实施例提供的驾驶方法,通过在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置;根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶。由于本发明采用机器学习算法确定目标决策动作,目标决策动作的确定不受驾驶员的经验的限制,解决了相关技术中的驾驶方法具有局限性,稳定性较低,灵活性较差的问题,达到了扩大驾驶方法的应用范围,提高驾驶方法的稳定性和灵活性的有益效果。
可选地,步骤304可以包括:
从经验存储库中确定与障碍物的位置对应的目标可执行动作,经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与决策动作一一对应的增强信号,增强信号用于指示与增强信号一一对应的决策动作在执行时的立即回报;
计算目标可执行动作中的每个决策动作的未来无穷回报累加和;
将未来无穷回报累加和最大的决策动作作为目标决策动作。
可选地,步骤304可以包括:
获取驾驶员的决策动作;
获取执行驾驶员的决策动作之后障碍物的第一位置;
从经验存储库中确定与障碍物的第一位置对应的目标可执行动作,经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与决策动作一一对应的增强信号,增强信号用于指示与增强信号一一对应的决策动作在执行时的立即回报;
计算目标可执行动作中的每个决策动作的未来无穷回报累加和;
将未来无穷回报累加和最大的决策动作作为目标决策动作。
进一步地,获取执行驾驶员的决策动作之后障碍物的第一位置,包括:
计算驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,n为大于或者等于1的整数;
判断n个增强信号中是否存在符合预设条件的增强信号;
若n个增强信号中存在符合预设条件的增强信号,则获取执行驾驶员的决策动作之后障碍物的第一位置;
其中,在执行符合预设条件的增强信号对应的决策动作时,车辆与车辆的行驶环境中的障碍物会发生碰撞。
可选地,步骤302可以包括:
判断车辆的行驶环境中是否存在障碍物;
若车辆的行驶环境中存在障碍物,则判断障碍物是否处于预设范围内;
若障碍物处于预设范围内,则确定车辆的行驶环境中会发生由障碍物引发的突发事件。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
综上所述,本发明实施例提供的驾驶方法,通过在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置;根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶。由于本发明采用机器学习算法确定目标决策动作,目标决策动作的确定不受驾驶员的经验的限制,解决了相关技术中的驾驶方法具有局限性,稳定性较低,灵活性较差的问题,达到了扩大驾驶方法的应用范围,提高驾驶方法的稳定性和灵活性的有益效果。
请参考图4,其示出了本发明另一个实施例提供的驾驶方法的方法流程图,该驾驶方法可以由图2所示的驾驶***来执行,参见图4,该方法流程可以包括如下几个步骤:
在步骤401中,在车辆行驶过程中监测车辆的行驶环境。
其中,该监测车辆的行驶环境的过程可以由图2所示驾驶***中的环境感知模块执行,其中,环境感知模块可以包括摄像机、雷达等,本发明实施例对此不做限定。车辆的行驶环境可以包括车辆所在行驶道路的路况等,本发明实施例对此不做限定。
在步骤402中,预测车辆的行驶环境中是否会发生由障碍物引发的突发事件。
其中,预测车辆的行驶环境中是否会发生由障碍物引发的突发事件的过程可以由图2所示驾驶***中的环境感知模块执行,在本发明实施例中,环境感知模块在监测车辆的行驶环境的过程中,就可以根据车辆的行驶环境预测车辆的行驶环境中是否会发生由障碍物引发的突发事件。
示例地,请参考图5,其示出的是图4所示实施例提供的一种预测车辆的行驶环境中是否会发生由障碍物引发的突发事件的方法流程图。参见图5,在本发明实施例中,环境感知模块预测车辆的行驶环境中是否会发生由障碍物引发的突发事件可以包括如下几个步骤:
在子步骤4021中,判断车辆的行驶环境中是否存在障碍物。
环境感知模块可以根据摄像机、雷达等的监测数据判断车辆的行驶环境中是否存在障碍物,其中,在本发明实施例中,阻碍车辆前行的都可以称为障碍物。示例地,如图1所示,在车辆C2正常行驶时,车辆C3的插车阻碍了车辆C2前行,因此,车辆C3对于车辆C2来说属于障碍物,在车辆C2按照路径L3行驶时,车辆C1会阻碍车辆C2前行,因此,车辆C1对于车辆C2来说属于障碍物。
在本发明实施例中,示例地,车辆C2上的驾驶***的环境感知模块可以根据摄像机捕获的图像中是否存在车辆C3或者车辆C1,来判断车辆C2的行驶环境中是否存在障碍物。
在子步骤4022中,若车辆的行驶环境中存在障碍物,则判断障碍物是否处于预设范围内。
若在步骤4021中,环境感知模块确定车辆的行驶环境中存在障碍物,则环境感知模块判断障碍物是否处于预设范围,其中,预设范围可以根据实际情况设置,本发明实施例对此不做限定。示例地,预设范围可以为车辆所在车道上的车辆周围5米的范围内,即,预设范围可以为以车辆为圆心,5米为半径的圆确定的范围,在本发明实施例中,优选地,预设范围可以为以车辆为圆心,5米为半径的圆位于车辆前方的半圆确定的范围,本发明实施例对此不做限定。
示例地,如图6所示,假设车辆C3是车辆C2行驶环境中的障碍物,预设范围可以为图6中的虚线阴影确定的范围,由图6可知,车辆C3处于预设范围内。
在子步骤4023中,若障碍物处于预设范围内,则确定车辆的行驶环境中会发生由障碍物引发的突发事件。
若在步骤4022中,环境感知模块确定障碍物处于预设范围内,则环境感知模块确定车辆的行驶环境中会发生由障碍物引发的突发事件。示例地,以图6为例,由于车辆C3(障碍物)处于预设范围内,因此,环境感知模块确定车辆C2的行驶环境中会发生由障碍物引发的突发事件。
在步骤403中,若车辆的行驶环境中会发生由障碍物引发的突发事件,则获取障碍物的位置。
若在步骤402中,环境感知模块确定车辆的行驶环境中会发生由障碍物引发的突发事件,则环境感知模块获取障碍物的位置。
其中,障碍物的位置可以包括:障碍物距离车辆的距离,障碍物所在的方位等,本发明实施例对此不做限定。
示例地,环境感知模块获取车辆C3(障碍物)的位置,该位置可以为X(t)。需要说明的是,该位置也可以理解为车辆C2的环境状态量,本发明实施例对此不做限定。
在步骤404中,根据障碍物的位置,采用机器学习算法确定目标决策动作。
其中,根据障碍物的位置,采用机器学习算法确定目标决策动作可以由图2所示驾驶***中的避撞控制模块执行。环境感知模块可以向避撞控制模块发送障碍物的位置,使得避撞控制模块根据障碍物的位置,采用机器学习算法确定目标决策动作。
在本发明实施例中,避撞控制模块可以按照下图7或下图9所示的任意一种方法根据障碍物的位置,采用机器学习算法确定目标决策动作。
示例地,请参考图7,其示出的是图4所示实施例提供的一种根据障碍物的位置,采用机器学习算法确定目标决策动作的方法流程图,参见图7,该方法流程可以包括如下几个步骤:
在子步骤4041a中,从经验存储库中确定与障碍物的位置对应的目标可执行动作。
其中,经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与决策动作一一对应的增强信号,增强信号用于指示与增强信号一一对应的决策动作在执行时的立即回报。
假设障碍物的位置用X表示,决策动作用u表示,增强信号用r表示,示例地,经验存储库中记录的障碍物的位置与可执行动作的对应关系可以如下表1所示,其中,决策动作可以为踩油门的力度值,踩刹车的力度值,方向盘的旋转角度等,本发明实施例对此不做限定。
表1
参见表1所示,该表1中记录了n个障碍物的位置,每个障碍物的位置对应多个可执行动作,且每个可执行动作包括决策动作和与该决策动作一一对应的增强信号。示例地,障碍物的位置X(t)对应的可执行动作中包括决策动作u1(t)、u2(t)和u3(t)共3个决策动作,决策动作u1(t)对应的增强信号为r1(t),决策动作u2(t)对应的增强信号为r2(t),决策动作u3(t)对应的增强信号为r3(t),障碍物的位置X(t+1)对应的可执行动作可以参考障碍物的位置X(t)对应的可执行动作来理解,本发明实施例在此不再赘述。
在本发明实施例中,车辆C3(障碍物)的位置为X(t),则避撞控制模块可以从表1中确定X(t)对应的目标可执行动作,该X(t)对应的目标可执行动作中包括决策动作u1(t)、u2(t)和u3(t)共3个决策动作。
在子步骤4042a中,计算目标可执行动作中的每个决策动作的未来无穷回报累加和。
避撞控制模块确定X(t)对应的目标可执行动作后,可以根据每个决策动作的增强信号计算目标可执行动作中的每个决策动作的未来无穷回报累加和。其中,避撞控制模块可以根据未来无穷回报累加和计算公式计算目标可执行动作中的每个决策动作的未来无穷回报累加和。
其中,未来无穷回报累加和计算公式为:
R(t)=r(t+1)+αr(t+2)+α2r(t+3)+…
其中,R(t)表示未来无穷回报累加和,r(t+1)表示t+1时刻的增强信号,r(t+2)表示t+2时刻的增强信号,r(t+3)表示t+3时刻的增强信号,α表示折算因子,参见上述公式可知,对未来回报累加和影响最大的是t+1时刻的增强信号,t+2时刻、t+3时刻的增强信号对未来回报累加和影响以指数形式衰减。
示例地,避撞控制模块分别计算决策动作u1(t)、u2(t)和u3(t)的未来无穷回报累加和。
需要说明的是,当障碍物的位置为X(t)时,避撞控制模块执行X(t)对应的任意一个决策动作都会改变障碍物的位置,使得障碍物的位置变为X(t+1),同时避撞控制模块会得到X(t+1)对应的一个增强信号,当障碍物的位置为X(t+1)时,避撞控制模块执行X(t+1)对应的任意一个决策动作都会改变障碍物的位置,使得障碍物的位置变为X(t+2),同时避撞控制模块会得到X(t+2)对应的一个增强信号,依次类推。示例地,假设避撞控制模块执行X(t)对应的决策动作u1(t),使得障碍物的位置变为X(t+1),避撞控制模块得到X(t+1)对应的一个增强信号为r1(t+1),避撞控制模块执行X(t+1)对应的决策动作为u1(t+1),使得障碍物的位置变为X(t+2),避撞控制模块得到X(t+2)对应的一个增强信号为r1(t+2),依次类推,则可以根据上述未来无穷回报累加和计算公式得到决策动作u1(t)对应的未来无穷回报累加和为R1(t)=r1(t+1)+αr1(t+2)+α2r1(t+3)+…
在子步骤4043a中,将未来无穷回报累加和最大的决策动作作为目标决策动作。
避撞控制模块计算得到目标可执行动作中的每个决策动作的未来无穷回报累加和之后,可以从目标可执行动作中的所有决策动作的未来无穷回报累加和中确定出未来回报累加和最大的决策动作,并将未来无穷回报累加和最大的决策动作作为目标决策动作。示例地,假设决策动作u1(t)的未来无穷回报累加和为R1(t),决策动作u2(t)的未来无穷回报累加和为R2(t),决策动作u3(t)的未来无穷回报累加和为R3(t),且R1(t)>R2(t)>R3(t),则避撞控制模块将决策动作u1(t)作为目标决策动作。
需要说明的是,参见表1可知,对于任意时刻t的障碍物的位置X(t),都会有多种不同的决策动作可供驾驶***选择。选择不同的决策动作意味着下一个时刻t+1的障碍物的位置X(t+1)和对应的增强信号r(t+1)也会不同。虽然驾驶***选择决策动作的标准是依据于增强信号带来的回报,但这并不表示驾驶***在t时刻要选择能在下一时刻带来最大回报的决策动作。对于动态变化过程,最优决策动作选择的标准要依据于贝尔曼最优化原则,即,要考虑该决策动作之后,余下(未来)所有可能存在的状态、可供选择的动作和反馈的增强信号都要是最优的。
还需要说明的是,在子步骤4041a之前,驾驶***可以先通过机器学习算法得到表1所示的障碍物的位置与可执行动作的对应关系。其中,学习的过程可以在计算机里进行,可以在计算机(比如,在计算机的Matlab软件)里进行模拟实验,创建车辆行驶环境模型,并设计多种插车情况,使车辆的驾驶***能够自主学习避撞策略。学习后的驾驶***可以储存学习经验(如表1所示的对应关系),之后将驾驶***安装到车辆上使用。
示例地,请参考图8,其示出的是图4所示实施例提供的一种通过机器学习算法确定障碍物的位置与可执行动作的对应关系的示意图。参见图8,环境感知模块可以获取障碍物的位置X(t),并将障碍物的位置X(t)发送至避撞控制模块,避撞控制模块可以根据障碍物的位置X(t)做出决策动作u(t),该决策动作u(t)会改变车辆的位置,进而使得障碍物的位置变为X(t+1),同时,环境感知模块会反馈给避撞控制模块一个增强信号r(t),该增强信号r(t)表示执行决策动作u(t)后的立即回报,通常,增强信号可以以数值方式存在,不同的数值用以评价做出的决策动作的“好”、“坏”,且增强信号的数值越大表明对应的决策动作越好,增强信号的数值越小表明对应的决策动作越差。同样,对于新的位置X(t+1),避撞控制模块会做出新的决策动作u(t+1),并从得到一个增强信号r(t+1)。依次类推下去,即避撞控制模块在每个时刻都会与环境感知模块交互,通过环境感知模块反馈的增强信号的“好”、“坏”,在线调节决策策略,以便在后续决策动作中获得最大的回报,使得整个决策过程趋于最优,最终,可以根据增强信号确定决策动作的好坏,得到表1所示的对应关系。
再示例地,请参考图9,其示出的是图4所示实施例提供的另一种根据障碍物的位置,采用机器学习算法确定目标决策动作的方法流程图,参见图9,该方法流程可以包括如下几个步骤:
在子步骤4041b中,获取驾驶员的决策动作。
在本发明实施例中,在车辆的行驶环境中会发生由障碍物引发的突发事件时,驾驶员可以人为做出决策动作,比如,驾驶员人为操作方向盘,油门,刹车等。避撞控制模块可以获取驾驶员的决策动作,示例地,避撞控制模块可以通过读取油门,刹车,方向盘的操作数据,来获取驾驶员的决策动作。
在子步骤4042b中,获取执行驾驶员的决策动作之后障碍物的第一位置。
驾驶员做出的决策动作会改变车辆的位置,进而导致障碍物的位置发生改变,示例地,执行驾驶员的决策动作之后障碍物的位置可以变为第一位置,因此,避撞控制模块可以获取执行驾驶员的决策动作之后障碍物的第一位置,假设障碍物的第一位置为X(t+1),则避撞控制模块可以获取障碍物的第一位置X(t+1)。
示例地,请参考图10,其示出的是图4所示实施例提供的避撞控制模块获取执行驾驶员的决策动作之后障碍物的第一位置的方法流程图,参见图10,在本发明实施例中,避撞控制模块获取执行驾驶员的决策动作之后障碍物的第一位置的可以包括如下几个步骤:
在子步骤4042b1中,计算驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,n为大于或者等于1的整数。
其中,未来n个状态也即是障碍物的未来的n个位置。假设驾驶员的决策动作为表1所示的决策动作u2(t),则该决策动作u2(t)可以改变障碍物的位置,使得障碍物的位置从X(t)改变为X(t+1),该障碍物的位置X(t+1)可以为驶员的决策动作u2(t)对应的未来n个状态中的第一个状态,则避撞控制模块计算障碍物的位置X(t+1)对应的增强信号,参见表1可知,障碍物的位置X(t+1)对应的增强信号包括r1(t+1)、r2(t+1)、r3(t+1)和r4(t+1)共4个增强信号,且每个增强信号对应一个决策动作,因此,避撞控制模块计算每个决策动作对应的未来n-1个状态的增强信号。示例地,避撞控制模块计算决策动作u1(t+1)对应的增强信号r1(t+1),并计算执行决策动作u1(t+1)后障碍物的位置X(t+2),假设该X(t+2)对应的决策动作对应的增强信号为r1(t+2),依次类推,避撞控制模块可以得到n个增强信号。
在子步骤4042b2中,判断n个增强信号中是否存在符合预设条件的增强信号。
其中,在执行符合预设条件的增强信号对应的决策动作时,车辆与车辆的行驶环境中的障碍物会发生碰撞。示例地,预设条件可以为增强信号小于或者等于-1,也即,避撞控制模块判断n个增强信号中是否存在小于或者等于-1的增强信号。
在子步骤4042b3中,若n个增强信号中存在符合预设条件的增强信号,则获取执行驾驶员的决策动作之后障碍物的第一位置。
若在步骤4042b2中,避撞控制模块确定n个增强信号中存在符合预设条件的增强信号,说明驾驶员的决策动作存在误差,因此,可以由环境感知模块获取执行驾驶员的决策动作之后障碍物的第一位置,进而由避撞控制模块根据执行驾驶员的决策动作之后障碍物的第一位置对驾驶员的决策动作进行修正。
在子步骤4043b中,从经验存储库中确定与障碍物的第一位置对应的目标可执行动作。
其中,经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与决策动作一一对应的增强信号,增强信号用于指示与增强信号一一对应的决策动作在执行时的立即回报。
在子步骤4044b中,计算目标可执行动作中的每个决策动作的未来无穷回报累加和。
在子步骤4045b中,将未来无穷回报累加和最大的决策动作作为目标决策动作。
上述步骤4043b至步骤4045b的实现过程与图7所示实施例中的步骤4041a至步骤4043a相同或者类似,其实现过程可以参考图7所示实施例中的步骤4041a至步骤4043a,本发明实施例在此不再赘述。
在步骤405中,根据目标决策动作控制车辆行驶。
避撞控制模块确定目标决策动作后,可以根据目标决策动作控制车辆行驶。示例地,避撞控制模块根据目标决策动作u1(t)控制车辆行驶。
需要说明的是,本发明实施例提供的驾驶方法步骤的先后顺序可以进行适当调整,步骤也可以根据情况进行相应增减,示例地,若在子步骤4042b2中,避撞控制模块确定n个增强信号中不存在符合预设条件的增强信号,说明驾驶员的决策动作不存在误差,驾驶***无需修正驾驶员的决策动作也可以实现避撞的效果,此时,步骤4043b至步骤4045b也可以不执行。任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化的方法,都应涵盖在本发明的保护范围之内,因此不再赘述。
综上所述,本发明实施例提供的驾驶方法,通过在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置;根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶。由于本发明采用机器学习算法确定目标决策动作,目标决策动作的确定不受驾驶员的经验的限制,解决了相关技术中的驾驶方法具有局限性,稳定性较低,灵活性较差的问题,达到了扩大驾驶方法的应用范围,提高驾驶方法的稳定性和灵活性的有益效果。
近些年来,车辆的安全性问题受到了越来越多的关注。据调查显示,2011年世界车辆保有量前六的国家交通事故死亡人数分别为:美国:32310人,中国:62000人,日本:4612人,德国:4009人,意大利:3800人,俄罗斯:27900人。2012年中国共发生交通事故204196起,死亡59997人,受伤224327人,直接财产损失117489.6万元。从数据中可以看出,世界上每年交通事故死亡人数在10万人以上,其中我国每年交通事故死亡人数在6万人以上,直接经济损失一年多达10多亿元。因此,交通事故给人身安全及国家经济财产带来了巨大的损失。本发明实施例提供的驾驶方法,能够避免车辆与障碍物发生碰撞,可以减少交通事故的发生,进而减少交通事故带来的经济损失。
需要说明的是:上述实施例提供的驾驶***在驾驶车辆时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的驾驶方法与***实施例属于同一构思,其实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种驾驶***,其特征在于,所述驾驶***包括:环境感知模块和避撞控制模块,
所述环境感知模块用于在车辆行驶过程中监测所述车辆的行驶环境;预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件;在所述车辆的行驶环境中会发生由障碍物引发的突发事件时,获取所述障碍物的位置;
所述避撞控制模块用于根据所述障碍物的位置,采用机器学习算法确定目标决策动作;根据所述目标决策动作控制所述车辆行驶。
2.根据权利要求1所述的驾驶***,其特征在于,
所述避撞控制模块用于:
从经验存储库中确定与所述障碍物的位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
3.根据权利要求1所述的驾驶***,其特征在于,
所述避撞控制模块用于获取驾驶员的决策动作;
所述环境感知模块用于获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
所述避撞控制模块用于从经验存储库中确定与所述障碍物的第一位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
所述避撞控制模块用于计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
4.根据权利要求3所述的驾驶***,其特征在于,
所述避撞控制模块用于:
计算所述驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,所述n为大于或者等于1的整数;
判断所述n个增强信号中是否存在符合预设条件的增强信号;
在所述n个增强信号中存在符合预设条件的增强信号时,触发所述环境感知模块获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
其中,在执行所述符合预设条件的增强信号对应的决策动作时,所述车辆与所述车辆的行驶环境中的障碍物会发生碰撞。
5.根据权利要求1至4任一所述的驾驶***,其特征在于,
所述环境感知模块用于:
判断所述车辆的行驶环境中是否存在障碍物;
在所述车辆的行驶环境中存在障碍物时,判断所述障碍物是否处于预设范围内;
在所述障碍物处于所述预设范围时,确定所述车辆的行驶环境中会发生由所述障碍物引发的突发事件。
6.一种驾驶方法,其特征在于,所述方法包括:
在车辆行驶过程中监测所述车辆的行驶环境;
预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件;
若所述车辆的行驶环境中会发生由障碍物引发的突发事件,则获取所述障碍物的位置;
根据所述障碍物的位置,采用机器学习算法确定目标决策动作;
根据所述目标决策动作控制所述车辆行驶。
7.根据权利要求6所述的方法,其特征在于,
所述根据所述障碍物的位置,采用机器学习算法确定目标决策动作,包括:
从经验存储库中确定与所述障碍物的位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
8.根据权利要求6所述的方法,其特征在于,
所述根据所述障碍物的位置,采用机器学习算法确定目标决策动作,包括:
获取驾驶员的决策动作;
获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
从经验存储库中确定与所述障碍物的第一位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
9.根据权利要求8所述的方法,其特征在于,所述获取执行所述驾驶员的决策动作之后所述障碍物的第一位置,包括:
计算所述驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,所述n为大于或者等于1的整数;
判断所述n个增强信号中是否存在符合预设条件的增强信号;
若所述n个增强信号中存在符合预设条件的增强信号,则获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
其中,在执行所述符合预设条件的增强信号对应的决策动作时,所述车辆与所述车辆的行驶环境中的障碍物会发生碰撞。
10.根据权利要求6至9任一所述的方法,其特征在于,所述预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件,包括:
判断所述车辆的行驶环境中是否存在障碍物;
若所述车辆的行驶环境中存在障碍物,则判断所述障碍物是否处于预设范围内;
若所述障碍物处于所述预设范围内,则确定所述车辆的行驶环境中会发生由所述障碍物引发的突发事件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510532385.0A CN105109483A (zh) | 2015-08-24 | 2015-08-24 | 驾驶方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510532385.0A CN105109483A (zh) | 2015-08-24 | 2015-08-24 | 驾驶方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105109483A true CN105109483A (zh) | 2015-12-02 |
Family
ID=54657679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510532385.0A Pending CN105109483A (zh) | 2015-08-24 | 2015-08-24 | 驾驶方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105109483A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109109863A (zh) * | 2018-07-28 | 2019-01-01 | 华为技术有限公司 | 智能设备及其控制方法、装置 |
CN111886638A (zh) * | 2018-03-28 | 2020-11-03 | 京瓷株式会社 | 图像处理装置、拍摄装置以及移动体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101395647A (zh) * | 2006-02-28 | 2009-03-25 | 丰田自动车株式会社 | 物体路线预测方法、装置和程序以及自动操作*** |
US20090093960A1 (en) * | 2007-10-04 | 2009-04-09 | Jeffrey Scott Puhalla | Method and system for obstacle avoidance for a vehicle |
CN102431553A (zh) * | 2011-10-18 | 2012-05-02 | 奇瑞汽车股份有限公司 | 汽车主动安全***及方法 |
CN103171554A (zh) * | 2011-12-26 | 2013-06-26 | 现代自动车株式会社 | 利用侧方和后方传感器控制车辆间距离的***和方法 |
CN103303309A (zh) * | 2013-06-26 | 2013-09-18 | 奇瑞汽车股份有限公司 | 汽车追尾碰撞预警方法和*** |
-
2015
- 2015-08-24 CN CN201510532385.0A patent/CN105109483A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101395647A (zh) * | 2006-02-28 | 2009-03-25 | 丰田自动车株式会社 | 物体路线预测方法、装置和程序以及自动操作*** |
US20090093960A1 (en) * | 2007-10-04 | 2009-04-09 | Jeffrey Scott Puhalla | Method and system for obstacle avoidance for a vehicle |
CN102431553A (zh) * | 2011-10-18 | 2012-05-02 | 奇瑞汽车股份有限公司 | 汽车主动安全***及方法 |
CN103171554A (zh) * | 2011-12-26 | 2013-06-26 | 现代自动车株式会社 | 利用侧方和后方传感器控制车辆间距离的***和方法 |
CN103303309A (zh) * | 2013-06-26 | 2013-09-18 | 奇瑞汽车股份有限公司 | 汽车追尾碰撞预警方法和*** |
Non-Patent Citations (3)
Title |
---|
方啸: "GrHDP算法的研究及其在虚拟交互中的应用", 《中国博士学位论文全文数据库》 * |
方啸: "基于自适应动态规划算法的小车自主导航控制策略设计", 《燕山大学学报》 * |
方啸: "移动机器人自主寻路避障启发式动态规划算法", 《农业机械学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111886638A (zh) * | 2018-03-28 | 2020-11-03 | 京瓷株式会社 | 图像处理装置、拍摄装置以及移动体 |
CN111886638B (zh) * | 2018-03-28 | 2023-01-03 | 京瓷株式会社 | 图像处理装置、拍摄装置以及移动体 |
CN109109863A (zh) * | 2018-07-28 | 2019-01-01 | 华为技术有限公司 | 智能设备及其控制方法、装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6811738B2 (ja) | 車両車線変更制御方法、車両車線変更制御デバイス及び関連装置 | |
Meng et al. | Dynamic decision making in lane change: Game theory with receding horizon | |
CN109035862B (zh) | 一种基于车车通信的多车协同换道控制方法 | |
CN108919795B (zh) | 一种自动驾驶汽车换道决策方法及装置 | |
CN109582021B (zh) | 智能车避障方法、装置及计算机可读存储介质 | |
CN106828495B (zh) | 一种控制车辆行驶的方法及装置 | |
Khodayari et al. | A historical review on lateral and longitudinal control of autonomous vehicle motions | |
CN107945574B (zh) | 一种车辆碰撞预警方法、装置及设备 | |
CN102292752B (zh) | 队列行驶控制***及车辆 | |
CN105109485A (zh) | 一种驾驶方法及*** | |
CN105083278A (zh) | 车辆控制方法及装置 | |
CN112026756B (zh) | 基于跟踪目标的危险目标选择方法、***及车辆 | |
CN105128858B (zh) | 车辆避障超车方法及装置 | |
US11358606B2 (en) | Method for operating a motor vehicle for improving working conditions of evaluation units in the motor vehicle, control system for performing a method of this kind, and motor vehicle having a control system of this kind | |
CN105059287A (zh) | 一种车道保持方法和装置 | |
CN112965476A (zh) | 一种基于多窗口抽样的高速无人车轨迹规划***及方法 | |
Wang et al. | Connected variable speed limits control and vehicle acceleration control to resolve moving jams | |
CN114084158A (zh) | 一种自动驾驶冗余控制*** | |
CN114715154A (zh) | 一种变道行车轨迹规划方法、装置、设备和介质 | |
CN111123732B (zh) | 自动驾驶车辆仿真的方法、装置、存储介质和终端设备 | |
CN106218612B (zh) | 一种汽车安全行驶的方法、装置以及终端 | |
CN111891116A (zh) | 一种提升自动驾驶横向控制稳定性的方法 | |
CN108983787A (zh) | 道路行驶方法 | |
CN104882013A (zh) | 一种车速控制装置及方法 | |
CN103794049A (zh) | 数据处理装置和用于该数据处理装置的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151202 |
|
RJ01 | Rejection of invention patent application after publication |