CN110806758B - 一种基于情景模糊认知图的无人机群自主等级自适应调整方法 - Google Patents

一种基于情景模糊认知图的无人机群自主等级自适应调整方法 Download PDF

Info

Publication number
CN110806758B
CN110806758B CN201911100195.6A CN201911100195A CN110806758B CN 110806758 B CN110806758 B CN 110806758B CN 201911100195 A CN201911100195 A CN 201911100195A CN 110806758 B CN110806758 B CN 110806758B
Authority
CN
China
Prior art keywords
layer
unmanned aerial
aerial vehicle
decision
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911100195.6A
Other languages
English (en)
Other versions
CN110806758A (zh
Inventor
牛轶峰
赵哲
王菖
吴立珍
李�杰
贾圣德
马兆伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201911100195.6A priority Critical patent/CN110806758B/zh
Publication of CN110806758A publication Critical patent/CN110806758A/zh
Application granted granted Critical
Publication of CN110806758B publication Critical patent/CN110806758B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开一种基于情景模糊认知图的无人机群自主等级自适应调整方法,步骤包括:S1.建立针对当前任务的情景模糊认知图模型;S2.在无人机上布置用于采集外界环境信息的传感器,以及在操作员身上布置用于采集状态数据的传感器;执行任务过程中,通过各传感器采集无人机的外界环境信息以及操作员的状态数据;S3.使用情景认知模糊认知图模型根据当前任务阶段、各传感器采集到的无人机的外界环境信息以及操作员的状态数据控制调整无人机的自主等级。本发明能够利用情景模糊认知图实现无人机机群的动态自主等级自适应切换,且执行效率高、实现灵活。

Description

一种基于情景模糊认知图的无人机群自主等级自适应调整 方法
技术领域
本发明涉及无人机机群控制技术领域,尤其涉及一种基于情景模糊认知图的无人机群自主等级自适应调整方法。
背景技术
近年来人工智能飞速发展,在自动规划、图像/语音识别、大数据分析等许多领域均取得了巨大的成功。而一方面,当前人工智能算法主要还是针对特定领域,并不能解决人的所有需要;另一方面,机器尤其是无人机受制于计算资源的限制,一些效果比较好的人工智能算法无法在机载设备上正常工作,因此在许多时机、场合下仍然需要依靠人的经验知识进行决策。人机混合智能是未来智能的一个发展方向,可以使得人与计算机***之间各自发挥所长,结为更为紧密、更富成效的伙伴关系。
以协同目标搜索为例,操作员与无人机机群的协同模式,按照无人机机群自主等级可划分如以下四种模式:操作员手动、操作员主动、无人机主动以及无人机自主模式,各模式分别为:
操作员手动模式:操作员使用摇杆完成对无人机机群的遥控,并通过眼睛观察来判断并标记出目标位置;
操作员主动模式:操作员通过摇杆设置航路点,无人机自主规划出经过航路点的航线,操作员通过眼睛观察无人机采集的下视图像判断目标位置;
无人机主动模式:无人机自主规划航线,并通过图像处理算法提示操作员重点观察的区域,操作员判断目标位置;
无人机自主模式:无人机自主规划航线并判断目标位置。
上述各协同模式可依据无人机的环境、操作员的状态适用于不同场合,但是人机之间完全平滑的协同工作目前尚无法实现,针对人机协同控制,目前通常都是通过人工控制切换如上述各种人机协同模式,即人为的按照无人机以及操作员的执行状态选择相应的协同模式,而该类控制方式智能化程度以及效率低,尤其是在单操作员同时控制多架无人机执行任务时,实际就难以综合无人机、操作员的信息来及时、精确的选择合适的协同模式。
发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种基于情景模糊认知图的无人机群自主等级自适应调整方法,能够基于情景模糊认知图实现的无人机机群的动态自主等级自适应切换调整,且执行效率高、实现灵活。
为解决上述技术问题,本发明提出的技术方案为:
一种基于情景模糊认知图的无人机群自主等级自适应调整方法,步骤包括:
S1.建立针对当前任务的情景模糊认知图模型;
S2.在无人机上布置用于采集外界环境信息的传感器,以及在操作员身上布置用于采集状态数据的传感器;执行任务过程中,通过各传感器采集无人机的外界环境信息以及操作员的状态数据;
S3.使用情景认知模糊认知图模型根据当前任务阶段、各传感器采集到的无人机的外界环境信息以及操作员的状态数据控制调整无人机的自主等级。
进一步的,所述情景模糊认知图模型为基于SA理论融合层次和反馈结构建立得到,依次包括输入层、感知层、理解层、决策层以及预测环节,所述输入层中各输入节点的节点值为各个传感器的数据输入;所述感知层接收所述输入节点的数据,输出给所述理解层;所述感知层包括多个用于分析任务复杂度、环境复杂度以及操作员状态的节点,所述理解层包括用于对应所述任务复杂度、环境复杂度和操作员状态的多个决策所需节点,所述理解层的节点数据输出给所述决策层,所述决策层包括用于根据所述理解层的输出数据进行决策的决策节点,所述预测环节用于将所述决策层输出的当前决策反馈回所述感知层中节点以进行重新决策。
进一步的,所述感知层具体包括用于分析任务复杂度的机群任务复杂度、单机任务复杂度、子任务复杂度中任意一种或多种的节点,用于分析环境复杂度的气象复杂度节点、电磁环境复杂度、地面图像复杂度中任意一种或多种的节点,以及用于分析操作员状态的心率、交互频率、眼动频率中任意一种或多种的节点。
进一步的,所述情景模糊认知图模型中每个节点使用隶属度函数进行模糊化。
进一步的,所述感知层的输出为将各个节点的输入数据使用隶属度函数得到的模糊化结果,所述感知层中节点输入为所述输入层中各传感器采集到的数据,所述感知层中各节点输出具体表示为:
Figure GDA0003780773960000021
其中,
Figure GDA0003780773960000022
表示所述感知层第i个节点的输出,a为sigmoid隶属度函数的倾斜程度,c为sigmoid隶属度函数中位数,xi(t)为所述输入层中各传感器采集到的数据。
进一步的,所述感知层中节点按照因果关系及因果关系大小ωij与所述理解层中对应的节点连接,其中i为所述感知层的第i个输出节点,j为所述理解层的第j个输入节点,所述理解层的输出f(3)具体为:
Figure GDA0003780773960000031
其中,
Figure GDA0003780773960000032
为所述理解层中节点的值,
Figure GDA0003780773960000033
为所述感知层中节点的值,ωi,j为因果关系的大小,sig()为隶属度函数。
进一步的,所述决策层的输出具体为所述理解层中各节点的综合结果,具体表示为:
Figure GDA0003780773960000034
其中,
Figure GDA0003780773960000035
为所述决策层中节点的值,
Figure GDA0003780773960000036
为所述理解层中节点的值,ωi,j为因果关系的大小,sig()为隶属度函数。
进一步的,所述步骤S3中具体根据所述决策层的输出值大小控制调整无人机应的自主等级,以及通过所述预测环节将所述决策层输出的当前决策反馈回所述感知层中,并判断判断当前决策对环境复杂度和任务复杂度的影响以重新确定最终的决策。
进一步的,所述预测环节的具体执行步骤包括:
S31.遍历执行所述情景模糊认知图模型后,将所述决策层中的决策节点的当前决策输出C4(t)反馈到所述感知层;
S32.再次遍历所述情景模糊认知图模型,得到下一时刻的决策C4(t+1);
S33.对比当前决策C4(t)和下一时刻的决策C4(t+1),根据对比结果得到最终的决策,其中:
若C4(t+1)=C4(t),则输出为C4(t);
若C4(t+1)<C4(t),则输出为C4(t);
若C4(t+1)>C4(t),则输出为C4(t+1)。
进一步的,所述无人机的自主等级按照从低到高依次包括:操作员手动、操作员主动、无人机主动以及无人机自主模式,所述操作员手动模式时,由操作员使用摇杆完成对无人机机群的遥控以及由操作员手动标记出目标位置;所述操作员主动模式时,由操作员通过摇杆设置航路点,由无人机自主规划出经过航路点的航线以及由操作员判断目标位置;所述无人机主动模式时,由无人机自主规划航线,并通过图像处理算法提供给操作员需要重点观察的区域,由操作员判断目标位置;所述无人机自主模式时,由无人机自主规划航线并判断目标位置。
与现有技术相比,本发明的优点在于:
1、本发明基于情景模糊认知图的无人机机群控制方法,针对单操作员同时控制多架无人机执行任务,通过构建情景模糊认知图模型,基于情景模糊认知图根据执行任务以及实时采集的无人机环境信息、操作员的状态数据来确定无人机的自主等级,判断操作员与无人机机群之间的协同模式,使得能够依据无人机、操作的状态动态自适应的调整无人机自主等级,既能有效降低人机协同难度,又可以根据人机状态的不同及时、准确的动态变化机器的自主等级,从而有效提高人机协同的效率。
2、本发明基于情景模糊认知图的无人机机群控制方法,基于情景模糊认知图根据执行任务以及无人机环境信息、操作员的状态数据实时确定无人机的自主等级,同时通过预测环节根据当前状态和对未来影响的预测确定最终决策,能够实现更加合理的实时决策。
附图说明
图1是本实施例基于情景模糊认知图的无人机机群控制方法的实现流程示意图。
图2是本实施例中采用的模糊认知图的节点与有向边的原理示意图。
图3是本发明具体应用实施例中模糊认知图在自主等级调整中的结构示意图。
具体实施方式
以下结合说明书附图和具体优选的实施例对本发明作进一步描述,但并不因此而限制本发明的保护范围。
如图1所示,本实施例基于情景模糊认知图的无人机机群控制方法的步骤包括:
S1.建立针对当前任务的情景模糊认知图模型;
S2.在无人机上布置用于采集外界环境信息的传感器,以及在操作员身上布置用于采集状态数据的传感器;执行任务过程中,通过各传感器采集无人机的外界环境信息以及操作员的状态数据;
S3.使用情景认知模糊认知图模型根据当前任务阶段、各传感器采集到的无人机的外界环境信息以及操作员的状态数据控制调整无人机的自主等级。
本实施例针对单操作员同时控制多架无人机执行任务,通过构建情景模糊认知图模型,基于情景模糊认知图根据执行任务以及实时采集的无人机环境信息、操作员的状态数据来确定无人机的自主等级,即判断操作员与无人机机群之间的协同模式,使得能够依据无人机、操作的状态动态自适应调整无人机自主等级,既能有效降低人机协同难度,又可以根据人机状态的不同及时、准确的动态变化机器的自主等级,从而有效提高人机协同的效率。
模糊认知图是一种带反馈环的模糊有向图,模糊认知图的节点分别表示情景认知过程中的各个概念,节点取值范围为[0,1],取值的大小表示节点的激活程度。节点间有向边权值的正负和大小与节点间的因果关系有关。如图2所示的两个节点之间的因果关系为:
C2(t+1)=f(w12·C1(t)) (1)
C2(t+1)=f(w12·C1(t)+C2(t)) (2)
式中,C1(t),C2(t)为当前节点C1,C2的取值,C2(t+1)为下一时刻节点C2的取值。f()为sigmoid函数;节点之间没有连接表示概念之间没有因果关系。每个节点的模糊集和节点间权值的数值首先由专家确定;当有n个专家(n>1)时,权值的大小为:
Figure GDA0003780773960000051
式中,i为第i个专家。
情景模糊认知图即是将情景认知决策方法使用模糊认知图建模,SA理论将认知过程划分为感知、理解、预测三个部分。本实施例中情景模糊认知图模型具体为基于SA理论融合层次和反馈结构建立得到,按顺序依次包括输入层、感知层、理解层、决策层以及预测环节,其中输入层中各输入节点的节点值为各个传感器的数据输入;感知层接收输入节点的数据,输出给理解层;感知层包括多个用于分析任务复杂度、环境复杂度以及操作员状态的节点,理解层为由感知层输入抽象得到的决策所需的概念节点,理解层包括用于对应任务复杂度、环境复杂度和操作员状态的多个决策所需节点,即由理解层的各节点可以从输入数据推理出操作员当前的任务复杂度、环境复杂度和操作员状态,理解层的节点数据输出给决策层,决策层包括用于根据决策边界进行决策的决策节点,预测环节用于将决策层输出的当前决策反馈回感知层中节点以进行重新决策。上述感知层具体包括用于分析任务复杂度的机群任务复杂度、单机任务复杂度、子任务复杂度等节点,用于分析环境复杂度的气象复杂度节点、电磁环境复杂度、地面图像复杂度等节点,以及用于分析操作员状态的心率、交互频率、眼动频率等节点。
自主等级切换的依据主要包含三个方面,分别为:当前执行任务的复杂度、无人机机群所处环境的复杂度以及当前操作员的状态,不同任务按照种类被专家预先设定相应的模糊数表示复杂度的大小。环境复杂度的输入为气象、电磁等影响任务执行的外界因素,操作员的状态为使用如眼动仪、智能手环等人体状态测量设备测量得到的实时生理指标数据,环境复杂度与待测区域图像的熵值相关,任务复杂度则与当前待测区域的数目相关。情景模糊认知图的输出即为当前无人机机群应当处于的自主等级,上述情景模糊认知图模型输入各传感器采集的包括无人机的外界环境信息以及操作员的状态数据等,依次经过输入层、感知层、理解层、决策层后输出当前决策,同时由预测环节将决策层输出的当前决策反馈回感知层中节点,判断当前决策对未来状态的影响,从而进行重新决策。
本实施例具体在执行任务前,通过专家知识建立如图2所示的针对当前任务的情景模糊认知图模型,由无人机装载测量外界环境的传感器,以及使操作员穿戴各个生理指标测量传感器;执行任务过程中,首先由环境测量传感器测量无人机所处环境数据,生理指标测量传感器测量操作员状态的动态变化,得到非结构化的多源传感器实时测量数据;然后使用情景认知模糊认知图模型根据专家知识和历史数据,以及当前任务阶段、环境测量传感器的输入和操作员的生理指标动态得到当前的自主等级,判断出当前操作员与无人机机群的协同模式,实现无人机机群自主等级自适应调整。
进一步的,可通过记录操作员工作时间和识别成功率,在线学习调整情景认知模糊认知图权值,以更好的适应不同操作员的需求。
本实施例中,情景模糊认知图模型中每个节点具体使用隶属度函数进行模糊化,即节点输出为将节点输入数据使用隶属度函数进行模糊化的结果,以基于采集到的无人机环境数据、操作员状态数据抽象得到当前执行任务的复杂度、无人机机群所处环境的复杂度以及当前操作员的状态。情景模糊认知图模型中各层输入输出具体为:
(1)感知层的输出具体为将各个节点的输入数据使用隶属度函数得到的模糊化结果,感知层中节点输入为输入层中各操作员状态数据,感知层中各节点输出具体表示为:
Figure GDA0003780773960000061
其中,
Figure GDA0003780773960000062
表示所述感知层第i个节点的输出,a为sigmoid隶属度函数的倾斜程度,c为sigmoid隶属度函数中位数,xi(t)为输入层中各传感器采集到的数据。
(2)感知层中节点按照因果关系及因果关系大小ωij与理解层中对应的节点连接,其中i为感知层的第i个输出节点,j为所述理解层的第j个输入节点,理解层的每个模糊子集与输入层相关输入节点的模糊子集以权值ωi,j相连,即首层节点的模糊子集按照因果关系与理解层节点的模糊子集相连。理解层的输出f(3)具体为:
Figure GDA0003780773960000063
其中,
Figure GDA0003780773960000071
为所述理解层中节点的值,
Figure GDA0003780773960000072
为所述感知层中节点的值,ωi,j为因果关系的大小,sig()为隶属度函数。
(3)决策层的输出具体为所述理解层中各节点的综合结果,具体表示为:
Figure GDA0003780773960000073
其中,
Figure GDA0003780773960000074
为所述决策层中节点的值,
Figure GDA0003780773960000075
为所述理解层中节点的值,ωi,j为因果关系的大小,sig()为隶属度函数。
本实施例步骤S3中具体根据决策层的输出值大小控制切换无人机应的自主等级,即由决策层的大小表示当前无人机应当处于的自主等级,以及通过预测环节将所述决策层输出的当前决策反馈回感知层中,并判断判断当前决策对环境复杂度和任务复杂度的影响以重新确定最终的决策。上述预测环节中当前决策对感知环节的影响具体根据预测结果进行赋值。
本实施例中,预测环节的具体执行步骤包括:
S31.遍历执行情景模糊认知图模型后,将决策层中的决策节点的当前决策输出C4(t)反馈到所述感知层;
S32.再次遍历所述情景模糊认知图模型,得到下一时刻的决策C4(t+1);
S33.对比当前决策C4(t)和下一时刻的决策C4(t+1),根据对比结果得到最终的决策,其中:
若C4(t+1)=C4(t),则输出为C4(t);
若C4(t+1)<C4(t),则输出为C4(t);
若C4(t+1)>C4(t),则输出为C4(t+1)。
只由当前状态理解得到的决策并不是最优的,本实施例通过预测环节根据当前状态和对未来的预测得到最终决策,能够实现更加合理的决策。
以下以协同目标搜索为例对本发明上述方法进行进一步说明,实际应用场景可以不限于协同目标搜索。
首先确定无人机的自主等级,具体按照无人机机群自主等级由低到高依次分别为:操作员手动、操作员主动、无人机主动、无人机自主,其中操作员手动模式时,由操作员使用摇杆完成对无人机机群的遥控以及由操作员手动标记出目标位置;所述操作员主动模式时,由操作员通过摇杆设置航路点,由无人机自主规划出经过航路点的航线以及由操作员判断目标位置;所述无人机主动模式时,由无人机自主规划航线,并通过图像处理算法提供给操作员需要重点观察的区域,由操作员判断目标位置;所述无人机自主模式时,由无人机自主规划航线并判断目标位置。实际应用场景无人机的自主等级可以不限于上述四个,通常配置为至少≥三个等级。
本实施例实现无人机群自主等级自适应调整的详细步骤为:
步骤1、构建情景模糊认知图模型
利用SA理论建立融合层次和反馈结构的情景模糊认知图模型,具体构建如图3所示的情景模糊认知图模型,模型中各层具体为:
(1)输入层
首层为输入节点,节点值为各个传感器的非结构化数据输入。该层中将输入的非结构化数据模糊化,不同的模糊子集使用高斯函数进行表示。
(2)感知层
感知环节为图中第第二层,节点包括三个种类:用于分析任务复杂度的机群任务复杂度、单机任务复杂度、子任务复杂度等节点,用于分析环境复杂度的气象复杂度节点、电磁环境复杂度、地面图像复杂度等节点,以及用于分析操作员状态的心率、交互频率、眼动频率等节点,其中感知层节点按照因果关系及大小ωij i∈{1,2}j∈{2,...,7}与对应的理解层节点连接。
该层输出为各个节点的输入数据的模糊化结果,该层节点输入为第一层中各个人体状态传感器测量数据,如上述式(4)所示的
Figure GDA0003780773960000081
本实施例具体第一层输入节点的精确数值经第二层模糊化后的结果取值范围为(0,1),表示对输入状态的判断。模糊值的大小表示节点激活得程度,如当模糊值得取值在区间(0,0.2],(0.2,0.4],(0.4,0.6],(0.6,0.8],(0.8,1)中时,分别表示“过低,较低,正常,较高,过高”。
(3)理解层
理解层为第三层,是由感知层输入抽象得到的决策所需的概念节点。理解层具体包含任务复杂度、环境复杂度和操作员状态三个节点,可以依据输入数据分析出操作员当前的任务复杂度、环境复杂度和操作员工作状态。理解层指向决策层的自主等级决策节点。
该层的每个模糊子集与输入层相关输入节点的模糊子集以权值ωi,j相连,输出f(3)具体如上式(5)所示的
Figure GDA0003780773960000082
(4)决策层
决策层只有一个决策节点,以利用决策边界进行决策。决策层的输出为第三层理解层节点的综合,具体如上式(6)所示的
Figure GDA0003780773960000091
该层的输出大小表示当前无人机应当处于的自主等级。
如自主等级分为四级,则由低到高对应的自主等级决策节点的取值范围依次为[0,0.25),[0.25,0.5),[0.5,0.75),[0.75,1]。
(4)预测环节
预测环节将当前决策反馈回感知层节点,判断当前决策对环境复杂度和任务复杂度的影响,进而重新决策。具体在模糊认知图的第一次遍历后,决策节点的输出反馈到感知层,预测当前决策对未来状态的影响,并再次遍历模糊认知图,按式C2(t+1)=f(ω42·C4(t)+C2(t))得到未来的决策C4(t+1);最后对比当前决策和未来决策,从而做出最终的决策,其中若C4(t+1)=C4(t),则输出为C4(t);若C4(t+1)<C4(t),则输出为C4(t);若C4(t+1)>C4(t),则输出为C4(t+1)。
上述只是本发明的较佳实施例,并非对本发明作任何形式上的限制。虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明。因此,凡是未脱离本发明技术方案的内容,依据本发明技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均应落在本发明技术方案保护的范围内。

Claims (8)

1.一种基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于,步骤包括:
S1.建立针对当前任务的情景模糊认知图模型;
S2.在无人机上布置用于采集外界环境信息的传感器,以及在操作员身上布置用于采集状态数据的传感器;执行任务过程中,通过各传感器采集无人机的外界环境信息以及操作员的状态数据;
S3.使用情景认知模糊认知图模型根据当前任务阶段、各传感器采集到的无人机的外界环境信息以及操作员的状态数据控制调整无人机的自主等级;
所述情景模糊认知图模型为基于SA理论融合层次和反馈结构建立得到,依次包括输入层、感知层、理解层、决策层以及预测环节,所述输入层中各输入节点的节点值为各个传感器的数据输入;所述感知层接收所述输入节点的数据,输出给所述理解层;所述感知层包括多个用于分析任务复杂度、环境复杂度以及操作员状态的节点,所述理解层包括用于对应所述任务复杂度、环境复杂度和操作员状态的多个决策所需节点,所述理解层的节点数据输出给所述决策层,所述决策层包括用于根据所述理解层的输出数据进行决策的决策节点,所述预测环节用于将所述决策层输出的当前决策反馈回所述感知层中节点以进行重新决策;
所述步骤S3中具体根据所述决策层的输出值大小控制调整无人机对应的自主等级,以及通过所述预测环节将所述决策层输出的当前决策反馈回所述感知层中,并判断当前决策对环境复杂度和任务复杂度的影响以重新确定最终的决策。
2.根据权利要求1所述的基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于:所述感知层具体包括用于分析任务复杂度的机群任务复杂度、单机任务复杂度、子任务复杂度中任意一种或多种的节点,用于分析环境复杂度的气象复杂度节点、电磁环境复杂度、地面图像复杂度中任意一种或多种的节点,以及用于分析操作员状态的心率、交互频率、眼动频率中任意一种或多种的节点。
3.根据权利要求1所述的基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于:所述情景模糊认知图模型中每个节点使用隶属度函数进行模糊化。
4.根据权利要求3所述的基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于,所述感知层的输出为将各个节点的输入数据使用隶属度函数得到的模糊化结果,所述感知层中节点输入为所述输入层中各传感器采集到的数据,所述感知层中各节点输出具体表示为:
Figure FDA0003905986900000021
其中,
Figure FDA0003905986900000022
表示所述感知层第i个节点的输出,a为sigmoid隶属度函数的倾斜程度,c为sigmoid隶属度函数中位数,xi(t)为所述输入层中各传感器采集到的数据,sig()为隶属度函数。
5.根据权利要求3所述的基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于,所述感知层中节点按照因果关系及因果关系大小ωij与所述理解层中对应的节点连接,其中i为所述感知层的第i个输出节点,j为所述理解层的第j个输入节点,所述理解层的输出f(3)具体为:
Figure FDA0003905986900000023
其中,
Figure FDA0003905986900000024
为所述理解层中节点的值,
Figure FDA0003905986900000025
为所述感知层中节点的值,ωi,j为因果关系的大小,sig()为隶属度函数。
6.根据权利要求3所述的基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于,所述决策层的输出具体为所述理解层中各节点的综合结果,具体表示为:
Figure FDA0003905986900000026
其中,
Figure FDA0003905986900000027
为所述决策层中节点的值,
Figure FDA0003905986900000028
为所述理解层中节点的值,ωi,j为因果关系的大小,sig()为隶属度函数。
7.根据权利要求1所述的基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于,所述预测环节的具体执行步骤包括:
S31.遍历执行所述情景模糊认知图模型后,将所述决策层中的决策节点的当前决策输出C4(t)反馈到所述感知层;
S32.再次遍历所述情景模糊认知图模型,得到下一时刻的决策C4(t+1);
S33.对比当前决策C4(t)和下一时刻的决策C4(t+1),根据对比结果得到最终的决策,其中:
若C4(t+1)=C4(t),则输出为C4(t);
若C4(t+1)<C4(t),则输出为C4(t);
若C4(t+1)>C4(t),则输出为C4(t+1)。
8.根据权利要求1~7中任意一项所述的基于情景模糊认知图的无人机群自主等级自适应调整方法,其特征在于,所述无人机的自主等级按照从低到高依次包括:操作员手动、操作员主动、无人机主动以及无人机自主模式,所述操作员手动模式时,由操作员使用摇杆完成对无人机机群的遥控以及由操作员手动标记出目标位置;所述操作员主动模式时,由操作员通过摇杆设置航路点,由无人机自主规划出经过航路点的航线以及由操作员判断目标位置;所述无人机主动模式时,由无人机自主规划航线,并通过图像处理算法提供给操作员需要重点观察的区域,由操作员判断目标位置;所述无人机自主模式时,由无人机自主规划航线并判断目标位置。
CN201911100195.6A 2019-11-12 2019-11-12 一种基于情景模糊认知图的无人机群自主等级自适应调整方法 Active CN110806758B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911100195.6A CN110806758B (zh) 2019-11-12 2019-11-12 一种基于情景模糊认知图的无人机群自主等级自适应调整方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911100195.6A CN110806758B (zh) 2019-11-12 2019-11-12 一种基于情景模糊认知图的无人机群自主等级自适应调整方法

Publications (2)

Publication Number Publication Date
CN110806758A CN110806758A (zh) 2020-02-18
CN110806758B true CN110806758B (zh) 2022-12-30

Family

ID=69502200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911100195.6A Active CN110806758B (zh) 2019-11-12 2019-11-12 一种基于情景模糊认知图的无人机群自主等级自适应调整方法

Country Status (1)

Country Link
CN (1) CN110806758B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434901B (zh) * 2020-10-15 2022-11-04 合肥工业大学 无人机交通巡逻方案的智能重决策方法和***
CN112947559B (zh) * 2021-02-08 2023-09-22 北京理工大学 一种子母机协同方法及装置
CN115640106B (zh) * 2022-10-18 2023-09-29 杭州国科骏飞光电科技有限公司 一种面向多无人机指挥控制的人机功能分配方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106646410A (zh) * 2017-01-06 2017-05-10 天津大学 宽带认知被动雷达架构下的学习‑感知‑决策‑响应方法
CN108021754A (zh) * 2017-12-06 2018-05-11 北京航空航天大学 一种无人机自主空战决策框架及方法
CN109407518A (zh) * 2018-12-20 2019-03-01 山东大学 家庭服务机器人运行状态自主认知方法及***
CN109558005A (zh) * 2018-11-09 2019-04-02 中国人民解放军空军工程大学 一种自适应人机界面配置方法
CN110221620A (zh) * 2019-05-30 2019-09-10 中国人民解放军国防科技大学 一种基于mas的多无人***监督控制站

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489631B2 (en) * 2012-06-29 2016-11-08 Columbus State University Research Service Foundation, Inc. Cognitive map-based decision simulation for training (CMDST)
US20140324747A1 (en) * 2013-04-30 2014-10-30 Raytheon Company Artificial continuously recombinant neural fiber network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106646410A (zh) * 2017-01-06 2017-05-10 天津大学 宽带认知被动雷达架构下的学习‑感知‑决策‑响应方法
CN108021754A (zh) * 2017-12-06 2018-05-11 北京航空航天大学 一种无人机自主空战决策框架及方法
CN109558005A (zh) * 2018-11-09 2019-04-02 中国人民解放军空军工程大学 一种自适应人机界面配置方法
CN109407518A (zh) * 2018-12-20 2019-03-01 山东大学 家庭服务机器人运行状态自主认知方法及***
CN110221620A (zh) * 2019-05-30 2019-09-10 中国人民解放军国防科技大学 一种基于mas的多无人***监督控制站

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Situation-driven Fuzzy Cognitive Maps Applied in Air-To-Ground Target Attack;Zhe Zhao et al.;《29th Chinese Control And Decision Conference (CCDC)》;20170530;第6384-6389页 *
无人–有人机协同控制关键问题;牛轶峰 等;《中国科学: 信息科学》;20190531;第538–554页 *
无人机搜索和跟踪的模糊认知控制器设计方法;崔军辉 等;《中南大学学报(自然科学版)》;20150930;第3279-3286页 *
有人/无人机混合编队有限干预式协同决策;陈军 等;《航空学报》;20151130(第11期);第3652-3665页 *

Also Published As

Publication number Publication date
CN110806758A (zh) 2020-02-18

Similar Documents

Publication Publication Date Title
CN110806758B (zh) 一种基于情景模糊认知图的无人机群自主等级自适应调整方法
Zhao et al. Survey on computational-intelligence-based UAV path planning
Zhu et al. Multi-robot flocking control based on deep reinforcement learning
JP6514166B2 (ja) ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
Zhang et al. Collective behavior coordination with predictive mechanisms
Chang et al. Coactive design of explainable agent-based task planning and deep reinforcement learning for human-UAVs teamwork
Li et al. A behavior-based mobile robot navigation method with deep reinforcement learning
Cai et al. A combined hierarchical reinforcement learning based approach for multi-robot cooperative target searching in complex unknown environments
Ivanov et al. Software advances using n-agents wireless communication integration for optimization of surrounding recognition and robotic group dead reckoning
Yan et al. Flocking and collision avoidance for a dynamic squad of fixed-wing UAVs using deep reinforcement learning
Hoshino et al. PSO training of the neural network application for a controller of the line tracing car
Huang et al. Multi-uav collision avoidance using multi-agent reinforcement learning with counterfactual credit assignment
Mane et al. Genetic algorithm approach for obstacle avoidance and path optimization of mobile robot
Jin et al. Methods for blended shared control of hydraulic excavators with learning and prediction
Zhou et al. Multi-target coordinated search algorithm for swarm robotics considering practical constraints
Wang et al. Distributed task allocation method based on self-awareness of autonomous robots
Lee et al. A Distributed Dynamic Framework to Allocate Collaborative Tasks Based on Capability Matching in Heterogeneous Multirobot Systems
Tutuko et al. Fuzzy logic-ant colony optimization for explorer-follower robot with global optimal path planning
Chen et al. A shifting method for intelligent operational mode of UAVs
Bansal et al. Multi-objective intelligent manufacturing system for multi machine scheduling
Scheidel et al. A novel approach of a deep reinforcement learning based motion cueing algorithm for vehicle driving simulation
Wang et al. Advances in cooperative target searching by multi-UAVs
Yang et al. Adaptive Coordinated Motion Control for Swarm Robotics Based on Brain Storm Optimization
Lanjewar et al. An Approach based on clustering method for Object Finding Mobile Robots using ACO
Park et al. Identification of Takagi-Sugeno fuzzy models via clustering and Hough transform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant