CN111538241B - 一种平流层飞艇水平轨迹智能控制方法 - Google Patents

一种平流层飞艇水平轨迹智能控制方法 Download PDF

Info

Publication number
CN111538241B
CN111538241B CN202010361483.3A CN202010361483A CN111538241B CN 111538241 B CN111538241 B CN 111538241B CN 202010361483 A CN202010361483 A CN 202010361483A CN 111538241 B CN111538241 B CN 111538241B
Authority
CN
China
Prior art keywords
airship
action
state
value
stratospheric airship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010361483.3A
Other languages
English (en)
Other versions
CN111538241A (zh
Inventor
杨希祥
杨晓伟
侯中喜
邓小龙
朱炳杰
王曰英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202010361483.3A priority Critical patent/CN111538241B/zh
Publication of CN111538241A publication Critical patent/CN111538241A/zh
Application granted granted Critical
Publication of CN111538241B publication Critical patent/CN111538241B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种平流层飞艇水平轨迹智能控制方法,针对平流层飞艇在风场环境中的水平轨迹控制问题,建立飞艇的观测模型和马尔可夫决策过程模型;考虑飞艇这一特征对象,限定动作空间中的元素区间,基于已知的风场模型,以每一刻风向来流相对于飞艇的夹角概率作为动作选择依据,对飞艇的动作输入和状态输出进行神经网络学***运动的跟踪,有效解决动力学模型参数不确定、环境风场干扰等因素对平流层飞艇水平运动控制产生的不利影响。

Description

一种平流层飞艇水平轨迹智能控制方法
技术领域
本发明涉及平流层飞艇风场中水平轨迹智能控制方法,特别涉及一种基于Q-learning算法和CMAC神经网络学***流层飞艇水平轨迹控制方法。
背景技术
临近空间介于常规航空器最高飞行高度和航天器最低轨道高度之间,是跨接航空与航天的新兴战略空间。各国通过发展临近空间飞行器这一途径,充分利用其潜在价值,平流层飞艇、高空气球、太阳能无人机等均为目前的研究热点。平流层飞艇是一种典型的低速临近空间飞行器、是一种能够长期驻留在平流层区域,实现对地球表面高分辨率观测、战区侦查、通信中继、环境检测、科学探测、提供地面精确信息的战略无人飞行器。相较于卫星,平流层飞艇具有更高的时空分辨率,相较于飞机,平流层飞艇可借助临近空间环境实现区域驻留,具有长航时、低能耗、高经济效益比等特点。基于风场环境下的飞艇轨迹控制是实现飞艇长航时驻留的关键要素,但在控制问题中面临着飞艇运动欠驱动、大惯量、长时延、风场中的飞艇动力学模型复杂、参数不确定、非线性特征明显等诸多难题。
现今研究成果中,大部分控制策略是建立在不考虑风场作用的动力学模型基础上,但是,从现实中的控制效果上可知,忽略风场影响下的控制模型无法精确完成控制***发出的控制指令,难以满足预期的控制需求,因此,必须建立有风场干扰的动力学模型。部分学者对考虑风场后的非线性模型进行小扰动线性化,并提出基于模型预测、滑模控制以及反步法等多种控制策略,虽然在仿真阶段于一定程度上改善了控制精度,但模型构建过程复杂,在实际中对控制器参数的动态调参较为困难,仿真结果未得到证实。随着人工智能的兴起,深度学***流层飞艇水平轨迹控制上的研究尚未见报道。
发明内容
本发明针对风场中平流层飞艇水平轨迹控制问题,提出基于Q-learning算法和CMAC神经网络学***轨迹的控制。
该方法是基于无动力学模型的学***流层飞艇在风场中水平轨迹控制的目的。
为实现上述目的,本发明提供一种平流层飞艇水平轨迹智能控制方法,参考图1-图2,具体包括如下步骤:
步骤1,建立风场中平流层飞艇的观测模型。根据观测模型获取平流层飞艇的状态量,所述状态量包括平流层飞艇的当前点位置(xc,yc)、航向角ψc以及期望轨迹上的目标点位置(xd,yd);
步骤2,建立风场中平流层飞艇基于Q-learning算法的马尔科夫决策过程(MarkovDecision Process,MDP)模型。将观测模型中平流层飞艇当前点与目标点的相对位置(lcc),作为Q-learning算法的输入;将风场环境下的风向相对于飞艇运动的来流方向,作为Q-learning算法中动作概率选择依据,其中,lc为平流层飞艇的当前位置与期望轨迹上的目标点位置的相对距离;
步骤3,基于样本数据中的期望输入、输出对Q-learning算法进行训练。平流层飞艇每一个位置状态下所采取的每一个动作输入对应一个值函数Q,为每一个动作的值函数Q建立一个小脑神经网络(Cerebellar Model Articulation Controller,CMAC),得到平流层飞艇每一个位置状态下所采取的每一个动作输入的最优值函数Qπ,其中,所述动作输入为平流层飞艇的航向角增量;
步骤4,基于平流层飞艇每一个位置状态下所采取的每一个动作输入的最优值函数Qπ,对每一时刻航向角增量的选择进行神经网络学***流层飞艇控制***的训练;
步骤5,根据步骤4中训练后的控制***,给定飞艇的期望轨迹和仿真时间,随机设置飞艇的位置初值,基于位置关系和最优动作策略,得到倾转角的变化以及航向角的增量(偏航角),将转移后的状态与当前目标状态之间的误差是否满足规定精度,作为目标是否更新的判断依据,将当前目标是否是最终目标,作为轨迹跟踪控制过程是否结束的判断依据,完成飞艇水平运动轨迹的智能控制。
进一步优选的,步骤1中,所述建立风场中平流层飞艇的观测模型具体为:建立平流层飞艇与外界环境之间关联的坐标系,包括放飞坐标系(Og-xgygzg)、体坐标系(Ob-xbybzb)和速度坐标系(Ov-xvyvzv),形成在学习过程中表征飞艇方位的观测模型;
放飞坐标系是指以平流层飞艇的放飞点为原点,描述平流层飞艇体心相对于放飞起点的运动轨迹,用来描述期望轨迹和作为跟踪轨迹的基础;
体坐标系是指以平流层飞艇体心为原点,描述相对于平流层飞艇艇身的姿态关系、获取飞艇的当前姿态和作为飞艇上执行机构动作选择的依据;
速度坐标系是指以平流层飞艇体心为原点,描述平流层飞艇与大气环境之间的关系,用来建立飞艇的运动学方程。
进一步优选的,步骤2中,建立风场中平流层飞艇基于Q-learning算法的MDP模型,其中五个元素(S,A,R,P,J)对应到平流层飞艇中,具体为:
将观测模型中得到的位置状态值lc和方向值ψc作为MDP模型中的状态空间S的组成元素;
将平流层飞艇上决定执行机构作用效果的控制参数即推力螺旋桨装置的矢量倾转角,作为MDP模型中动作空间A的组成元素。根据实际飞行中倾转角的有效作用范围设计一定的范围裕度,并设置一定的动作步长;
将平流层飞艇状态转移之后的状态与目标状态之间的相对距离,作为MDP模型中的回报奖励函数值R;
将环境风场中风向相对于平流层飞艇运动方向的夹角概率,作为平流层飞艇状态转移的概率P;
给予平流层飞艇***一定的仿真时长,考虑该范围内的动作学习,并对学习过程中每一个动作回报奖励值进行折扣累加,将该累加和作为MDP模型中的目标优化函数J,最优动作策略的判断依据是在仿真时间段中J值是否为最小值。
进一步优选的,所述将平流层飞艇上决定执行机构作用效果的控制参数即推力螺旋桨装置的矢量倾转角,作为MDP模型中动作空间A的组成元素。根据实际飞行中倾转角的有效作用范围设计一定的范围裕度,并设置一定的动作步长,具体为:
基于现实中平流层飞艇倾转装置的可调区间,将推力螺旋桨装置的矢量倾转角的动作值区间设置为
Figure BDA0002475221470000041
并将其划分为九个动作值即
Figure BDA0002475221470000042
回报奖励值r为转移后的状态与当前目标状态之间的相对距离大小值;目标优化函数J设为考虑折扣因子γ作用下的总回报奖励值,即:
Figure BDA0002475221470000043
考虑所有动作策略π下的目标函数,对其进行寻优得到最优回报值J*:
Figure BDA0002475221470000044
进一步优选的,所述将环境风场中风向相对于平流层飞艇运动方向的夹角概率,作为平流层飞艇状态转移的概率P,具体为:
Figure BDA0002475221470000045
式中,t代表当前时刻,si为当前状态,sj为t+1时刻状态,ak代表受控对象在t时刻执行的动作值,S表示平流层飞艇的状态集,A表示平流层飞艇的动作集;r代表回报奖励值,作为影响概率大小的一定影响因素;P代表转移的概率,对于风场中的平流层飞艇而言,将风场中风向相对于飞艇运动的来流方向作为概率值;pij(ak)表示在执行ak动作时,平流层飞艇状态由si转移到sj的概率值。
进一步优选的,步骤3的具体过程为:
为平流层飞艇的每一个动作建立一个CMAC神经网络,对动作值函数进行寻优,以获得最优值函数;
其中,CMAC神经网络是一种表格查询网络,具有输入层、中间层以及输出层,中间层包括真实区和虚拟区,真实区存储输入的状态空间元素,虚拟区存储权值项。真实区中每一个元素对应虚拟区中有限少数个权值项,而且若每个状态之间的距离越近,则相对应的权值重合度越高。将CMAC神经网络应用在平流层飞艇中,网络输入为飞艇上推力螺旋桨装置的所有倾转角状态,输出为飞艇在某一时刻位置状态下所对应的倾转角输入的动作值函数估计:
为表征真实区与虚拟区之间的联系,引入激活状态的概念,即τij=1代表权值影响当前的输入状态而处于激活态,τij=0代表权值与状态输入无关而处于冻结态,确定激活函数之后,将其与权值进行乘积求和得到网络输出,即:
Figure BDA0002475221470000051
Figure BDA0002475221470000052
式中,m代表真实区中元素个数,n代表虚拟区中元素个数,Γi代表真实区中第i个元素对应的激活函数集合,W为权值项矩阵,ynetouti代表真实区中第i个元素对应的网络输出值;
获取网络输出之后,对其前后的输出值进行对比,再反馈到虚拟区中,即对权值进行在线实时更新,采用传统的梯度下降法对权值进行更新:
wi+1=wiw(ynetout(i+1)-ynetoutii
式中,αw为权值的学习速率,当该值过大会造成所获得的权值并非最优,过小会导致计算时间冗长多余;
应用在平流层飞艇中,假设飞艇的当前位置状态为st,动作输入状态为ak,则对应的网络输出值函数以及权值的更新规则为:
Figure BDA0002475221470000061
式中,r(st,akt,st+1)代表在t时刻,执行akt动作使状态st变换为st+1的回报奖励值;γ为折扣因子(0<γ<1);
Figure BDA0002475221470000063
代表最优动作值函数;
根据上述过程进行权值更新和获取动作值函数,对不同状态下的结果进行比较,以确定最优值函数Qπ
进一步优选的,步骤4的具体过程为:
获取受控对象当前的状态值和目标状态值,应用在平流层飞艇上中为:获取平流层飞艇当前状态下的位置坐标(xc,yc),目标坐标(xd,yd)以及当前状态点和下一时刻目标点之间的位置关系(lcc);
Figure BDA0002475221470000062
式中,xc、xd、xr分别代表飞艇在放飞系中当前的x方向位置、期望的x方向位置以及二者在x方向上的差值;yc、yd、yr分别代表飞艇在放飞系中当前的y方向位置、期望的y方向位置,二者在y方向上的差值;lc为相对距离,ψc为偏航角,ψ为航向角,ψr为观测模型中,目标方向与x轴的夹角;
采用具有被控对象特征的概率策略从MDP模型的动作空间A中选择一个动作at,应用在平流层飞艇中为:针对平流层飞艇所处的风场环境的特殊性,根据风向相对于飞艇运动方向的夹角概率,从影响飞艇航向的推力螺旋桨装置有效运动区间中选择一个倾转角度以实现航向角变化;
通过动作的作用效果,获得被控对象下一时刻的状态以及相应的回报奖励值,应用在平流层飞艇中为:通过动作的作用效果,获得平流层飞艇下一时刻的状态以及相应的回报奖励值,即将转移后的平流层飞艇位置与当前目标位置之间的相对距离作为奖励值;
被控对象根据状态转移后的***反应,获得一个强化信号,应用在平流层飞艇中为:根据相对距离的大小作用到平流层飞艇推力螺旋桨装置动作选择上的一个反馈增益环节中;
根据上述获得的回报奖励值、强化信号以及折扣因子得到每个动作对应的值函数Q,应用在平流层飞艇中为:根据推力螺旋桨装置的倾转角输入和状态位置输出,调整输入与输出之间的值函数,得到期望输出下的值函数。根据期望输出,从中选择一个最优的倾转角输入使得输出的相对距离最小:
Figure BDA0002475221470000071
式中,Qπ(s,a)为根据策略π,在状态s下执行a动作的最优值函数;Eπ(·)代表根据括号中的结果,根据策略π,通过改变变量,得到最优值;γ为折扣因子,0<γ<1;rt为包含强化信号的回报奖励值;s为状态量,s0为初始状态量;a为动作量,a0为初始动作量;
获取每个动作下的最优值函数Qπ,设置一定时间步长,得到该时间段内的最优动作选择策略,完成Q-learning算法,应用在平流层飞艇中为:对平流层每一个时刻通过值函数大小获得最优的倾转角输入,得到了相应的最优动作策略π*
Figure BDA0002475221470000072
式中,
Figure BDA0002475221470000073
为依据最优动作策略π*,在状态s下执行a动作的最优值函数;π*(s)为为状态s下的最优动作策略。
进一步优选的,步骤5具体包括:
步骤5.1,输入平流层飞艇当前初值状态和目标状态;
步骤5.2,基于训练过程中获得的动作策略π,对倾转角进行选择;
步骤5.3,执行动作,获得平流层飞艇转移后的状态,判断转移后的状态与当前目标状态是否满足精度要求,若是则更新目标,若否,目标不变,返回到步骤5.2中,直至满足精度,再进行目标更新;
步骤5.4,判断目标状态是否为最终目标,若是则完成控制任务,若否,则返回到步骤5.2中,重复循环直至抵达目标。
有益效果
1)本发明不再需要获取平流层飞艇的动力学模型参数,而是基于平流层飞艇的实时位置状态和所处的外部环境作为控制***的控制输入,简化控制回路;
2)本发明充分利用了平流层飞艇所处的风场环境,将原本影响确定飞艇动力学模型的干扰因素作为控制策略中所需设计考虑的关键步骤,借助风场环境完成对平流层飞艇执行机构所做动作的抉择,增强了控制器的鲁棒性;
3)本发明采用了CMAC神经网络寻优策略,利用神经网络学习的泛化能力,对不在控制器训练期间所利用的样本数据中的状态输入也能达到期望的轨迹输出,增强了控制器的自适应性;
4)本发明结合了增强学***流层飞艇的智能控制,通过平流层飞艇实时的位置状态特性、运动的可实现性以及飞艇上执行机构的动作区间反映飞艇对象特征,根据飞艇的在线位置和环境的实时状态进行控制,具有较强的自主性、抗扰动性和稳定性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例中平流层飞艇水平轨迹智能控制方法的方法流程图;
图2为本发明实施例中基于Q-learning算法和CMAC学习的控制器结构;
图3为本发明实施例中所构建的飞艇观测模型示意图;
图4为本发明实施例中所利用的风场环境风速分布图
图5为本发明实施例中基于Q-learning算法和CMAC学***流层飞艇参考轨迹示意图;
图6为本发明实施例中基于Q-learning算法和CMAC学习方法的不同航速步长下的跟踪轨迹仿真效果对比图;
图7为本发明实施例中基于Q-learning算法和CMAC学习方法的期望与实际航向角对比图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是物理连接或无线通信连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
本实施例以某1000立方米仿真艇和2019年6月3日长沙地区18km处的风场数据作为仿真对象和仿真环境,结合上述附图,对本发明“一种平流层飞艇水平轨迹智能控制方法”的具体实施方案进一步说明,过程如下:
由于本发明是基于外界环境和实时状态的控制策略,故而对飞艇的动力学模型不做过多的描述,不需要构建动力学方程,但需要对飞艇的执行机构的运动区间和受力最值进行一定的限定,即基于现实意义下给予飞艇一定的约束。飞艇的模型约束以及时间步长设置,如表1所示:
表1模型参数
Figure BDA0002475221470000101
建立风场中平流层飞艇的观测模型
如图3所示,放飞系下的左图涉及到的角度有飞艇的实际航向角ψc,期望航向角ψd以及二者之间的航向角增量ψr;右图中的角度有实际航向角ψc,偏航角ψ,侧滑角β,在仿真中将侧滑角设定为0,即速度轴与体系纵轴重合。
确定飞艇的马尔可夫决策过程(MDP)中的动作概率
如图4所示为2019年6月3日长沙地区的风向数据在18km处风向随时间的变化曲线,将风向角的范围[0,360]划分为九个区间,对应到执行机构上的九个动作值,以及相应的航向角增量,其对应关系如表2所示:
表2动作选择对应表
Figure BDA0002475221470000102
针对某一时间段内的风场数据,将各个区间的风向角数量占整个区间的比例大小作为实时风向角下的动作选择的概率,与此同时,建立执行机构所采取的动作值与航向角之间的关系。以π/180为航向角的最小变化增量,航向角增量随着动作值的变化进行同样趋势上的变化,从而建立起风向角与实际航向角之间的对应变化关系。令动作选择概率即航向角的变化选择概率与风向角所占的比例大小值一致,即:
P(st,at)=Pwind-angle/Pall
本次仿真算例中,以2019年6月3日长沙地区18km处00:00~09:00九个小时的风场变化数据为控制器的样本学习对象。将该时间段内所获得的不同风向角比例大小按照表2中的规则作为动作(航向角)的概率。
建立风场中平流层飞艇完整的MDP模型
首先,确定状态空间元素,将飞艇的水平运动轨迹中的位置坐标(xc,yc)和目标坐标(xd,yd)作为MDP模型中的状态元素,在此次仿真中,期望的水平运动轨迹由斜率为1的直线、半径为20km的两段圆弧以及一段水平直线构成,如图5所示;
然后,确定动作空间,即将表2中不同的航向角增量作为不同的动作值,暂时不考虑从执行机构到航向角之间的传递关系;
其次,引进上述概率作为动作选择依据;
再者,计算回报奖励值:
Figure BDA0002475221470000111
其中,yc(t+1)=Δs·sinψt,xc(t+1)=Δs·sinψt,ψt=ψr+Δψ。
最后,根据仿真时长和折扣因子确定目标优化函数:
Figure BDA0002475221470000112
上式中,xd(t+1),yd(t+1)代表在当前时刻t的下一时刻的目标位置,xc(t+1),yc(t+1)代表在当前时刻的下一时刻t的状态位置。
获取最优动作值函数
将飞艇运动过程中飞艇的当前状态和目标状态,作为CMAC神经网络的输入;将所设置的所有动作输入值即所有的航向角增量,作为CMAC神经网络的权值项;将所有航向角增量对应转移后的位置状态与目标状态之间距离即目标优化函数,作为CMAC神经网络输出。在不同的位置状态下,有着不同的可选动作值范围等价于对应不同的权值系数,其过程为:
(1)获取在当前的位置状态下,通过权值更新得到每一个位置状态下的最优航向角增量,判断转移后的位置状态与当前目标状态之间的差距是否处于设定的精度范围之内。若最优状态仍未到达当前目标值附近,则目标值不变,当前位置状态转移至最接近当前目标值的位置;
(2)若最优的状态抵达当前目标值附近,则更新目标值,进入下一个目标值的跟踪学习;
(3)重复上述过程,直至目标值为终点时结束对所有位置状态的动作值寻优过程,得到最优的航向角变化序列。
仿真跟踪轨迹
固定飞艇每一个动作值下的移动路程大小即飞艇的航速,分别设为1km、1.4km以及1.5km,根据上述过程进行仿真,得到的跟踪轨迹如图6所示。从图中可知其结果对于航速的敏感度较低,但存在较优的跟踪轨迹。因此,以该航速下的最优动作策略为基准,得到了相应的期望与实际航向角的对比图如图7所示。
对航向角的跟踪效果进行分析,仿真结果表明,基于Q-learning和CMAC神经网络的控制器能够较好的实现对期望航向角的跟踪,整体趋势和误差值都在比较良好的状态,达到了较高的控制精度,证明了该控制器在仿真理论上的可行性。
综上所述,根据上述步骤能够实现对期望参考轨迹的跟踪以及就仿真结果上可以知道能够拥有较好的跟踪效果。证明了采用Q-learning算法和CMAC神经网络学习的控制策略的可行性,并且应用在不同的迭代步长上也有着相当的控制精度。通过仿真结果可知,不同的迭代步长或航速对控制精度虽然有一定的影响,但是不影响对规划任务的完成情况,体现该方法的适应性。本发明所设计的控制***在实际任务应用中相较于利用非线性控制而构建的控制***更为简单,易于操作、容易复现。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明实施例进行了较为详细的说明,但是本发明实施例不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,本发明的范围由所附的权利要求范围决定,而非由实施例的具体描述所界定。

Claims (6)

1.一种平流层飞艇水平轨迹智能控制方法,其特征在于,包括如下步骤:
步骤1,建立风场中平流层飞艇的观测模型,并根据观测模型获取平流层飞艇的状态量,所述状态量包括平流层飞艇的当前点位置(xc,yc)、航向角ψc以及期望轨迹上的目标点位置(xd,yd);
步骤2,建立风场中平流层飞艇基于Q-learning算法的马尔可夫决策过程模型,将观测模型中平流层飞艇当前点与目标点的相对位置(lcc)作为Q-learning算法的输入,将风向相对于飞艇运动的来流方向作为Q-learning算法中动作概率选择依据,其中,lc为平流层飞艇的当前点位置与期望轨迹上的目标点位置的相对距离;利用了平流层飞艇所处的风场环境,将原本影响确定飞艇动力学模型的干扰因素作为控制策略中所需设计考虑的关键步骤,借助风场环境完成对平流层飞艇执行机构所做动作的抉择;
步骤3,基于样本数据中的期望输入、输出,对Q-learning算法进行训练,平流层飞艇每一个位置状态下所采取的每一个动作输入对应一个值函数Q,为每一个动作的值函数Q建立一个小脑模型神经网络,得到平流层飞艇每一个位置状态下所采取的每一个动作输入的最优值函数Qπ,其中,所述动作输入为平流层飞艇的航向角增量;
步骤4,基于平流层飞艇每一个位置状态下所采取的每一个动作输入的最优值函数Qπ,对每一时刻航向角增量的选择进行神经网络学***流层飞艇控制***的训练;
步骤5,根据步骤4中训练后的控制***,给定飞艇的期望轨迹和仿真时间,随机设置飞艇的位置初值,基于位置关系和最优动作策略,得到倾转角的变化、航向角的增量,将转移后的状态与当前目标状态之间的误差是否满足规定精度,作为目标是否更新的判断依据,将当前目标是否是最终目标,作为轨迹跟踪控制过程是否结束的判断依据,完成飞艇水平运动轨迹的智能控制;
步骤2中,建立风场中平流层飞艇基于Q-learning算法的马尔科夫决策过程模型,其中五个元素(S,A,R,P,J)对应到平流层飞艇中,具体为:
将观测模型中得到的位置状态值lc和方向值ψc,作为马尔科夫决策过程模型中的状态空间S的组成元素;
将平流层飞艇上决定执行机构作用效果的控制参数即推力螺旋桨装置的矢量倾转角,作为马尔科夫决策过程模型中动作空间A的组成元素,根据实际飞行中倾转角的有效作用范围设计一定的范围裕度,并设置一定的动作步长;
将平流层飞艇状态转移之后的状态与目标状态之间的相对距离,作为马尔科夫决策过程模型中的回报奖励函数值R;
将环境风场中风向相对于平流层飞艇运动方向的夹角概率,作为平流层飞艇状态转移的概率P;
给予平流层飞艇***一定的仿真时长,考虑该范围内的动作学习,并对学习过程中每一个动作回报奖励值进行折扣累加,将累加和作为马尔科夫决策过程模型中的目标优化函数J,最优动作策略的判断依据是在仿真时间段中J值是否为最小值;
所述将风向相对于平流层飞艇运动方向的夹角概率,作为平流层飞艇状态转移的概率P,具体为:
Figure FDF0000019988130000021
式中,t代表当前时刻,si为当前状态,sj为t+1时刻状态,ak代表受控对象在t时刻执行的动作值,S表示平流层飞艇的状态集,A表示平流层飞艇的动作集;r代表回报奖励值,作为影响概率大小的一定影响因素;P代表转移的概率,对于风场中的平流层飞艇而言,将风向相对于飞艇运动的来流方向作为概率值;pij(ak)表示在执行ak动作时,平流层飞艇状态由si转移到sj的概率值。
2.根据权利要求1所述平流层飞艇水平轨迹智能控制方法,其特征在于,步骤1中,所述建立风场中平流层飞艇的观测模型具体为:建立平流层飞艇与外界环境之间关联的坐标系,包括放飞坐标系、体坐标系和速度坐标系,形成在学习过程中表征飞艇方位的观测模型;
放飞坐标系是指以平流层飞艇的放飞点为原点,描述平流层飞艇体心相对于放飞起点的运动轨迹,用来描述期望轨迹和作为跟踪轨迹的基础;
体坐标系是指以平流层飞艇体心为原点,描述相对于平流层飞艇艇身的姿态关系、获取飞艇的当前姿态和作为飞艇上执行机构动作选择的依据;
速度坐标系是指以平流层飞艇体心为原点,描述平流层飞艇与大气环境之间的关系,用来建立飞艇的运动学方程。
3.根据权利要求2所述平流层飞艇水平轨迹智能控制方法,其特征在于,所述将平流层飞艇上决定执行机构作用效果的控制参数,即推力螺旋桨装置的矢量倾转角,作为马尔科夫决策过程模型中动作空间A的组成元素,根据实际飞行中倾转角的有效作用范围设计一定的范围裕度,并设置一定的动作步长,具体为:
基于现实中平流层飞艇倾转装置的可调区间,将推力螺旋桨装置的矢量倾转角的动作值区间设置为
Figure FDF0000019988130000031
并将其划分为九个动作值即
Figure FDF0000019988130000032
4.根据权利要求1所述平流层飞艇水平轨迹智能控制方法,其特征在于,步骤3的具体过程为:
为平流层飞艇的每一个动作建立一个小脑神经网络,对动作值函数进行寻优,以获得最优值函数;
其中,小脑神经网络具有输入层、中间层以及输出层,中间层包括有真实区和虚拟区,真实区存储输入的状态空间元素,虚拟区存储权值项,真实区中每一个元素对应虚拟区中有限少数个权值项,而且若每个状态之间的距离越近,则相对应的权值重合度越高,将小脑神经网络应用在平流层飞艇中,网络输入为飞艇上推力螺旋桨装置的所有倾转角状态,输出为飞艇在某一时刻位置状态下所对应的倾转角输入的动作值函数估计:
为表征真实区与虚拟区之间的联系,引入激活状态的概念,即τij=1代表权值影响当前的输入状态而处于激活态,τij=0代表权值与状态输入无关而处于冻结态,确定激活函数之后,将其与权值进行乘积求和得到网络输出,即:
Figure FDF0000019988130000033
Figure FDF0000019988130000034
式中,m代表真实区中元素个数,n代表虚拟区中元素个数,Γi代表真实区中第i个元素对应的激活函数集合,W为权值项矩阵,ynetouti代表真实区中第i个元素对应的网络输出值;
获取网络输出后,对前后的输出值进行对比,再反馈到虚拟区中,即对权值进行在线实时更新,采用传统的梯度下降法对权值进行更新:
wi+1=wiw(ynetout(i+1)-ynetoutii
式中,αw为权值的学习速率,当该值过大会造成所获得的权值并非最优,过小会导致计算时间冗长多余;
应用在平流层飞艇中,假设飞艇的当前位置状态为st,动作输入状态为ak,则对应的网络输出值函数以及权值的更新规则为:
Figure FDF0000019988130000041
式中,r(st,akt,st+1)代表在t时刻,执行akt动作使状态st变换为st+1的回报奖励值;γ为折扣因子(0<γ<1);
Figure FDF0000019988130000042
代表最优动作值函数;
根据上述过程进行权值更新和获取动作值函数,对不同状态下的结果进行比较,以确定最优值函数Qπ
5.根据权利要求1所述平流层飞艇水平轨迹智能控制方法,其特征在于,步骤4的具体过程为:
获取平流层飞艇当前状态下的位置坐标(xc,yc),目标坐标(xd,yd)以及当前状态点和下一时刻目标点之间的位置关系(lcc);
Figure FDF0000019988130000043
式中,xc、xd、xr分别代表飞艇在放飞系中当前的x方向位置、期望的x方向位置以及二者在x方向上的差值;yc、yd、yr分别代表飞艇在放飞系中当前的y方向位置、期望的y方向位置,二者在y方向上的差值;lc为相对距离,ψc为偏航角,ψ为航向角,ψr为观测模型中,目标方向与x轴的夹角;
针对平流层飞艇所处的风场环境的特殊性,根据风向相对于飞艇运动方向的夹角,从推力螺旋桨装置有效运动区间中选择一个倾转角度以实现航向角变化;
通过动作的作用效果,获得平流层飞艇下一时刻的状态以及相应的回报奖励值,即将转移后的平流层飞艇位置与当前目标位置之间的相对距离作为奖励值;
根据相对距离的大小,作用到平流层飞艇推力螺旋桨装置动作选择的反馈增益环节中;
根据推力螺旋桨装置的倾转角输入和状态位置输出,调整输入与输出之间的值函数,得到期望输出下的值函数,根据期望输出,从中选择一个最优的倾转角输入使得输出的相对距离最小:
Figure FDF0000019988130000051
式中,Qπ(s,a)为根据策略π,在状态s下执行a动作的最优值函数;Eπ(·)代表根据括号中的结果,根据策略π,通过改变变量,得到最优值;γ为折扣因子,0<γ<1;rt为包含强化信号的回报奖励值;s为状态量,s0为初始状态量;a为动作量,a0为初始动作量;
获取每个动作下的最优值函数Qπ,设置一定时间步长,得到该时间段内的最优动作选择策略,完成Q-learning算法,即对平流层每一个时刻通过值函数大小获得最优的倾转角输入,得到了相应的最优动作策略π*
Figure FDF0000019988130000052
式中,
Figure FDF0000019988130000053
为依据最优动作策略π*,在状态s下执行a动作的最优值函数;π*(s)为状态s下的最优动作策略。
6.根据权利要求1所述平流层飞艇水平轨迹智能控制方法,其特征在于,步骤5具体包括:
步骤5.1,输入平流层飞艇当前初值状态和目标状态;
步骤5.2,基于训练过程中获得的动作策略π,对倾转角进行选择;
步骤5.3,执行动作,获得平流层飞艇转移后的状态,判断转移后的状态与当前目标状态是否满足精度要求,若是则更新目标,若否,目标不变,返回到步骤5.2中,直至满足精度,再进行目标更新;
步骤5.4,判断目标状态是否为最终目标,若是则完成控制任务,若否,则返回到步骤5.2中,重复循环直至抵达目标。
CN202010361483.3A 2020-04-30 2020-04-30 一种平流层飞艇水平轨迹智能控制方法 Active CN111538241B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010361483.3A CN111538241B (zh) 2020-04-30 2020-04-30 一种平流层飞艇水平轨迹智能控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010361483.3A CN111538241B (zh) 2020-04-30 2020-04-30 一种平流层飞艇水平轨迹智能控制方法

Publications (2)

Publication Number Publication Date
CN111538241A CN111538241A (zh) 2020-08-14
CN111538241B true CN111538241B (zh) 2022-12-23

Family

ID=71977429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010361483.3A Active CN111538241B (zh) 2020-04-30 2020-04-30 一种平流层飞艇水平轨迹智能控制方法

Country Status (1)

Country Link
CN (1) CN111538241B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112231845B (zh) * 2020-11-03 2022-09-02 中国人民解放军国防科技大学 一种平流层飞艇高度控制方法及***
CN113034504B (zh) * 2021-04-25 2022-06-03 重庆大学 Slam建图过程中的平面特征融合方法
CN113552902A (zh) * 2021-08-10 2021-10-26 中国人民解放军国防科技大学 一种平流层飞艇三维轨迹跟踪控制方法及***
CN114578861B (zh) * 2022-04-29 2022-08-16 北京航空航天大学 一种利用阵风环境的无人机飞行控制策略设计方法
CN116522802B (zh) * 2023-06-29 2023-09-19 北京天航华创科技股份有限公司 一种基于气象数据的无人飞艇智能飞行规划方法
CN116700015B (zh) * 2023-07-28 2023-10-31 中国科学院自动化研究所 水下航行器主动增稳控制方法及装置
CN117707207B (zh) * 2024-02-06 2024-04-19 中国民用航空飞行学院 基于深度强化学习的无人机对地目标跟踪与避障规划方法
CN117806356B (zh) * 2024-02-28 2024-07-19 南京大学 一种基于物联网的飞艇数据传输管理***及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104281155B (zh) * 2014-11-07 2015-07-01 中国人民解放军国防科学技术大学 一种无人飞艇三维航迹跟踪方法
CN106483852B (zh) * 2016-12-30 2019-03-15 北京天恒长鹰科技股份有限公司 一种基于Q-Learning算法和神经网络的平流层飞艇控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Study of path planning method of under-actuated blimp-type UAV in stochastic wind disturbance via augmented-MDP;Hiroshi Kawano;《2011 IEEE/ASME International Conference on Advanced Intelligent Mechatronics(AIM)》;20110926;第1180-185页 *
UAV path planning in a dynamic environment via partially observable Markov decision process;S Ragi等;《Aerospace and Electronic Systems》;20130130;第49卷(第4期);第2397-2412页 *

Also Published As

Publication number Publication date
CN111538241A (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN111538241B (zh) 一种平流层飞艇水平轨迹智能控制方法
CN111351488B (zh) 飞行器智能轨迹重构再入制导方法
CN110806759B (zh) 一种基于深度强化学习的飞行器航线跟踪方法
CN106483852B (zh) 一种基于Q-Learning算法和神经网络的平流层飞艇控制方法
CN112947592B (zh) 一种基于强化学习的再入飞行器轨迹规划方法
US20060235584A1 (en) Decentralized maneuver control in heterogeneous autonomous vehicle networks
Yang et al. Horizontal trajectory control of stratospheric airships in wind field using Q-learning algorithm
CN113268074B (zh) 一种基于联合优化的无人机航迹规划方法
CN113377121B (zh) 一种基于深度强化学习的飞行器智能抗扰动控制方法
CN114840020A (zh) 一种基于改进鲸鱼算法的无人机飞行轨迹规划方法
CN111240345A (zh) 一种基于双bp网络增强学习框架的水下机器人轨迹跟踪方法
CN114578861B (zh) 一种利用阵风环境的无人机飞行控制策略设计方法
CN105652664A (zh) 一种基于鸽群优化的四旋翼无人机显式预测控制方法
CN111427379A (zh) 观测驱动的多无人机协同standoff目标跟踪方法
CN115903888A (zh) 一种基于天牛群算法的旋翼无人机自主路径规划方法
CN115265532A (zh) 一种用于船用组合导航中的辅助滤波方法
CN118034373A (zh) 一种平流层飞艇环境最优智能区域驻留控制方法及***
CN114675673A (zh) 一种空中动目标追踪方法及***
CN114637327A (zh) 基于深度策略性梯度强化学习的在线轨迹生成制导方法
CN117289709B (zh) 基于深度强化学习的高超声速变外形飞行器姿态控制方法
CN116620566A (zh) 非合作目标附着多节点智能协同制导方法
Abouheaf et al. An online reinforcement learning wing-tracking mechanism for flexible wing aircraft
Zhang et al. Integration of path planning and following control for the stratospheric airship with forecasted wind field data
CN117970952B (zh) 无人机机动策略离线建模方法
CN115951585B (zh) 基于深度神经网络的高超声速飞行器再入制导方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant