CN117111620A - 一种异构无人***任务分配自主决策方法 - Google Patents
一种异构无人***任务分配自主决策方法 Download PDFInfo
- Publication number
- CN117111620A CN117111620A CN202311367941.4A CN202311367941A CN117111620A CN 117111620 A CN117111620 A CN 117111620A CN 202311367941 A CN202311367941 A CN 202311367941A CN 117111620 A CN117111620 A CN 117111620A
- Authority
- CN
- China
- Prior art keywords
- network
- task allocation
- task
- model
- execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000011156 evaluation Methods 0.000 claims abstract description 32
- 230000003044 adaptive effect Effects 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 39
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000011217 control strategy Methods 0.000 claims description 9
- 238000013461 design Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 5
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 230000007246 mechanism Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- WLRMANUAADYWEA-NWASOUNVSA-N (S)-timolol maleate Chemical compound OC(=O)\C=C/C(O)=O.CC(C)(C)NC[C@H](O)COC1=NSN=C1N1CCOCC1 WLRMANUAADYWEA-NWASOUNVSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Feedback Control In General (AREA)
Abstract
本发明公开了一种异构无人***任务分配自主决策方法,涉及异构智能体编队控制领域,具体包括根据任务价值、航行距离、任务执行时间进行任务分配建模,得到航行器任务分配模型:基于任务分配模型设计基于事件触发的自适应动态规划算法,基于事件触发的自适应动态规划算法包括模型网络、评价网络、执行网络、事件触发器、零阶保持器;通过基于事件触发的自适应动态规划算法对异构无人***进行任务分配。本发明以任务分配与规划为核心,任务分配方法的好坏决定无人***自主决策的性能,事件触发机制与自适应动态规划方法相结合,不但能够处理大量离散任务,生成最优执行策略,而且能够有效降低计算成本,满足无人***对自主决策实时性的要求。
Description
技术领域
本发明涉及异构智能体编队控制领域,具体涉及一种异构无人***任务分配自主决策方法,尤其是一种水面无人艇和水下无人航行器任务分配自主决策方法。
背景技术
面对复杂多变的海洋环境,作为海上无人***的水面无人艇(Unmanned SurfaceVehicle,USV)和自治水下航行器(Autonomous Underwater Vehicle, AUV)在执行3D(dirty-dull-dangerous)任务时,具有无可比拟的优势。然而,单一海上无人***的承载能力低、覆盖范围小、信息处理能力弱等缺点显著,跨域协同是无人***发展的高级阶段,是应对日益复杂任务的重要技术途径,因此,水面/水下跨域异构无人***智能协同观测与分布式作战研究对于我国加快海洋强国建设具有重要意义。
随着人工智能技术的发展,跨域协同势必为海上无人***的发展带来更多契机,是海上异构无人***在执行海洋动力过程观测、海洋牧场环境参数监测、海洋工程现场环境监测以及作战任务成功与否的关键因素。无人***协同任务分配是实现其协同观测和作战的前提和基础,最终目标是将所要执行的任务分配到多个无人***上,以实现最佳的任务效能。一些文献中尝试利用合作协商的决策方法解决该类型问题,将任务分配的过程通过某些特定的协商框架实现,采用分层递进的求解思路,并通过协商规划出可行的分配方案,主要的算法有:分布式合同网竞拍法、多体满意决策论法、可变策略协商法等;另一些文献则基于特定的分配模型与指标函数,利用智能算法求解最优的分配方案,例如模拟退火算法、禁忌搜索算法、遗传算法、蜂群算法、蝙蝠算法、粒子群算法、动态规划等。禁忌搜索算法由于禁忌表的存在所能进行的搜索规模较小;遗传算法的实时性较差并且计算速度相对较慢;粒子群、蜂群等算法容易出现局部最优的结果。
动态规划算法的鲁棒性、动态性以及协同性好,更适合应用在具有强耦合、强非线性、高复杂性的***,但是,该方法容易陷入“维数灾难”。海上异构无人***具有强耦合、强非线性、高复杂性的特点,如何根据任务价值、航行距离和任务执行时间等因素,建立任务分配模型,在此基础上设计合理的事件触发条件,减小无人***之间的通信负荷及控制过程的计算量,避免“维数灾难”,是异构无人***任务分配自主决策的关键技术问题。
发明内容
为了克服现有技术中存在的上述问题,本发明提出一种异构无人***任务分配自主决策方法。
本发明解决其技术问题所采用的技术方案是:一种异构无人***任务分配自主决策方法,包括如下步骤:
步骤1,根据任务价值、航行距离、任务执行时间进行任务分配建模,得到航行器任务分配模型:
;
其中,fsail表示总航行距离,ft表示总任务执行时间,fv表示任务分配方案的总价值指标,、/>、/>表示权重系数;
步骤2,基于步骤1的任务分配模型设计基于事件触发的自适应动态规划算法,所述基于事件触发的自适应动态规划算法包括模型网络、评价网络、执行网络、事件触发器、零阶保持器;
步骤3,通过步骤2的基于事件触发的自适应动态规划算法对异构无人***进行任务分配。
上述的一种异构无人***任务分配自主决策方法,所述步骤1中任务分配方案的总价值指标fv具体为:
;
其中,为任务/>的价值;/>表示第i个航行器在执行第j个任务;i表示第i个航行器,j表示第j个任务。
上述的一种异构无人***任务分配自主决策方法,所述步骤1中总航行距离fsail具体为:
;
其中,j表示第j个任务,i表示第i个航行器,表示航行器i从起始位置到执行第ni个任务之间的距离。
上述的一种异构无人***任务分配自主决策方法,所述步骤1中总任务执行时间ft具体为:
;
其中,vi表示航行器i的速度;表示执行任务/>所需要的时间;表示航行器i从起始位置到执行第ni个任务之间的距离。
上述的一种异构无人***任务分配自主决策方法,所述步骤2中模型网络、评价网络、执行网络均由一个三层BP神经网络构成,分别对***的控制策略、状态向量、代价函数进行逼近。
上述的一种异构无人***任务分配自主决策方法,所述模型网络的设计具体包括:
模型网络的输入为***当前的状态和零阶保持器输出的任务分配策略;
模型网络根据当前状态量和控制量估计***下一时刻状态:
;
其中,x(k) 为k时刻的***状态,为无人***控制策略,k=0,1,2……N;
模型网络的目标是最小化***状态估计值与真实值的误差函数,误差函数的定义为:
;
其中,x(k) 为k时刻的***状态;表示k +1时刻对偏差向量的估计值,表示模型网络模型k +1时刻的估计值与***状态的差。
上述的一种异构无人***任务分配自主决策方法,所述模型网络的输出层权值调整规则为:
;
其中,为动量项;/>为动量系数,/>;/>表示模型网络学习速率;
k +1时刻模型网络隐藏层到输出层权值矩阵为:
;
模型网络隐藏层的权值调整规则为:
;
k +1时刻模型网络输入层到隐藏层权值矩阵为:
。
上述的一种异构无人***任务分配自主决策方法,所述评价网络设计具体为:
评价网络用于近似最优的性能指标函数J(x(k)),由一个三层BP神经网络构成输入层的输入主要由两部分组成,包括m维的状态变量x(k)以及n维的控制变量u(k);输出层的输出为物理意义是效用函数的近似评价网络根据当前***状态输出k时刻的最优性能指标函数:
;
其中,为效用函数,/>为折扣因子,且/>;
评价网络的目标是最小化代价函数:
;
其中,表示评价网络误差函数;
评价网络的输出层权值调整规则为:
;
其中,为动量项,/>为动量系数,/>;/>表示评价网络学习速率;
k+1时刻评价网络隐藏层到输出层权值矩阵为:
。
上述的一种异构无人***任务分配自主决策方法,所述执行网络设计具体为:
执行网络用于更新事件触发控制率;在执行网络中得到最优任务序列求解方程为:
;
其中,为折扣因子,且/>;
k+1时刻执行网络隐藏层到输出层权值矩阵为:
;
其中,为动量项,/>为动量系数,/>;/>表示执行网络学习速率;/>表示执行网络k时刻的权值矩阵,/>表示执行网络的代价函数;
模型网络、评价网络、执行网络激活函数采用双极性Sigmoid函数。
本发明的有益效果是,本发明以任务分配与规划为核心,任务分配方法的好坏决定无人***自主决策的性能,事件触发机制与自适应动态规划方法相结合,不但能够处理大量离散任务,生成最优执行策略,而且能够有效降低计算成本,满足无人***对自主决策实时性的要求。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1为本发明基于事件触发的自适应动态规划方法结构图;
图2为本发明模型网络结构图;
图3为本发明评价网络结构图;
图4为本发明执行网络结构图。
具体实施方式
为使本领域技术人员更好的理解本发明的技术方案,下面结合附图和具体实施方式对本发明作详细说明。
本实施例公开了一种异构无人***任务分配自主决策方法,尤其是针对水面无人艇和水下无人航行器任务分配自主决策方法,具体包括:
步骤1,根据任务价值、航行距离、任务执行时间进行任务分配建模,得到航行器任务分配模型:
;
其中,fsail表示总航行距离,ft表示总任务执行时间,fv表示任务分配方案的总价值指标,、/>、/>表示权重系数。
任务价值最大:假设航行器i的任务序列为,任务/>的价值为/>,任务分配方案的总价值指标为:
。
航行距离最短:航行器执行任务航行距离越长,能耗越大,且执行任务时间变长,因此要使航行距离尽可能小。总航行距离指标为:
。
任务执行时间最短:假设航行器i的速度为,任务执行所需要的时间/>,则总的任务执行时间为:
。
步骤2,基于步骤1的任务分配模型设计基于事件触发的自适应动态规划算法,所述基于事件触发的自适应动态规划算法包括模型网络、评价网络、执行网络、事件触发器、零阶保持器。
基于事件触发的自适应动态规划算法设计具体包括:
自适应动态规划方法(Adaptive dynamic programming, ADP)以动态规划为理论基础解决最优控制问题的方法,作为动态规划方法的近似解法,利用函数近似结构来近似哈密顿-雅可比-贝尔曼 (Hamilton-Jacobi-Bellman, HJB)方程的解。事件触发控制为非周期性控制或异步控制,它的信号采样和控制器运算是由一个特定的事件触发的,而不是随时间的流逝而规律动作,该方法可以减小这些部件内部及相互之间的通信负荷及控制过程的计算量,缩短控制的迟延作用,减少计算所占用的缓存空间,节约成本,提高控制效率。本实施例设计的事件触发式自适应动态规划方法其结构如图1所示:但这些研究中都是以固定时刻采样来更新控制策略的,为了降低采样频率,提出了基于事件触发的自适应动态规划方法。
基于事件触发的自适应动态规划方法结构由模型网络、评价网络、执行网络、事件触发器和零阶保持器五部分组成。模型网络用于更新***状态向量;评价网络用于近似最优的性能指标函数J(x(k));模型网络、评价网络、执行网络均由一个三层BP神经网络构成,分别对***的控制策略、状态向量以及代价函数进行逼近。当触发条件满足时,如无人***任务发生变化等,当前任务时刻被记为k,当前任务状态为x(k),被送入执行网络生成新的任务执行策略,保持在零阶保持器的控制策略将被更新为新的数值,且直到下一次被触发。当触发条件不被满足时,执行网络和评价网络在此刻进行权重的更新。图中实线表示***变量的传递过程,虚线表示神经网络的权重更新路径。
a、模型网络设计:
模型网络根据当前状态量和控制量(任务序列)估计***下一时刻状态:
;
其中,x(k)为k时刻的***状态,为无人***控制策略(任务序列),。
模型网络的目标是最小化***状态估计值与真实值的误差函数(如航向误差、位置误差等),误差函数的定义为:
;
其中,x(k) 为k时刻的***状态;表示k +1时刻对偏差向量的估计值,表示模型网络模型k +1时刻的估计值与***状态的差。
模型网络的结构如图2所示,输入为***当前的状态和零阶保持器输出的任务分配策略,图2中假设输入层有p个输入。
为了提高网络的训练速度,在权值调整公式中增加动量项。动量项即从前一次权值调整量中取出一部分叠加到本次权值调整量中,对于k时刻的调整起到阻尼作用,当误差曲面出现骤然起伏时,可减小振荡趋势,提高训练速度。
根据梯度下降法,模型网络输出层的权值调整规则如式(8)所示:
。
k +1时刻模型网络隐藏层到输出层权值矩阵为:
;
其中,为动量项,/>为动量系数,/>;/>表示模型网络学习速率。
同理,模型网络隐藏层的权值调整规则如式(10)所示:
。
k +1时刻模型网络输入层到隐藏层权值矩阵为:
。
b、评价网络设计:
评价网络用于近似最优的性能指标函数J(x(k)),由一个三层BP神经网络构成输入层的输入主要由两部分组成,结构如图3所示,包括m维的状态变量x(k)以及n维的控制变量u(k)。图3中假设输入层有p个输入,输出层的输出为物理意义是效用函数的近似,评价网络根据当前***状态输出k时刻的最优性能指标函数:
;
其中,为效用函数,/>为折扣因子,且/>。
评价网络的目标是最小化代价函数Ec(k):
;
其中,表示评价网络误差函数。
评价网络的输出层权值调整规则为:
;
所以,k+1时刻,评价网络隐藏层到输出层权值矩阵为:
;
其中,为动量项,/>为动量系数,/>;/>表示评价网络学习速率。
同理,评价网络输入层到隐藏层权值调整规则如式(17)所示:
。
k +1时刻模型网络输入层到隐藏层权值矩阵为:
。
c、执行网络设计:
执行网络用于更新事件触发控制率,执行网络的结构如图4所示,执行网络有p个输入。然后,在执行网络中得到最优任务序列求解方程为:
;
其中,表示执行网络的代价函数,/>表示执行网络的误差函数。
k+1时刻执行网络隐藏层到输出层权值矩阵为:
;
其中,为动量项,/>为动量系数,/>;/>表示执行网络学习速率;/>表示执行网络k时刻的权值矩阵,/>表示执行网络的代价函数。
模型网络、评价网络、执行网络激活函数采用双极性Sigmoid函数:
。
步骤3,通过步骤2的基于事件触发的自适应动态规划算法对异构无人***进行任务分配。
无人***事件触发的条件定义为:
;
为k时刻***误差,/>为事件触发阈值。当***误差大于事件触发阈值时,控制策略将被更新。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。
Claims (9)
1.一种异构无人***任务分配自主决策方法,其特征在于:包括如下步骤:
步骤1,根据任务价值、航行距离、任务执行时间进行任务分配建模,得到航行器任务分配模型:
;
其中,fsail表示总航行距离,ft表示总任务执行时间,fv表示任务分配方案的总价值指标,、/>、/>表示权重系数;
步骤2,基于步骤1的任务分配模型设计基于事件触发的自适应动态规划算法,所述基于事件触发的自适应动态规划算法包括模型网络、评价网络、执行网络、事件触发器、零阶保持器;
步骤3,通过步骤2的基于事件触发的自适应动态规划算法对异构无人***进行任务分配。
2.根据权利要求1所述的一种异构无人***任务分配自主决策方法,其特征在于,所述步骤1中任务分配方案的总价值指标fv具体为:
;
其中,为任务/>的价值;/>表示第i个航行器在执行第j个任务;i表示第i个航行器,j表示第j个任务。
3.根据权利要求1所述的一种异构无人***任务分配自主决策方法,其特征在于,所述步骤1中总航行距离fsail具体为:
;
其中,j表示第j个任务,i表示第i个航行器,表示航行器i从起始位置到执行第ni个任务之间的距离。
4.根据权利要求1所述的一种异构无人***任务分配自主决策方法,其特征在于,所述步骤1中总任务执行时间ft具体为:
;
其中,vi表示航行器i的速度;表示执行任务/>所需要的时间;/>表示航行器i从起始位置到执行第ni个任务之间的距离。
5.根据权利要求1所述的一种异构无人***任务分配自主决策方法,其特征在于,所述步骤2中模型网络、评价网络、执行网络均由一个三层BP神经网络构成,分别对***的控制策略、状态向量、代价函数进行逼近。
6.根据权利要求5所述的一种异构无人***任务分配自主决策方法,其特征在于,所述模型网络的设计具体包括:
模型网络的输入为***当前的状态和零阶保持器输出的任务分配策略;
模型网络根据当前状态量和控制量估计***下一时刻状态:
;
其中,x(k) 为k时刻的***状态,为无人***控制策略,k=0,1,2……N;
模型网络的目标是最小化***状态估计值与真实值的误差函数,误差函数的定义为:
;
其中,x(k) 为k时刻的***状态;表示k +1时刻对偏差向量的估计值,/>表示模型网络模型k +1时刻的估计值与***状态的差。
7.根据权利要求6所述的一种异构无人***任务分配自主决策方法,其特征在于,所述模型网络的输出层权值调整规则为:
;
其中,为动量项;/>为动量系数,/>;/>表示模型网络学习速率;
k +1时刻模型网络隐藏层到输出层权值矩阵为:
;
模型网络隐藏层的权值调整规则为:
;
k +1时刻模型网络输入层到隐藏层权值矩阵为:
。
8.根据权利要求5所述的一种异构无人***任务分配自主决策方法,其特征在于,所述评价网络设计具体为:
评价网络用于近似最优的性能指标函数J(x(k)),由一个三层BP神经网络构成输入层的输入主要由两部分组成,包括m维的状态变量x(k)以及n维的控制变量u(k);输出层的输出为物理意义是效用函数的近似评价网络根据当前***状态输出k时刻的最优性能指标函数:
;
其中,为效用函数,/>为折扣因子,且/>;
评价网络的目标是最小化代价函数:
;
其中,表示评价网络误差函数;
评价网络的输出层权值调整规则为:
;
其中,为动量项,/>为动量系数,/>;/>表示评价网络学习速率;
k+1时刻评价网络隐藏层到输出层权值矩阵为:
。
9.根据权利要求5所述的一种异构无人***任务分配自主决策方法,其特征在于,所述执行网络设计具体为:
执行网络用于更新事件触发控制率;在执行网络中得到最优任务序列求解方程为:
;
其中,为折扣因子,且/>;
k+1时刻执行网络隐藏层到输出层权值矩阵为:
;
其中,为动量项,/>为动量系数,/>;/>表示执行网络学习速率;/>表示执行网络k时刻的权值矩阵,/>表示执行网络的代价函数;
模型网络、评价网络、执行网络激活函数采用双极性Sigmoid函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311367941.4A CN117111620B (zh) | 2023-10-23 | 2023-10-23 | 一种异构无人***任务分配自主决策方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311367941.4A CN117111620B (zh) | 2023-10-23 | 2023-10-23 | 一种异构无人***任务分配自主决策方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117111620A true CN117111620A (zh) | 2023-11-24 |
CN117111620B CN117111620B (zh) | 2024-03-29 |
Family
ID=88795050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311367941.4A Active CN117111620B (zh) | 2023-10-23 | 2023-10-23 | 一种异构无人***任务分配自主决策方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117111620B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020132233A1 (en) * | 2018-12-20 | 2020-06-25 | Augean Robotics, Inc. | Collaborative autonomous ground vehicle |
CN111538349A (zh) * | 2020-04-17 | 2020-08-14 | 中国海洋大学 | 面向多任务的长航程auv自主决策方法 |
CN112435275A (zh) * | 2020-12-07 | 2021-03-02 | 中国电子科技集团公司第二十研究所 | 一种融合卡尔曼滤波和ddqn算法的无人机机动目标追踪方法 |
WO2021103625A1 (zh) * | 2019-11-25 | 2021-06-03 | 北京理工大学 | 一种基于前车与自车互动的短期车速工况实时预测方法 |
CN113485099A (zh) * | 2020-12-31 | 2021-10-08 | 中国电子科技集团公司信息科学研究院 | 一种非线性离散时间***的在线学习控制方法 |
CN113741449A (zh) * | 2021-08-30 | 2021-12-03 | 南京信息工程大学 | 一种面向海空协同观测任务的多智能体控制方法 |
CN113900445A (zh) * | 2021-10-13 | 2022-01-07 | 厦门渊亭信息科技有限公司 | 基于多智能体强化学习的无人机协同控制训练方法及*** |
US20220215758A1 (en) * | 2021-01-06 | 2022-07-07 | Shanghai University | Control method and system for collaborative interception by multiple unmanned surface vessels |
CN115509251A (zh) * | 2022-08-23 | 2022-12-23 | 华南理工大学 | 基于mappo算法的多无人机多目标协同跟踪控制方法 |
US20230102048A1 (en) * | 2019-11-05 | 2023-03-30 | Strong Force Vcn Portfolio 2019, Llc | Component-Inventory-Based Robot Fleet Management in Value Chain Networks |
WO2023070293A1 (zh) * | 2021-10-26 | 2023-05-04 | 大连理工大学 | 一种工业副产煤气***长期调度方法 |
CN116331518A (zh) * | 2023-01-13 | 2023-06-27 | 天津大学 | 一种基于安全自适应动态规划的星群智能编队避碰控制方法 |
CN116560406A (zh) * | 2023-05-26 | 2023-08-08 | 长沙军民先进技术研究有限公司 | 一种无人机集群协同规划与自主调度方法 |
CN116736722A (zh) * | 2023-07-12 | 2023-09-12 | 电子科技大学 | 基于数据驱动的多机器人***最优比例协同控制方法 |
WO2023168821A1 (zh) * | 2022-03-07 | 2023-09-14 | 大连理工大学 | 一种基于强化学习的航空发动机过渡态寻优控制方法 |
-
2023
- 2023-10-23 CN CN202311367941.4A patent/CN117111620B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020132233A1 (en) * | 2018-12-20 | 2020-06-25 | Augean Robotics, Inc. | Collaborative autonomous ground vehicle |
US20230102048A1 (en) * | 2019-11-05 | 2023-03-30 | Strong Force Vcn Portfolio 2019, Llc | Component-Inventory-Based Robot Fleet Management in Value Chain Networks |
WO2021103625A1 (zh) * | 2019-11-25 | 2021-06-03 | 北京理工大学 | 一种基于前车与自车互动的短期车速工况实时预测方法 |
CN111538349A (zh) * | 2020-04-17 | 2020-08-14 | 中国海洋大学 | 面向多任务的长航程auv自主决策方法 |
CN112435275A (zh) * | 2020-12-07 | 2021-03-02 | 中国电子科技集团公司第二十研究所 | 一种融合卡尔曼滤波和ddqn算法的无人机机动目标追踪方法 |
CN113485099A (zh) * | 2020-12-31 | 2021-10-08 | 中国电子科技集团公司信息科学研究院 | 一种非线性离散时间***的在线学习控制方法 |
US20220215758A1 (en) * | 2021-01-06 | 2022-07-07 | Shanghai University | Control method and system for collaborative interception by multiple unmanned surface vessels |
CN113741449A (zh) * | 2021-08-30 | 2021-12-03 | 南京信息工程大学 | 一种面向海空协同观测任务的多智能体控制方法 |
CN113900445A (zh) * | 2021-10-13 | 2022-01-07 | 厦门渊亭信息科技有限公司 | 基于多智能体强化学习的无人机协同控制训练方法及*** |
WO2023070293A1 (zh) * | 2021-10-26 | 2023-05-04 | 大连理工大学 | 一种工业副产煤气***长期调度方法 |
WO2023168821A1 (zh) * | 2022-03-07 | 2023-09-14 | 大连理工大学 | 一种基于强化学习的航空发动机过渡态寻优控制方法 |
CN115509251A (zh) * | 2022-08-23 | 2022-12-23 | 华南理工大学 | 基于mappo算法的多无人机多目标协同跟踪控制方法 |
CN116331518A (zh) * | 2023-01-13 | 2023-06-27 | 天津大学 | 一种基于安全自适应动态规划的星群智能编队避碰控制方法 |
CN116560406A (zh) * | 2023-05-26 | 2023-08-08 | 长沙军民先进技术研究有限公司 | 一种无人机集群协同规划与自主调度方法 |
CN116736722A (zh) * | 2023-07-12 | 2023-09-12 | 电子科技大学 | 基于数据驱动的多机器人***最优比例协同控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117111620B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111780777B (zh) | 一种基于改进a*算法和深度强化学习的无人车路径规划方法 | |
Zhang et al. | Ship motion attitude prediction based on an adaptive dynamic particle swarm optimization algorithm and bidirectional LSTM neural network | |
CN113176776B (zh) | 基于深度强化学习的无人艇天气自适应避障方法 | |
CN110658829A (zh) | 一种基于深度强化学习的群无人艇智能避碰方法 | |
CN111538349B (zh) | 面向多任务的长航程auv自主决策方法 | |
Zhang et al. | Trajectory prediction based on AIS and BP neural network | |
CN115599093A (zh) | 一种基于模糊集和深度强化学习的自适应无人艇路径规划方法 | |
CN117452827B (zh) | 一种欠驱动无人艇轨迹跟踪控制方法 | |
CN109901622A (zh) | 一种基于机理模型的自主水下机器人预测s面控制方法 | |
CN117111620B (zh) | 一种异构无人***任务分配自主决策方法 | |
Dong et al. | Gliding motion optimization for a biomimetic gliding robotic fish | |
CN114943168B (zh) | 一种水上浮桥组合方法及*** | |
Yan et al. | An improved multi-AUV patrol path planning method | |
CN114715331B (zh) | 一种浮式海洋平台动力定位控制方法及*** | |
CN115903820A (zh) | 多无人艇追逃博弈控制方法 | |
Gong et al. | A path planning method based on improved particle swarm optimization algorithm | |
Li et al. | Prioritized experience replay based reinforcement learning for adaptive tracking control of autonomous underwater vehicle | |
Wang et al. | Scalable-MADDPG-based cooperative target invasion for a multi-USV system | |
Jing et al. | An improved DDPG reinforcement learning control of underwater gliders for energy optimization | |
Al Maawali et al. | Design of intelligent thruster decision-making system for USVs | |
Du et al. | Safe multi-agent learning control for unmanned surface vessels cooperative interception mission | |
CN117111594B (zh) | 一种无人水面艇的自适应航迹控制方法 | |
Zhang et al. | Asynchronous multithreading reinforcement control decision method for unmanned surface vessel | |
Li et al. | Parallel path following control of cyber-physical maritime autonomous surface ships based on deep neural predictor | |
Lan et al. | Learning‐Based Path Planning Algorithm in Ocean Currents for Multi‐Glider |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |