CN110162094B - 一种基于视觉测量信息的密集编队控制方法 - Google Patents

一种基于视觉测量信息的密集编队控制方法 Download PDF

Info

Publication number
CN110162094B
CN110162094B CN201910510757.8A CN201910510757A CN110162094B CN 110162094 B CN110162094 B CN 110162094B CN 201910510757 A CN201910510757 A CN 201910510757A CN 110162094 B CN110162094 B CN 110162094B
Authority
CN
China
Prior art keywords
agent
phi
intelligent
formation
included angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910510757.8A
Other languages
English (en)
Other versions
CN110162094A (zh
Inventor
苏文山
陈磊
白显宗
张筱镡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Defense Technology Innovation Institute PLA Academy of Military Science
Original Assignee
National Defense Technology Innovation Institute PLA Academy of Military Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Defense Technology Innovation Institute PLA Academy of Military Science filed Critical National Defense Technology Innovation Institute PLA Academy of Military Science
Priority to CN201910510757.8A priority Critical patent/CN110162094B/zh
Publication of CN110162094A publication Critical patent/CN110162094A/zh
Application granted granted Critical
Publication of CN110162094B publication Critical patent/CN110162094B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明涉及一种基于视觉测量信息的密集编队控制方法。方法首先提出了基于夹角约束的期望编队构型定义方法,给出了期望编队构型下各智能体相对于相邻智能体的期望几何关系描述方法;然后在此基础上,确定了实现编队控制各智能体所需的通信和测量配置,给出了基于视觉测量信息计算各智能体与其两相邻智能体的夹角方法;最后,设计了一种仅利用夹角测量值使得多智能体编队收敛到期望构型的控制方法。本发明的编队控制方法不再依赖于各智能体的自身位置和相对位置测量信息,消除了位置信息测量偏差队编队控制精度的影响,使得编队可利用视觉测量信息实现密集编队的精确控制。

Description

一种基于视觉测量信息的密集编队控制方法
技术领域
本发明属于多智能体***协同控制技术领域,特别涉及一种基于视觉测量信息的密集编队控制方法。
背景技术
基于几何构型约束的编队是一种常见的多智能体***协同方式。如在自然界,雁群常呈“人”字形飞行,即实现了头雁对整个雁群的有效领导,又减小了雁群中老弱病残者的体力消耗;海豚群捕食时常对鱼群形成一个包围圈,不断缩小包围半径以提高海豚捕食成功的概率。受自然界这些生物集群自然现象启发,近些年无人机、无人车和无人艇等人造智能体广泛采用编队协同形式,以提高搜索、侦查和监测等应用场景下的任务半径,提高执行效率。
编队的几何构型约束本质上是对编队各智能体相对位置关系的描述,因此,编队常通过控制各智能体间相对位置来使实现期望构型的控制。实际控制中,各智能体首先借助于惯导***或者GPS***来测量自身位置信息,然后各智能体借助于通信获取的相邻智能***置信息来计算相对位置信息,最后各智能体结合期望构型约束下的期望相对位置信息计算控制指令调整自身位置,最终使得相对位置信息等于期望值。可以看出,各智能体自身定位精度对编队控制精度有重要影响。但是惯导***存在累积偏差,***工作时间越长位置测量精度越低;GPS***测量同样存在偏差,特别是当编队任务环境存在遮挡物时,由于不能正常接受GPS信号各智能体将无法准确获悉自身位置信息。因此,当编队密集度较高、相邻智能体间期望相对距离较小时,惯导***或者GPS***的定位偏差将会对编队控制精度有重要影响。
发明内容
本发明提出一种基于视觉测量信息的密集编队控制方法,能够在编队智能体自身定位精度较低情况下,提高编队控制的精度。
本发明包括下列步骤:
S1:设计编队期望构型,确定各智能体相邻智能体及其相对于相邻智能体的夹角约束;
S2:根据各智能体需满足夹角约束,确定各智能体需测量视线角的智能体,以及需发送和接收所测量视线信息的智能体;
S3:各智能体利用所测量视线角信息计算其与相邻两智能体的夹角,并将该夹角信息传递给相邻智能体;
S4:基于指定夹角约束的期望值和当前实际值,各智能体计算速度控制指令;
S5:各智能体采用速度控制指令调整自身位置;
S6:若时间到达指定的预定的编队控制任务时间,则编队控制结束,否则返回步骤S3。
进一步地,所述S1中具体步骤为:
假设三维空间下运动的编队由n个智能体组成,各智能体依次编号为1、2、…、n;编队采用主从式拓扑结构,记1号智能体为一级主智能体,2号智能体为二级智能体,3号智能体为三级主智能体,其余智能体为从智能体。其中2号主智能体相对1号和3号智能体有夹角约束φ123,3号智能体相对于1号和2号智能体存在夹角约束φ132;各从智能体l相对于智能体i、j和k均存在夹角约束φikl、φilj和φjlk,其中l≥4,i、j、k<l;实际任务执行过程中,编队中的夹角约束φ123和φ132由3号主智能体执行,φikl、φilj和φjlk由l号主智能体执行;
若编队仅限于二维平面下运动,则只需定义1号和2号智能体为主智能体,其余智能体为从智能体。各从智能体k相对于智能体i和j号智能体存在夹角约束φijk和φikj,其中k≥3,i、j<k,且两夹角约束均由智能体k调整自身位置来满足;二维平面下运动的编队是在1号2号主智能体的带领下完成多样性任务,其余智能体则以保持指定编队构型为目的。
进一步地,所述S2中,
为达到编队下的指定夹角约束,对于三维空间下运动的编队,为提供3号智能调整自身位置需要的信息,需要2号智能体能测得夹角φ123的大小,3号智能体能测得夹角φ132的大小,同时2号智能体应能将φ123发送给3号智能体;l号智能体配有视觉传感器以测得φilj和φjlk的大小,其中l≥4,k号智能体配有视觉传感器以测得夹角φikl的大小、k号智能体能与l号智能体通信以将φikl的值发送给它;
对于二维平面下运动的编队,结合指定的夹角约束知,l号智能体为实现夹角约束φijk和φikj,其中l≥3,则要求j号和k号智能体配有视觉传感器测得夹角φijk和φikj的实际大小,同时j号智能体将φijk发送给k号智能体;
各智能体关于相邻两智能体的夹角具体测量如下:记i号智能体视觉传感器的测量坐标系为oi-xiyizi,相邻j号和k号智能体在该坐标系的视线方位角和高低角分别记为:σij、θij、σik和θik,j号和k号智能体相对于i号智能体的单位视线方向向量可表示为:
Figure BDA0002093399650000031
则j号和k号智能体关于智能体i智能体的夹角可表示为:
Figure BDA0002093399650000032
二维平面内,各智能体关于相邻两智能体的夹角可视为其视线角的差值:
φjik=θijik 3
进一步地,所述S4中具体步骤为:
假设各智能体运动特性可用一阶微分环节近似:
Figure BDA0002093399650000033
其中pi为各智能***置,ui为各智能体控制输入;对三维空间下运动的编队有
Figure BDA0002093399650000034
二维平面下运动的编队有pi
Figure BDA0002093399650000035
对于三维空间下运动的编队,3号智能体为满足夹角约束φ123和φ132,采用控制律形式为:
Figure BDA0002093399650000036
其中
Figure BDA0002093399650000037
Figure BDA0002093399650000038
表示夹角约束φ123和φ132在期望编队构型下的期望值,e31和e32表示1号智能体和2号智能体相对于3号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,e21和e23表示1号和3号智能体相对于2号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,Pe32表示:
Figure BDA0002093399650000039
式中
Figure BDA00020933996500000310
表示单位对角阵。
记:
Figure BDA00020933996500000311
结合Pe32定义知表达式Pe32(e21+e23)对应的物理含义为向量e21+e23在向量e32垂直方向上的分量,即u3,1表示垂直于向量e32的控制加速度。由u3,2的形式知其表示沿向量e32方向的控制加速度;可通过对智能体3施加作用力u3,1使得夹角φ123调整到期望值;通过对智能体3施加控制力u3,2使得在不改变夹角φ123的情况下调整φ132的大小;式5所示控制律可以解耦的形式分别调整夹角φ123和φ132的大小。
对于l(l≥4)号智能体为满足夹角约束φikl、φilj和φjlk,可采用控制律形式如下:
Figure BDA0002093399650000041
式中
Figure BDA0002093399650000042
Figure BDA0002093399650000043
分别表示φikl、φilj和φjlk的期望值,
Figure BDA0002093399650000044
表示垂直于j、l和k号智能体所在平面的单位方向向量,可表示为:
Figure BDA0002093399650000045
其中符合“×”表示向量的叉乘。
记:
Figure BDA0002093399650000046
其中ul,1表示在i、k和l号智能体所在平面内且垂直于向量ekl的控制力;ul,2表示垂直于i、k和l号智能体所在平面内的控制力;ul,3表示沿向量elk方向的控制力;可通过对l号智能体施加控制力ul,1调整夹角φikl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl的情况下调整夹角φjkl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl和φjkl大小的情况下调整φilk的大小;式8可以解耦的形式调整夹角φikl、φjkl和φilk的大小。
对于二维平面下运动的编队,智能体k为满足其相对于相邻智能体i号和j号需满足夹角约束φijk和φikj,k≥3,i,j<k,采用如下控制律:
Figure BDA0002093399650000047
本发明提出的基于视觉测量信息的编队控制方法。由于视觉传感器测量量是相对物理量,直接体现了智能体间的相对几何关系,相对于惯导和GPS***视觉传感器具有智能体间间距越小测量精度越高的特性,因此本发明能够在编队智能体自身定位精度较低情况下,提高编队控制的精度。
附图说明
图1本发明编队控制方法流程图;
图2主智能体间的几何约束;
图3从智能体给定的几何约束;
图4主智能体间的几何约束;
图5从智能体给定的几何约束;
图6对智能体3施加控制力效果示意图;
图7对l号智能体施加控制力效果示意图
图8三维空间下的编队控制效果;
图9二维平面下的编队控制效果。
具体实施方式
下面将结合附图对本发明进行详细的阐述。
为避免惯导和GPS***自身定位偏差对密集编队控制精度的影响,本发明提出了一种基于视觉测量信息的编队控制方法。视觉传感器测量量是相对物理量,即视线角信息,直接体现了智能体间的相对几何关系,且相对于惯导和GPS***视觉传感器具有智能体间间距越小测量精度越高的特性。基于此特性,本发明提出了一种基于视觉测量信息的编队控制方法。发明首先给出了一种适用于视觉测量信息实现编队期望构型控制的智能体间关联结构,然后给出了编队的测量和通信配置要求,最后给出了一种各智能体利用视觉测量信息实现编队期望构型的控制策略。
如图1所示,本发明方法有如下步骤:
第一步:设计编队期望构型,确定各智能体相邻智能体及其相对于相邻智能体的夹角约束;
第二步:利用各智能体需满足夹角约束,确定各智能体需测量视线角的智能体,以及需发送和接收所测量视线信息的智能体,即信息测量和交互拓扑结构;
第三步:各智能体利用所测量视线角信息计算其与相邻两智能体的夹角,并根据信息交互拓扑结构将该夹角信息传递给相邻智能体;
第四步:基于指定夹角约束的期望值和当前实际值,各智能体利用式5、8和11计算速度控制指令;
第五步:各智能体采用速度控制指令调整自身位置;
第六步:若时间到达指定的预定的编队控制任务时间,则编队控制结束,否则返回第三步。
一.定义编队几何构型约束
假设三维空间下运动的编队由n个智能体组成,各智能体依次编号为1、2、…、n。编队采用主从式拓扑结构,记1号智能体为一级主智能体,2号智能体为二级智能体,3号智能体为三级主智能体,其余智能体为从智能体。其中2号主智能体相对1号和3号智能体有夹角约束φ123,3号智能体相对于1号和2号智能体存在夹角约束φ132,如图2所示;各从智能体l(l≥4)相对于智能体i、j和k(i、j、k<l)均存在夹角约束φikl、φilj和φjlk,如图3所示。实际任务执行过程中,编队中的夹角约束φ123和φ132由3号主智能体执行,φikl、φilj和φjlk由l号主智能体执行。考虑到编队在三维空间下运动,因此编队中的1号和2号主智能体实际运动过程中无需考虑编队构型约束,可***,带领编队中其余智能体完成多样性任务;3号主智能体实际运动考虑2个约束,还存在一个自由度,可结合实际任务需要配合1号和2号主智能体做一定适应性变化;其余智能体均存在3个约束,主要以维持指定的编队构型为控制目的。
若编队仅限于二维平面下运动,则只需定义1号和2号智能体为主智能体,其余智能体为从智能体。各从智能体k(k≥3)相对于智能体i和j(i、j<k)号智能体存在夹角约束φijk和φikj,且两夹角约束均由智能体k调整自身位置来满足。可以看出,二维平面下运动的编队是在1号2号主智能体的带领下完成多样性任务,其余智能体则以保持指定编队构型为目的。二.确定各智能体测量和通信需求
结合具体任务,三维空间下的编队由1号、2号和3号主智能体相互配合控制任务流程,二维空间下的编队则由1号和2号主智能体配合控制任务流程。因此,任务执行前需对以上智能体的航迹进行规划或者指定任务目的。因此,需要结合具体任务确定1、2和3号智能体的测量需求,如对于循迹飞行任务,则应配有定位测量装置。
为达到编队下的指定夹角约束,对于三维空间下运动的编队,为提供3号智能调整自身位置需要的信息,需要2号智能体能测得夹角φ123的大小,3号智能体能测得夹角φ132的大小,同时2号智能体应能将φ123发送给3号智能体;l(l≥4)号智能体配有视觉传感器以测得φilj和φjlk的大小,k号智能体配有视觉传感器以测得夹角φikl的大小、k号智能体能与l号智能体通信以将φikl的值发送给它。对于二维平面下运动的编队,结合指定的夹角约束知,l(l≥3)号智能体为实现夹角约束φijk和φikj,则要求j号和k号智能体配有视觉传感器测得夹角φijk和φikj的实际大小,同时j号智能体将φijk发送给k号智能体。
各智能体关于相邻两智能体的夹角具体测量如下:记i号智能体视觉传感器的测量坐标系为oi-xiyizi,相邻j号和k号智能体在该坐标系的视线方位角和高低角分别记为:σij、θij、σik和θik,如图4所示,则知j号和k号智能体相对于i号智能体的单位视线方向向量可表示为:
Figure BDA0002093399650000071
则j号和k号智能体关于智能体i智能体的夹角可表示为:
Figure BDA0002093399650000072
二维平面内,各智能体关于相邻两智能体的夹角可视为其视线角的差值,如图5所示:
φjik=θijik 3
第三步:确定各智能体控制策略
假设各智能体运动特性可用一阶微分环节近似:
Figure BDA0002093399650000073
其中pi为各智能***置,ui为各智能体控制输入。对三维空间下运动的编队有pi
Figure BDA0002093399650000074
二维平面下运动的编队有pi
Figure BDA0002093399650000075
对于三维空间下运动的编队,3号智能体为满足夹角约束φ123和φ132,采用控制律形式为:
Figure BDA0002093399650000076
其中
Figure BDA0002093399650000077
Figure BDA0002093399650000078
表示夹角约束φ123和φ132在期望编队构型下的期望值,e31和e32表示1号智能体和2号智能体相对于3号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,e21和e23表示1号和3号智能体相对于2号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,Pe32表示:
Figure BDA0002093399650000081
式中
Figure BDA0002093399650000082
表示单位对角阵。
记:
Figure BDA0002093399650000083
结合Pe32定义知表达式Pe32(e21+e23)对应的物理含义为向量e21+e23在向量e32垂直方向上的分量,即u3,1表示垂直于向量e32的控制加速度。由u3,2的形式知其表示沿向量e32方向的控制加速度。由图6可知:可通过对智能体3施加作用力u3,1使得夹角φ123调整到期望值;通过对智能体3施加控制力u3,2使得在不改变夹角φ123的情况下调整φ132的大小。因此,式5所示控制律可以解耦的形式分别调整夹角φ123和φ132的大小。
对于l(l≥4)号智能体为满足夹角约束φikl、φilj和φjlk,可采用控制律形式如下:
Figure BDA0002093399650000084
式中
Figure BDA0002093399650000085
Figure BDA0002093399650000086
分别表示φikl、φilj和φjlk的期望值,
Figure BDA0002093399650000087
表示垂直于j、l和k号智能体所在平面的单位方向向量,可表示为:
Figure BDA0002093399650000088
其中符合“×”表示向量的叉乘。
记:
Figure BDA0002093399650000091
由上式中各式形式知:ul,1表示在i、k和l号智能体所在平面内且垂直于向量ekl的控制力;ul,2表示垂直于i、k和l号智能体所在平面内的控制力;ul,3表示沿向量elk方向的控制力。由图7知可通过对l号智能体施加控制力ul,1调整夹角φikl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl的情况下调整夹角φjkl的大小;可通过对l号智能体施加控制力ul,2使得在不改变夹角φikl和φjkl大小的情况下调整φilk的大小。因此,式8会以解耦的形式调整夹角φikl、φjkl和φilk的大小。
图8给出了三维空间下四智能体编队的控制效果,编队期望几何构型为正四面体,编队下的3号和4号智能体分别采用式5和式8所示控制律,可以看出在该控制律作用下编队收敛到期望构型。
对于二维平面下运动的编队,智能体k(k≥3)为满足其相对于相邻智能体i号和j号(i,j<k)需满足夹角约束φijk和φikj,同样可采用与式5相似的控制律:
Figure BDA0002093399650000092
图9给出了二维平面下四智能体编队的控制效果,编队期望几何构型为正方形,编队下的3号和4号智能体均采用式11所示控制律,可以看出在该控制律作用下编队收敛到期望构型。

Claims (2)

1.一种基于视觉测量信息的密集编队控制方法,其特征在于,包括下列步骤:
S1:设计编队期望构型,确定各智能体相邻智能体及其相对于相邻智能体的夹角约束;
所述S1中具体步骤为:
假设三维空间下运动的编队由n个智能体组成,各智能体依次编号为1、2、…、n;编队采用主从式拓扑结构,记1号智能体为一级主智能体,2号智能体为二级智能体,3号智能体为三级主智能体,其余智能体为从智能体;其中2号主智能体相对1号和3号智能体有夹角约束φ123,3号智能体相对于1号和2号智能体存在夹角约束φ132;各从智能体l相对于智能体i、j和k均存在夹角约束φikm、φimj和φjmk,其中m≥4,i、j、k<m;实际任务执行过程中,编队中的夹角约束φ123和φ132由3号主智能体执行,φikm、φimj和φjmk由m号主智能体执行;
若编队仅限于二维平面下运动,则只需定义1号和2号智能体为主智能体,其余智能体为从智能体;各从智能体k相对于智能体i和j号智能体存在夹角约束φijk和φikj,其中k≥3,i、j<k,且两夹角约束均由智能体k调整自身位置来满足;二维平面下运动的编队是在1号2号主智能体的带领下完成多样性任务,其余智能体则以保持指定编队构型为目的;
S2:根据各智能体需满足夹角约束,确定各智能体需测量视线角的智能体,以及需发送和接收所测量视线信息的智能体;
所述S2中,为达到编队下的指定夹角约束,对于三维空间下运动的编队,为提供3号智能调整自身位置需要的信息,需要2号智能体能测得夹角φ123的大小,3号智能体能测得夹角φ132的大小,同时2号智能体应能将φ123发送给3号智能体;m号智能体配有视觉传感器以测得φimj和φjmk的大小,其中m≥4,k号智能体配有视觉传感器以测得夹角φikm的大小、k号智能体能与m号智能体通信以将φikm的值发送给它;
对于二维平面下运动的编队,结合指定的夹角约束知,m号智能体为实现夹角约束φijk和φikj,其中m≥3,则要求j号和k号智能体配有视觉传感器测得夹角φijk和φikj的实际大小,同时j号智能体将φijk发送给k号智能体;
各智能体关于相邻两智能体的夹角具体测量如下:记i号智能体视觉传感器的测量坐标系为oi-xiyizi,相邻j号和k号智能体在该坐标系的视线方位角和高低角分别记为:σij、θij、σik和θik,j号和k号智能体相对于i号智能体的单位视线方向向量可表示为:
Figure FDA0003459917650000021
则j号和k号智能体关于智能体i智能体的夹角可表示为:
Figure FDA0003459917650000022
二维平面内,各智能体关于相邻两智能体的夹角可视为其视线角的差值:
φjik=θijik 3
S3:各智能体利用所测量视线角信息计算其与相邻两智能体的夹角,并将该夹角信息传递给相邻智能体;
S4:基于指定夹角约束的期望值和当前实际值,各智能体计算速度控制指令;
S5:各智能体采用速度控制指令调整自身位置;
S6:若时间到达指定的预定的编队控制任务时间,则编队控制结束,否则返回步骤S3。
2.根据权利要求1所述的一种基于视觉测量信息的密集编队控制方法,其特征在于,所述S4中具体步骤为:
假设各智能体运动特性可用一阶微分环节近似:
Figure FDA0003459917650000023
其中pi为各智能***置,ui为各智能体控制输入;对三维空间下运动的编队有
Figure FDA0003459917650000024
二维平面下运动的编队有
Figure FDA0003459917650000025
对于三维空间下运动的编队,3号智能体为满足夹角约束φ123和φ132,采用控制律形式为:
Figure FDA0003459917650000026
其中
Figure FDA0003459917650000027
Figure FDA0003459917650000028
表示夹角约束φ123和φ132在期望编队构型下的期望值,e31和e32表示1号智能体和2号智能体相对于3号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,e21和e23表示1号和3号智能体相对于2号智能体的视线单位方向向量在3号智能体测量坐标系下的表示,Pe32表示:
Figure FDA0003459917650000029
式中
Figure FDA0003459917650000031
表示单位对角阵;
记:
Figure FDA0003459917650000032
结合Pe32定义知表达式Pe32(e21+e23)对应的物理含义为向量e21+e23在向量e32垂直方向上的分量,即u3,1表示垂直于向量e32的控制加速度;由u3,2的形式知其表示沿向量e32方向的控制加速度;可通过对智能体3施加作用力u3,1使得夹角φ123调整到期望值;通过对智能体3施加控制力u3,2使得在不改变夹角φ123的情况下调整φ132的大小;式5所示控制律可以解耦的形式分别调整夹角φ123和φ132的大小;
对于m号智能体,m≥4,为满足夹角约束φikm、φimj和φjmk,可采用控制律形式如下:
Figure FDA0003459917650000033
Figure FDA0003459917650000034
Figure FDA0003459917650000035
分别表示φikm、φimj和φjmk的期望值,
Figure FDA0003459917650000036
表示垂直于j、m和k号智能体所在平面的单位方向向量,可表示为:
Figure FDA0003459917650000037
其中符合“×”表示向量的叉乘;
记:
Figure FDA0003459917650000038
其中um,1表示在i、k和m号智能体所在平面内且垂直于向量ekm的控制力;um,2表示垂直于i、k和m号智能体所在平面内的控制力;um,3表示沿向量emk方向的控制力;可通过对m号智能体施加控制力um,1调整夹角φikm的大小;可通过对m号智能体施加控制力um,2使得在不改变夹角φikm的情况下调整夹角φjkm的大小;可通过对m号智能体施加控制力um,2使得在不改变夹角φikm和φjkm大小的情况下调整φimk的大小;式8可以解耦的形式调整夹角φikm、φjkm和φimk的大小;
对于二维平面下运动的编队,智能体k为满足其相对于相邻智能体i号和j号需满足夹角约束φijk和φikj,k≥3,i,j<k,采用如下控制律:
Figure FDA0003459917650000041
式中eji和ejk分别表示i和k号智能体相对于j号智能体的视线单位方向向量在j号智能体测量坐标系下的表示。
CN201910510757.8A 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法 Active CN110162094B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910510757.8A CN110162094B (zh) 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910510757.8A CN110162094B (zh) 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法

Publications (2)

Publication Number Publication Date
CN110162094A CN110162094A (zh) 2019-08-23
CN110162094B true CN110162094B (zh) 2022-02-22

Family

ID=67628678

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910510757.8A Active CN110162094B (zh) 2019-06-13 2019-06-13 一种基于视觉测量信息的密集编队控制方法

Country Status (1)

Country Link
CN (1) CN110162094B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110737283B (zh) * 2019-11-04 2022-09-27 中国人民解放军军事科学院国防科技创新研究院 一种面向视觉集群的编队解耦控制方法
CN111650963B (zh) * 2020-06-03 2023-08-18 中国人民解放军军事科学院国防科技创新研究院 一种面向垂直起降固定翼无人机的视觉集群编队控制方法
CN113759982B (zh) * 2021-10-19 2024-05-28 中国人民解放军军事科学院国防科技创新研究院 一种仅基于视线测量信息的无人机编队相对状态估计方法
CN114115334B (zh) * 2021-11-05 2024-05-07 北京理工大学 一种视野角约束条件下的多智能体编队控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685309A (zh) * 2008-09-24 2010-03-31 中国科学院自动化研究所 多机器人协调队形控制方法
CN107943071A (zh) * 2017-11-03 2018-04-20 中国科学院自动化研究所 无人车的编队保持控制方法及***
CN208013783U (zh) * 2018-04-03 2018-10-26 华南理工大学 基于视觉的移动机器人编队的协同定位***
CN109857115A (zh) * 2019-02-27 2019-06-07 华南理工大学 一种基于视觉反馈的移动机器人的有限时间编队控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685309A (zh) * 2008-09-24 2010-03-31 中国科学院自动化研究所 多机器人协调队形控制方法
CN107943071A (zh) * 2017-11-03 2018-04-20 中国科学院自动化研究所 无人车的编队保持控制方法及***
CN208013783U (zh) * 2018-04-03 2018-10-26 华南理工大学 基于视觉的移动机器人编队的协同定位***
CN109857115A (zh) * 2019-02-27 2019-06-07 华南理工大学 一种基于视觉反馈的移动机器人的有限时间编队控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Second-Order Coordination Control for Triangle Formation Based on Angle Constraints;JING GUO 等;《 International Conference on Information Science and Control Engineering》;20161103;第1100-1104页 *
双视线测量相对导航方法误差分析与编队设计;王楷 等;《航空学报》;20180925;第39卷(第9期);第1-15页 *

Also Published As

Publication number Publication date
CN110162094A (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
CN110162094B (zh) 一种基于视觉测量信息的密集编队控制方法
US10241520B2 (en) System and method for vision-based flight self-stabilization by deep gated recurrent Q-networks
US9870005B2 (en) Apparatus for close formation flight
Meduna Terrain relative navigation for sensor-limited systems with application to underwater vehicles
Lin et al. A multi‐autonomous underwater vehicle system for autonomous tracking of marine life
Levine et al. Information-rich path planning with general constraints using rapidly-exploring random trees
Zheng et al. The communication and stability evaluation of amphibious spherical robots
EP3674657A1 (en) Construction and update of elevation maps
CN111273298B (zh) 基于波浪滑翔器组网技术的水下声学目标定位与跟踪方法
CN109282808B (zh) 用于桥梁三维巡航检测的无人机与多传感器融合定位方法
CN109445456A (zh) 一种多无人机集群导航方法
CN107589749B (zh) 水下机器人自主定位与节点地图构建方法
WO2017161304A1 (en) Systems, methods, and apparatus for airflow sensing and close formation flight
CN105867368A (zh) 一种信息处理方法和移动装置
JP6663606B2 (ja) 無人航空機位置推定方法及びシステム
Montenegro et al. A review on distributed control of cooperating mini UAVs
EP3916356A1 (en) Global positioning denied navigation
Cutler et al. Lightweight infrared sensing for relative navigation of quadrotors
Müller et al. Efficient probabilistic localization for autonomous indoor airships using sonar, air flow, and IMU sensors
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
EP3430487A1 (en) Systems, methods, and apparatus for airflow sensing and close formation flight
CN114415655B (zh) 一种基于改进slam的巡检机器人导航控制方法
Quraishi et al. Easily deployable underwater acoustic navigation system for multi-vehicle environmental sampling applications
Tanaka et al. Underwater vehicle localization considering the effects of its oscillation
CN109634301B (zh) 一种考虑视场角限制以及运动不确定性的结合记忆的旋翼飞行器高速飞行避障方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant