CN109241552A - 一种基于多约束目标的水下机器人运动规划方法 - Google Patents
一种基于多约束目标的水下机器人运动规划方法 Download PDFInfo
- Publication number
- CN109241552A CN109241552A CN201810764979.8A CN201810764979A CN109241552A CN 109241552 A CN109241552 A CN 109241552A CN 201810764979 A CN201810764979 A CN 201810764979A CN 109241552 A CN109241552 A CN 109241552A
- Authority
- CN
- China
- Prior art keywords
- robot
- training
- constraint
- target
- underwater
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
一种基于多约束目标的水下机器人运动规划方法,属于机器学习以及水下机器人运动规划领域。模型构建阶段:将机器人避障声呐的信号与流速传感器的流速信号转化为当前环境;根据动力学约束,建立离散动作空间;以水下障碍物作为约束,建立奖赏函数;基于多目标约束建立马尔可夫决策过程,为算法实现建立基础;训练阶段:基于Q学习算法进行训练,在当前环境,基于贪心策略执行动作,每执行一步策略,基于原始策略进行评估并更新一次策略,改进策略直到适应环境,实现规划目的。本发明考虑了水流、碍航物、目标等多约束目标,将强化学习方法与水下多约束目标结合,实现了水下机器人的运动规划,具有较强的实时性,并且可以适用于多种环境。
Description
技术领域
本发明属于机器学习以及水下机器人运动规划领域,具体涉及一种基于多约束目标的水下机器人运动规划方法。
背景技术
智能水下机器人在海洋科学研究、海洋开发、水下工程以及军事等方面都有广泛的应用前景。智能水下机器人一般工作在复杂的海洋环境下,为了更好的完成各种作业使命任务和保证其自身安全,需要其在未知环境下具有自主运动规划能力,能够在未知环境中躲避障碍物、航行至目标点。
传统的水下机器人运动规划技术,需要预先构建全局地图。在环境发生变化时需要重新建立连通模型,适应能力差,实用性不强。强化学习是一种无监督学习方法,它是一个不断的尝试的过程。它通过不断的行动与评价获得知识,改进策略以适应环境,使最终的评价函数值最大,达到学习的目的。
强化学习已经被证实可以在水下机器人中使用,但是传统的基于强化学习的水下机器人运动规划方法,考虑了单一的约束目标,没有同时考虑到水流约束、目标约束以及碍航物约束等多目标约束情况下对水下机器人运动的影响。
发明内容
本发明的目的在于提供一种基于多约束目标的水下机器人运动规划方法。该方法通过构造水流影响下的水下机器人动力学模型,并结合强化学习的方法将多约束目标进行融合,构造合理的奖励信号与动作空间,通过训练输出水下机器人最优控制策略。此外本发明还将水下的多约束目标与强化学习中的Q学习算法相结合,可以让水下机器人在未知的水下环境下获得环境特征,进行策略迭代,完成水下机器人的运动规划。
本发明的目的是这样实现的:
一种基于多约束目标的水下机器人运动规划方法分为模型构建阶段和算法训练阶段,具体包括以下步骤:
(1)模型构建阶段,具体指马尔可夫决策过程E的模型构建,强化学习任务通常可以用马尔可夫决策过程描述。因为水下环境的特殊性,考虑环境约束、碍航物约束以及目标点约束等多目标约束构建马尔可夫决策过程,具体包括以下步骤:
(1-1)根据传感器信号建立当前环境xt;设机器人第i自由度方向的障碍物距离为li,若i自由度上不存在障碍物,则设置为无穷;机器人所处位置的流速设为vc;实时定位机器人位置,计算机器人与目标点的欧几里得距离d;
(1-2)根据水下机器人所能前进的最大值,建立机器人的动作空间A,A由五个运动命令组成,分别为前进、左前、右前、左侧推和右侧推,速度为va,角速度为ωa;
(1-3)考虑碍航物约束,设第i自由度水下警戒安全距离hi,如果检测到的li<hi,则认为碰撞发生,设置一个负的奖励rter;
(1-4)考虑目标点约束,目标点阈值为d',如果检测到d变大,设置一个负的奖励ropp,如果检测到d变小,设置一个正的奖励rmove,如果检测到d<d',机器人抵达目标点,设置一个正的奖励rarr。
(2)算法训练阶段,具体指机器人在计算机仿真中进行不断试错,学习策略,具体包括以下步骤:
(2-1)初始化t=0,t代表机器人每一次训练运动的步次;初始化rt=0,rt代表机器人执行第t个动作时所获得的奖励;
(2-2)初始化一个矩阵Q(x,a),记录在状态x时,选择动作a可以获得的Q值,初始化为0;
(2-3)初始化计数器count=0,记录机器人训练的总次数;设定M值,代表机器人总共需要训练M次;
(2-4)当count小于指定的训练次数M时,执行(2-5),否则执行(2-14);
(2-5)获取传感器信号,获得当前状态xt,其中包括碍航物信息,机器人i自由度方向的障碍物的距离li,如果没有障碍物则将距离设置为无穷;当前位置的海流流速信息vct;自身位置信息,并计算得到目标点距离机器人的欧几里得距离d;
(2-6)根据矩阵Q,选择动作at;
(2-7)考虑运动学约束以及水流约束,根据目标公式实际对外表现出的速度,将选择的动作at的速度与流速结合,根据结合得到的进行仿真,并更新li;
(2-8)如果li<hi,执行(2-9),否则执行(2-10);
(2-9)发生碰撞,rt=rter,结束本次训练,令xt+1为空,更新矩阵Q,并将count+1,令t=0,从(2-4)重新执行训练;
(2-10)如果d'<d,执行(2-11),否则抵达目标点,结束本次训练,令rt=rarr,令xt+1为空,并更新矩阵Q将count+1,令t=0,从(2-4)重新执行训练;
(2-11)如果dt<dt-1,执行(2-12),否则执行(2-13);
(2-12)d减小,令rt=rmove,更新xt+1,并更新矩阵Q,将t+1,从(2-5)重新执行训练流程;
(2-13)d增加,令rt=ropp,更新xt+1,并更新矩阵Q,将t+1,从(2-5)重新执行训练流程;
(2-14)结束训练,得到训练后的矩阵Q;
(2-15)输出水下机器人运动规划策略。
所述的运动学约束,即训练过程中水下机器人本身的运动约束为:假设航行器的重心在固定坐标系的坐标为(x,y),则机器人固定坐标系速度为:
其中,θ为纵倾角,φ为横倾角,α为运动约束对水下机器人速度的影响系数。
所述的水流约束在训练过程中选择动作时以下述方法进行考虑:在学习训练过程中,xt状态下由ADCP获取的流速为vct,根据策略,机器人选择动作集中的一个动作at,其本身的速度为机器人执行动作时,考虑水流约束,其实际对外表现出的航行速度为:vit=vat+βvct,其中,β为水流对水下机器人速度的影响系数。
所述的选择动作at的具体方法为:采用贪心策略,设定阈值ε,使用计算机生成随机数ε',若随机数小于阈值,即ε'<ε,则机器人执行Q矩阵中状态Q(xt,a)中元素的最大值对应的动作,即at=maxa Q(xt,a);若随机数大于阈值,即ε'>ε,则机器人随机选择一个动作执行,即at=randomQ(xt,a)。
所述的更新矩阵Q的方法为:假定机器人执行动作前所属的状态为xt,应执行的动作为at,根据反馈得到的奖励系数rt,执行动作后抵达的状态为xt+1,则
Q(xt,at)←(1-α)*rt+α*(rt+γmaxa'Q(xt+1,a'))
其中α为学习效率,其中γ为折扣因子。
本发明的有益效果在于:
(1)本发明考虑了水流、碍航物、目标等多约束目标,而传统的强化学习规划方法没有同时考虑多种约束目标,该训练的方法具有实用性与鲁棒性;
(2)本发明将强化学习方法与水下多约束目标结合,实现了水下机器人的运动规划,具有较强的实时性,并且可以适用于多种环境。
附图说明
图1为一种基于多约束目标的水下机器人运动规划方法的模型构建示意图;
图2为一种基于多约束目标的水下机器人运动规划方法的训练阶段执行流程图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
本发明涉及一种水下机器人运动规划方法,具体是将多目标约束与强化学习方法结合起来,用于水下机器人运动规划中。模型构建阶段:将机器人避障声呐的信号与流速传感器的流速信号转化为当前环境;基于水下机器人的动力学约束,建立离散动作空间;以水下障碍物作为约束,建立奖赏函数;基于多目标约束建立马尔可夫决策过程,为算法实现建立基础。训练阶段:基于Q学习算法进行训练,在当前环境,基于贪心策略执行动作,每执行一步策略,基于原始策略进行评估并更新一次策略,改进策略直到适应环境,实现规划目的。本发明将强化学习方法与水下多约束目标结合,实现了水下机器人的运动规划,具有较强的实时性,并且可以适用于多种环境。
本发明针对水下环境的特殊性,考虑多约束目标结合强化学习方法,训练水下机器人运动规划策略。分为模型构建阶段和策略训练阶段,包括以下步骤:
1.模型构建阶段,由图1所示,具体步骤如下:
强化学习任务通常可以用马尔可夫决策过程描述。因为水下环境的特殊性,考虑环境约束、碍航物约束以及目标点约束等多目标约束构建马尔可夫决策过程。
状态空间X的具体组成:一、水下机器人的避障声呐处理机器人所处环境的碍航物信息,即机器人i自由度方向的碍航物距离信息li;二、ADCP处理机器人所处环境的海流信息,即机器人所处位置的流速vc;三、GPS处理机器人与目标点的相对位置信息,即机器人距离目标点的欧几里得距离d。
动作空间A的具体组成:本发明中的动作空间包括四种控制命令,名称分别为左前、前、右前、左侧推以及右侧推。机器人的线速度为固定值va。
奖励函数R的具体组成:机器人一旦发生碰撞,奖励值为rter;机器人没有发生碰撞但是距离目标点越来越远,奖励值为ropp;机器人没有发生碰撞且距离目标点越来越近,奖励值为rmove;机器人抵达目标点,奖励值为rarr。
2.策略训练阶段,流程如图2所示,具体步骤如下:
首先建立虚拟环境用于训练,具体方法如下:
使用机器人运动仿真软件建立一个仿真的海洋环境,在虚拟环境中设定障碍物、目标点以及海流。障碍物与目标点可以随机定义,并定义6-12个不同的机器人起始点。
将二维平面空间进行栅格化处理,每个栅格内的海流可视为相同,流场用一个流函数Ψ(x,y)随机生成,海流的速度场可以由流场函数得到:
由于流体的不可压缩性
式中vcx,vcy分别为海流在(x,y)位置沿X轴方向和Y轴方向的速度分量,取作每个栅格的中心点。
进行策略训练,具体步骤如下:
1)初始化t=0,t代表机器人每一次训练运动的步次;初始化rt=0,rt代表机器人执行第t个动作所获得的奖励。定义一个矩阵Q(x,a),记录在状态x时,选择动作a的可以获得的Q值,初始化为0。初始化计数器count=0,记录机器人训练的总次数。设定M值,代表机器人总共需要训练M次。初始化水下机器人i自由度方向的安全半径hi。设定d'值,代表机器人与目标点距离的阈值。
2)初始化机器人的状态,随机选取一个起始点开始进行探索。
3)机器人获取环境信息xt,其中包括碍航物信息,机器人i自由度方向的障碍物与机器人的距离li,如果没有障碍物则将距离设置为无穷;当前位置的海流流速信息vc;自身位置信息,并计算得到目标点距离机器人的欧几里得距离d。
4)设置一个阈值ε,依靠计算机产生一个随机数ε',如果ε'<ε,机器人随机选取动作空间中的一个动作执行,即at=randomQ(xt,a);如果ε'>ε,机器人根据矩阵Q(x,a),选择在状态xt下,值最大的动作a,即at=maxa Q(xt,a)。
5)机器人考虑运动学约束以及水流约束,根据目标公式实际对外表现出的速度,在仿真环境下,根据速度vit运动。
6)机器人执行完动作at后,再次获取环境信息xt+1。
6-1)如果li<hi,说明发生碰撞,本次训练结束,计数器count+1,根据
Q(xt,at)←(1-α)*rt+α*(rt+γmaxa'Q(xt+1,a'))
更新矩阵Q,训练步数t=0,如果count<M,从步骤2)开始重新训练,如果count=M,继续执行步骤7)。
6-2)如果li>hi,说明没有发生碰撞,继续判断其是否抵达目标点。
6-2-1)如果d≤d',说明抵达目标点,本次训练结束,计数器count+1,更新矩阵Q,训练步数t=0,如果count<M,从步骤2)开始重新训练,如果count=M,继续执行步骤7)。
6-2-2)如果d>d',说明没有抵达目标点,t+1,从步骤3)继续本次训练。
7)训练完成,输出水下机器人运动规划策略。
本方法优势在于考虑了水流、碍航物、目标等多约束目标,传统的强化学习规划方法没有同时考虑多种约束目标,训练的方法缺乏实用性与鲁棒性。本发明通过强化学习对多约束目标进行特征融合,可以训练出更加实用的水下机器人运动规划策略。
Claims (5)
1.一种基于多约束目标的水下机器人运动规划方法,其特征在于,该方法分为模型构建阶段和算法训练阶段,包括:
(1)模型构建阶段;马尔可夫决策过程E的模型构建,包括以下步骤:
(1-1)根据传感器信号建立当前环境xt;设机器人第i自由度方向的障碍物距离为li,若i自由度上不存在障碍物,则将li设置为无穷;机器人所处位置的流速设为vc;实时定位机器人位置,计算机器人与目标点的欧几里得距离d;
(1-2)根据水下机器人所能前进的最大值,建立机器人的动作空间A;所述的A包括五个运动命令,分别为前进、左前、右前、左侧推和右侧推;速度为va,角速度为ωa;
(1-3)考虑碍航物约束;设第i自由度水下警戒安全距离hi,若检测到的li<hi,则认为碰撞发生,设置一个负的奖励rter;
(1-4)考虑目标点约束;设目标点阈值为d',若检测到d变大,则设置一个负的奖励ropp,若检测到d变小,则设置一个正的奖励rmove,若检测到d<d',则机器人抵达目标点,设置一个正的奖励rarr。
(2)算法训练阶;机器人在计算机仿真中进行不断试错,学习策略,包括以下步骤:
(2-1)初始化t=0,t代表机器人每一次训练运动的步次;初始化rt=0,rt代表机器人执行第t个动作时所获得的奖励;
(2-2)初始化一个矩阵Q(x,a),记录在状态x时,选择动作a获得的Q值;
(2-3)初始化计数器count=0,记录机器人训练的总次数;设定M值,代表机器人总共需要训练M次;
(2-4)当count小于指定的训练次数M时,执行(2-5),否则执行(2-14);
(2-5)获取传感器信号,获得当前状态xt;所述的当前状态xt包括碍航物信息,机器人i自由度方向的障碍物的距离li、当前位置的海流流速信息vct、自身位置信息,计算得到目标点距离机器人的欧几里得距离d;
(2-6)根据矩阵Q,选择动作at;
(2-7)考虑运动学约束以及水流约束,将选择的动作at的速度与流速结合,根据结合得到的实际对外表现出的航行速度进行仿真,并更新li;
(2-8)如果li<hi,执行(2-9),否则执行(2-10);
(2-9)发生碰撞,rt=rter,结束本次训练,令xt+1为空,更新矩阵Q,并将count+1,令t=0,从(2-4)重新执行训练;
(2-10)如果d'<d,执行(2-11),否则抵达目标点,结束本次训练,令rt=rarr,令xt+1为空,并更新矩阵Q将count+1,令t=0,从(2-4)重新执行训练;
(2-11)如果dt<dt-1,执行(2-12),否则执行(2-13);
(2-12)d减小,令rt=rmove,更新xt+1,并更新矩阵Q,将t+1,从(2-5)重新执行训练流程;
(2-13)d增加,令rt=ropp,更新xt+1,并更新矩阵Q,将t+1,从(2-5)重新执行训练流程;
(2-14)结束训练,得到训练后的矩阵Q;
(2-15)输出水下机器人运动规划策略。
2.根据权利要求1所述的所述的一种基于多约束目标的水下机器人运动规划方法,其特征在于:所述的运动学约束,即训练过程中水下机器人本身的运动约束为:假设航行器的重心在固定坐标系的坐标为(x,y),则机器人固定坐标系速度为:
其中,θ为纵倾角,φ为横倾角,α为运动约束对水下机器人速度的影响系数。
3.根据权利要求1所述的一种基于多约束目标的水下机器人运动规划方法,其特征在于:所述的水流约束在训练过程中选择动作时以下述方法进行考虑:在学习训练过程中,xt状态下由ADCP获取的流速为vct,根据策略,机器人选择动作集中的一个动作at,其本身的速度为机器人执行动作时,考虑水流约束,其实际对外表现出的航行速度为:vit=vat+βvct,其中,β为水流对水下机器人速度的影响系数。
4.根据权利要求1所述的一种基于多约束目标的水下机器人运动规划方法,其特征在于:所述的选择动作at的具体方法为:采用贪心策略,设定阈值ε,使用计算机生成随机数ε',若随机数小于阈值,即ε'<ε,则机器人执行Q矩阵中状态Q(xt,a)中元素的最大值对应的动作,即at=maxaQ(xt,a);若随机数大于阈值,即ε'>ε,则机器人随机选择一个动作执行,即at=randomQ(xt,a)。
5.根据权利要求1所述的一种基于多约束目标的水下机器人运动规划方法,其特征在于:所述的更新矩阵Q的方法为:假定机器人执行动作前所属的状态为xt,应执行的动作为at,根据反馈得到的奖励系数rt,执行动作后抵达的状态为xt+1,则
Q(xt,at)←(1-α)*rt+α*(rt+γmaxa'Q(xt+1,a'))
其中α为学习效率,其中γ为折扣因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810764979.8A CN109241552B (zh) | 2018-07-12 | 2018-07-12 | 一种基于多约束目标的水下机器人运动规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810764979.8A CN109241552B (zh) | 2018-07-12 | 2018-07-12 | 一种基于多约束目标的水下机器人运动规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109241552A true CN109241552A (zh) | 2019-01-18 |
CN109241552B CN109241552B (zh) | 2022-04-05 |
Family
ID=65072571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810764979.8A Active CN109241552B (zh) | 2018-07-12 | 2018-07-12 | 一种基于多约束目标的水下机器人运动规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109241552B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196605A (zh) * | 2019-04-26 | 2019-09-03 | 大连海事大学 | 一种强化学习的无人机群在未知海域内协同搜索多动态目标方法 |
CN110333739A (zh) * | 2019-08-21 | 2019-10-15 | 哈尔滨工程大学 | 一种基于强化学习的auv行为规划及动作控制方法 |
CN110765686A (zh) * | 2019-10-22 | 2020-02-07 | 中国人民解放军战略支援部队信息工程大学 | 利用有限波段海底地形进行船载声呐测深测线设计的方法 |
CN110779132A (zh) * | 2019-11-13 | 2020-02-11 | 垚控科技(上海)有限公司 | 一种基于强化学习的空调***的水泵设备运行控制*** |
CN110955239A (zh) * | 2019-11-12 | 2020-04-03 | 中国地质大学(武汉) | 一种基于逆强化学习的无人船多目标轨迹规划方法及*** |
CN112052511A (zh) * | 2020-06-15 | 2020-12-08 | 成都蓉奥科技有限公司 | 一种基于深度随机博弈的空战机动策略生成技术 |
CN112149354A (zh) * | 2020-09-24 | 2020-12-29 | 哈尔滨工程大学 | 一种用于uuv集群的强化学***台 |
CN112631269A (zh) * | 2019-10-08 | 2021-04-09 | 国立大学法人静冈大学 | 自主移动机器人及自主移动机器人的控制程序 |
CN112650246A (zh) * | 2020-12-23 | 2021-04-13 | 武汉理工大学 | 一种船舶自主导航方法及装置 |
CN112925319A (zh) * | 2021-01-25 | 2021-06-08 | 哈尔滨工程大学 | 一种基于深度强化学习的水下自主航行器动态避障方法 |
CN112945232A (zh) * | 2019-12-11 | 2021-06-11 | 中国科学院沈阳自动化研究所 | 一种水下机器人近底地形跟踪的目标值规划方法 |
CN113052257A (zh) * | 2021-04-13 | 2021-06-29 | 中国电子科技集团公司信息科学研究院 | 一种基于视觉转换器的深度强化学习方法及装置 |
CN113110493A (zh) * | 2021-05-07 | 2021-07-13 | 北京邮电大学 | 一种基于光子神经网络的路径规划设备及路径规划方法 |
WO2021147192A1 (zh) * | 2020-01-21 | 2021-07-29 | 厦门邑通软件科技有限公司 | 操作行为记录管理的机器试探式学习方法、***和设备 |
CN114559439A (zh) * | 2022-04-27 | 2022-05-31 | 南通科美自动化科技有限公司 | 一种移动机器人智能避障控制方法、装置和电子设备 |
CN116295449A (zh) * | 2023-05-25 | 2023-06-23 | 吉林大学 | 水下自主航行器路径指示方法及装置 |
CN117079118A (zh) * | 2023-10-16 | 2023-11-17 | 广州华夏汇海科技有限公司 | 基于视觉检测的水下行走检测方法及*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102117071A (zh) * | 2009-12-30 | 2011-07-06 | 中国科学院沈阳自动化研究所 | 一种多水下机器人半物理仿真***及其控制方法 |
CN105512769A (zh) * | 2015-12-16 | 2016-04-20 | 上海交通大学 | 基于遗传规划的无人机航迹规划***及方法 |
CN106950969A (zh) * | 2017-04-28 | 2017-07-14 | 深圳市唯特视科技有限公司 | 一种基于无地图运动规划器的移动机器人连续控制方法 |
CN107065881A (zh) * | 2017-05-17 | 2017-08-18 | 清华大学 | 一种基于深度强化学习的机器人全局路径规划方法 |
CN107168309A (zh) * | 2017-05-02 | 2017-09-15 | 哈尔滨工程大学 | 一种基于行为的多水下机器人路径规划方法 |
WO2017161632A1 (zh) * | 2016-03-24 | 2017-09-28 | 苏州大学张家港工业技术研究院 | 一种基于模型学习的清洁机器人最优目标路径规划方法 |
CN107883961A (zh) * | 2017-11-06 | 2018-04-06 | 哈尔滨工程大学 | 一种基于Smooth‑RRT算法的水下机器人路径优化方法 |
CN107918396A (zh) * | 2017-11-30 | 2018-04-17 | 深圳市智能机器人研究院 | 一种基于船体模型的水下清洗机器人路径规划方法及*** |
CN108268031A (zh) * | 2016-12-30 | 2018-07-10 | 深圳光启合众科技有限公司 | 路径规划方法、装置及机器人 |
-
2018
- 2018-07-12 CN CN201810764979.8A patent/CN109241552B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102117071A (zh) * | 2009-12-30 | 2011-07-06 | 中国科学院沈阳自动化研究所 | 一种多水下机器人半物理仿真***及其控制方法 |
CN105512769A (zh) * | 2015-12-16 | 2016-04-20 | 上海交通大学 | 基于遗传规划的无人机航迹规划***及方法 |
WO2017161632A1 (zh) * | 2016-03-24 | 2017-09-28 | 苏州大学张家港工业技术研究院 | 一种基于模型学习的清洁机器人最优目标路径规划方法 |
CN108268031A (zh) * | 2016-12-30 | 2018-07-10 | 深圳光启合众科技有限公司 | 路径规划方法、装置及机器人 |
CN106950969A (zh) * | 2017-04-28 | 2017-07-14 | 深圳市唯特视科技有限公司 | 一种基于无地图运动规划器的移动机器人连续控制方法 |
CN107168309A (zh) * | 2017-05-02 | 2017-09-15 | 哈尔滨工程大学 | 一种基于行为的多水下机器人路径规划方法 |
CN107065881A (zh) * | 2017-05-17 | 2017-08-18 | 清华大学 | 一种基于深度强化学习的机器人全局路径规划方法 |
CN107883961A (zh) * | 2017-11-06 | 2018-04-06 | 哈尔滨工程大学 | 一种基于Smooth‑RRT算法的水下机器人路径优化方法 |
CN107918396A (zh) * | 2017-11-30 | 2018-04-17 | 深圳市智能机器人研究院 | 一种基于船体模型的水下清洗机器人路径规划方法及*** |
Non-Patent Citations (3)
Title |
---|
YUSHAN SUN: "Research on Recovery Strategy and Motion Control for Autonomous Underwater Vehicle", 《PROCEEDINGS OF 2018 INTERNATIONAL CONFERENCE ON ADVANCED CONTROL, AUTOMATION AND; ARTIFICIAL INTELLIGENCE (ACAAI2018)》 * |
ZHANG GUO-CHENG: "A Novel Adaptive Second Order Sliding Mode Path Following Control for a Portable AUV", 《OCEAN ENGINEERING》 * |
洪晔 等: "基于分层马尔可夫决策过程的AUV 全局路径规划研究", 《***仿真学报》 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196605B (zh) * | 2019-04-26 | 2022-03-22 | 大连海事大学 | 一种强化学习的无人机群在未知海域内协同搜索多动态目标方法 |
CN110196605A (zh) * | 2019-04-26 | 2019-09-03 | 大连海事大学 | 一种强化学习的无人机群在未知海域内协同搜索多动态目标方法 |
CN110333739A (zh) * | 2019-08-21 | 2019-10-15 | 哈尔滨工程大学 | 一种基于强化学习的auv行为规划及动作控制方法 |
CN110333739B (zh) * | 2019-08-21 | 2020-07-31 | 哈尔滨工程大学 | 一种基于强化学习的auv行为规划及动作控制方法 |
CN112631269A (zh) * | 2019-10-08 | 2021-04-09 | 国立大学法人静冈大学 | 自主移动机器人及自主移动机器人的控制程序 |
CN112631269B (zh) * | 2019-10-08 | 2024-06-11 | 国立大学法人静冈大学 | 自主移动机器人及自主移动机器人的控制程序 |
CN110765686A (zh) * | 2019-10-22 | 2020-02-07 | 中国人民解放军战略支援部队信息工程大学 | 利用有限波段海底地形进行船载声呐测深测线设计的方法 |
CN110765686B (zh) * | 2019-10-22 | 2020-09-11 | 中国人民解放军战略支援部队信息工程大学 | 利用有限波段海底地形进行船载声呐测深测线设计的方法 |
CN110955239A (zh) * | 2019-11-12 | 2020-04-03 | 中国地质大学(武汉) | 一种基于逆强化学习的无人船多目标轨迹规划方法及*** |
CN110955239B (zh) * | 2019-11-12 | 2021-03-02 | 中国地质大学(武汉) | 一种基于逆强化学习的无人船多目标轨迹规划方法及*** |
CN110779132A (zh) * | 2019-11-13 | 2020-02-11 | 垚控科技(上海)有限公司 | 一种基于强化学习的空调***的水泵设备运行控制*** |
CN112945232A (zh) * | 2019-12-11 | 2021-06-11 | 中国科学院沈阳自动化研究所 | 一种水下机器人近底地形跟踪的目标值规划方法 |
CN112945232B (zh) * | 2019-12-11 | 2022-11-01 | 中国科学院沈阳自动化研究所 | 一种水下机器人近底地形跟踪的目标值规划方法 |
WO2021147192A1 (zh) * | 2020-01-21 | 2021-07-29 | 厦门邑通软件科技有限公司 | 操作行为记录管理的机器试探式学习方法、***和设备 |
CN112052511A (zh) * | 2020-06-15 | 2020-12-08 | 成都蓉奥科技有限公司 | 一种基于深度随机博弈的空战机动策略生成技术 |
CN112149354A (zh) * | 2020-09-24 | 2020-12-29 | 哈尔滨工程大学 | 一种用于uuv集群的强化学***台 |
CN112650246A (zh) * | 2020-12-23 | 2021-04-13 | 武汉理工大学 | 一种船舶自主导航方法及装置 |
CN112925319A (zh) * | 2021-01-25 | 2021-06-08 | 哈尔滨工程大学 | 一种基于深度强化学习的水下自主航行器动态避障方法 |
CN113052257B (zh) * | 2021-04-13 | 2024-04-16 | 中国电子科技集团公司信息科学研究院 | 一种基于视觉转换器的深度强化学习方法及装置 |
CN113052257A (zh) * | 2021-04-13 | 2021-06-29 | 中国电子科技集团公司信息科学研究院 | 一种基于视觉转换器的深度强化学习方法及装置 |
CN113110493A (zh) * | 2021-05-07 | 2021-07-13 | 北京邮电大学 | 一种基于光子神经网络的路径规划设备及路径规划方法 |
CN114559439A (zh) * | 2022-04-27 | 2022-05-31 | 南通科美自动化科技有限公司 | 一种移动机器人智能避障控制方法、装置和电子设备 |
CN114559439B (zh) * | 2022-04-27 | 2022-07-26 | 南通科美自动化科技有限公司 | 一种移动机器人智能避障控制方法、装置和电子设备 |
CN116295449A (zh) * | 2023-05-25 | 2023-06-23 | 吉林大学 | 水下自主航行器路径指示方法及装置 |
CN116295449B (zh) * | 2023-05-25 | 2023-09-12 | 吉林大学 | 水下自主航行器路径指示方法及装置 |
CN117079118A (zh) * | 2023-10-16 | 2023-11-17 | 广州华夏汇海科技有限公司 | 基于视觉检测的水下行走检测方法及*** |
CN117079118B (zh) * | 2023-10-16 | 2024-01-16 | 广州华夏汇海科技有限公司 | 基于视觉检测的水下行走检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN109241552B (zh) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109241552A (zh) | 一种基于多约束目标的水下机器人运动规划方法 | |
CN109540151B (zh) | 一种基于强化学习的auv三维路径规划方法 | |
Chen et al. | A hybrid path planning algorithm for unmanned surface vehicles in complex environment with dynamic obstacles | |
CN108564202B (zh) | 一种基于环境预报信息的无人艇航线优化方法 | |
Cao et al. | Target search control of AUV in underwater environment with deep reinforcement learning | |
CN103853908B (zh) | 一种自适应交互式多模型的机动目标跟踪方法 | |
CN106338919A (zh) | 基于增强学习型智能算法的无人艇航迹跟踪控制方法 | |
CN107168309A (zh) | 一种基于行为的多水下机器人路径规划方法 | |
CN108549394A (zh) | 一种基于领航者和虚拟领航者的多auv直线编队控制方法 | |
Hao et al. | Dynamic path planning of a three-dimensional underwater AUV based on an adaptive genetic algorithm | |
Wang et al. | Improved quantum particle swarm optimization algorithm for offline path planning in AUVs | |
Cao et al. | Toward optimal rendezvous of multiple underwater gliders: 3D path planning with combined sawtooth and spiral motion | |
CN104794526A (zh) | 一种狼群搜索算法优化的船舶自动避碰方法 | |
CN106444806A (zh) | 基于生物速度调节的欠驱动auv三维轨迹跟踪控制方法 | |
Xue et al. | Proximal policy optimization with reciprocal velocity obstacle based collision avoidance path planning for multi-unmanned surface vehicles | |
CN109765929A (zh) | 一种基于改进rnn的uuv实时避障规划方法 | |
Sun et al. | A novel fuzzy control algorithm for three-dimensional AUV path planning based on sonar model | |
Lan et al. | Path planning for underwater gliders in time-varying ocean current using deep reinforcement learning | |
Fang et al. | Autonomous underwater vehicle formation control and obstacle avoidance using multi-agent generative adversarial imitation learning | |
CN117215317B (zh) | 一种无人船局部路径规划方法、设备及存储介质 | |
CN114973650A (zh) | 车辆匝道入口合流控制方法、车辆、电子设备及存储介质 | |
CN113093804A (zh) | 基于反演滑模控制的无人艇编队控制方法和控制*** | |
Xia et al. | Research on collision avoidance algorithm of unmanned surface vehicle based on deep reinforcement learning | |
Yan et al. | Real-world learning control for autonomous exploration of a biomimetic robotic shark | |
CN108829132A (zh) | 一种考虑大时滞的多uuv空间机动控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20190118 Assignee: Osenda (Shandong) Offshore Engineering Co.,Ltd. Assignor: HARBIN ENGINEERING University Contract record no.: X2023230000005 Denomination of invention: A Motion Planning Method of Underwater Vehicle Based on Multi-constrained Targets Granted publication date: 20220405 License type: Exclusive License Record date: 20230130 |