CN115577755A - 机器人位姿矫正方法、装置、计算机设备和存储介质 - Google Patents

机器人位姿矫正方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN115577755A
CN115577755A CN202211496113.6A CN202211496113A CN115577755A CN 115577755 A CN115577755 A CN 115577755A CN 202211496113 A CN202211496113 A CN 202211496113A CN 115577755 A CN115577755 A CN 115577755A
Authority
CN
China
Prior art keywords
pose
pose correction
neural network
robot
leopard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211496113.6A
Other languages
English (en)
Inventor
许鲁峰
陈宇坚
曹华锋
何小利
严丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Huanfu Chengdu Technology Co ltd
Original Assignee
China Huanfu Chengdu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Huanfu Chengdu Technology Co ltd filed Critical China Huanfu Chengdu Technology Co ltd
Priority to CN202211496113.6A priority Critical patent/CN115577755A/zh
Publication of CN115577755A publication Critical patent/CN115577755A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Abstract

本申请涉及机器人即时定位与地图构建技术领域,公开了一种机器人位姿矫正方法、装置、计算机设备和存储介质,所述方法包括:构建LSTM神经网络;通过花豹捕食角马优化算法对所述LSTM神经网络的全局权重值进行寻优,并将找到的最优全局权重值赋予所述LSTM神经网络;将训练集输入所述LSTM神经网络进行训练,得到位姿矫正模型;将获取的基础数据输入所述位姿矫正模型中,获得位姿矫正量,所述基础数据包括地图信息、估计位姿信息和传感数据;基于所述位姿矫正量对所述估计位姿信息进行矫正。本申请解决了现有基于深度学习的机器人位姿矫正技术,存在位姿矫正不精确的问题。

Description

机器人位姿矫正方法、装置、计算机设备和存储介质
技术领域
本申请涉及机器人即时定位与地图构建技术领域,具体是指一种机器人位姿矫正方法、装置、计算机设备和存储介质。
背景技术
即时定位与地图构建技术(SLAM),最早是在机器人领域提出的概念,具体是指机器人在未知环境中从一个未知位置开始移动,在移动过程中根据位置和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现机器人的自主定位和导航,由此衍生出来的相关算法在无人驾驶领域应用广泛。
SLAM定位技术在近几年的发展中有了很大进展,对于激光雷达而言,基于自适应蒙特卡洛定位的方法应用较为广泛,它解决了传统蒙特卡洛方法在定位过程中容易造成“机器人绑架”的痛点,然而这种方法对物理设备的要求比较严苛,且泛化性和特征利用率不足。针对传统蒙特卡洛方法(ACML)的不足,而后国内外研究者又将深度学习融入到SLAM定位技术中,并取得了一定成果。
但是,传统的深度学习神经网络模型由于其在迭代过程中容易先入局部极值的问题,导致其应用于机器人SLAM定位技术领域时,神经网络模型预测精度不高,出现机器人位姿矫正不精确的问题。
发明内容
基于以上技术问题,本申请提供了一种机器人位姿矫正方法、装置、计算机设备和存储介质,解决了现有基于深度学习的机器人位姿矫正技术,存在位姿矫正不精确的问题。
为解决以上技术问题,本申请采用的技术方案如下:
一种机器人位姿矫正方法,包括:
构建LSTM神经网络;
通过花豹捕食角马优化算法对所述LSTM神经网络的全局权重值进行寻优,并将找到的最优全局权重值赋予所述LSTM神经网络;
将训练集输入所述LSTM神经网络进行训练,得到位姿矫正模型;
将获取的基础数据输入所述位姿矫正模型中,获得位姿矫正量,所述基础数据包括地图信息、估计位姿信息和传感数据;
基于所述位姿矫正量对所述估计位姿信息进行矫正。
一种机器人位姿矫正装置,包括:
网络构建模块,所述网络构建模块用于构建LSTM神经网络;
权重寻优模块,所述权重寻优模块用于通过花豹捕食角马优化算法对所述LSTM神经网络的全局权重值进行寻优,并将找到的最优全局权重值赋予所述LSTM神经网络;
模型训练模块,所述模型训练模块用于将训练集输入所述LSTM神经网络进行训练,得到位姿矫正模型;
矫正量获取模块,所述矫正量获取模块用于将获取的基础数据输入所述位姿矫正模型中,获得位姿矫正量,所述基础数据包括地图信息、估计位姿信息和传感数据;
位姿矫正模块,所述位姿矫正模块用于基于所述位姿矫正量对所述估计位姿信息进行矫正。
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述机器人位姿矫正方法的步骤。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述机器人位姿矫正方法的步骤。
与现有技术相比,本申请的有益效果是:
上述方法、装置、计算机设备和存储介质通过模拟花豹捕食角马过程中位置不断更新,且更新过程中以两种不同角色的方式寻找全局最优的方式优化了传统LSTM神经网络反向传播过程中参数更新进行容易陷入局部极值问题,大大提高了算法预测的准确值。
通过花豹捕食角马优化算法对LSTM神经网络进行优化,有效地发挥了其在机器定位中对于时间序列数据的处理能力,解决了传统深度学习算法容易陷入梯度***的问题,相比传统ACML算法解决了其由于设备升级导致采集的数据特征无法充分使用和模型泛化性不足的问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。其中:
图1为机器人位姿矫正方法的流程示意图。
图2为花豹捕食角马优化算法的流程示意图。
图3为对花豹和角马的初始位置进行筛查的流程示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应当理解,本说明书中所使用的“***”、“装置”、“单元”和/或“模组”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
应当理解,本说明书中除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本说明书中使用了流程图用来说明根据本说明书的实施例的***所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
参阅图1,在一些实施例中,一种机器人位姿矫正方法,包括:
S101,构建LSTM神经网络;
其中,由于机器人在运动过程中需要搜集周围地理位置信息后规划移动,因此机器人当前位姿和传感器捕捉环境信息之间存在时间关联性,当前所在位姿和历史位姿彼此之间存在关联,可视为连续的时间序列,可以使用LSTM来进行训练。
S102,通过花豹捕食角马优化算法对所述LSTM神经网络的全局权重值进行寻优,并将找到的最优全局权重值赋予所述LSTM神经网络;
S103,将训练集输入所述LSTM神经网络进行训练,得到位姿矫正模型;
具体的,对于训练集而言,其数据类型与后续求取位姿矫正量的基础数据类型是一致的。区别在于训练集的数据通过人工等方式标注有真实标签。
S104,将获取的基础数据输入所述位姿矫正模型中,获得位姿矫正量,所述基础数据包括地图信息、估计位姿信息和传感数据;
具体的,传感器包括机器人上设置激光雷达、测距传感器等。
具体的,估计位姿信息一般是通过传感数据分析、估计获得。
优选的,在获取基础数据之后,还包括对所述基础数据进行预处理,所述预处理包括:将所述地图信息和所述传感数据转换为格式相同的二维矩阵。
其中,将地图信息和传感器数据转换为二维矩阵后,会包含大量无用的特征,如果直接输入到LSTM神经网络中会导致算法输出与实际情况偏差较大。优选的,还可以对关键特征进行提取。
S105,基于所述位姿矫正量对所述估计位姿信息进行矫正。
本实施例中,对于LSTM神经网络而言,其误差项传播有两种方式:沿t时刻反向传播每个时刻的误差项或将误差项向上一层传播,在传播过程中要不断计算每个神经元的误差项,计算完的误差项又作为输入传播到上一层中。在反向传播过程中,权重的更新受误差项和节点间传播权重的影响,因此为了避免算法在反向传播过程中陷入局部最优和过早收敛,引入了一种花豹捕食角马的优化方法来进行最优权重值的搜索。
基于花豹捕食角马优化算法的全局寻优能力,可以降低传统深度学习算法在迭代过程中容易陷入局部极值的概率,达到让机器人通过先验地图信息、当前预估位置的信息和传感器输入的位姿信息进行处理和预测来实现实时更新自我位置状态的方法,有效避免了机器人在移动过程中因为位姿状态的错误导致偏移,对障碍物识别、实时避障、路径规划提供关键决策。
具体的,机器人的位姿信息一般包括在二维坐标下机器人的坐标和偏移夹角。
参阅图2,在一些实施例中,通过花豹捕食角马优化算法对所述位姿矫正模型的全局权重值进行寻优,包括:
S201,随机生成一只花豹和若干只角马,并随机初始化花豹和角马的位置;
具体的,随机初始化花豹和角马的位置的公式为:
Figure 129437DEST_PATH_IMAGE001
其中,S表示花豹或角马的位置,rand(1,d)表示1至d之间的随机数,d表示全局权重的数量,ub表示全局权重的最大值,lb表示全局权重的最小值。
S202,基于花豹捕食角马的仿生原理,通过探寻与绑定的搜索机制,不断迭代更新花豹与角马的位置,并同时通过目标函数对花豹和角马的位置进行评估;
具体的,更新花豹位置的公式为:
Figure 361091DEST_PATH_IMAGE002
其中,
Figure 671987DEST_PATH_IMAGE003
表示t+1时刻时花豹的位置,
Figure 598355DEST_PATH_IMAGE004
表示t时刻时花豹的位置, N表示探寻与绑定搜索机制中的平衡参数,M表示自适应参数,
Figure 943885DEST_PATH_IMAGE005
表示当前捕猎目 标角马的所在位置,
Figure 313818DEST_PATH_IMAGE006
表示所有角马位置的平均值;
其中,平衡参数 N的公式为:
Figure 315272DEST_PATH_IMAGE007
其中,it表示当前迭代次数,MaxIt表示最大迭代次数,此公式表示平衡参数在迭代过程从1不断下降到0.4;
其中,前捕猎目标角马的所在位置
Figure 310910DEST_PATH_IMAGE005
的公式为:
Figure 714209DEST_PATH_IMAGE008
其中,
Figure 504311DEST_PATH_IMAGE009
表示第i个角马位置,
Figure 524219DEST_PATH_IMAGE010
表示欧几里得距离。
其中,
Figure 838395DEST_PATH_IMAGE011
表示递减函数,作用在于防止搜索目标角马的所在位置过程中不会 过早收敛,其公式为:
Figure 892939DEST_PATH_IMAGE012
其中,round表示随机生成函数,
Figure 853941DEST_PATH_IMAGE013
表示搜索代理的数量;
具体的,更新角马位置的公式为:
Figure 829988DEST_PATH_IMAGE014
其中,
Figure 387002DEST_PATH_IMAGE015
表示t+1时刻时角马的位置,
Figure 827211DEST_PATH_IMAGE016
表示t时刻时角马的位置,
Figure 896798DEST_PATH_IMAGE017
表示角马逃脱到达的最优位置,N表示探寻与绑定搜索机制中的平衡参数,M表 示自适应参数,
Figure 422457DEST_PATH_IMAGE018
表示随机因子;
其中,随机因子
Figure 235692DEST_PATH_IMAGE019
能够更好的使花豹在角马逃逸后在全局范围内改变角度去寻 找下一个角马的位置,通过增加算法随机性,更有效的模拟了捕食场景;
具体的,设初始角马总体为
Figure 530407DEST_PATH_IMAGE020
,将角马种群所有成员的 目标函数计算为
Figure 36475DEST_PATH_IMAGE021
其中,目标函数的具体公式为:
Figure 987114DEST_PATH_IMAGE022
S203,当评估结果达到既定收敛条件后,结束算法,输出最优全局权重值。
具体的,评估结果达到既定收敛条件,是指当前算法结果的精度达到了预设精度条件。
具体的,所述收敛条件还包括最大迭代次数,达到最大迭代次数后会结束算法,并输出当前结果作为最优全局权重值。
在本实施例中,基于花豹捕食角马改进的搜索方法,其具体思路模拟了花豹捕食角马的场景,整个狩猎过程如下:花豹在狩猎途中偶遇外出觅食的角马群时往往会选择离群体较远(落单)的目标进行捕猎,在一定距离外,角马未察觉危险靠近,仍处于觅食状态,等到花豹接近后,角马通过气味发现花豹后开始逃跑,在逃跑和追捕的过程中,花豹和角马的位置不断在变化,当角马逃出危险,进入安全的地方后,我们认为这个安全地点则是的最佳狩猎地点,即搜索结束。
通过控制一系列参数与花豹角马位置的关系,能够反复迭代算法,花豹和角马之间的距离位置也会不断更新,根据迭代次数的增加,算法逐渐优化,找到全局最优权重值。
其中,基于探寻搜索机制时,探寻搜索机制会模拟角马在寻觅食物过程中呈不规则移动状态,因此距离花豹锁定角马的区域范围会不断发生改变,导致花豹搜索范围变大。探寻搜索时,算法会倾向于高度随机的行为。
基于绑定搜索机制时,绑定搜索机制会模拟花豹在搜索过程中找到待捕猎目标角马,此时花豹会锁定某一个区域内的待捕猎目标角马后,选择恰当的路径进行捕猎。绑定搜索时,必须减少随机行为,以便算法能够在锁定的区域周围搜索。
此外,捕猎过程中,角马的位置是变化的,因此最初设定的搜索代理由于在狩猎过程中位置不断变化,有可能存在逃跑的情况,也会存在同搜索区域内的其他角马被花豹选中的情况。
参阅图3,优选的,在随机初始化花豹和角马的位置之后,还包括:
S301,基于花豹和角马的初始位置,通过目标函数分别获得花豹和角马的初始适应度;
S302,判定花豹的初始适应度是否超出预设范围,若超出预设范围,则重新对花豹的位置进行随机生成;
S303,判定角马的初始适应度是否超出预设范围,若超出预设范围,则将相应的角马舍弃。
其中,适应度可以用来评价个体的好坏,在花豹捕食角马的算法过程中,需要花豹和角马满足在特定的范围内才是符合场景需要的,才能够进入算法的下一流程。因此,需要对花豹和角马的初始位置进行筛查,以剔除不符合条件的个体。
在一些实施例中,还公开了一种机器人位姿矫正装置,包括:
网络构建模块,所述网络构建模块用于构建LSTM神经网络;
权重寻优模块,所述权重寻优模块用于通过花豹捕食角马优化算法对所述LSTM神经网络的全局权重值进行寻优,并将找到的最优全局权重值赋予所述LSTM神经网络;
模型训练模块,所述模型训练模块用于将训练集输入所述LSTM神经网络进行训练,得到位姿矫正模型;
矫正量获取模块,所述矫正量获取模块用于将获取的基础数据输入所述位姿矫正模型中,获得位姿矫正量,所述基础数据包括地图信息、估计位姿信息和传感数据;
位姿矫正模块,所述位姿矫正模块用于基于所述位姿矫正量对所述估计位姿信息进行矫正。
为解决上述技术问题,本申请还公开了一种计算机设备,其特征在于,包括存储器和处理器,存储器中存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述机器人位姿矫正方法的步骤。
其中,所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或D界面显示存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器可以是所述计算机设备的内部存储单元,例如该计算机设备的硬盘或内存。在另一些实施例中,所述存储器也可以是所述计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器还可以既包括所述计算机设备的内部存储单元也包括其外部存储设备。本实施例中,所述存储器常用于存储安装于所述计算机设备的操作***和各类应用软件,例如所述机器人位姿矫正方法的程序代码等。此外,所述存储器还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器通常用于控制所述计算机设备的总体操作。本实施例中,所述处理器用于运行所述存储器中存储的程序代码或者处理数据,例如运行所述机器人位姿矫正方法的程序代码。
为解决上述技术问题,本申请还公开了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述机器人位姿矫正方法的步骤。
其中,所述计算机可读存储介质存储有界面显示程序,所述界面显示程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的机器人位姿矫正方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器或者网络设备等)执行本申请各个实施例所述的方法。
如上即为本申请的实施例。上述实施例以及实施例中的具体参数仅是为了清楚表述申请的验证过程,并非用以限制本申请的专利保护范围,本申请的专利保护范围仍然以其权利要求书为准,凡是运用本申请的说明书及附图内容所作的等同结构变化,同理均应包含在本申请的保护范围内。

Claims (10)

1.机器人位姿矫正方法,其特征在于,包括:
构建LSTM神经网络;
通过花豹捕食角马优化算法对所述LSTM神经网络的全局权重值进行寻优,并将找到的最优全局权重值赋予所述LSTM神经网络;
将训练集输入所述LSTM神经网络进行训练,得到位姿矫正模型;
将获取的基础数据输入所述位姿矫正模型中,获得位姿矫正量,所述基础数据包括地图信息、估计位姿信息和传感数据;
基于所述位姿矫正量对所述估计位姿信息进行矫正。
2.根据权利要求1所述的机器人位姿矫正方法,其特征在于,通过花豹捕食角马优化算法对所述位姿矫正模型的全局权重值进行寻优,包括:
随机生成一只花豹和若干只角马,并随机初始化花豹和角马的位置;
基于花豹捕食角马的仿生原理,通过探寻与绑定的搜索机制,不断迭代更新花豹与角马的位置,并同时通过目标函数对花豹和角马的位置进行评估;
当评估结果达到既定收敛条件后,结束算法,输出最优全局权重值。
3.根据权利要求2所述的机器人位姿矫正方法,其特征在于,随机初始化花豹和角马的位置的公式为:
Figure 187948DEST_PATH_IMAGE001
其中,S表示花豹或角马的位置,rand(1,d)表示1至d之间的随机数,d表示全局权重的数量,ub表示全局权重的最大值,lb表示全局权重的最小值。
4.根据权利要求2所述的机器人位姿矫正方法,其特征在于,在随机初始化花豹和角马的位置之后,还包括:
基于花豹和角马的初始位置,通过目标函数分别获得花豹和角马的初始适应度;
判定花豹的初始适应度是否超出预设范围,若超出预设范围,则重新对花豹的位置进行随机生成;
判定角马的初始适应度是否超出预设范围,若超出预设范围,则将相应的角马舍弃。
5.根据权利要求2所述的机器人位姿矫正方法,其特征在于,基于花豹捕食角马的仿生原理,通过探寻与绑定的搜索机制,不断迭代更新花豹与角马的位置包括:
更新花豹位置的公式为:
Figure 337169DEST_PATH_IMAGE002
其中,
Figure 14138DEST_PATH_IMAGE003
表示t+1时刻时花豹的位置,
Figure 999543DEST_PATH_IMAGE004
表示t时刻时花豹的位置,N表 示探寻与绑定搜索机制中的平衡参数,M表示自适应参数,
Figure 154581DEST_PATH_IMAGE005
表示当前捕猎目标 角马的所在位置,
Figure 158309DEST_PATH_IMAGE006
表示所有角马位置的平均值;
更新角马位置的公式为:
Figure 68496DEST_PATH_IMAGE007
其中,
Figure 728148DEST_PATH_IMAGE008
表示t+1时刻时角马的位置,
Figure 749193DEST_PATH_IMAGE009
表示t时刻时角马的位置,
Figure 545111DEST_PATH_IMAGE010
表示角马逃脱到达的最优位置,N表示探寻与绑定搜索机制中的平衡参数,M表 示自适应参数,
Figure 875467DEST_PATH_IMAGE011
表示随机因子。
6.根据权利要求2所述的机器人位姿矫正方法,其特征在于:
所述收敛条件还包括最大迭代次数,达到最大迭代次数后会结束算法,并输出当前结果作为最优全局权重值。
7.根据权利要求1所述的机器人位姿矫正方法,其特征在于,在获取基础数据之后,还包括对所述基础数据进行预处理,所述预处理包括:
将所述地图信息和所述传感数据转换为格式相同的二维矩阵。
8.机器人位姿矫正装置,其特征在于,包括:
网络构建模块,所述网络构建模块用于构建LSTM神经网络;
权重寻优模块,所述权重寻优模块用于通过花豹捕食角马优化算法对所述LSTM神经网络的全局权重值进行寻优,并将找到的最优全局权重值赋予所述LSTM神经网络;
模型训练模块,所述模型训练模块用于将训练集输入所述LSTM神经网络进行训练,得到位姿矫正模型;
矫正量获取模块,所述矫正量获取模块用于将获取的基础数据输入所述位姿矫正模型中,获得位姿矫正量,所述基础数据包括地图信息、估计位姿信息和传感数据;
位姿矫正模块,所述位姿矫正模块用于基于所述位姿矫正量对所述估计位姿信息进行矫正。
9.一种计算机设备,其特征在于:包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述机器人位姿矫正方法的步骤。
10.一种计算机可读存储介质,其特征在于:存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述机器人位姿矫正方法的步骤。
CN202211496113.6A 2022-11-28 2022-11-28 机器人位姿矫正方法、装置、计算机设备和存储介质 Pending CN115577755A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211496113.6A CN115577755A (zh) 2022-11-28 2022-11-28 机器人位姿矫正方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211496113.6A CN115577755A (zh) 2022-11-28 2022-11-28 机器人位姿矫正方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN115577755A true CN115577755A (zh) 2023-01-06

Family

ID=84590150

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211496113.6A Pending CN115577755A (zh) 2022-11-28 2022-11-28 机器人位姿矫正方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN115577755A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117086886B (zh) * 2023-10-18 2023-12-22 山东建筑大学 基于机理数据混合驱动的机器人动态误差预测方法及***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993270A (zh) * 2019-03-27 2019-07-09 东北大学 基于灰狼群优化lstm网络的锂离子电池剩余寿命预测方法
CN110473254A (zh) * 2019-08-20 2019-11-19 北京邮电大学 一种基于深度神经网络的位姿估计方法及装置
CN110503686A (zh) * 2019-07-31 2019-11-26 三星(中国)半导体有限公司 基于深度学习的物***姿估计方法及电子设备
CN112631303A (zh) * 2020-12-26 2021-04-09 北京云迹科技有限公司 一种机器人定位方法、装置及电子设备
CN113205698A (zh) * 2021-03-24 2021-08-03 上海吞山智能科技有限公司 一种基于igwo-lstm的短时交通流预测的导航提醒方法
CN113838135A (zh) * 2021-10-11 2021-12-24 重庆邮电大学 基于lstm双流卷积神经网络的位姿估计方法、***及介质
CN115334631A (zh) * 2022-08-11 2022-11-11 南京信息工程大学 一种基于猎人猎物优化的d2d通信功率控制方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993270A (zh) * 2019-03-27 2019-07-09 东北大学 基于灰狼群优化lstm网络的锂离子电池剩余寿命预测方法
CN110503686A (zh) * 2019-07-31 2019-11-26 三星(中国)半导体有限公司 基于深度学习的物***姿估计方法及电子设备
CN110473254A (zh) * 2019-08-20 2019-11-19 北京邮电大学 一种基于深度神经网络的位姿估计方法及装置
CN112631303A (zh) * 2020-12-26 2021-04-09 北京云迹科技有限公司 一种机器人定位方法、装置及电子设备
CN113205698A (zh) * 2021-03-24 2021-08-03 上海吞山智能科技有限公司 一种基于igwo-lstm的短时交通流预测的导航提醒方法
CN113838135A (zh) * 2021-10-11 2021-12-24 重庆邮电大学 基于lstm双流卷积神经网络的位姿估计方法、***及介质
CN115334631A (zh) * 2022-08-11 2022-11-11 南京信息工程大学 一种基于猎人猎物优化的d2d通信功率控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IRAJ NARUEI ETC: ""Hunter–prey optimization: algorithm and applications"", 《SOFT COMPUTING》 *
随风飘摇的土木狗: ""【MATLAB第1期】LSTM/GRU网络回归/分类预测改进与优化合集(含录屏操作,持续更新)"", 《HTTPS://BLOG.CSDN.NET/QQ_29736627/ARTICLE/DETAILS/126433852》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117086886B (zh) * 2023-10-18 2023-12-22 山东建筑大学 基于机理数据混合驱动的机器人动态误差预测方法及***

Similar Documents

Publication Publication Date Title
Bianchi et al. Accelerating autonomous learning by using heuristic selection of actions
US11403513B2 (en) Learning motor primitives and training a machine learning system using a linear-feedback-stabilized policy
US8326780B2 (en) Smoothed sarsa: reinforcement learning for robot delivery tasks
CN109690576A (zh) 在多个机器学习任务上训练机器学习模型
US8077919B2 (en) Toro: tracking and observing robot
CN110383299A (zh) 记忆增强的生成时间模型
US11688077B2 (en) Adaptive object tracking policy
CN110520868A (zh) 分布式强化学习
KR102577188B1 (ko) 목표 시스템에 대한 제어 시스템 생성
US20220343157A1 (en) Robust reinforcement learning for continuous control with model misspecification
CN110447041A (zh) 噪声神经网络层
EP3789938A1 (en) Virtual intelligence and optimization through multi-source, real-time, and context-aware real-world data
CN115812180A (zh) 使用奖励预测模型的机器人控制的离线学习
CN115577755A (zh) 机器人位姿矫正方法、装置、计算机设备和存储介质
CN115545334B (zh) 土地利用类型预测方法、装置、电子设备及存储介质
CN114202123A (zh) 业务数据预测方法、装置、电子设备及存储介质
Caarls et al. Parallel online temporal difference learning for motor control
Chen et al. Multi-agent patrolling under uncertainty and threats
Gros et al. Dsmc evaluation stages: Fostering robust and safe behavior in deep reinforcement learning
CN110826695B (zh) 数据处理方法、装置和计算机可读存储介质
CN110749325B (zh) 航迹规划方法和装置
CN110962120B (zh) 网络模型的训练方法及装置、机械臂运动控制方法及装置
CN115016499A (zh) 一种基于sca-ql的路径规划方法
CN116430842A (zh) 一种移动机器人避障方法、装置、设备及存储介质
CN113300884B (zh) 一种基于gwo-svr的分步网络流量预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20230106

RJ01 Rejection of invention patent application after publication