CN115930971A - 一种机器人定位与建图的数据融合处理方法 - Google Patents

一种机器人定位与建图的数据融合处理方法 Download PDF

Info

Publication number
CN115930971A
CN115930971A CN202310049730.XA CN202310049730A CN115930971A CN 115930971 A CN115930971 A CN 115930971A CN 202310049730 A CN202310049730 A CN 202310049730A CN 115930971 A CN115930971 A CN 115930971A
Authority
CN
China
Prior art keywords
time
representing
iteration
offset information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310049730.XA
Other languages
English (en)
Other versions
CN115930971B (zh
Inventor
朱冬
方向明
宋雯
唐国梅
张建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seven Teng Robot Co ltd
Original Assignee
Seven Teng Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seven Teng Robot Co ltd filed Critical Seven Teng Robot Co ltd
Priority to CN202310049730.XA priority Critical patent/CN115930971B/zh
Publication of CN115930971A publication Critical patent/CN115930971A/zh
Application granted granted Critical
Publication of CN115930971B publication Critical patent/CN115930971B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种机器人定位与建图的数据融合处理方法,包括以下步骤:预测机器人当前时刻的状态向量;根据上一时刻的协方差矩阵和噪声协方差矩阵计算当前时刻预测误差协方差矩阵;预测当前时刻的偏移信息差量;获取机器人的观测量,根据当前时刻的偏移信息差量、预测状态向量、预测误差协方差矩阵和观测量获得联合后验概率密度函数;对初始的迭代参数进行赋值,根据变分推断方法对联合后验概率密度函数进行迭代更新,直至满足变分推断的迭代条件后结束迭代更新,获得当前时刻机器人的融合数据。本发明对机器人状态向量和偏移信息差量的联合估计,降低测量数据和视觉信息的时间差对融合数据的精度影响,提高机器人的自身位姿定位精度。

Description

一种机器人定位与建图的数据融合处理方法
技术领域
本发明属于机器人定位与建图技术领域,具体涉及一种机器人定位与建图的数据融合处理方法。
背景技术
机器人的同步定位和地图构建(Simultaneous Localization And Mapping,SLAM)是指在机器人在未知环境中移动时提取并组合有用信息,以此确定自身位姿并逐步建立出周围环境地图的过程。SLAM目前已经在移动机器人、无人驾驶、空中无人机等方面得到成功应用,受到的关注越来越多。
现有技术中,提取并组合有用信息获得机器人自身位姿的方法有以下几种:第一种是利用单目相机和卡尔曼滤波(Kalmanfilter,KF)进行位姿优化的方法,优化过程包括计算旋转向量和平移向量的更新值,并将二者的更新值作为优化后的位姿;第二种方法是应用较广泛的基于扩展卡尔曼滤波(extendedKalman filter,EKF)的SLAM算法,该方法利用EKF估计机器人位姿和地图特征位置,在估计机器人位姿和地图特征位置之前还需要利用一阶泰勒展开式对SLAM中的运动模型和观测模型进行线性化;另外还有一种多传感器融合的SLAM方法,移动机器人根据地磁场强度实际测量信息、加速度实际测量信息和已补偿修正的实际角速度测量值获得航姿参考***位姿信息,并计算单目相机位姿信息,根据卡尔曼滤波对单目相机位姿信息和航姿参考***位姿信息进行滤波融合,获取多传感器融合数据,即机器人的自身位姿;与前述两种方法相比,该方法大大地减小了光线对单目相机位姿信息的影响,提高了机器人的自身位姿精度。
但是上述多传感器融合的SLAM方法中,在多传感器的数据融合过程中存在一个融合误差:在对航姿参考***位姿信息和相机位姿信息进行融合时,首先利用多个传感器获得时刻k的航姿参考***位姿信息,再利用其他传感器获得同时刻的相机位姿信息;由于获取信息的传感器不是同一个传感器,而多个传感器获取数据时的时间戳不完全对齐,使多个数据的获取时刻的误差Δt不可避免,即在获取航姿参考***位姿信息的同一时刻k获取的相机位姿信息实际为时刻k+Δt获取的相机位姿信息。非同一时刻的传感器数据融合导致融合后获得的机器人自身位姿精度仍然较低。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,提供一种机器人定位与建图的数据融合处理方法,在融合多个传感器的测量数据过程中,修正多个测量数据之间因非同一时刻获取造成的信息差量,获得准确的融合后的机器人自身位姿,提高SLAM算法的定位精度。
为了实现本发明的上述目的,根据本发明的第一个方面,本发明提供了一种机器人定位与建图的数据融合处理方法,包括以下步骤:根据机器人上一时刻的状态向量、上一时刻的预测误差协方差矩阵和当前时刻的测量数据预测机器人当前时刻的状态向量;根据机器人上一时刻的误差协方差矩阵和噪声协方差矩阵计算机器人当前时刻的预测误差协方差矩阵;根据上一时刻机器人的偏移信息差量预测当前时刻机器人的偏移信息差量;偏移信息差量为视觉信息和测量数据之间的信息差;获取机器人的观测量,根据机器人当前时刻的偏移信息差量、当前时刻的预测状态向量、预测误差协方差矩阵和观测量获得联合后验概率密度函数;对初始的迭代参数进行赋值,根据变分推断方法对联合后验概率密度函数进行迭代更新,直至满足变分推断的迭代条件后结束迭代更新,根据当前时刻的联合后验概率密度函数获得当前时刻机器人的融合数据;机器人的融合数据包括当前时刻的状态向量及预测误差协方差矩阵、当前时刻的偏移信息差量及偏差量协方差矩阵。
进一步地,根据机器人当前时刻的偏移信息差量、当前时刻的预测状态向量、预测误差协方差矩阵和观测量获得联合后验概率密度函数的步骤具体为:根据机器人当前时刻的预测状态向量和当前时刻的预测协方差矩阵建立的先验概率密度函数;根据机器人当前时刻的偏移信息差量和视觉信息建立当前时刻偏移信息差量的高斯分布函数;根据当前机器人的观测量、当前时刻的偏差信息差量建立似然函数;根据先验概率密度函数、高斯分布函数和似然函数获取联合后验概率密度函数。
进一步地,联合后验概率密度函数具体如下:
Figure BDA0004057318370000031
Figure BDA0004057318370000032
Figure BDA0004057318370000033
具体地,p(Xk,ΔXk|Y1:k)表示联合后验概率密度函数值,N(;)表示高斯分布函数;k表示时刻;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;
Figure BDA0004057318370000041
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;RΔX表示偏移信息差量的误差协方差矩阵;p(Y1:k-1)表示时刻1至时刻k-1的观测量概率分布。
进一步地,变分推断方法为变分贝叶斯方法,根据变分贝叶斯方法,最优解公式满足:
Figure BDA0004057318370000042
其中,
Figure BDA0004057318370000043
θ表示集合Θk中的任意一个元素;Θk(-θ)表示由Θk中非θ元素;Cθ表示集合Θk中与元素θ无关的量;E[]表示期望值;p(Θk,Y1:k)表示联合概率密度函数;根据变分推断方法对联合后验概率密度函数进行迭代更新的步骤包括:将迭代参数和联合后验概率密度函数带入最优解公式中获得当前时刻的联合后验概率密度函数;联合后验概率密度函数的对数函数如下:
Figure BDA0004057318370000044
Figure BDA0004057318370000045
Figure BDA0004057318370000046
其中,k表示时刻;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;( )T表示转置矩阵;
Figure BDA0004057318370000047
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;RΔX表示偏移信息差量的误差协方差矩阵,
Figure BDA0004057318370000048
表示集合{Xk,ΔXk}中与集合Θk无关的量。
进一步地,根据变分推断方法对联合后验概率密度函数进行迭代更新的步骤还包括:根据当前时刻的联合后验概率密度函数获得状态向量的近似概率密度函数和偏移信息差量的近似概率密度函数;根据当前时刻的联合后验概率密度函数获得当前时刻机器人的融合数据的步骤具体为:根据状态向量的近似概率密度函数获得当前时刻的状态向量及预测误差协方差矩阵;根据偏移信息差量的近似概率密度函数获得当前时刻的偏移信息差量及偏差量协方差矩阵。
进一步地,状态向量的近似概率密度函数的获取过程如下:将最优解公式带入联合后验概率密度函数的对数函数,并令θ=Xk,获得:
Figure BDA0004057318370000051
Figure BDA0004057318370000052
其中,i表示迭代次数,k表示时刻;q(i+1)(Xk)表示时刻k第i+1次迭代后状态向量的近似概率密度函数;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量,ΔXk为第i次迭代的迭代参数;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;( )T表示转置矩阵;
Figure BDA0004057318370000053
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;
Figure BDA0004057318370000054
表示集合Θk中与Xk无关的量;根据log q(i+1)(Xk)的公式判断状态向量的近似概率密度函数服从高斯分布,则状态向量的近似概率密度函数如下:
Figure BDA0004057318370000055
其中,N(;)表示高斯分布函数;
Figure BDA0004057318370000056
表示时刻k第i+1次迭代的状态向量,Pk|k时刻k的误差协方差矩阵;状态向量和预测误差协方差矩阵根据第一求解公式获得。
进一步地,第一求解公式具体为:
Figure BDA0004057318370000061
Figure BDA0004057318370000062
Pk|k=(Im-KkHk)Pk|k-1
Figure BDA0004057318370000063
Figure BDA0004057318370000064
其中,i表示迭代次数,k表示时刻;
Figure BDA0004057318370000065
表示时刻k第i+1次迭代的状态向量,Xk|k-1表示时刻k的预测状态向量;Kk表示时刻k的增益矩阵;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量,ΔXk为第i次迭代的迭代参数;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;Pk|k-1表示时刻k的预测误差协方差矩阵;Hk T表示观测矩阵Hk的转置矩阵;
Figure BDA0004057318370000066
表示时刻k似然函数的协方差矩阵;Pk|k时刻k的误差协方差矩阵;Im表示单位矩阵。
进一步地,偏移信息差量的近似概率密度函数的获取过程如下:将最优解公式带入联合后验概率密度函数的对数函数,并令θ=ΔXk,获得:
Figure BDA0004057318370000067
Figure BDA0004057318370000068
Figure BDA0004057318370000069
其中,i表示迭代次数,k表示时刻;q(i+1)(ΔXk)表示时刻k第i+1次迭代后的偏移信息差量的近似概率密度函数;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;Yk-HkXk为第i次迭代的迭代参数,E(i)[Yk-HkXk]表示第i次迭代时迭代参数(Yk-HkXk)的期望值;ΔXk表示时刻k的偏移信息差量;()T表示转置矩阵;
Figure BDA0004057318370000071
表示时刻k似然函数的协方差矩阵;ΔXk-1表示时刻k-1的偏移信息差量;RΔX表示偏移信息差量的误差协方差矩阵;
Figure BDA0004057318370000072
表示集合Θk中与ΔXk无关的量;根据log q(i+1)(ΔXk)的公式判断偏移信息差量的近似概率密度函数服从高斯分布,则偏移信息差量的近似概率密度函数如下:
Figure BDA0004057318370000073
Figure BDA0004057318370000074
其中,N(;)表示高斯分布函数;
Figure BDA0004057318370000075
表示时刻k第i+1次迭代的偏移信息差量;
Figure BDA0004057318370000076
表示时刻k的偏移信息差量的误差协方差矩阵;偏移信息差量和偏移信息差量的协方差矩阵根据第二求解公式获得。
进一步地,第二求解公式具体为:
Figure BDA0004057318370000077
Figure BDA0004057318370000078
Figure BDA0004057318370000079
其中,i表示迭代次数,k表示时刻;
Figure BDA00040573183700000710
表示时刻k第i+1次迭代的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;KΔX表示偏移信息差量的增益矩阵;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;E(i)[Yk-HkXk]表示第i次迭代(Yk-HkXk)的期望值,E(i)[Yk-HkXk]为第i次迭代的迭代参数;
Figure BDA00040573183700000711
表示时刻k的偏移信息差量的误差协方差矩阵;Im表示单位矩阵;RΔX表示偏移信息差量的误差协方差矩阵;Hk T表示观测矩阵Hk的转置矩阵;
Figure BDA00040573183700000712
表示时刻k似然函数的协方差矩阵。
进一步地,变分推断的迭代条件具体如下:
Figure BDA00040573183700000713
其中,i表示迭代次数,k表示时刻,
Figure BDA0004057318370000081
表示时刻k第i+1次迭代的状态向量,
Figure BDA0004057318370000082
表示时刻k第i次迭代的状态向量;ε表示迭代阈值;直至满足变分推断的迭代条件后结束迭代更新的步骤具体为:若第i+1次迭代后,当前时刻的状态向量满足变分推断的迭代条件,则结束迭代;若第i+1次迭代后,当前时刻的状态向量不满足变分推断的迭代条件,则将本次迭代的迭代参数的期望值作为下一次迭代的迭代参数开始下一轮的迭代更新。
本发明的技术原理及有益效果:本发明定义偏移信息差量为Δt引起的视觉信息和测量数据之间的信息差,在滤波融合过程中引入偏移信息差量为变量之一,并对偏移信息差量进行高斯建模;利用变分推断方法对迭代过程中的状态向量和偏移信息差量进行更新,根据当前时刻的偏移信息差量对下一时刻的偏移信息差量进行预测;当满足迭代条件后,输出融合数据;本发明在视觉信息和测量数据的融合过程中引入偏移信息差量,在融合视觉信息和测量数据的过程中,修正数据之间因非同一时刻获取造成的信息差量;利用变分推断方法实现对机器人状态向量和偏移信息差量的联合估计,降低测量数据和视觉信息的时间差对融合数据的精度影响,提高机器人的自身位姿定位精度。
附图说明
图1是本发明一种机器人定位与建图的数据融合处理方法的流程示意图。
具体实施方式
下面详细描述本发明的实施例;下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
机器人在同步定位和地图构建过程中,使用了一种多传感器融合的SLAM方法,根据卡尔曼滤波对单目相机位姿信息和航姿参考位姿信息进行滤波融合,获取多传感器融合数据,即机器人的自身位姿;但是在数据融合过程中存在一个融合误差。本发明为了在融合多个传感器的测量数据过程中,修正多个测量数据之间因非同一时刻获取造成的信息差量,提出了一种机器人定位与建图的数据融合处理方法,本方法能够获得准确的融合后的机器人自身位姿,提高SLAM算法的定位精度。
如附图1所示,本发明提供了一种机器人定位与建图的数据融合处理方法,包括以下步骤:
根据机器人上一时刻的状态向量、上一时刻的预测误差协方差矩阵和当前时刻的测量数据预测机器人当前时刻的状态向量;状态向量包括机器人的三维位置、速度信息和四元数;当机器人为第一时刻时,状态向量和预测误差协方差矩阵根据机器人的惯性测量单元设定获得;
根据机器人上一时刻的误差协方差矩阵和噪声协方差矩阵计算机器人当前时刻的预测误差协方差矩阵;
根据上一时刻机器人的偏移信息差量预测当前时刻机器人的偏移信息差量;偏移信息差量为视觉信息和测量数据之间的信息差;具体地,视觉信息根据相机拍摄照片分析获得;在首次迭代时,根据惯性测量单元和相机人为设置一个初始的偏移信息差量,在之后的迭代过程中对初始的偏移信息差量进行逐步更新;
根据视觉信息获取机器人的观测量;根据机器人当前时刻的偏移信息差量、当前时刻的预测状态向量、预测误差协方差矩阵和观测量获得当前时刻的联合后验概率密度函数;
对初始的迭代参数进行赋值,根据变分推断方法对联合后验概率密度函数进行迭代更新,直至满足变分推断的迭代条件后结束迭代更新,根据当前时刻的联合后验概率密度函数获得当前时刻机器人的融合数据;具体地,机器人的融合数据包括当前时刻的状态向量及预测误差协方差矩阵、当前时刻的偏移信息差量及偏差量协方差矩阵。
具体地,预测机器人当前时刻的状态向量的过程如下:
Xk|k-1=Fk-1Xk-1|k-1
其中,k表示时刻,Xk|k-1表示时刻k的预测状态向量,Fk-1表示测量数据的预积分,Xk-1|k-1表示时刻k-1的状态向量;预测状态向量Xk|k-1=[Pbk,Vbk,Qbk],Pbk和Vbk分别是移动机器人的三维位置和速度信息,Qbk表示从惯性测量单元坐标系到世界坐标系的四元数;
本实施例中,测量数据通过机器人的惯性测量单元获得;惯性测量单元包括加速度器和陀螺仪,测量数据包括加速度值和角速度值,测量数据的预积分的获取过程如下:对加速度计测得的加速度值去除噪声后进行一次积分可得到速度,二次积分可得到相对位移。对陀螺仪测得的角速度值去除噪声后进行一次积分可得到移动机器人运动过程中的角度变化;其中,去除的噪声为加速度传感器静止时输出的数据值;去除噪声的步骤具体为测得的加速度值减去静止时输出的数据值。
具体地,预测误差协方差矩阵如下:
Pk|k-1=Fk-1Pk-1|k-1Fk-1 T+Qk
其中,Pk|k-1表示时刻k的预测误差协方差矩阵,Fk-1表示测量数据的预积分,Pk-1|k-1时刻k-1的误差协方差矩阵;( )T表示转置矩阵;Fk-1 T表示预计分的转置矩阵;Qk表示***噪声协方差矩阵,***噪声协方差矩阵根据惯性测量单元设定。
具体地,观测量包括机器人的三维位姿和速度信息,且满足:
Yk=HkXk|k-1+HkΔXk+vk
其中,Yk表示时刻k的观测量,Hk表示时刻k的观测矩阵,为机器人的观测量与状态向量之间的映射关系,本实施例中观测矩阵为前六阶值为1、后续值为0的对角矩阵,ΔXk表示时刻k的偏移信息差量,vk表示时刻k的观测噪声,观测噪声根据相机获得。
具体地,对初始的迭代参数进行赋值的过程如下:
E(0)[ΔXk]=ΔXk-1
E(0)[Yk-HkXk]=Yk-HkXk|k-1
其中,E[ ]表示期望值;ΔXk表示时刻k的偏移信息差量,ΔXk-1表示时刻k-1的偏移信息差量,将ΔXk-1作为迭代参数ΔXk首次迭代的期望值,迭代参数ΔXk首次迭代的期望值作为下一次迭代的迭代参数。
进一步地,根据机器人当前时刻的偏移信息差量、当前时刻的预测状态向量、预测误差协方差矩阵和观测量获得联合后验概率密度函数的步骤具体为:
根据机器人当前时刻的预测状态向量和当前时刻的预测协方差矩阵建立先验概率密度函数:
p(Xk|Yk-1)=N(Xk;Xk|k-1,Pk|k-1)
其中,p(Xk|Yk-1)表示先验概率密度函数,Xk表示时刻k的状态向量,Yk-1表示时刻k-1的观测量,N(;)表示高斯分布函数;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;
根据机器人当前时刻的偏移信息差量和视觉信息建立当前时刻偏移信息差量的高斯分布函数:
p(ΔXk)=N(ΔXk;ΔXk-1,RΔX)
其中,p(ΔXk)表示高斯分布函数,ΔXk表示时刻k的偏移信息差量,ΔXk-1表示时刻k-1的偏移信息差量,RΔX表示偏移信息差量的误差协方差矩阵;偏移信息差量的误差协方差矩阵根据当前时刻的偏移信息差量获得。
具体地,ΔXk=[ΔPk,ΔVk,ΔQk],ΔPk表示时刻k的移动机器人的三维位姿,ΔVk表示时刻k的速度信息,ΔQk表示时刻k的四元数的偏移信息差量。
根据当前机器人的观测量、当前时刻的偏差信息差量建立似然函数:
Figure BDA0004057318370000121
其中,p(Yk|Xk|k-1)表示似然函数,Yk表示时刻k的观测量,Hk表示时刻k的观测矩阵,Xk表示时刻k的状态向量,ΔXk表示时刻k的偏移信息差量;
Figure BDA0004057318370000131
表示时刻k的似然函数对应的协方差矩阵;首个时刻的似然函数对应的协方差矩阵根据惯性测量单元人为设定。
根据先验概率密度函数、高斯分布函数和似然函数获取联合后验概率密度函数:
Figure BDA0004057318370000132
其中,p(Xk,ΔXk|Y1:k)表示联合后验概率密度函数值,k表示时刻;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;
Figure BDA0004057318370000133
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;RΔX表示偏移信息差量的误差协方差矩阵;p(Y1:k-1)表示时刻1至时刻k-1的观测量概率分布。
本实施例中,变分推断方法为变分贝叶斯方法,根据变分贝叶斯方法,最优解公式满足:
Figure BDA0004057318370000134
其中,
Figure BDA0004057318370000135
θ表示集合Θk中的任意一个元素;Θk(-θ)表示由Θk中非θ元素;Cθ表示集合Θk中与元素θ无关的量;E[ ]表示期望值;p(Θk,Y1:k)表示联合概率密度函数;
根据变分推断方法对联合后验概率密度函数进行迭代更新的步骤包括:将迭代参数和联合后验概率密度函数带入最优解公式中获得联合后验概率密度函数的对数函数;
Figure BDA0004057318370000141
其中,k表示时刻;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;
Figure BDA0004057318370000142
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;RΔX表示偏移信息差量的误差协方差矩阵,
Figure BDA0004057318370000143
表示集合{Xk,ΔXk}中与集合Θk无关的量。
优选地,根据变分推断方法对联合后验概率密度函数进行迭代更新的步骤还包括:
根据当前时刻的联合后验概率密度函数获得状态向量的近似概率密度函数和偏移信息差量的近似概率密度函数;
根据当前时刻的联合后验概率密度函数获得当前时刻机器人的融合数据的步骤具体为:根据状态向量的近似概率密度函数获得当前时刻的状态向量及预测误差协方差矩阵;根据偏移信息差量的近似概率密度函数获得当前时刻的偏移信息差量及偏差量协方差矩阵。具体地:
p(Xk,ΔXk|Y1:k)≈q(Xk)q(ΔXk)
其中,p(Xk,ΔXk|Y1:k)表示时刻k的联合后验概率密度函数,q(Xk)表示时刻k的状态向量的近似概率密度函数,q(ΔXk)表示时刻k的偏移信息差量的近似概率密度函数;
优选地,状态向量的近似概率密度函数的获取过程如下:将最优解公式带入联合后验概率密度函数的对数函数,并令θ=Xk,获得:
Figure BDA0004057318370000151
其中,i表示迭代次数,k表示时刻;q(i+1)(Xk)表示时刻k第i+1次迭代后状态向量的近似概率密度函数;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量,ΔXk为第i次迭代的迭代参数;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;( )T表示转置矩阵;
Figure BDA0004057318370000152
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;
Figure BDA0004057318370000153
表示集合Θk中与Xk无关的量;
根据log q(i+1)(Xk)的公式判断状态向量的近似概率密度函数服从高斯分布,则状态向量的近似概率密度函数如下:
Figure BDA0004057318370000161
其中,N(;)表示高斯分布函数;
Figure BDA0004057318370000162
表示时刻k第i+1次迭代的状态向量,Pk|k时刻k的误差协方差矩阵;状态向量和预测误差协方差矩阵根据第一求解公式获得。
具体地,第一求解公式具体为:
Figure BDA0004057318370000163
Pk|k=(Im-KkHk)Pk|k-1
Figure BDA0004057318370000164
其中,i表示迭代次数,k表示时刻;
Figure BDA0004057318370000165
表示时刻k第i+1次迭代的状态向量,Xk|k-1表示时刻k的预测状态向量;Kk表示时刻k的增益矩阵;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量,ΔXk为第i次迭代的迭代参数;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;Pk|k-1表示时刻k的预测误差协方差矩阵;Hk T表示观测矩阵Hk的转置矩阵;
Figure BDA0004057318370000166
表示时刻k似然函数的协方差矩阵;Pk|k时刻k的误差协方差矩阵;Im表示单位矩阵。
优选地,偏移信息差量的近似概率密度函数的获取过程如下:将最优解公式带入联合后验概率密度函数的对数函数,并令θ=ΔXk,获得:
Figure BDA0004057318370000171
其中,i表示迭代次数,k表示时刻;q(i+1)(ΔXk)表示时刻k第i+1次迭代后的偏移信息差量的近似概率密度函数;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;Yk-HkXk为第i次迭代的迭代参数,E(i)[Yk-HkXk]表示第i次迭代时迭代参数(Yk-HkXk)的期望值;ΔXk表示时刻k的偏移信息差量;( )T表示转置矩阵;
Figure BDA0004057318370000172
表示时刻k似然函数的协方差矩阵;ΔXk-1表示时刻k-1的偏移信息差量;RΔX表示偏移信息差量的误差协方差矩阵;
Figure BDA0004057318370000173
表示集合Θk中与ΔXk无关的量;
根据log q(i+1)(ΔXk)的公式判断偏移信息差量的近似概率密度函数服从高斯分布,则偏移信息差量的近似概率密度函数如下:
Figure BDA0004057318370000174
其中,N(;)表示高斯分布函数;
Figure BDA0004057318370000175
表示时刻k第i+1次迭代的偏移信息差量;偏移信息差量和偏移信息差量的协方差矩阵根据第二求解公式获得。
具体地,第二求解公式具体为:
Figure BDA0004057318370000176
Figure BDA0004057318370000177
Figure BDA0004057318370000181
其中,i表示迭代次数,k表示时刻;
Figure BDA0004057318370000182
表示时刻k第i+1次迭代的更新偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;KΔX表示偏移信息差量的增益矩阵;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;E(i)[Yk-HkXk]表示第i次迭代(Yk-HkXk)的期望值,E(i)[Yk-HkXk]为第i次迭代的迭代参数;
Figure BDA0004057318370000183
表示时刻k的偏移信息差量的协方差矩阵;Im表示单位矩阵;RΔX表示偏移信息差量的误差协方差矩阵;Hk T表示观测矩阵Hk的转置矩阵;
Figure BDA0004057318370000184
表示时刻k似然函数的协方差矩阵。
优选地,变分推断的迭代条件具体如下:
Figure BDA0004057318370000185
其中,i表示迭代次数,k表示时刻,
Figure BDA0004057318370000186
表示时刻k第i+1次迭代的状态向量,
Figure BDA0004057318370000187
表示时刻k第i次迭代的状态向量;ε表示迭代阈值;迭代阈值通过人为设定获得。
直至满足变分推断的迭代条件后结束迭代更新的步骤具体为:
若第i+1次迭代后,当前时刻的状态向量满足变分推断的迭代条件,则结束迭代;
若第i+1次迭代后,当前时刻的状态向量不满足变分推断的迭代条件,则将本次迭代的迭代参数的期望值作为下一次迭代的迭代参数开始下一轮的迭代更新。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (10)

1.一种机器人定位与建图的数据融合处理方法,其特征在于,包括以下步骤:
根据机器人上一时刻的状态向量、上一时刻的预测误差协方差矩阵和当前时刻的测量数据预测机器人当前时刻的状态向量;根据机器人上一时刻的误差协方差矩阵和噪声协方差矩阵计算机器人当前时刻的预测误差协方差矩阵;
根据上一时刻机器人的偏移信息差量预测当前时刻机器人的偏移信息差量;偏移信息差量为视觉信息和测量数据之间的信息差;
获取机器人的观测量,根据机器人当前时刻的偏移信息差量、当前时刻的预测状态向量、预测误差协方差矩阵和观测量获得联合后验概率密度函数;
对初始的迭代参数进行赋值,根据变分推断方法对联合后验概率密度函数进行迭代更新,直至满足变分推断的迭代条件后结束迭代更新,根据当前时刻的联合后验概率密度函数获得当前时刻机器人的融合数据;机器人的融合数据包括当前时刻的状态向量及预测误差协方差矩阵、当前时刻的偏移信息差量及偏差量协方差矩阵。
2.如权利要求1所述的一种机器人定位与建图的数据融合处理方法,其特征在于,根据机器人当前时刻的偏移信息差量、当前时刻的预测状态向量、预测误差协方差矩阵和观测量获得联合后验概率密度函数的步骤具体为:
根据机器人当前时刻的预测状态向量和当前时刻的预测协方差矩阵建立先验概率密度函数;
根据机器人当前时刻的偏移信息差量和视觉信息建立当前时刻偏移信息差量的高斯分布函数;
根据当前机器人的观测量、当前时刻的偏差信息差量建立似然函数;
根据先验概率密度函数、高斯分布函数和似然函数获取联合后验概率密度函数。
3.如权利要求2所述的一种机器人定位与建图的数据融合处理方法,其特征在于,联合后验概率密度函数具体如下:
Figure FDA0004057318360000021
具体地,p(Xk,ΔXk|Y1:k)表示联合后验概率密度函数值,N(;)表示高斯分布函数;k表示时刻;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;
Figure FDA0004057318360000022
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;RΔX表示偏移信息差量误差的协方差矩阵;p(Y1:k-1)表示时刻1至时刻k-1的观测量概率分布。
4.如权利要求3所述的一种机器人定位与建图的数据融合处理方法,其特征在于,变分推断方法为变分贝叶斯方法,根据变分贝叶斯方法,最优解公式满足:
Figure FDA0004057318360000023
其中,
Figure FDA0004057318360000031
θ表示集合Θk中的任意一个元素;Θk(-θ)表示由Θk中非θ元素;Cθ表示集合Θk中与元素θ无关的量;E[]表示期望值;p(Θk,Y1:k)表示联合概率密度函数;
根据变分推断方法对联合后验概率密度函数进行迭代更新的步骤包括:将迭代参数和联合后验概率密度函数带入最优解公式中获得当前时刻的联合后验概率密度函数;
联合后验概率密度函数的对数函数如下:
Figure FDA0004057318360000032
其中,k表示时刻;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;()T表示转置矩阵;
Figure FDA0004057318360000033
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;RΔX表示偏移信息差量的误差协方差矩阵,
Figure FDA0004057318360000034
表示集合{Xk,ΔXk}中与集合Θk无关的量。
5.如权利要求4所述的一种机器人定位与建图的数据融合处理方法,其特征在于,根据变分推断方法对联合后验概率密度函数进行迭代更新的步骤还包括:根据当前时刻的联合后验概率密度函数获得状态向量的近似概率密度函数和偏移信息差量的近似概率密度函数;
根据当前时刻的联合后验概率密度函数获得当前时刻机器人的融合数据的步骤具体为:根据状态向量的近似概率密度函数获得当前时刻的状态向量及预测误差协方差矩阵;根据偏移信息差量的近似概率密度函数获得当前时刻的偏移信息差量及偏差量协方差矩阵。
6.如权利要求5所述的一种机器人定位与建图的数据融合处理方法,其特征在于,状态向量的近似概率密度函数的获取过程如下:
将最优解公式带入联合后验概率密度函数的对数函数,并令θ=Xk,获得:
Figure FDA0004057318360000041
其中,i表示迭代次数,k表示时刻;q(i+1)(Xk)表示时刻k第i+1次迭代后状态向量的近似概率密度函数;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量,ΔXk为第i次迭代的迭代参数;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;()T表示转置矩阵;
Figure FDA0004057318360000042
表示时刻k似然函数的协方差矩阵;Xk|k-1表示时刻k的预测状态向量;Pk|k-1表示时刻k的预测误差协方差矩阵;
Figure FDA0004057318360000043
表示集合Θk中与Xk无关的量;
根据log q(i+1)(Xk)的公式判断状态向量的近似概率密度函数服从高斯分布,则状态向量的近似概率密度函数如下:
Figure FDA0004057318360000051
其中,N(;)表示高斯分布函数;
Figure FDA0004057318360000052
表示时刻k第i+1次迭代的状态向量,Pk|k时刻k的误差协方差矩阵;状态向量和预测误差协方差矩阵根据第一求解公式获得。
7.如权利要求6所述的一种机器人定位与建图的数据融合处理方法,其特征在于,第一求解公式具体为:
Figure FDA0004057318360000053
Pk|k=(Im-KkHK)Pk|k-1
Figure FDA0004057318360000054
其中,i表示迭代次数,k表示时刻;
Figure FDA0004057318360000055
表示时刻k第i+1次迭代的状态向量,Xk|k-1表示时刻k的预测状态向量;Kk表示时刻k的增益矩阵;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Hk表示时刻k的状态向量;ΔXk表示时刻k的偏移信息差量,ΔXk为第i次迭代的迭代参数;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;E(i)[ΔXk]表示第i次迭代ΔXk的期望值;Pk|k-1表示时刻k的预测误差协方差矩阵;Hk T表示观测矩阵Hk的转置矩阵;
Figure FDA0004057318360000056
表示时刻k似然函数的协方差矩阵;Pk|k时刻k的误差协方差矩阵;Im表示单位矩阵。
8.如权利要求5所述的一种机器人定位与建图的数据融合处理方法,其特征在于,偏移信息差量的近似概率密度函数的获取过程如下:将最优解公式带入联合后验概率密度函数的对数函数,并令θ=ΔXk,获得:
Figure FDA0004057318360000061
其中,i表示迭代次数,k表示时刻;q(i+1)(ΔXk)表示时刻k第i+1次迭代后的偏移信息差量的近似概率密度函数;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;Yk-HkXk为第i次迭代的迭代参数,E(i)[Yk-HkXk]表示第i次迭代时迭代参数(Yk-HkXk)的期望值;ΔXk表示时刻k的偏移信息差量;()T表示转置矩阵;
Figure FDA0004057318360000062
表示时刻k似然函数的协方差矩阵;ΔXk-1表示时刻k-1的偏移信息差量;RΔX表示偏移信息差量的误差协方差矩阵;
Figure FDA0004057318360000063
表示集合Θk中与ΔXk无关的量;
根据log q(i+1)(ΔXk)的公式判断偏移信息差量的近似概率密度函数服从高斯分布,则偏移信息差量的近似概率密度函数如下:
Figure FDA0004057318360000064
其中,N(;)表示高斯分布函数;
Figure FDA0004057318360000065
表示时刻k第i+1次迭代的偏移信息差量;
Figure FDA0004057318360000066
表示时刻k的偏移信息差量的误差协方差矩阵;偏移信息差量和偏移信息差量的协方差矩阵根据第二求解公式获得。
9.如权利要求8所述的一种机器人定位与建图的数据融合处理方法,其特征在于,第二求解公式具体为:
Figure FDA0004057318360000071
Figure FDA0004057318360000072
Figure FDA0004057318360000073
其中,i表示迭代次数,k表示时刻;
Figure FDA0004057318360000074
表示时刻k第i+1次迭代的偏移信息差量;ΔXk-1表示时刻k-1的偏移信息差量;KΔX表示偏移信息差量的增益矩阵;Yk表示时刻k的观测量;Hk表示时刻k的观测矩阵;Xk表示时刻k的状态向量;E(i)[Yk-HkXk]表示第i次迭代(Yk-HkXk)的期望值,E(i)[Yk-HkXk]为第i次迭代的迭代参数;
Figure FDA0004057318360000079
表示时刻k的偏移信息差量的误差协方差矩阵;Im表示单位矩阵;RΔX表示偏移信息差量的误差协方差矩阵;Hk T表示观测矩阵Hk的转置矩阵;
Figure FDA0004057318360000075
表示时刻k似然函数的协方差矩阵。
10.如权利要求1、2、3、4、5、6、7、8或9所述的一种机器人定位与建图的数据融合处理方法,其特征在于,变分推断的迭代条件具体如下:
Figure FDA0004057318360000076
其中,i表示迭代次数,k表示时刻,
Figure FDA0004057318360000077
表示时刻k第i+1次迭代的状态向量,
Figure FDA0004057318360000078
表示时刻k第i次迭代的状态向量;ε表示迭代阈值;
直至满足变分推断的迭代条件后结束迭代更新的步骤具体为:若第i+1次迭代后,当前时刻的状态向量满足变分推断的迭代条件,则结束迭代;若第i+1次迭代后,当前时刻的状态向量不满足变分推断的迭代条件,则将本次迭代的迭代参数的期望值作为下一次迭代的迭代参数开始下一轮的迭代更新。
CN202310049730.XA 2023-02-01 2023-02-01 一种机器人定位与建图的数据融合处理方法 Active CN115930971B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310049730.XA CN115930971B (zh) 2023-02-01 2023-02-01 一种机器人定位与建图的数据融合处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310049730.XA CN115930971B (zh) 2023-02-01 2023-02-01 一种机器人定位与建图的数据融合处理方法

Publications (2)

Publication Number Publication Date
CN115930971A true CN115930971A (zh) 2023-04-07
CN115930971B CN115930971B (zh) 2023-09-19

Family

ID=86651027

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310049730.XA Active CN115930971B (zh) 2023-02-01 2023-02-01 一种机器人定位与建图的数据融合处理方法

Country Status (1)

Country Link
CN (1) CN115930971B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118034304A (zh) * 2024-03-05 2024-05-14 广州市东鼎智能装备有限公司 一种基于实时建模的机器人路径规划方法及***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106052678A (zh) * 2016-05-23 2016-10-26 中国空间技术研究院 一种聚合式星敏感器及其卫星姿态确定方法
CN109376785A (zh) * 2018-10-31 2019-02-22 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
CN109508445A (zh) * 2019-01-14 2019-03-22 哈尔滨工程大学 一种带有色量测噪声和变分贝叶斯自适应卡尔曼滤波的目标跟踪方法
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
US20200356582A1 (en) * 2019-05-09 2020-11-12 Ankobot (Shenzhen) Smart Technologies Co., Ltd. Method for updating a map and mobile robot
WO2021035669A1 (zh) * 2019-08-30 2021-03-04 深圳市大疆创新科技有限公司 位姿预测方法、地图构建方法、可移动平台及存储介质
WO2022062177A1 (zh) * 2020-09-28 2022-03-31 南京邮电大学 一种基于动态环境的自适应室内融合定位方法
CN115388899A (zh) * 2022-09-15 2022-11-25 七腾机器人有限公司 基于变分贝叶斯的移动机器人视觉惯性融合slam方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106052678A (zh) * 2016-05-23 2016-10-26 中国空间技术研究院 一种聚合式星敏感器及其卫星姿态确定方法
CN109376785A (zh) * 2018-10-31 2019-02-22 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
WO2020087846A1 (zh) * 2018-10-31 2020-05-07 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
CN109508445A (zh) * 2019-01-14 2019-03-22 哈尔滨工程大学 一种带有色量测噪声和变分贝叶斯自适应卡尔曼滤波的目标跟踪方法
US20200356582A1 (en) * 2019-05-09 2020-11-12 Ankobot (Shenzhen) Smart Technologies Co., Ltd. Method for updating a map and mobile robot
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
WO2021035669A1 (zh) * 2019-08-30 2021-03-04 深圳市大疆创新科技有限公司 位姿预测方法、地图构建方法、可移动平台及存储介质
WO2022062177A1 (zh) * 2020-09-28 2022-03-31 南京邮电大学 一种基于动态环境的自适应室内融合定位方法
CN115388899A (zh) * 2022-09-15 2022-11-25 七腾机器人有限公司 基于变分贝叶斯的移动机器人视觉惯性融合slam方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
余哲琳: "基于视觉惯导融合的智能车辆定位技术研究", 中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑, no. 5, pages 035 - 374 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118034304A (zh) * 2024-03-05 2024-05-14 广州市东鼎智能装备有限公司 一种基于实时建模的机器人路径规划方法及***

Also Published As

Publication number Publication date
CN115930971B (zh) 2023-09-19

Similar Documents

Publication Publication Date Title
CN111207774B (zh) 一种用于激光-imu外参标定的方法及***
CN110706279B (zh) 基于全局地图与多传感器信息融合的全程位姿估计方法
CN111136660B (zh) 机器人位姿定位方法及***
CN110068335B (zh) 一种gps拒止环境下无人机集群实时定位方法及***
CN110398257B (zh) Gps辅助的sins***快速动基座初始对准方法
Lupton et al. Visual-inertial-aided navigation for high-dynamic motion in built environments without initial conditions
CN110986939B (zh) 一种基于imu预积分的视觉惯性里程计方法
CN107014376B (zh) 一种适用于农业机械精准作业的姿态倾角估计方法
CN111288989B (zh) 一种小型无人机视觉定位方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN111337020A (zh) 引入抗差估计的因子图融合定位方法
CN111795686A (zh) 一种移动机器人定位与建图的方法
CN114485643B (zh) 一种煤矿井下移动机器人环境感知与高精度定位方法
CN110929402A (zh) 一种基于不确定分析的概率地形估计方法
CN115930971B (zh) 一种机器人定位与建图的数据融合处理方法
CN115388899A (zh) 基于变分贝叶斯的移动机器人视觉惯性融合slam方法
Peng et al. Vehicle odometry with camera-lidar-IMU information fusion and factor-graph optimization
CN115218906A (zh) 面向室内slam的视觉惯性融合定位方法及***
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
CN113503872B (zh) 一种基于相机与消费级imu融合的低速无人车定位方法
CN114397642A (zh) 一种基于图优化的三维激光雷达与imu外参标定方法
CN117388830A (zh) 激光雷达与惯性导航的外参标定方法、装置、设备及介质
CN115597595B (zh) 多线激光定位方法及定位装置、计算机设备、存储介质
CN111982126A (zh) 一种全源BeiDou/SINS弹性状态观测器模型设计方法
Bai et al. Graph-optimisation-based self-calibration method for IMU/odometer using preintegration theory

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A Data Fusion Processing Method for Robot Localization and Mapping

Granted publication date: 20230919

Pledgee: Industrial and Commercial Bank of China Limited Chongqing Liangjiang Branch

Pledgor: Seven Teng Robot Co.,Ltd.

Registration number: Y2024980010233