CN115902930A - 一种面向船舶检测的无人机室内建图与定位方法 - Google Patents

一种面向船舶检测的无人机室内建图与定位方法 Download PDF

Info

Publication number
CN115902930A
CN115902930A CN202211428431.9A CN202211428431A CN115902930A CN 115902930 A CN115902930 A CN 115902930A CN 202211428431 A CN202211428431 A CN 202211428431A CN 115902930 A CN115902930 A CN 115902930A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
representing
map
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211428431.9A
Other languages
English (en)
Inventor
盛志超
陈斌斌
余鸿文
杨强强
方勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202211428431.9A priority Critical patent/CN115902930A/zh
Publication of CN115902930A publication Critical patent/CN115902930A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提供了一种面向船舶检测的无人机室内建图方法,通过二维激光雷达采集船舶内部环境信息,将船舶内部的原始点云信息,由无人机搭载的微计算机进行数据处理。针对激光雷达获取点云信息异常数据的处理,提出了基于混合滤波的改进Cartographer算法,建立二位栅格地图。根据已构建的栅格地图,通过粒子滤波算法精确的估计无人机在船舶内部的位姿信息。本发明降低了构建环境地图的产生的轨迹误差,提高了无人机未知环境的自主定位能力。实现了无人机在船舶内部建图与自主定位。

Description

一种面向船舶检测的无人机室内建图与定位方法
技术领域
本发明涉及无人机技术领域,具体涉及面向船舶检测的无人机室内建图与定位方法。
背景技术
随着我国航运船队规模不断扩大,航运贸易总量急剧增长,船舶检验不仅是航行安全的重要前提,也是提高中国航运市场的重要保证。目前对于船舶检测中的结构性检查,需要验船师手持仪器进行相关检查。在某些高空狭窄的区域,需要通过梯子,脚手架以及高空绳索来进行靠近检测,使得验船师操作危险系数提高,检测成本增加,验船项目的检测效率降低。
随着无人机技术的快速发展,在电力巡检、农情检测、矿场勘探、救灾抢险等领域有着广泛的应用,目前已有船舶公司利用无人机辅助验船师进行船舶检测。无人机通常工作在光线良好、视野开阔的环境,利用GPS导航或者视觉深度相机实现无无人机定位,然而在无光照、有强磁干扰的钢制船舱内部,无人机无法获取GPS信号,无法实现在船舶内部的稳定飞行、避障、导航等环境感知。
随着机器人技术的发展,机器人已经拥有一定的环境感知能力。机器人***通常依赖同步定位与建图技术来实现对环境的感知。当机器人周围环境的信号被屏蔽时,无法通过GPS***来进行自身的定位与导航。SLAM技术通过机器人携带传感器来采集周围环境信息,实现环境地图构建之后,机器人便可根据当前地图实现室内定位与导航。目前SLAM技术主要包括基于贝叶斯概率的粒子滤波方法和基于图优化的方法。粒子滤波方法会随着建图过程的不断积累,不断放大传感器估计过程中的误差,构建的地图缺乏连贯性。图优化加入了后端回环检测机制,能够实现子图之间的连贯性,但是无法滤除点云信息中的异常数据,增加计算的复杂度。
发明内容
本发明的目的在于解决船舶检验中,如何实现无人机在船舱内部的室内建图与定位问题,提供了一种面向船舶检测的无人机室内建图与定位方法。该方法不仅能够在黑暗,封闭的船舱内部采集到环境信息,建立精确的二维栅格地图,而且能够在缺乏GPS信号的船舶内部得到无人机的位姿信息。
为了达到上述目的,本发明所采用的技术方案是:
一种面向船舶检测的无人机室内建图与定位方法:包括船舶内部点云信息的获取、船舱内部二维栅格地图构建以及无人机在船舶内部定位等关键部分,具体包括以下步骤:
(1)利用激光雷达获得激光雷达数据序列,并将激光雷达位姿通过坐标转换映射到全局坐标系,获得全局地图坐标值;
(2)利用基于混合滤波改进的SLAM框架,输入激光雷达数据构建船舱内部栅格地图;
(3)利用粒子滤波算法,在无人机已知控制信息和采样信息情况下,在环境地图中确定无人机在船舱内部位姿。
优选地,所述步骤(1)具体包括:
1-1)建立地面坐标系与无人机坐标系,二者都是右手坐标系,无人机坐标围绕X,Y,Z三轴的角度以θ、φ、γ表示,其关系矩阵:
Figure BDA0003944011050000021
Figure BDA0003944011050000022
Figure BDA0003944011050000023
1-2)根据三轴关系矩阵,得到从地面坐标系转换至无人机机体坐标系变换矩阵R,从无人机坐标系转换至地面坐标系的变换矩阵为RT
Figure BDA0003944011050000024
Figure BDA0003944011050000025
优选地,所述步骤(2)具体包括:
2-1)利用PCL库中的统计滤波和半径滤波对体素滤波前后的数据进行混合滤波处理,通过调整统计参数与半径参数去除大量离群点,统计参数包括KNN值与标准偏差乘数,半径参数包括半径范围与最小临近点阈值;
2-2)利用Cartorgrapher中的sensorBridge类实现传感信息ROS格式和自定义格式之间的转换和封装,通过transform包将任意时刻激光雷达数据转换为实际环境的子图坐标表示,其中
Figure BDA0003944011050000026
代表坐标系之间的旋转角度,i表示第i个数据帧,x表示无人机某一飞行高度平面x轴方向,y表示无人机某一飞行高度平面y轴方向,ψ表示轴方向旋转角度,ξ表示无人机某一飞行高度的位姿,T表示矩阵转置,
Figure BDA0003944011050000027
表示平移量,
Figure BDA0003944011050000028
表示第n个时刻激光扫描帧:
Figure BDA0003944011050000031
2-3)经过雷达数据帧坐标变换后,将数据帧与构建好的子图进行扫描匹配,并利用SLAM中的ceres库优化数据帧在已有子图的位姿,对栅格地图已观测点进行概率更新:
Figure BDA0003944011050000032
Mnew(x)=clamp(adds-1(odds(Mold(x))odds(p)))
其中p表示网格被占据概率;Mold(x)表示上一次的栅格地图观测点概率;
2-4)使用相关性扫描匹配对已构建子图中所有位姿进行匹配,根据该雷达数据帧对应角度变换θδ与对应测量的最大距离dmax提高匹配效率:
Figure BDA0003944011050000033
Figure BDA0003944011050000034
其中n表示无人机飞行的第n时刻,N表示无人机的飞行总时间,hn表示第n个时刻的匹配数据帧,r表示搜索增量。;
2-5)利用已构建子图之间的约束,通过回环检测构建连贯的全局地图。
优选地,所述步骤(3)具体包括:
3-1)分析无人机运动模型,对应粒子滤波框架中的状态转移函数,无人机速度为yk,位移为Dk,惯性坐标下姿态下加速度为a=(ax,ay,az)T,ax、ay、az表示无人机三个航向角的加速度,T表示矩阵转置,重力方向加速度分量为g=(0,0,g)T,旋转矩阵为R,加速度通过旋转矩阵转换至地面坐标系,减去Z轴方向加速度分量,得到IMU相对于地面坐标系的加速度,并将其离散化:
Figure BDA0003944011050000035
Figure BDA0003944011050000036
其中
Figure BDA0003944011050000037
表示惯导速率,
Figure BDA0003944011050000038
表示无人机飞行速率,
Figure BDA0003944011050000039
表示无人机加速度,T表示飞行时间,
Figure BDA00039440110500000310
表示当前无人机位置坐标,
Figure BDA00039440110500000311
表示上一个时刻无人机位置坐标;
3-2)分析激光雷达的扫描误差与测量误差,建立测量函数:
Figure BDA0003944011050000041
Figure BDA0003944011050000042
其中zm为激光雷达的最大测量值,
Figure BDA0003944011050000043
表示测量误差均值,
Figure BDA0003944011050000044
表示测量
Figure BDA0003944011050000045
的真实距离,xt表示t时刻的位姿,m表示粒子集中的粒子数量,Pw表示扫描误差,满足方差为
Figure BDA0003944011050000046
均值为
Figure BDA0003944011050000047
高斯分布。Pv表示测量误差满足[0~zm]的均匀分布,
Figure BDA0003944011050000048
表示标准差为
Figure BDA0003944011050000049
均值为
Figure BDA00039440110500000410
的正态分布,η为归一化因子;
ev,k=xk-f(xk-1,uk)
ey,j,k=zj,k-h(xk,yj)
其中xk表示当前状态的相机位姿,xk-1表示上一个状态的相机位姿,uk表示传感器输出数据帧,yj表示地图路标,zj,k表示图像的像素位置,y表示地图中所有路标,j表示第j个路标点,k表示第k个时刻,ev,k为运动方程的的误差,ey,j,k为观测方程的误差,均满足零均值的高斯分布,并求出该误差的平方值和:
Figure BDA00039440110500000411
其中,T表示矩阵转置,
Figure BDA00039440110500000412
表示运动噪声概率分布的方差;
Figure BDA00039440110500000413
表示观测噪声概率分布的方差;
编译并安装Ceres库,根据运动方程和观测方程生成真实值,添加对应的高斯分布噪声,设定好相关代价函数,并将误差函数添加到目标函数,调用Solve函数进行求解;
3-3)无人机在船舱内部经过飞行获得环境栅格地图后,将地图导入ROS仿真环境,将无人机放置在船舱的任意位置,控制无人机的移动,利用激光雷达观测信息和IMU的运动信息去估计无人机的位姿,确定无人机在船舱内部的定位。
与现有技术相比,本发明的有益效果在于:
在黑暗、封闭的船舱环境,利用基于混合滤波改进的SLAM框架结合激光雷达,可以降低点云数据中的离群噪声点与轨迹误差,提高环境地图的精确度。根据已构建的栅格地图,通过粒子滤波算法可以精确的估计无人机在船舶内部的位姿信息。
附图说明
图1是室内建图与定位的流程示意图。
图2是无人机***总体框架。
图3是地面坐标系与无人机坐标系转换示意图。
具体实施方式
下面结合附图对发明作进一步详细描述。
具体实施时,所述的激光雷达为蓝海光电LDS-50C,具有每秒1600次测量频率的测距采样能力,具有360度水平视角场,测量半径40米,能够满足船舱内部测量精度。所述的机载计算机为Nvidia Jetson Xavier NX,采用NVIDIA Volt架构GPU,并搭载6核NVIDIACarmel
Figure BDA0003944011050000056
8.2 64位CPU。装载ROS平台,作为无人机建图平台的核心处理单元,部署SLAM算法。用于负责点云数据的处理,通过发送飞控指令对无人机飞控进行姿态调整。采用WiFi传输,建立与地面站的通信,通过地面站显示无人机实时环境信息以及无人机位姿。
如图1所示,一种面向船舶检测的无人机室内建图与定位方法:包括船舶内部点云信息的获取、船舱内部二维栅格地图构建以及无人机在船舶内部定位等关键部分,具体包括以下步骤:
步骤1:利用激光雷达获得激光雷达数据序列,并将激光雷达位姿通过坐标转换映射到全局坐标系,获得全局地图坐标值。
1-1)建立地面坐标系与无人机坐标系。二者都是右手坐标系,无人机坐标围绕X,Y,Z三轴的角度以θ、φ、γ表示。其关系矩阵:
Figure BDA0003944011050000051
Figure BDA0003944011050000052
Figure BDA0003944011050000053
1-2)根据三轴关系矩阵,得到从地面坐标系转换至无人机机体坐标系变换矩阵R,从无人机坐标系转换至地面坐标系的变换矩阵为RT,如图3所示:
Figure BDA0003944011050000054
Figure BDA0003944011050000055
1-3)经过雷达数据帧坐标变换后,将数据帧与构建好的子图进行扫描匹配,并利用SLAM中的ceres库优化数据帧在已有子图的位姿。对栅格地图已观测点进行概率更新:
Figure BDA0003944011050000061
Mnew(x)=clamp(adds-1(odds(Mold(x))odds(p)))
其中p表示网格被占据概率;Mold(x)表示上一次的栅格地图观测点概率;
步骤2:利用基于混合滤波改进的SLAM框架,如图2所示,输入激光雷达数据构建船舱内部栅格地图。
2-1)利用PCL库中的统计滤波和半径滤波对体素滤波前后的数据进行混合滤波处理,通过调整统计参数与半径参数去除大量离群点。统计参数包括KNN值与标准偏差乘数,半径参数包括半径范围与最小临近点阈值。
2-2)利用Cartorgrapher中的sensorBridge类实现传感信息ROS格式和自定义格式之间的转换和封装,通过transform包将任意时刻激光雷达数据转换为实际环境的子图坐标表示,其中
Figure BDA0003944011050000062
代表坐标系之间的旋转角度,i表示第i个数据帧,x表示无人机某一飞行高度平面x轴方向,y表示无人机某一飞行高度平面y轴方向,ψ表示轴方向旋转角度,ξ表示无人机某一飞行高度的位姿,T表示矩阵转置,
Figure BDA0003944011050000063
表示平移量,
Figure BDA0003944011050000064
表示第n个时刻激光扫描帧:
Figure BDA0003944011050000065
2-3)经过雷达数据帧坐标变换后,将数据帧与构建好的子图进行扫描匹配,并利用SLAM中的ceres库优化数据帧在已有子图的位姿。对栅格地图已观测点进行概率更新:
Figure BDA0003944011050000066
Mnew(x)=clamp(adds-1(odds(Mold(x))odds(p)))
其中p表示网格被占据概率;Mold(x)表示上一次的栅格地图观测点概率;
2-4)使用相关性扫描匹配对已构建子图中所有位姿进行匹配,根据该雷达数据帧对应角度变换θδ与对应测量的最大距离dmax提高匹配效率
Figure BDA0003944011050000067
Figure BDA0003944011050000068
其中n表示无人机飞行的第n时刻,N表示无人机的飞行总时间,hn表示第n个时刻的匹配数据帧,r表示搜索增量。;
2-5)利用已构建子图之间的约束,通过回环检测构建连贯的全局地图。
步骤3:利用粒子滤波算法,在无人机已知控制信息和采样信息情况下,在环境地图中确定无人机在船舱内部位姿。
3-1)分析无人机运动模型,对应粒子滤波框架中的状态转移函数,无人机速度为yk,位移为Dk,惯性坐标下姿态下加速度为a=(ax,ay,az)T,ax、ay、az表示无人机三个航向角的加速度,T表示矩阵转置,重力方向加速度分量为g=(0,0,g)T,旋转矩阵为R,加速度通过旋转矩阵转换至地面坐标系,减去Z轴方向加速度分量,得到IMU相对于地面坐标系的加速度,并将其离散化:
Figure BDA0003944011050000071
Figure BDA0003944011050000072
其中
Figure BDA0003944011050000073
表示惯导速率,
Figure BDA0003944011050000074
表示无人机飞行速率,
Figure BDA0003944011050000075
表示无人机加速度,T表示飞行时间,
Figure BDA0003944011050000076
表示当前无人机位置坐标,
Figure BDA0003944011050000077
表示上一个时刻无人机位置坐标;
3-2)分析激光雷达的扫描误差与测量误差,建立测量函数:
Figure BDA0003944011050000078
Figure BDA0003944011050000079
其中zm为激光雷达的最大测量值,
Figure BDA00039440110500000710
表示测量误差均值,
Figure BDA00039440110500000711
表示测量
Figure BDA00039440110500000712
的真实距离,xt表示t时刻的位姿,m表示粒子集中的粒子数量,Pw表示扫描误差,满足方差为
Figure BDA00039440110500000713
均值为
Figure BDA00039440110500000714
高斯分布。Pv表示测量误差满足[0~zm]的均匀分布,
Figure BDA00039440110500000715
表示标准差为
Figure BDA00039440110500000716
均值为
Figure BDA00039440110500000717
的正态分布,η为归一化因子;
ev,k=xk-f(xk-1,uk)
ey,j,k=zj,k-h(xk,yj)
其中xk表示当前状态的相机位姿,xk-1表示上一个状态的相机位姿,uk表示传感器输出数据帧,yj表示地图路标,zj,k表示图像的像素位置,y表示地图中所有路标,j表示第j个路标点.,k表示第k个时刻,ev,j为运动方程的的误差,ey,j,k为观测方程的误差,均满足零均值的高斯分布,并求出该误差的平方值和:
Figure BDA0003944011050000081
其中,T表示矩阵转置,
Figure BDA0003944011050000082
表示运动噪声概率分布的方差;
Figure BDA0003944011050000083
表示观测噪声概率分布的方差;
编译并安装Ceres库,根据运动方程和观测方程生成真实值,添加高斯分布噪声,设定好相关代价函数,并将误差函数添加到目标函数,调用Solve函数进行求解。
3-3)无人机在船舱内部经过飞行获得环境栅格地图后,将地图导入ROS仿真环境,将无人机放置在船舱的任意位置,控制无人机的移动,利用激光雷达观测信息和IMU的运动信息去估计无人机的位姿,确定无人机在船舱内部的定位。
相较于现有的技术和方案相比,本发明提出的面向船舶检测的无人机室内建图与定位方法,利用基于混合滤波改进的SLAM框架结合激光雷达,可以降低点云数据中的离群噪声点与轨迹误差,提高环境地图的精确度。根据已构建的栅格地图,通过粒子滤波算法可以精确的估计无人机在船舶内部的位姿信息,提高了无人机未知环境的自主定位能力,保证了无人机在船舱内部稳定飞行和下一步检测的前提。总之,本发明面向船舶检测的无人机室内建图方法,通过二维激光雷达采集船舶内部环境信息,将船舶内部的原始点云信息,由无人机搭载的微计算机进行数据处理。针对激光雷达获取点云信息异常数据的处理,提出了基于混合滤波的改进Cartographer算法,建立二位栅格地图。根据已构建的栅格地图,通过粒子滤波算法精确的估计无人机在船舶内部的位姿信息。本发明降低了构建环境地图的产生的轨迹误差,提高了无人机未知环境的自主定位能力。实现了无人机在船舶内部建图与自主定位。
上面对本发明实施例结合附图进行了说明,但本发明不限于上述实施例,还可以根据本发明的发明创造的目的做出多种变化,凡依据本发明技术方案的精神实质和原理下做的改变、修饰、替代、组合或简化,均应为等效的置换方式,只要符合本发明的发明目的,只要不背离本发明的技术原理和发明构思,都属于本发明的保护范围。

Claims (4)

1.一种面向船舶检测的无人机室内建图与定位方法,其特征在于,具体操作步骤如下:
(1)利用激光雷达获得激光雷达数据序列,并将激光雷达位姿通过坐标转换映射到全局坐标系,获得全局地图坐标值;
(2)利用基于混合滤波改进的SLAM框架,输入激光雷达数据构建船舱内部栅格地图;
(3)利用粒子滤波算法,在无人机已知控制信息和采样信息情况下,在环境地图中确定无人机在船舱内部位姿。
2.根据权利要求1所述一种面向船舶检测的无人机室内建图与定位方法,其特征在于,所述步骤(1)具体包括:
1-1)建立地面坐标系与无人机坐标系,二者都是右手坐标系,无人机坐标围绕X,Y,Z三轴的角度以θ、φ、γ表示,其关系矩阵:
Figure FDA0003944011040000011
Figure FDA0003944011040000012
Figure FDA0003944011040000013
1-2)根据三轴关系矩阵,得到从地面坐标系转换至无人机机体坐标系变换矩阵R,从无人机坐标系转换至地面坐标系的变换矩阵为RT
Figure FDA0003944011040000014
Figure FDA0003944011040000015
3.根据权利要求1所述一种面向船舶检测的无人机室内建图与定位方法,其特征在于,所述步骤(2)具体包括:
2-1)利用PCL库中的统计滤波和半径滤波对体素滤波前后的数据进行混合滤波处理,通过调整统计参数与半径参数去除大量离群点,统计参数包括KNN值与标准偏差乘数,半径参数包括半径范围与最小临近点阈值;
2-2)利用Cartorgrapher中的sensorBridge类实现传感信息ROS格式和自定义格式之间的转换和封装,通过transform包将任意时刻激光雷达数据转换为实际环境的子图坐标表示,其中
Figure FDA0003944011040000021
代表坐标系之间的旋转角度,i表示第i个数据帧,x表示无人机某一飞行高度平面x轴方向,y表示无人机某一飞行高度平面y轴方向,ψ表示轴方向旋转角度,ξ表示无人机某一飞行高度的位姿,T表示矩阵转置,
Figure FDA0003944011040000022
表示平移量,
Figure FDA0003944011040000023
表示第n个时刻激光扫描帧:
Figure FDA0003944011040000024
2-3)经过雷达数据帧坐标变换后,将数据帧与构建好的子图进行扫描匹配,并利用SLAM中的ceres库优化数据帧在已有子图的位姿,对栅格地图观测点进行概率更新:
Figure FDA0003944011040000025
Mnew(x)=clamp(adds-1(odds(Mold(x))odds(p)))
其中p表示网格被占据概率;Mold(x)表示上一次的栅格地图观测点概率;
2-4)使用相关性扫描匹配对已构建子图中所有位姿进行匹配,根据该雷达数据帧对应角度变换θδ与对应测量的最大距离dmax提高匹配效率:
Figure FDA0003944011040000026
Figure FDA0003944011040000027
其中n表示无人机飞行的第n时刻,N表示无人机的飞行总时间,hn表示第n个时刻的匹配数据帧,r表示搜索增量。;
2-5)利用已构建子图之间的约束,通过回环检测构建连贯的全局地图。
4.根据权利要求1所述一种面向船舶检测的无人机室内建图与定位方法,其特征在于,所述步骤(3)具体包括:
3-1)分析无人机运动模型,对应粒子滤波框架中的状态转移函数,无人机速度为Vk,位移为Dk,惯性坐标下姿态下加速度为a=(ax,ay,az)T,ax、ay、az表示无人机三个航向角的加速度,T表示矩阵转置,重力方向加速度分量为g=(0,0,g)T,旋转矩阵为R,加速度通过旋转矩阵转换至地面坐标系,减去Z轴方向加速度分量,得到IMU相对于地面坐标系的加速度,并将其离散化:
Figure FDA0003944011040000028
Figure FDA0003944011040000031
其中
Figure FDA0003944011040000032
表示惯导速率,
Figure FDA0003944011040000033
表示无人机飞行速率,
Figure FDA0003944011040000034
表示无人机加速度,T表示飞行时间,
Figure FDA0003944011040000035
表示当前无人机位置坐标,
Figure FDA0003944011040000036
表示上一个时刻无人机位置坐标;
3-2)分析激光雷达的扫描误差与测量误差,建立测量函数:
Figure FDA0003944011040000037
Figure FDA0003944011040000038
其中zm为激光雷达的最大测量值,
Figure FDA0003944011040000039
表示测量误差均值,
Figure FDA00039440110400000310
表示测量
Figure FDA00039440110400000311
的真实距离,xt表示t时刻的位姿,m表示粒子集中的粒子数量,Pw表示扫描误差,满足方差为
Figure FDA00039440110400000312
均值为
Figure FDA00039440110400000313
高斯分布。pv表示测量误差满足[0~zm]的均匀分布,
Figure FDA00039440110400000314
表示标准差为
Figure FDA00039440110400000315
均值为
Figure FDA00039440110400000316
的正态分布,η为归一化因子;
ev,k=xk-f(xk-1,uk)
ey,j,k=zj,k-h(xk,yj)
其中xk表示当前状态的相机位姿,xk-1表示上一个状态的相机位姿,uk表示传感器输出数据帧,yj表示地图路标,zj,k表示图像的像素位置,y表示地图中所有路标,j表示第j个路标点,k表示第k个时刻,ev,k为运动方程的的误差,ey,j,k为观测方程的误差,均满足零均值的高斯分布,并求出该误差的平方值和:
Figure FDA00039440110400000317
其中,T表示矩阵转置,
Figure FDA00039440110400000318
表示运动噪声概率分布的方差;
Figure FDA00039440110400000319
表示观测噪声概率分布的方差;
编译并安装Ceres库,根据运动方程和观测方程生成真实值,添加对应的高斯分布噪声,设定好相关代价函数,并将误差函数添加到目标函数,调用Solve函数进行求解;
3-3)无人机在船舱内部经过飞行获得环境栅格地图后,将地图导入ROS仿真环境,将无人机放置在船舱的任意位置,控制无人机的移动,利用激光雷达观测信息和IMU的运动信息去估计无人机的位姿,确定无人机在船舱内部的定位。
CN202211428431.9A 2022-11-15 2022-11-15 一种面向船舶检测的无人机室内建图与定位方法 Pending CN115902930A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211428431.9A CN115902930A (zh) 2022-11-15 2022-11-15 一种面向船舶检测的无人机室内建图与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211428431.9A CN115902930A (zh) 2022-11-15 2022-11-15 一种面向船舶检测的无人机室内建图与定位方法

Publications (1)

Publication Number Publication Date
CN115902930A true CN115902930A (zh) 2023-04-04

Family

ID=86496671

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211428431.9A Pending CN115902930A (zh) 2022-11-15 2022-11-15 一种面向船舶检测的无人机室内建图与定位方法

Country Status (1)

Country Link
CN (1) CN115902930A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116698016A (zh) * 2023-08-04 2023-09-05 西安交通大学 复杂狭窄空间微型雷达阵列建图***及方法
CN117428774A (zh) * 2023-11-23 2024-01-23 中国船舶集团有限公司第七一六研究所 一种用于船舶巡检的工业机器人控制方法及***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116698016A (zh) * 2023-08-04 2023-09-05 西安交通大学 复杂狭窄空间微型雷达阵列建图***及方法
CN116698016B (zh) * 2023-08-04 2023-10-20 西安交通大学 复杂狭窄空间微型雷达阵列建图***及方法
CN117428774A (zh) * 2023-11-23 2024-01-23 中国船舶集团有限公司第七一六研究所 一种用于船舶巡检的工业机器人控制方法及***

Similar Documents

Publication Publication Date Title
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN101598556B (zh) 一种未知环境下无人机视觉/惯性组合导航方法
CN113124856B (zh) 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN115902930A (zh) 一种面向船舶检测的无人机室内建图与定位方法
KR20210111180A (ko) 위치 추적 방법, 장치, 컴퓨팅 기기 및 컴퓨터 판독 가능한 저장 매체
CN111426320B (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN107607091A (zh) 一种测量无人机飞行航迹的方法
CN112967392A (zh) 一种基于多传感器触合的大规模园区建图定位方法
CN113075686B (zh) 一种基于多传感器融合的电缆沟智能巡检机器人建图方法
Dill et al. Seamless indoor-outdoor navigation for unmanned multi-sensor aerial platforms
Hirose et al. Implementation of UAV localization methods for a mobile post-earthquake monitoring system
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
KR102288609B1 (ko) 다중 모듈 기반의 그래프 구조를 이용한 무인체 위치 추정 시스템 및 그 방법
CN113129377B (zh) 一种三维激光雷达快速鲁棒slam方法和装置
Karlsson et al. Utilizing model structure for efficient simultaneous localization and mapping for a UAV application
CN103344252A (zh) 一种航空高光谱成像***定位误差分析方法
Liu et al. Global estimation method based on spatial–temporal Kalman filter for DPOS
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN116952229A (zh) 无人机定位方法、装置、***和存储介质
CN112098926A (zh) 一种利用无人机平台的智能测角训练样本生成方法
CN117075158A (zh) 基于激光雷达的无人变形运动平台的位姿估计方法及***
RU2232402C2 (ru) Способ определения дальности до источников радиоизлучений и скорости сближения с ними в однопозиционных радиолокационных системах
Jeong et al. Parsing indoor manhattan scenes using four-point lidar on a micro uav
Grönwall et al. Two imaging systems for positioning and navigation
Vishnevsky et al. Modelling of uav simulator for local navigation system of tethered high-altitude platforms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination