CN113296139B - 一种自适应图像光流与rtk融合测姿方法 - Google Patents
一种自适应图像光流与rtk融合测姿方法 Download PDFInfo
- Publication number
- CN113296139B CN113296139B CN202110583081.2A CN202110583081A CN113296139B CN 113296139 B CN113296139 B CN 113296139B CN 202110583081 A CN202110583081 A CN 202110583081A CN 113296139 B CN113296139 B CN 113296139B
- Authority
- CN
- China
- Prior art keywords
- optical flow
- moment
- carrier
- angular velocity
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/53—Determining attitude
- G01S19/54—Determining attitude using carrier phase measurements; using long or short baseline interferometry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/393—Trajectory determination or predictive tracking, e.g. Kalman filtering
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
本发明公开一种自适应图像光流与RTK融合测姿方法,通过使用自适应卡尔曼滤波融合图像光流测姿数据和RTK测姿数据,有效地抑制图像光流测姿的误差累积,并且使用图像光流测姿***来辅助RTK测姿,增强了***的稳定性及姿态测量精度。通过使用对比度受限的直方图均衡处理方法、基于代价函数的野值剔除方法以及改进的光流运动方程,有效地提升***姿态测量的精度。
Description
技术领域
本发明涉及测姿测向技术领域,具体涉及一种自适应图像光流与RTK融合测姿方法。
背景技术
对载体进行姿态测量是GNSS的重要技术应用之一,该方法可以实时提供载体的姿态信息,运用RTK姿态测量技术,可以求解出载体的航向角、横滚角和俯仰角。虽然RTK测姿***所产生的误差不会随时间积累,但是受限于实际观测环境影响,该方法测量精度较差。虽然图像光流姿态测量***具有很强的自主性,工作时不受外界干扰,但是图像光流姿态测量***采用的是相对测量的方法,存在着误差累积的问题,限制了该方法的运用。
发明内容
本发明所要解决的是传统RTK测姿***精度相比较于精密惯导***还存在一定差距,且不适用于卫星信号遮挡的场合,以及图像光流测姿***在运行过程中存在累积误差,需要实时矫正误差的问题,提出一种自适应图像光流与RTK融合测姿方法。
为解决上述问题,本发明是通过以下技术方案实现的:
一种自适应图像光流与RTK融合测姿方法,包括步骤如下:
步骤1、使用一个具有三个以上GNSS天线的RTK测姿***进行载体姿态解算,获取各个时刻载体的姿态角;其中姿态角包含载体的俯仰角p、横滚角r和航向角y;
步骤2、先从固定在载体上的摄像机获取各个时刻图像;再对各个时刻图像进行预处理后,利用SURF法得到各个时刻图像的特征点;后利用前后时刻图像的特征点的坐标做差得到位移量,并用位移量除以***采样时间得到各个时刻图像的特征点的光流值;
步骤3、在传统光流运动方程的基础上引入平动光流膨胀点,得到改进的光流运动方程;其中改进的光流运动方程为:
式中,ωr为载体的横滚角速度,ωp为载体的俯仰角速度,ωy为载体的航向角速度,(uE,vE)为光流膨胀点在图像中的坐标,(un,vn)为图像的第n个特征点的坐标,为图像的第n个特征点的光流值,f为摄像机的焦距,n=1,2,...,N,N为图像的特征点的数目;
步骤4、对各个时刻图像的特征点的光流值使用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度;其中姿态角速度包含载体的俯仰角速度ωp、横滚角速度ωr以及航向角速度ωy;
步骤5、使用自适应卡尔曼滤波对步骤1所获得的各个时刻载体的姿态角和步骤4获取的各个时刻载体的姿态角速度进行融合估计,得到各个时刻载体的姿态角估计值。
上述步骤5的具体过程如下:
步骤5.1、构建自适应卡尔曼滤波的滤波模型;滤波模型各个时刻观测向量Y由该时刻载体的俯仰角p、横滚角r、航向角y、俯仰角速度ωp、横滚角速度ωr和航向角速度ωy所组成;滤波模型各个时刻状态向量X由该时刻载体的俯仰角p、横滚角r、航向角y、俯仰角速度ωp、横滚角速度ωr、航向角速度ωy、俯仰角加速度ap,横滚角加速度ar和航向角加速度ay所组成;
步骤5.2、给定初始的俯仰角加速度ap、初始的横滚角加速度ar、初始的航向角加速度ay、初始的观测向量Y0、初始的状态向量X0、初始的状态向量误差协方差矩阵P0、初始的观测误差协方差矩阵R0、卡尔曼滤波状态转移矩阵A、状态过程协方差矩阵Q和测量矩阵C;并令i=1;
步骤5.4、根据第i-1时刻状态向量误差协方差矩阵Pi-1、状态过程协方差矩阵Q和卡尔曼滤波状态转移矩阵A,计算第i时刻预测状态向量误差协方差矩阵Pi -:
Pi -=APi-1A+Q
步骤5.5、判断当前时刻i是否达到设定的时刻数M:
如果当前时刻i未达到设定的时刻数M,则第i时刻观测误差协方差矩阵Ri沿用第i-1时刻观测误差协方差矩阵Ri-1,即令Ri=Ri-1;
如果当前时刻i达到设定的时刻数M,则根据第i时刻的前M个时刻预测状态向量、第i时刻的前M个时刻观测向量、第i-1时刻状态向量误差协方差矩阵Pi-1和测量矩阵C,计算第i时刻观测误差协方差矩阵Ri:
步骤5.6、根据第i时刻预测状态向量误差协方差矩阵Pi -、第i时刻观测误差协方差矩阵Ri和测量矩阵C,计算第i时刻卡尔曼滤波增益矩阵Ki:
Ki=Pi -CT(CPi -CT+Ri)-1
步骤5.8、利用第i时刻预测状态向量误差协方差矩阵Pi -、第i时刻卡尔曼滤波增益矩阵Ki、测量矩阵C和9×9的单位矩阵I9×9,更新第i时刻状态向量误差协方差矩阵Pi;
Pi=(I9×9-KiC)Pi -
步骤5.9、令i=i+1,并返回步骤5.3。
上述步骤5.1中,初始的俯仰角加速度ap、初始的横滚角加速度ar和初始的航向角加速度ay均为0。
上述步骤5.2中,
初始的状态向量误差协方差矩阵P0为:
P0=I9×9
初始的观测误差协方差矩阵R0为:
卡尔曼滤波状态转移矩阵A为:
状态过程协方差矩阵Q为:
测量矩阵C为:
C=[I6×6 06×3]
其中,△t为***采样时间,I9×9为9×9的单位矩阵,I6×6为6×6的单位矩阵,I3×3为3×3的单位矩阵,06×3为6×3的全0矩阵。
作为改进,上述步骤4之后,步骤5之前,还进一步包括如下步骤:
步骤①、基于步骤4所得到的光流膨胀点坐标和载体的姿态角速度,使用代价函数计算各个时刻图像的特征点的残差值Jn;
步骤②、将步骤①所得残差值Jn超过设定的残差值阈值的图像的特征点进行初步剔除;
步骤③、对各个时刻图像初步剔除剩下的特征点用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度;
步骤④、基于步骤③所得到的光流膨胀点坐标和载体的姿态角速度,使用代价函数重新计算各个时刻图像初步剔除剩下的特征点的残差值Jn;
步骤⑤、将步骤④所得残差值Jn较大的预定比例的图像初步剔除剩下的特征点进行再次剔除;
步骤⑥、对各个时刻图像再次剔除剩下的特征点用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度;
步骤⑦、利用步骤⑥所得的载体的姿态角速度替换步骤4所得的载体的姿态角速度。
上述代价函数为:
其中,Jn为图像的第n个特征点所对应的残差值,ωr为载体的横滚角速度,ωp为载体的俯仰角速度,ωy为载体的航向角速度,(uE,vE)为光流膨胀点在图像中的坐标,(un,vn)为图像的第n个特征点的坐标,为图像的第n个特征点的光流值,f为摄像机的焦距,n=1,2,3...为图像的特征点的数目。
上述步骤1中,对图像进行预处理的方法为图像高斯滤波和对比度受限的直方图均衡处理。
与现有技术相比,本发明通过使用自适应卡尔曼滤波融合图像光流测姿数据和RTK测姿数据,有效地抑制图像光流测姿的误差累积,并且使用图像光流测姿***来辅助RTK测姿,增强了***的稳定性及姿态测量精度。通过使用对比度受限的直方图均衡处理方法、基于代价函数的野值剔除方法以及改进的光流运动方程,有效地提升***姿态测量的精度。
附图说明
图1为一种自适应图像光流与RTK融合测姿方法的流程图。
图2是光流膨胀点示意图。
图3是基于代价函数的野值剔除的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例,对本发明进一步详细说明。
参见图1,一种自适应图像光流与RTK融合测姿方法,其具体包括步骤如下:
步骤1:使用一个具有三个以上GNSS天线的RTK测姿***进行载体姿态解算,获取各个时刻载体的姿态角,该姿态角包含载体的横滚角r、俯仰角p和航向角y。
步骤2:先从固定在载体上的摄像机获取各个时刻的图像;再对各个时刻的图像进行预处理后,利用SURF(Speed Up Robust Features,加速求解的鲁棒特征点)法得到各个时刻的图像的特征点;后利用前后时刻的图像的特征点的坐标做差得到位移量,并用位移量除以***采样时间得到各个时刻的图像的特征点的光流值。
摄像头固定安装在载体上,并实时采集载体前方的图像。采用的图像预处理方法为:图像高斯滤波和对比度受限的直方图均衡处理。通过高斯滤波消除图像中的噪声,并通过对比度受限的直方图均衡处理对图像的对比度进行调整,使得亮度可以更好地在直方图上分布,增强局部的对比度改善阴影部分的亮度、凸出图像纹理,有效地改善了图像光流的求解精度。
步骤3:在传统光流运动方程的基础上引入平动光流膨胀点,得到改进的光流运动方程。
通过相机成像原理可建立的表示所拍摄的图像与相机运动之间关系的传统光流运动方程为:
其中,ωr为载体的横滚角速度,ωp为载体的俯仰角速度,ωy为载体的航向角速度,(vx,vy,vz)为载体三轴的线速度;Zn为第n个特征点距离摄像机光心的距离,(un,vn)为图像的第n个特征点的坐标,为图像的第n个特征点的光流值,f为摄像机的焦距,,n=1,2,...,N,N为图像中使用SURF法所检测到的特征点的数目。
为了降低姿态估计难度、提高姿态估计精度,本发明在传统光流运动方程中引入了平动光流膨胀点实现对光流平动分量的简化,进而减少整体的未知数个数。假设载体只进行平移运动且没有任何的旋转运动,此时摄像机中的图像表现为以某一个光流值为0的点为中心向四周膨胀,这个点在图像中的坐标可表示为(uE,vE),并称为光流膨胀点,流膨胀点如图2所示。
此时光流膨胀点坐标有以下关系:
将公式(2)带入传统的光流运动方程(1)即可获获得所述改进的光流运动方程为:
其中,ωr为载体的横滚角速度,ωp为载体的俯仰角速度,ωy为载体的航向角速度,(uE,vE)为光流膨胀点在图像中的坐标,(un,vn)为图像的第n个特征点的坐标,为图像的第n个特征点的光流值,f为摄像机的焦距,n=1,2,3...为图像的特征点的数目。
步骤4:对各个时刻图像的特征点的光流值使用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度;其中姿态角速度包含载体的俯仰角速度ωp、横滚角速度ωr以及航向角速度ωy。
步骤5:对各个时刻图像的特征点使用基于代价函数的野值剔除法剔除野值,如图3所示。
因为图像的特征点的光流值中存在不可避免的误差会影响运动参数的估计,所以载体姿态信息初步估计后的残差值Jn不为0,且误差较大的光流值的残差值Jn会比误差小的光流值大,因此可以通过剔除残差值Jn较大的光流值来改善估计精度。
步骤5.1:基于步骤4所得到的光流膨胀点坐标和载体的姿态角速度,使用代价函数计算各个时刻图像的特征点的残差值Jn。
使用一个代价函数作为图像特征点的评判标准,代价函数由改进光流运动方程推导而来,其公式如下:
其中,Jn为图像的第n个特征点所对应的残差值,ωr为载体的横滚角速度,ωp为载体的俯仰角速度,ωy为载体的航向角速度,(uE,vE)为光流膨胀点在图像中的坐标,(un,vn)为图像的第n个特征点的坐标,为图像的第n个特征点的光流值,f为摄像机的焦距,n=1,2,3...为图像的特征点的数目。
步骤5.2:将步骤5.1所得残差值Jn超过设定的残差值阈值的图像的特征点进行初步剔除(示例中选择的残差值阈值为5)。
步骤5.3:对各个时刻图像初步剔除剩下的特征点用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度。
步骤5.4:基于步骤5.3所得到的光流膨胀点坐标和载体的姿态角速度,使用代价函数重新计算各个时刻图像初步剔除剩下的特征点的残差值Jn。
步骤5.5:将步骤5.4所得残差值Jn较大的预定比例的图像初步剔除剩下的特征点进行再次剔除(示例中选择的预定比例为10%)。
步骤6:对经过步骤5剔除野值后的各个时刻图像的特征点的光流值使用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度,该姿态角速度包含载体的俯仰角速度ωp、横滚角速度ωr以及航向角速度ωy。
步骤7:使用自适应卡尔曼滤波对步骤1所获得的各个时刻载体的姿态角和步骤6获取的各个时刻载体的姿态角速度进行融合估计,得到各个时刻载体的姿态角估计值。
自适应卡尔曼滤波是指在利用***实时的测量数据进行卡尔曼滤波的同时,不断用滤波的结果去判断***自身的各项状态是否发生变化,并对自身滤波模型的参数和噪声特性进行实时的修正,以便减小卡尔曼滤波的模型误差、提高滤波结果的精度。在常规卡尔曼滤波中,表示滤波运动模型误差状态过程协方差矩阵Q和观测向量误差协方差矩阵R是固定的,在***自身运动模型出现偏差或***观测环境发生变化时会对最终滤波结果产生较大的影响。由于RTK测姿***容易因为楼房、树木对GNSS卫星信号的遮挡而影响测姿精度;对于图像光流测姿***中,其对载体角速度的测量结果也容易受到光照变化的影响。因此本发明使用了自适应卡尔曼滤波,利用***实时观测值和卡尔曼滤波预测值来实时修正观测向量误差协方差矩阵R。
令初始时刻为第0时刻,令当前时刻为第i时刻,令当前时刻的前一时刻为第i-1时刻,步骤7的具体过程如下:
步骤7.1:构建自适应卡尔曼滤波的滤波模型。
滤波模型各个时刻观测向量Y由步骤1所获取的和步骤6所获取的各个时刻载体的俯仰角p、横滚角r、航向角y、俯仰角速度ωp、横滚角速度ωr和航向角速度ωy所组成。
Y=[p r y ωp ωr ωy]T (5)
滤波模型各个时刻状态向量X由各个时刻载体的俯仰角p、横滚角r、航向角y、俯仰角速度ωp、横滚角速度ωr、航向角速度ωy、俯仰角加速度ap,横滚角加速度ar和航向角加速度ay所组成。
X=[p r y ωp ωr ωy ap ar ay]T (6)
步骤7.2:初始化:初始的俯仰角加速度ap、初始的横滚角加速度ar、初始的航向角加速度ay、初始的观测向量Y0、初始的状态向量X0、初始的状态向量误差协方差矩阵P0、初始的观测误差协方差矩阵R0、卡尔曼滤波状态转移矩阵A、状态过程协方差矩阵Q和测量矩阵C。
由于初始的俯仰角加速度ap、初始的横滚角加速度ar和初始的航向角加速度ay均为0。因此初始的观测向量Y0和初始的状态向量X0均可根据第0时刻的姿态角和姿态角速度能够确定。
初始的状态向量误差协方差矩阵P0为:
P0=I9×9 (7)
初始的观测误差协方差矩阵R0为:
卡尔曼滤波状态转移矩阵A为:
状态过程协方差矩阵Q为:
测量矩阵C为:
C=[I6×6 06×3] (11)
其中,△t为***采样时间,I9×9为9×9的单位矩阵,I6×6为6×6的单位矩阵,I3×3为3×3的单位矩阵,06×3为6×3的全0矩阵。
步骤7.4、根据第i-1时刻状态向量误差协方差矩阵Pi-1、状态过程协方差矩阵Q和卡尔曼滤波状态转移矩阵A,计算第i时刻预测状态向量误差协方差矩阵Pi -:
Pi -=APi-1A+Q
步骤7.5、判断当前时刻i是否达到设定的时刻数M:
如果当前时刻i未达到设定的时刻数M,则第i时刻观测误差协方差矩阵Ri沿用第i-1时刻观测误差协方差矩阵Ri-1,即令Ri=Ri-1;
如果当前时刻i达到设定的时刻数M,则根据第i时刻的前M个时刻预测状态向量、第i时刻的前M个时刻观测向量、第i-1时刻状态向量误差协方差矩阵Pi-1和测量矩阵C,计算第i时刻观测误差协方差矩阵Ri:
步骤7.6、根据第i时刻预测状态向量误差协方差矩阵Pi -、第i时刻观测误差协方差矩阵Ri和测量矩阵C,计算第i时刻卡尔曼滤波增益矩阵Ki:
Ki=Pi -CT(CPi -CT+Ri)-1
步骤7.8、利用第i时刻预测状态向量误差协方差矩阵Pi -、第i时刻卡尔曼滤波增益矩阵Ki、测量矩阵C和9×9的单位矩阵I9×9,更新第i时刻状态向量误差协方差矩阵Pi:
Pi=(I9×9-KiC)Pi -
步骤7.9、令i=i+1,并返回步骤7.3。
需要说明的是,尽管以上本发明所述的实施例是说明性的,但这并非是对本发明的限制,因此本发明并不局限于上述具体实施方式中。在不脱离本发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其它实施方式,均视为在本发明的保护之内。
Claims (6)
1.一种自适应图像光流与RTK融合测姿方法,其特征是,包括步骤如下:
步骤1、使用一个具有三个以上GNSS天线的RTK测姿***进行载体姿态解算,获取各个时刻载体的姿态角;其中姿态角包含载体的俯仰角p、横滚角r和航向角y;
步骤2、先从固定在载体上的摄像机获取各个时刻图像;再对各个时刻图像进行预处理后,利用SURF法得到各个时刻图像的特征点;后利用前后时刻图像的特征点的坐标做差得到位移量,并用位移量除以***采样时间得到各个时刻图像的特征点的光流值;
步骤3、在传统光流运动方程的基础上引入平动光流膨胀点,得到改进的光流运动方程;其中改进的光流运动方程为:
式中,ωr为载体的横滚角速度,ωp为载体的俯仰角速度,ωy为载体的航向角速度,(uE,vE)为光流膨胀点在图像中的坐标,(un,vn)为图像的第n个特征点的坐标,为图像的第n个特征点的光流值,f为摄像机的焦距,n=1,2,...,N,N为图像的特征点的数目;
步骤4、对各个时刻图像的特征点的光流值使用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度;其中姿态角速度包含载体的俯仰角速度ωp、横滚角速度ωr以及航向角速度ωy;
步骤5、使用自适应卡尔曼滤波对步骤1所获得的各个时刻载体的姿态角和步骤4获取的各个时刻载体的姿态角速度进行融合估计,得到各个时刻载体的姿态角估计值;其具体过程如下:
步骤5.1、构建自适应卡尔曼滤波的滤波模型;滤波模型各个时刻观测向量Y由该时刻载体的俯仰角p、横滚角r、航向角y、俯仰角速度ωp、横滚角速度ωr和航向角速度ωy所组成;滤波模型各个时刻状态向量X由该时刻载体的俯仰角p、横滚角r、航向角y、俯仰角速度ωp、横滚角速度ωr、航向角速度ωy、俯仰角加速度ap,横滚角加速度ar和航向角加速度ay所组成;
步骤5.2、给定初始的俯仰角加速度ap、初始的横滚角加速度ar、初始的航向角加速度ay、初始的观测向量Y0、初始的状态向量X0、初始的状态向量误差协方差矩阵P0、初始的观测误差协方差矩阵R0、卡尔曼滤波状态转移矩阵A、状态过程协方差矩阵Q和测量矩阵C;并令i=1;
步骤5.4、根据第i-1时刻状态向量误差协方差矩阵Pi-1、状态过程协方差矩阵Q和卡尔曼滤波状态转移矩阵A,计算第i时刻预测状态向量误差协方差矩阵Pi -:
Pi -=APi-1A+Q
步骤5.5、判断当前时刻i是否达到设定的时刻数M:
如果当前时刻i未达到设定的时刻数M,则第i时刻观测误差协方差矩阵Ri沿用第i-1时刻观测误差协方差矩阵Ri-1,即令Ri=Ri-1;
如果当前时刻i达到设定的时刻数M,则根据第i时刻的前M个时刻预测状态向量、第i时刻的前M个时刻观测向量、第i-1时刻状态向量误差协方差矩阵Pi-1和测量矩阵C,计算第i时刻观测误差协方差矩阵Ri:
步骤5.6、根据第i时刻预测状态向量误差协方差矩阵Pi -、第i时刻观测误差协方差矩阵Ri和测量矩阵C,计算第i时刻卡尔曼滤波增益矩阵Ki:
Ki=Pi -CT(CPi -CT+Ri)-1
步骤5.8、利用第i时刻预测状态向量误差协方差矩阵Pi -、第i时刻卡尔曼滤波增益矩阵Ki、测量矩阵C和9×9的单位矩阵I9×9,更新第i时刻状态向量误差协方差矩阵Pi;
Pi=(I9×9-KiC)Pi -
步骤5.9、令i=i+1,并返回步骤5.3。
2.根据权利要求1所述的一种自适应图像光流与RTK融合测姿方法,其特征是,步骤5.1中,初始的俯仰角加速度ap、初始的横滚角加速度ar和初始的航向角加速度ay均为0。
4.根据权利要求1所述的一种自适应图像光流与RTK融合测姿方法,其特征是,步骤4之后,步骤5之前,还进一步包括如下步骤:
步骤①、基于步骤4所得到的光流膨胀点坐标和载体的姿态角速度,使用代价函数计算各个时刻图像的特征点的残差值Jn;
步骤②、将步骤①所得残差值Jn超过设定的残差值阈值的图像的特征点进行初步剔除;
步骤③、对各个时刻图像初步剔除剩下的特征点用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度;
步骤④、基于步骤③所得到的光流膨胀点坐标和载体的姿态角速度,使用代价函数重新计算各个时刻图像初步剔除剩下的特征点的残差值Jn;
步骤⑤、将步骤④所得残差值Jn较大的预定比例的图像初步剔除剩下的特征点进行再次剔除;
步骤⑥、对各个时刻图像再次剔除剩下的特征点用改进的光流运动方程,并运用非线性最小二乘法求解各个时刻图像的光流膨胀点坐标和载体的姿态角速度;
步骤⑦、利用步骤⑥所得的载体的姿态角速度替换步骤4所得的载体的姿态角速度。
6.根据权利要求1所述的一种自适应图像光流与RTK融合测姿方法,其特征是,步骤1中,对图像进行预处理的方法为图像高斯滤波和对比度受限的直方图均衡处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110583081.2A CN113296139B (zh) | 2021-05-27 | 2021-05-27 | 一种自适应图像光流与rtk融合测姿方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110583081.2A CN113296139B (zh) | 2021-05-27 | 2021-05-27 | 一种自适应图像光流与rtk融合测姿方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113296139A CN113296139A (zh) | 2021-08-24 |
CN113296139B true CN113296139B (zh) | 2022-05-03 |
Family
ID=77325435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110583081.2A Active CN113296139B (zh) | 2021-05-27 | 2021-05-27 | 一种自适应图像光流与rtk融合测姿方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113296139B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882733B (zh) * | 2022-03-15 | 2023-12-01 | 深圳市德驰微视技术有限公司 | 基于域控制器的停车位获取方法、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107478223A (zh) * | 2016-06-08 | 2017-12-15 | 南京理工大学 | 一种基于四元数和卡尔曼滤波的人体姿态解算方法 |
CN107850673A (zh) * | 2015-07-27 | 2018-03-27 | 高通股份有限公司 | 视觉惯性测距姿态漂移校准 |
EP3371619A1 (en) * | 2015-11-06 | 2018-09-12 | Squarehead Technology AS | Uav detection |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100504299C (zh) * | 2007-02-06 | 2009-06-24 | 华中科技大学 | 一种空间非合作物体三维信息的获取方法 |
CN102538781B (zh) * | 2011-12-14 | 2014-12-17 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN105807083B (zh) * | 2016-03-15 | 2019-03-12 | 深圳市高巨创新科技开发有限公司 | 一种无人飞行器实时测速方法及*** |
GB201612528D0 (en) * | 2016-07-19 | 2016-08-31 | Machines With Vision Ltd | Vehicle localisation using the ground or road surface |
CN109188487A (zh) * | 2018-09-27 | 2019-01-11 | 无锡比特信息科技有限公司 | 高精度冗余无人机用定位集成板卡 |
CN109696689A (zh) * | 2019-01-23 | 2019-04-30 | 桂林电子科技大学 | 一种光流与激光结合的跟踪测距方法 |
CN110501736B (zh) * | 2019-08-28 | 2023-10-20 | 武汉大学 | 利用视觉影像和gnss测距信号紧耦合定位***与方法 |
CN112254721A (zh) * | 2020-11-06 | 2021-01-22 | 南京大学 | 一种基于光流相机的姿态定位方法 |
-
2021
- 2021-05-27 CN CN202110583081.2A patent/CN113296139B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107850673A (zh) * | 2015-07-27 | 2018-03-27 | 高通股份有限公司 | 视觉惯性测距姿态漂移校准 |
EP3371619A1 (en) * | 2015-11-06 | 2018-09-12 | Squarehead Technology AS | Uav detection |
CN107478223A (zh) * | 2016-06-08 | 2017-12-15 | 南京理工大学 | 一种基于四元数和卡尔曼滤波的人体姿态解算方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113296139A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113269098A (zh) | 一种基于无人机的多目标跟踪定位与运动状态估计方法 | |
CN110942449A (zh) | 一种基于激光与视觉融合的车辆检测方法 | |
US9262828B2 (en) | Method and device for online calibration of vehicle cameras | |
CN111065043B (zh) | 一种基于车路通信的隧道内车辆融合定位***及方法 | |
CN110456330B (zh) | 一种相机与激光雷达之间外参无目标自动标定方法及*** | |
CN111795686A (zh) | 一种移动机器人定位与建图的方法 | |
CN110458877B (zh) | 基于仿生视觉的红外与可见光信息融合的导航方法 | |
CN110865650B (zh) | 基于主动视觉的无人机位姿自适应估计方法 | |
CN109631911B (zh) | 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法 | |
CN113627473A (zh) | 基于多模态传感器的水面无人艇环境信息融合感知方法 | |
CN113223161B (zh) | 一种基于imu和轮速计紧耦合的鲁棒全景slam***和方法 | |
CN110827321B (zh) | 一种基于三维信息的多相机协同的主动目标跟踪方法 | |
CN113296139B (zh) | 一种自适应图像光流与rtk融合测姿方法 | |
CN111999735A (zh) | 一种基于径向速度和目标跟踪的动静目标分离方法 | |
CN114964276A (zh) | 一种融合惯导的动态视觉slam方法 | |
CN115639547A (zh) | 多线激光雷达与gnss_ins联合标定方法、***及介质 | |
CN116778290A (zh) | 一种基于深度学习算法的雷达视觉数据关联方法 | |
CN112802195B (zh) | 一种基于声呐的水下机器人连续占据建图方法 | |
CN113933828A (zh) | 一种无人艇环境自适应多尺度目标检测方法及*** | |
CN112862818A (zh) | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 | |
CN117173215A (zh) | 一种跨摄像头的内河航船全程轨迹识别方法及*** | |
CN113532445B (zh) | 一种卷帘曝光星敏感器的高动态快速自主捕获方法 | |
CN114690226A (zh) | 基于载波相位差分技术辅助的单目视觉测距方法及*** | |
CN113554705A (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
CN110864685A (zh) | 一种基于松耦合的车辆单目视觉轮式里程计定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |