CN116182855B - 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 - Google Patents
一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 Download PDFInfo
- Publication number
- CN116182855B CN116182855B CN202310474059.3A CN202310474059A CN116182855B CN 116182855 B CN116182855 B CN 116182855B CN 202310474059 A CN202310474059 A CN 202310474059A CN 116182855 B CN116182855 B CN 116182855B
- Authority
- CN
- China
- Prior art keywords
- polarization
- image
- camera
- navigation
- polarized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 150000001875 compounds Chemical class 0.000 title claims abstract description 12
- 230000010287 polarization Effects 0.000 claims abstract description 140
- 238000005259 measurement Methods 0.000 claims abstract description 54
- 239000013598 vector Substances 0.000 claims abstract description 34
- 238000001914 filtration Methods 0.000 claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 21
- 230000004927 fusion Effects 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims description 54
- 230000000877 morphologic effect Effects 0.000 claims description 10
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 238000009825 accumulation Methods 0.000 claims description 7
- 230000007704 transition Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
Abstract
本发明涉及一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,主要包括以下步骤:首先,利用理想瑞利散射模型中偏振矢量与太阳矢量垂直关系,选择惯导误差和相机位姿为状态向量建立偏振量测方程;然后,针对弱光强场景图像特征不明显的问题,利用偏振相机获得的每一帧的偏振度图像和偏振角图像进行图像融合增强图像特征;再次,在针孔模型投影下,根据测量得到的特征点投影位置信息与惯导预测得到的相机投影点位置信息得到的重投影误差建立视觉量测方程;最后,采用偏振传感器与偏振相机得到的量测信息进行多状态约束卡尔曼滤波得到无人机组合导航信息。本发明具有计算量小、精度高和鲁棒性强等优点。
Description
技术领域
本发明属于组合导航领域,具体涉及一种弱光强环境下仿复眼偏振视觉无人机组合导航方法。
背景技术
组合导航技术是无人机导航领域的一项关键技术。VINS导航***短时间内精度较高,但长时间误差会随时间积累逐渐变大且在弱光强场景下精度较低甚至不可用。根据理想瑞利散射模型得到的偏振信息可以为组合导航***提供航向约束,并且具有自主性强、无误差积累等优点。对于弱光强场景下相机获取图像纹理不清晰导致VINS导航***精度大幅度下降的问题,偏振相机在弱光强场景下获取的偏振度图像所含目标信息量大、偏振角图像目标边缘和轮廓清晰,融合偏振度图像与偏振角图像后获得偏振图像,可以在弱光强场景下大幅度提高VINS***的导航精度。为充分发挥组合导航***各个子***的优点,设计一种仿复眼偏振视觉无人机组合导航方法,对完成卫星导航失灵、强干扰环境和复杂位置环境的自主导航和定位任务具有重大意义。
单一导航有优势也有劣势,利用多状态约束卡尔曼滤波对各个子导航***进行紧组合滤波来达到信息融合的目的,可以提高导航***精度和可靠性。中国专利申请“一种基于天顶点矢量的偏振/VIO三维姿态确定方法”(申请号:CN202111381893.5),该方法仅考虑了利用偏振修正三维姿态,未考虑位置信息的修正;中国专利申请“一种基于视觉惯性偏振光融合的无人机位姿估计方法”(申请号:CN202010623718.1),该方法利用偏振导航提供航向约束修正惯导逐渐累积的误差;论文《基于偏振成像的双目立体视觉应用技术研究》,利用偏振成像提升双目视觉导航精度但无法进行长航时导航;中国专利申请“一种基于偏振光、光流矢量、双目视觉传感器的仿昆虫视觉组合导航方法”(申请号:CN202011289488.6),该方法通过优化的方法进行信息融合并利用光流失量进行位置修正。
以上发明均使用可见光视觉相机获取视觉图像并进行视觉更新,未考虑可见光视觉***在弱光强场景下的精度下降问题。本发明使用偏振相机获取偏振图像并进行融合来进行视觉测量更新,偏振相机可在弱光强环境下提供清晰的视觉图像进行视觉测量更新,对比于可见光相机获取的视觉信息可大幅提高导航精度。
发明内容
为解决在GNSS拒止环境弱光强场景下长航时无人机高精度导航问题,克服VINS导航***长时间误差累积的不足以及弱光强场景下导航精度大幅下降问题,本发明提供一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,采用多状态约束卡尔曼滤波对组合导航信息进行滤波紧组合实现信息融合,保证无人机组合导航***在面对弱光强环境的长航时精度。本发明为研究弱光强环境下无人机导航提供了新的思路,解决在面对弱光强长航时导航场景时VINS***导航精度下降的问题。
为达到上述目的,本发明采用的技术方案为:
一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,包括如下步骤:
步骤1、通过点源式偏振传感器获得偏振方位角 ,计算求得导航系下的偏振矢量 />,通过太阳年历计算得到导航系下太阳矢量/> ,基于理想瑞利散射模型中偏振矢量 />与导航系下太阳矢量/> 的垂直关系,结合惯导状态与相机位姿为状态向量建立***状态方程与偏振量测方程;
步骤2、在弱光强场景下,偏振相机得到偏振度图像 、偏振角图像/> ,将二者均值滤波后得到偏振度图像 />与偏振角图像 />,相减分解得到偏振度细节图像/>与偏振角细节图像/> ,将偏振度图像/> 与偏振角图像/> 加权融合后得到图像/> ,将原偏振图像形态开运算得到选通区域 />与选通区域/> ,利用选通区域/> 与选通区域 />对偏振度细节图像 />与偏振角细节图像/> 进行优化后得到图像 />,将加权融合后得到图像/> 与图像/> 融合后得到融合后的偏振图像/> ;
步骤3、结合步骤2中的偏振图像 ,在针孔模型下,偏振相机得到视觉整体测量并提供相机的运动信息,惯导得到预测视觉测量 />,二者相减得到 />时刻第/> 个特征点的重投影误差 />,通过累积叠加与QR分解得到视觉量测方程;
步骤4、结合步骤1与步骤3建立的偏振量测方程与视觉量测方程,利用多状态约束卡尔曼滤波对各个导航子***获得的数据进行信息融合,修正惯导逐渐累积的误差,解算无人机组合导航信息。
进一步地,所述步骤1包括:
选择导航系到载体系的小角度旋转 ,载体在导航系下的估计速度与真实速度差 />和估计位置与真实位置差 />,陀螺仪测量的角速度与真实角速度零偏差/>,加速度计测量的线速度与真实线速度零偏差/> 以及每个时刻相机的位姿 作为组合导航***的状态变量 />,其中/> 和分别表示相机在导航系下的姿态与位置,/> 具体形式如下:
***状态方程为:
基于此偏振测量方程为:
进一步地,所述步骤2包括:
偏振相机获得偏振度图像 与偏振角图像 />,首先分别对二者进行均值滤波部分消除偏振图像的噪声,滤波后得到偏振度图像 />与偏振角图像/>,原偏振图像与均值滤波后的偏振图像相减分解获得偏振度细节图像与偏振角细节图像:
再次将偏振度图像 与偏振角图像/>进行形态开运算后得到偏振度图像/>与偏振角图像/>,计算 />与/> 的灰度均值,分别为/>与/>,将形态开运算后的偏振度图像 />中的各像素灰度值/>与 />比较,将形态开运算后的偏振角图像/> 中的各像素灰度值/>与/>比较,具体规则如下:
进一步地,所述步骤3包括:
将特征点的位置信息通过投影模型在像素平面得到位置坐标,该像素平面的位置坐标对相机的运动信息和特征点的位置信息提供测量,利用特征点三角化得到特征点的三维位置坐标,在针孔模型投影下,视觉整体测量为:
采用QR分解 矩阵,最后得到的视觉量测方程为:
进一步地,所述步骤4包括:
选择多状态约束卡尔曼滤波方法进行无人机组合导航***的信息组合,其中***状态预测协方差矩阵为:
随着时间的累积相机位姿的积累完成状态增强,状态增强后的协方差矩阵变为:
其中, ,/>为视觉量测方程的输出矩阵,/> 为偏振量测方程的输出矩阵, />为/>时刻的协方差矩阵,/> 为量测噪声矩阵,/> ,/> 为视觉的量测, />为偏振的量测,/>为与/>维度相同的单位矩阵。
本发明与现有技术相比优点在于:
偏振相机获得的偏振图像在弱光强环境下图像纹理相较于可见光图像有较大提升。使用融合后的偏振度图像和偏振角图像完成特征点提取进而完成视觉量测的获取,弥补VINS导航***在弱光强场景下精度较低的缺陷,融合点源式偏振传感器提供的偏振量测,实现无人机VINS***在弱光强长航时场景下的高精度导航。本发明具有精度高、稳定性好、抗干扰能力强等优点。
附图说明
图1为本发明的一种弱光强环境下仿复眼偏振视觉无人机组合导航方法流程图。
具体实施方式
下面结合图1以及实例对本发明的具体实现步骤说明如下:
如图1所示,本发明的一种弱光强环境下仿复眼偏振视觉无人机组合导航方法包括如下步骤:
步骤1、通过点源式偏振传感器获得偏振方位角 ,计算求得导航系下的偏振矢量 />,通过太阳年历可以计算得到导航系下太阳矢量/> ,基于理想瑞利散射模型中偏振矢量/> 与导航系下太阳矢量 />的垂直关系,结合惯导状态与相机位姿为状态向量建立***状态方程与偏振量测方程;
步骤2、在弱光强场景下,偏振相机得到偏振度图像 、偏振角图像/> ,将二者均值滤波后得到偏振度图像/> 与偏振角图像/> ,相减分解得到偏振度细节图像/>与偏振角细节图像 />,将偏振度图像/> 与偏振角图像/> 加权融合后得到图像/> ,将原偏振图像形态开运算得到选通区域 />与选通区域 />,利用选通区域/> 与选通区域 />对偏振度细节图像/> 与偏振角细节图像 />进行优化后得到图像/> ,将加权融合后得到图像/> 与图像 />融合后得到融合后的偏振图像/> ;
步骤3、结合步骤2中的偏振图像 ,在针孔模型下,偏振相机得到视觉整体测量并提供相机的运动信息,惯导得到预测视觉测量/> ,二者相减得到 />时刻第/>个特征点的重投影误差 />,通过累积叠加与QR分解得到视觉量测方程;
步骤4、结合步骤1与步骤3建立的偏振量测方程与视觉量测方程,利用多状态约束卡尔曼滤波对各个导航子***获得的数据进行信息融合,修正惯导逐渐累积的误差,解算无人机组合导航信息。
具体实施步骤如下:
在步骤1中选择导航系到载体系的小角度旋转 ,载体在导航系下的估计速度与真实速度差 />和估计位置与真实位置差/> ,陀螺仪测量的角速度与真实角速度零偏差/> ,加速度计测量的线速度与真实线速度零偏差/> 以及每个时刻相机的位姿作为组合导航***的状态变量/> ,其中/>和/>分别表示相机在导航系下的姿态与位置,/> 具体形式如下:
***状态方程为:
基于此偏振测量方程为:
在步骤2中偏振相机获得偏振度图像 与偏振角图像/> ,首先分别对二者进行均值滤波部分消除偏振图像的噪声,滤波后得到偏振度图像 />与偏振角图像/> ,原偏振图像与均值滤波后的偏振图像相减分解获得偏振度细节图像与偏振角细节图像:
再次将偏振度图像 与偏振角图像/> 进行形态开运算后得到偏振度图像 与偏振角图像 />,计算/>与/>的灰度均值,将形态开运算后的偏振度图像中的各像素灰度值/>与 />比较,将形态开运算后的偏振角图像中的各像素灰度值/>与/>比较,具体规则如下:
在步骤3中,将特征点的位置信息通过投影模型在像素平面得到位置坐标,该像素平面位置坐标对相机的运动信息和特征点的位置信息提供测量,利用特征点三角化得到特征点的三维位置坐标,在针孔模型投影下,视觉整体测量为:
根据惯导预测得到相机投影点位置信息视觉测量 ,得到重投影误差为:,其中, />表示对应的噪声,/> 为/>时刻***的状态, />为 />时刻相机在导航系下观测的第 />个特征点的坐标,/> 、/>分别为与、/>对应的雅克比矩阵。
在步骤4中选择多状态约束卡尔曼滤波方法进行无人机组合导航***的信息组合,其中***状态预测协方差矩阵为:
随着时间的累积相机位姿的积累需要完成状态增强,状态增强后的协方差矩阵变为:
其中, , />为视觉量测方程的输出矩阵, />为偏振量测方程的输出矩阵, />为/>时刻的协方差矩阵, />为量测噪声矩阵,/> ,为视觉的量测,/> 为偏振的量测,/>为与/> 维度相同的单位矩阵。
本发明说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (5)
1.一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,其特征在于,包括如下步骤:
步骤1、通过点源式偏振传感器获得偏振方位角,计算求得导航系下的偏振矢量/>,通过太阳年历计算得到导航系下太阳矢量/>,基于理想瑞利散射模型中偏振矢量/> 与导航系下太阳矢量/> 的垂直关系,结合惯导状态与相机位姿为状态向量建立***状态方程与偏振量测方程;
步骤2、在弱光强场景下,偏振相机得到偏振度图像、偏振角图像/>,将二者均值滤波后得到偏振度图像/>与偏振角图像/>,相减分解得到偏振度细节图像/>与偏振角细节图像/>,将偏振度图像/> 与偏振角图像 />加权融合后得到图像/>,将原偏振图像形态开运算得到选通区域/>与选通区域/>,利用选通区域/> 与选通区域 />对偏振度细节图像/> 与偏振角细节图像 />进行优化后得到图像/>,将加权融合后得到图像/>与图像/> 融合后得到融合后的偏振图像/>;
步骤3、结合步骤2中的偏振图像 ,在针孔模型下,偏振相机得到视觉整体测量/>并提供相机的运动信息,惯导得到预测视觉测量/>,二者相减得到/>时刻第/>个特征点的重投影误差/>,通过累积叠加与QR分解得到视觉量测方程;
步骤4、结合步骤1与步骤3建立的偏振量测方程与视觉量测方程,利用多状态约束卡尔曼滤波对各个导航子***获得的数据进行信息融合,修正惯导逐渐累积的误差,解算无人机组合导航信息。
2.根据权利要求1所述的一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,其特征在于:所述步骤1包括:
选择导航系到载体系的小角度旋转,载体在导航系下的估计速度与真实速度差和估计位置与真实位置差/>,陀螺仪测量的角速度与真实角速度零偏差/>,加速度计测量的线速度与真实线速度零偏差/>以及每个时刻相机的位姿作为组合导航***的状态变量/>,其中/>和/>分别表示相机在导航系下的姿态与位置, />具体形式如下:
***状态方程为:
基于此偏振量测方程为:
3.根据权利要求2所述的一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,其特征在于:所述步骤2包括:
偏振相机获得偏振度图像与偏振角图像/>,首先分别对二者进行均值滤波部分消除偏振图像的噪声,滤波后得到偏振度图像/>与偏振角图像/>,原偏振图像与均值滤波后的偏振图像相减分解获得偏振度细节图像与偏振角细节图像:
再次将偏振度图像 与偏振角图像/> 进行形态开运算后得到偏振度图像/>与偏振角图像/>,计算 />与/> 的灰度均值,分别为/>与/>,将形态开运算后的偏振度图像 />中的各像素灰度值/>与 />比较,将形态开运算后的偏振角图像/> 中的各像素灰度值/>与/> 比较,具体规则如下:,
4.根据权利要求3所述的一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,其特征在于:所述步骤3包括:
将特征点的位置信息通过投影模型在像素平面得到位置坐标,该像素平面的位置坐标对相机的运动信息和特征点的位置信息提供测量,利用特征点三角化得到特征点的三维位置坐标,在针孔模型投影下,视觉整体测量为:
采用QR分解 矩阵,最后得到的视觉量测方程为:
5.根据权利要求4所述的一种弱光强环境下仿复眼偏振视觉无人机组合导航方法,其特征在于:所述步骤4包括:
选择多状态约束卡尔曼滤波方法进行无人机组合导航***的信息组合,其中***状态预测协方差矩阵为:
随着时间的累积相机位姿的积累完成状态增强,状态增强后的协方差矩阵变为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310474059.3A CN116182855B (zh) | 2023-04-28 | 2023-04-28 | 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310474059.3A CN116182855B (zh) | 2023-04-28 | 2023-04-28 | 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116182855A CN116182855A (zh) | 2023-05-30 |
CN116182855B true CN116182855B (zh) | 2023-07-07 |
Family
ID=86452727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310474059.3A Active CN116182855B (zh) | 2023-04-28 | 2023-04-28 | 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116182855B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117191047B (zh) * | 2023-11-03 | 2024-02-23 | 南京信息工程大学 | 弱光环境下无人机自适应主动视觉导航方法、装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113739795A (zh) * | 2021-06-03 | 2021-12-03 | 东北电力大学 | 一种基于偏振光/惯性/视觉组合导航的水下同步定位与建图方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9562764B2 (en) * | 2012-07-23 | 2017-02-07 | Trimble Inc. | Use of a sky polarization sensor for absolute orientation determination in position determining systems |
CN106767752B (zh) * | 2016-11-25 | 2020-01-14 | 北京航空航天大学 | 一种基于偏振信息的组合导航方法 |
CN108387206B (zh) * | 2018-01-23 | 2020-03-17 | 北京航空航天大学 | 一种基于地平线与偏振光的载体三维姿态获取方法 |
CN111504312B (zh) * | 2020-07-02 | 2020-09-15 | 中国人民解放军国防科技大学 | 一种基于视觉惯性偏振光融合的无人机位姿估计方法 |
CN112066979B (zh) * | 2020-08-27 | 2021-12-28 | 北京航空航天大学 | 一种基于偏振位姿信息耦合迭代自主导航定位方法 |
CN112444245B (zh) * | 2020-11-17 | 2023-06-09 | 大连理工大学 | 一种基于偏振光、光流矢量、双目视觉传感器的仿昆虫视觉组合导航方法 |
CN113819904B (zh) * | 2021-11-22 | 2022-02-22 | 北京航空航天大学 | 一种基于天顶点矢量的偏振/vio三维姿态确定方法 |
CN113819907B (zh) * | 2021-11-22 | 2022-02-11 | 北京航空航天大学 | 一种基于偏振和太阳双矢量切换的惯性/偏振导航方法 |
CN113834483B (zh) * | 2021-11-23 | 2022-03-25 | 北京航空航天大学 | 一种基于可观测度的惯性/偏振/地磁容错导航方法 |
-
2023
- 2023-04-28 CN CN202310474059.3A patent/CN116182855B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113739795A (zh) * | 2021-06-03 | 2021-12-03 | 东北电力大学 | 一种基于偏振光/惯性/视觉组合导航的水下同步定位与建图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116182855A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110243358B (zh) | 多源融合的无人车室内外定位方法及*** | |
CN112902953B (zh) | 一种基于slam技术的自主位姿测量方法 | |
CN109631887B (zh) | 基于双目、加速度与陀螺仪的惯性导航高精度定位方法 | |
CN110068335B (zh) | 一种gps拒止环境下无人机集群实时定位方法及*** | |
CN111595333A (zh) | 视觉惯性激光数据融合的模块化无人车定位方法及*** | |
CN114199259B (zh) | 一种基于运动状态与环境感知的多源融合导航定位方法 | |
CN111024066A (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN113763548B (zh) | 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及*** | |
CN116182855B (zh) | 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法 | |
CN112669354A (zh) | 一种基于车辆非完整约束的多相机运动状态估计方法 | |
CN112444245B (zh) | 一种基于偏振光、光流矢量、双目视觉传感器的仿昆虫视觉组合导航方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN115127554B (zh) | 一种基于多源视觉辅助的无人机自主导航方法与*** | |
CN113503873A (zh) | 一种多传感器融合的视觉定位方法 | |
CN115560760A (zh) | 一种面向无人机的视觉/激光测距高空导航方法 | |
CN114964276A (zh) | 一种融合惯导的动态视觉slam方法 | |
CN114234967A (zh) | 一种基于多传感器融合的六足机器人定位方法 | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 | |
CN115218889A (zh) | 一种基于点线特征融合的多传感器室内定位方法 | |
CN115015956A (zh) | 一种室内无人车的激光与视觉slam*** | |
CN113819904A (zh) | 一种基于天顶点矢量的偏振/vio三维姿态确定方法 | |
CN113503872A (zh) | 一种基于相机与消费级imu融合的低速无人车定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |