CN108759815A - 一种用于全局视觉定位方法中的信息融合组合导航方法 - Google Patents

一种用于全局视觉定位方法中的信息融合组合导航方法 Download PDF

Info

Publication number
CN108759815A
CN108759815A CN201810391190.2A CN201810391190A CN108759815A CN 108759815 A CN108759815 A CN 108759815A CN 201810391190 A CN201810391190 A CN 201810391190A CN 108759815 A CN108759815 A CN 108759815A
Authority
CN
China
Prior art keywords
target
camera
error
information
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810391190.2A
Other languages
English (en)
Other versions
CN108759815B (zh
Inventor
罗胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daqing Anruida Technology Development Co ltd
Hefei Jiuzhou Longteng Scientific And Technological Achievement Transformation Co ltd
Original Assignee
Institute of Laser and Optoelectronics Intelligent Manufacturing of Wenzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Laser and Optoelectronics Intelligent Manufacturing of Wenzhou University filed Critical Institute of Laser and Optoelectronics Intelligent Manufacturing of Wenzhou University
Priority to CN201810391190.2A priority Critical patent/CN108759815B/zh
Publication of CN108759815A publication Critical patent/CN108759815A/zh
Application granted granted Critical
Publication of CN108759815B publication Critical patent/CN108759815B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

一种用于全局视觉定位方法中的信息融合组合导航方法,具体如下:1)在建立***误差方程的基础上,将位置误差方程、姿态误差方程以及惯性仪表误差方程综合在一起作为组合导航卡尔曼滤波器的观察值。本发明的有益效果是已经知道摄像头的位置、朝向,以及所面向地理环境的模型,就可以很容易地计算出视野范围内每个目标的位置;将视觉与GPS、IMU、OD及地磁等定位装置配合,可得到高精度的导航定位。

Description

一种用于全局视觉定位方法中的信息融合组合导航方法
技术领域
本发明属于定位技术领域,尤其是涉及一种用于全局视觉定位方法中的信息融合组合导航方法。
背景技术
定位是导航的前提条件,在工业、养老、医疗、会展、自动化等领域有广泛的应用。但是目前的定位技术在应用中都有短板,例如GPS容易受遮挡,在室内无法使用,在山区、树林中精度低;Wi-Fi精度低,不能穿墙;蓝牙稳定性稍差,受噪声信号干扰大;ZigBee需要密集布置信源;RFID作用距离短,一般最长为几十米,不便于整合到移动设备之中。IMU、OD可以高频测量加速度、速度和姿态角,但是受噪声影响大,长时间会有累积误差。
但是作为智能城市项目的监控摄像头,已经密集地分布在各个关键位置。如果已经知道摄像头的位置、朝向,以及所面向的地理环境,就可以很容易地计算出视野范围内的每个目标的位置。如果与GPS、IMU、OD及地磁等定位装置配合,就可以提高定位精度。
发明内容
本发明的目的是提供一种基于全局视觉的定位方法,其解决了平常定位方法中存在的定位不准确、易受干扰、安装成本高等不足,提高了定位精度,适合用在工业、自动化、医疗、会展、养老及酒店等领域的定位导航中。
本发明的技术方案是:一种基于全局视觉的定位方法,包括如下步骤:
设已知摄像头的精确位置(经度O,纬度A,高度H)和姿态(αc,βc,γc),并且已知场地的几何模型,那么从摄像头的图像中找到目标后,就能根据目标在图像中的位置确定目标与摄像头连线的方位角(αO,βO,γO),并根据此方位角和场地的几何模型计算出目标的位置和姿态。
(1)获得摄像头的精确位置:如果在野外,采用高精度的差分GPS装置;如果在室内,用高精度的差分GPS装置定位整个建筑物,再根据建筑物内部结构的尺寸推算摄像头的精确位置。将世界坐标系原点设置在摄像头焦距处,一个方向指向经度O方向(东方),另一个方向指向纬度A方向(北方),第三个方向指向高度H方向;
(2)获得摄像头的姿态:采用带水平仪和罗盘的标定模板标定相机;水平放置的标定板一个方向指向经度O方向(东方),一个方向指向纬度A方向(北方),与摄像头处的世界坐标系一致;设标定后,摄像头坐标系与世界坐标系的变换为R1|T,从旋转矩阵R1可以按如下公式确定出摄像头的三个姿态角(αc,βc,γc),
(3)对目标成像:整个***投入运营,对目标成像;
(4)在图像中检测目标:可以用目标检测的方法,也可以在目标上带预设标签的方法,确定目标在图像中的位置,目标大小为λ,相对于图像中心的偏移(r,c),目标在图像坐标里的姿态θ;
(5)计算目标射线:因为是单目视角,无法确定目标的高度和远近;但是对于具体应用而言,目标往往在地面上,并且目标往往是某种确定的类型,例如人、车、AGV等,因此大小、高度固定。在图像中找到目标后,根据目标相对图像中心的偏移(r,c),在修正相机变形后,可以确定目标与摄像头光轴的偏转角
并计算出目标相对于相机坐标的旋转矩阵R2,因此,可确定目标射线在世界坐标系里的角度(αO,βO,γO);
(6)计算目标位置:已知目标射线后,有两种方式可以确定目标位置: (a)如果已知场地的几何模型:如果地面不是水平的,将场地的几何模型S 向上平移目标高度后,此三维曲面与目标射线的交点就是目标位置;如果地面是水平的,不需要场地的几何模型,经过相交计算后,就可以确定目标位置;(b)根据目标大小:根据目标在图像中的大小λ,估算目标与相机的距离,从而确定目标的位置坐标。
(7)计算目标姿态:根据目标在图像坐标里的姿态θ,以及摄像头的姿态,采取视觉和IMU、OD、Geomagnetic的信息融合组合导航可以确定目标的姿态。
一种用于全局视觉定位方法中的信息融合组合导航方法,具体如下:
1)在建立***误差方程的基础上,将位置误差方程、姿态误差方程以及惯性仪表误差方程综合在一起作为组合导航卡尔曼滤波器的观察值,可以写出INS***误差状态方程的一般表达式如下
X(k)=F(k-1)X(k-1)+G(k-1)W(k-1)
其中,状态变量X=[δO,δA,δH,φNEDrxryrz,△x,△y,△z],δ O、δA、δH为纬度、经度和高度误差,φN、φE、φD为平台误差角,εrx、εry、εrz为陀螺仪一阶马尔柯夫漂移,△x、△y、△z为加速度计一阶马尔柯夫漂移。F为状态转换阵,G为噪声转换阵,W为***噪声。
2)用视觉测量值和IMU、OD、Geomagnetic融合信息值的差值作为量测值,观测方程为
Z(k)=H(k)X(k)+V(k)
其中,Z=[δO,δA,δH,φNED]T,H为观测矩阵,V为测量噪声矩阵。
3)建立***的状态方程和观测方程后,就可以进行卡尔曼滤波。其中状态噪声阵Q根据IMU、OD、Geomagnetic信息融合后的有关参数选取,观测噪声矩阵R根据视觉测量的性能选取。
4)经由Kalman滤波估计出惯导***的误差,然后对惯导***进行校正。
本发明具有的优点和积极效果是:由于采用上述技术方案,已经知道摄像头的位置、朝向,以及所面向地理环境的模型,就可以很容易地计算出视野范围内每个目标的位置;将视觉与GPS、IMU、OD及地磁等定位装置配合,可得到高精度的导航定位。
附图说明
图1是***布局。
图2是本发明的视觉定位处理流程。
图3是本发明的视觉定位处理原理。
图4是摄像头位置、姿态及成像平面坐标。
图5是从摄像头出发的目标射线。
图6是从摄像头和目标射线计算目标位置。
图7是视觉和IMU、OD、Geomagnetic的信息融合组合导航处理流程。
图8是Kalman滤波校正惯导***。
图9是实施例1的基于全局视觉的室内定位技术的应用示意图。
图10是实施例2的基于全局视觉的扫地机器人的应用示意图。
图中:
1、A摄像头 2、A立杆 3、摄像头A视野范围
4、B摄像头 5、B立杆 6、摄像头B视野范围
7、目标 8、C摄像头 9、摄像头C视野范围
10、C立杆
具体实施方式
如图1所示,沿道路布置有A摄像头1、B摄像头4、C摄像头8,A摄像头1、B摄像头4、C摄像头8分别设在道路上的A立杆2、B立杆5和C立杆10上,摄像头的视野范围分别为摄像头A视野范围3、摄像头B视野范围6、摄像头C视野范围9。摄像头的视野并没有全覆盖整个道路。目标7 小车行驶在道路上,小车可能处于0、1、2个摄像头的视野范围内。如果小车处于0个摄像头的视野范围内时,小车依靠IMU、OD、Geomagnetic导航;如果小车处于1、2个摄像头的视野范围内时,小车依靠视觉和IMU、OD、 Geomagnetic的融合信息导航。
一种基于全局视觉的定位方法,包括如下步骤:
如图2、3所示,设已知摄像头的精确位置(经度O,纬度A,高度H) 和姿态(αc,βc,γc),并且已知场地的几何模型,那么从摄像头的图像中找到目标后,就能根据目标在图像中的位置确定目标与摄像头连线的方位角(αO,βO,γO),并根据此方位角和场地的几何模型计算出目标的位置和姿态。具体步骤如下:
(1)获得摄像头的精确位置:如果在野外,采用高精度的差分GPS装置;如果在室内,用高精度的差分GPS装置定位整个建筑物,再根据建筑物内部结构的尺寸推算摄像头的精确位置。将世界坐标系原点设置在摄像头焦距处,一个方向指向经度O方向(东方),另一个方向指向纬度A方向(北方),第三个方向指向高度H方向;
(2)获得摄像头的姿态:采用带水平仪和罗盘的标定模板标定相机;水平放置的标定板一个方向指向经度O方向(东方),一个方向指向纬度A方向(北方),与摄像头处的世界坐标系一致;设标定后,摄像头坐标系与世界坐标系的变换为R1|T,从旋转矩阵R1可以按如下公式确定出摄像头的三个姿态角(αc,βc,γc),如图4所示;
(3)对目标成像:整个***投入运营,对目标成像;
(4)在图像中检测目标:可以用目标检测的方法,也可以在目标上带预设标签的方法,确定目标在图像中的位置,目标大小为λ,相对于图像中心的偏移(r,c),目标在图像坐标里的姿态θ;
(5)计算目标射线:因为是单目视角,无法确定目标的高度和远近;但是对于具体应用而言,目标往往在地面上,并且目标往往是某种确定的类型,例如人、车、AGV等,因此大小、高度固定。在图像中找到目标后,根据目标相对图像中心的偏移(r,c),在修正相机变形后,可以确定目标与摄像头光轴的偏转角如图5所示;
并计算出目标相对于相机坐标的旋转矩阵R2,因此,可确定目标射线在世界坐标系里的角度(αO,βO,γO);
(6)计算目标位置:已知目标射线后,有两种方式可以确定目标位置: (a)如果已知场地的几何模型:如果地面不是水平的,将场地的几何模型S 向上平移目标高度后,此三维曲面与目标射线的交点就是目标位置;如果地面是水平的,不需要场地的几何模型,经过相交计算后,就可以确定目标位置;(b)根据目标大小:根据目标在图像中的大小λ,估算目标与相机的距离,从而确定目标的位置坐标,如图6所示;
(7)计算目标姿态:根据目标在图像坐标里的姿态θ,以及摄像头的姿态,采取视觉和IMU、OD、Geomagnetic的信息融合组合导航可以确定目标的姿态。
如图7所示,一种用于全局视觉定位方法中的信息融合组合导航方法,具体如下:
其中视觉、IMU、OD、Geomagnetic是AGV小车电里的几种常见传感器,可以确定目标的位置和姿态。但是这些传感器,每种都有缺陷,因此要采用信息融合的方式,综合几种传感器的信息,得到相对较为准确的位置和姿态。目前,已经有GPS和IMU、OD、Geomagnetic组合导航的方法,但是还没有视觉和IMU、OD、Geomagnetic组合导航的方法。
IMU、OD、Geomagnetic信息融合已有现成的方法,此处不再赘述。
1)在建立***误差方程的基础上,将位置误差方程、姿态误差方程以及惯性仪表误差方程综合在一起作为组合导航卡尔曼滤波器的观察值,可以写出INS***误差状态方程的一般表达式如下
X(k)=F(k-1)X(k-1)+G(k-1)W(k-1)
其中,状态变量X=[δO,δA,δH,φN,φE,φD,εrx,εry,εrz,△x,△y, △z],δO、δA、δH为纬度、经度和高度误差,φN、φE、φD为平台误差角,εrx、εry、εrz为陀螺仪一阶马尔柯夫漂移,△x、△y、△z为加速度计一阶马尔柯夫漂移。F为状态转换阵,G为噪声转换阵,W为***噪声。
2)用视觉测量值和IMU、OD、Geomagnetic融合信息值的差值作为量测值,观测方程为
Z(k)=H(k)X(k)+V(k)
其中,Z=[δO,δA,δH,φN,φE,φD]T,H为观测矩阵,V为测量噪声矩阵。
3)建立***的状态方程和观测方程后,就可以进行卡尔曼滤波。其中状态噪声阵Q根据IMU、OD、Geomagnetic信息融合后的有关参数选取,观测噪声矩阵R根据视觉测量的性能选取,如图8所示;
4)经由Kalman滤波估计出惯导***的误差,然后对惯导***进行校正。
实施例1基于全局视觉的室内定位技术
采取本发明的全局视觉的定位方法,应用在室内定位技术中。如图9所示,室内定位有着重要的价值,但是目前的技术水平已经成为阻碍应用的瓶颈。如果采用全局视觉,目标发出可视化的定位请求信号,室内定位***向目标提供精确的位置信息服务,解决目前的室内定位难题。
全局视觉:是指俯视的、能够看到大幅度范围的摄像头。
可视化的定位请求信号:摄像头能够检测到的可视化信号,例如闪烁的灯光。
作用:(1)告诉摄像头检测目标的位置;(2)告诉摄像头检测目标是谁;(3) 同步摄像头和目标上的时间。
步骤:
(1)目标发出可视化的定位请求信号;
(2)检测目标位置、姿态;
(3)识别目标;
(4)摄像头与目标建立无线通讯链路;
(5)摄像头通过无线通讯链路通知目标位置、姿态。
实施例2基于全局视觉的扫地机器人
采取本发明的全局视觉的定位方法,应用在扫地机器人中。如图10所示,由于没有对整个环境的认知,扫地机器人无法建立优化的巡航策略;更重要的是,没有对扫地效果的反馈,扫地机器人无法知道哪些地方需要打扫、哪些地方不需要打扫。即使有能力对环境建模的扫地机器人,也无法对整个环境建立准确的模型,尤其是动态变化的环境。
全局视觉是指俯视的、能够看到大幅度范围的摄像头。这种摄像头有两个作用:(1)对整个环境建立准确的模型,以方便扫地机器人巡航;(2)能够检测出哪儿脏,哪儿需要打扫,向扫地机器人布置清理任务;(3)检测扫地机器人的打扫效果,调整扫地机器人的打扫参数,提高清理效果。但是全局摄像头只能从上向下看,看不到遮挡的地方。
因此,基于全局视觉的扫地机器人,能够对整个环境建立完整模型,也能够通过扫地机器人的激光传感器建立行走平面的局部模型,尤其是全局摄像头被遮挡地方的局部模型。而更为重要的是,通过全局视觉,摄像头可以通过无线通讯通知扫地机器人哪儿打扫、哪儿不需要打扫,向扫地机器人布置清理任务,以及检测扫地机器人的打扫效果,调整扫地机器人的打扫参数,提高清理效果。
以上对本发明的一个实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。

Claims (1)

1.一种用于全局视觉定位方法中的信息融合组合导航方法,其特征在于:具体如下:
1)在建立***误差方程的基础上,将位置误差方程、姿态误差方程以及惯性仪表误差方程综合在一起作为组合导航卡尔曼滤波器的观察值,可以写出INS***误差状态方程的一般表达式如下
X(k)=F(k-1)X(k-1)+G(k-1)W(k-1)
其中,状态变量X=[δO,δA,δH,φN,φE,φD,εrx,εry,εrz,△x,△y,△z],δO、δA、δH为纬度、经度和高度误差,φN、φE、φD为平台误差角,εrx、εry、εrz为陀螺仪一阶马尔柯夫漂移,△x、△y、△z为加速度计一阶马尔柯夫漂移,F为状态转换阵,G为噪声转换阵,W为***噪声。
2)用视觉测量值和IMU、OD、Geomagnetic融合信息值的差值作为量测值,观测方程为
Z(k)=H(k)X(k)+V(k)
其中,Z=[δO,δA,δH,φN,φE,φD]T,H为观测矩阵,V为测量噪声矩阵。
3)建立***的状态方程和观测方程后,就可以进行卡尔曼滤波。其中状态噪声阵Q根据IMU、OD、Geomagnetic信息融合后的有关参数选取,观测噪声矩阵R根据视觉测量的性能选取。
4)经由Kalman滤波估计出惯导***的误差,然后对惯导***进行校正;
基于视觉的定位方法;
(1)获得摄像头的精确位置;
(2)获得摄像头的姿态;
(3)对目标成像:整个***投入运营,对目标成像;
(4)在图像中检测目标;
(5)计算目标射线;
(6)计算目标位置;
(7)计算目标姿态:根据目标在图像坐标里的姿态,以及摄像头的姿态,采取视觉和IMU、OD、Geomagnetic的信息融合组合导航可以确定目标的姿态。
CN201810391190.2A 2018-04-28 2018-04-28 一种用于全局视觉定位方法中的信息融合组合导航方法 Active CN108759815B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810391190.2A CN108759815B (zh) 2018-04-28 2018-04-28 一种用于全局视觉定位方法中的信息融合组合导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810391190.2A CN108759815B (zh) 2018-04-28 2018-04-28 一种用于全局视觉定位方法中的信息融合组合导航方法

Publications (2)

Publication Number Publication Date
CN108759815A true CN108759815A (zh) 2018-11-06
CN108759815B CN108759815B (zh) 2022-11-15

Family

ID=64012325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810391190.2A Active CN108759815B (zh) 2018-04-28 2018-04-28 一种用于全局视觉定位方法中的信息融合组合导航方法

Country Status (1)

Country Link
CN (1) CN108759815B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109870157A (zh) * 2019-02-20 2019-06-11 苏州风图智能科技有限公司 确定车***姿的方法及装置、制图方法
CN110207714A (zh) * 2019-06-28 2019-09-06 广州小鹏汽车科技有限公司 一种确定车辆位姿的方法、车载***及车辆
CN111291471A (zh) * 2020-01-17 2020-06-16 中山大学 一种基于l1正则无迹变换的约束多模型滤波方法
CN111603241A (zh) * 2019-05-29 2020-09-01 北京航空航天大学 一种基于差分粒子滤波的医疗机器人定位装置和改进方法
CN114323000A (zh) * 2021-12-17 2022-04-12 中国电子科技集团公司第三十八研究所 线缆ar引导装配***及方法
CN114353786A (zh) * 2021-11-30 2022-04-15 安徽海博智能科技有限责任公司 一种基于改进卡尔曼滤波器的无人矿卡融合定位方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110093350A1 (en) * 2005-05-06 2011-04-21 Facet Technology Corporation Network-Based Navigation System Having Virtual Drive-Thru Advertisements Integrated with Actual Imagery from Along a Physical Route
US20160146614A1 (en) * 2014-11-25 2016-05-26 Wal-Mart Stores, Inc. Computer vision navigation
CN105953795A (zh) * 2016-04-28 2016-09-21 南京航空航天大学 一种用于航天器表面巡视的导航装置及方法
CN106643735A (zh) * 2017-01-06 2017-05-10 中国人民解放军信息工程大学 一种室内定位方法、装置和移动终端
CN106679648A (zh) * 2016-12-08 2017-05-17 东南大学 一种基于遗传算法的视觉惯性组合的slam方法
CN106780610A (zh) * 2016-12-06 2017-05-31 浙江大华技术股份有限公司 一种位置定位方法及装置
CN107063246A (zh) * 2017-04-24 2017-08-18 齐鲁工业大学 一种视觉导航/惯性导航的松散组合导航方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***
CN108759834A (zh) * 2018-04-28 2018-11-06 温州大学激光与光电智能制造研究院 一种基于全局视觉的定位方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110093350A1 (en) * 2005-05-06 2011-04-21 Facet Technology Corporation Network-Based Navigation System Having Virtual Drive-Thru Advertisements Integrated with Actual Imagery from Along a Physical Route
US20160146614A1 (en) * 2014-11-25 2016-05-26 Wal-Mart Stores, Inc. Computer vision navigation
CN105953795A (zh) * 2016-04-28 2016-09-21 南京航空航天大学 一种用于航天器表面巡视的导航装置及方法
CN106780610A (zh) * 2016-12-06 2017-05-31 浙江大华技术股份有限公司 一种位置定位方法及装置
CN106679648A (zh) * 2016-12-08 2017-05-17 东南大学 一种基于遗传算法的视觉惯性组合的slam方法
CN106643735A (zh) * 2017-01-06 2017-05-10 中国人民解放军信息工程大学 一种室内定位方法、装置和移动终端
CN107063246A (zh) * 2017-04-24 2017-08-18 齐鲁工业大学 一种视觉导航/惯性导航的松散组合导航方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及***
CN108759834A (zh) * 2018-04-28 2018-11-06 温州大学激光与光电智能制造研究院 一种基于全局视觉的定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王亭亭等: "无人机室内视觉/惯导组合导航方法", 《北京航空航天大学学报》 *
陈林等: "INS/Vision组合导航中视觉***动态定位方法研究", 《传感技术学报》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109870157A (zh) * 2019-02-20 2019-06-11 苏州风图智能科技有限公司 确定车***姿的方法及装置、制图方法
CN109870157B (zh) * 2019-02-20 2021-11-02 苏州风图智能科技有限公司 确定车***姿的方法及装置、制图方法
CN111603241A (zh) * 2019-05-29 2020-09-01 北京航空航天大学 一种基于差分粒子滤波的医疗机器人定位装置和改进方法
CN110207714A (zh) * 2019-06-28 2019-09-06 广州小鹏汽车科技有限公司 一种确定车辆位姿的方法、车载***及车辆
CN111291471A (zh) * 2020-01-17 2020-06-16 中山大学 一种基于l1正则无迹变换的约束多模型滤波方法
CN111291471B (zh) * 2020-01-17 2021-12-17 中山大学 一种基于l1正则无迹变换的约束多模型滤波方法
CN114353786A (zh) * 2021-11-30 2022-04-15 安徽海博智能科技有限责任公司 一种基于改进卡尔曼滤波器的无人矿卡融合定位方法
CN114323000A (zh) * 2021-12-17 2022-04-12 中国电子科技集团公司第三十八研究所 线缆ar引导装配***及方法
CN114323000B (zh) * 2021-12-17 2023-06-09 中国电子科技集团公司第三十八研究所 线缆ar引导装配***及方法

Also Published As

Publication number Publication date
CN108759815B (zh) 2022-11-15

Similar Documents

Publication Publication Date Title
CN108759834A (zh) 一种基于全局视觉的定位方法
CN108759815A (zh) 一种用于全局视觉定位方法中的信息融合组合导航方法
CN110501024A (zh) 一种车载ins/激光雷达组合导航***的量测误差补偿方法
US10337884B2 (en) Method and apparatus for fast magnetometer calibration
US9420275B2 (en) Visual positioning system that utilizes images of a working environment to determine position
CN106197406B (zh) 一种基于惯性导航和rssi无线定位的融合方法
CN108955683A (zh) 基于全局视觉的定位方法
KR100587405B1 (ko) Gps수신기, 레이저 계측기 및 사진기 장착 차량을이용한 도로 주변 시설물 측량정보의 gis 수치지도업데이트 방법
KR20110043538A (ko) 영상 지도의 구축 및 차량 위치 결정을 위한 방법 및 시스템
CN109186597B (zh) 一种基于双mems-imu的室内轮式机器人的定位方法
CN103175524A (zh) 一种无标识环境下基于视觉的飞行器位置与姿态确定方法
CN110617795B (zh) 一种利用智能终端的传感器实现室外高程测量的方法
CN111025366B (zh) 基于ins及gnss的网格slam的导航***及方法
CN107014388A (zh) 一种基于磁干扰检测的步行者轨迹推算方法及装置
CN110631579A (zh) 一种用于农业机械导航的组合定位方法
CN110388939A (zh) 一种基于航拍图像匹配的车载惯导定位误差修正方法
CN109883416A (zh) 一种结合可见光通信定位和惯导定位的定位方法及装置
CN110763238A (zh) 基于uwb、光流和惯性导航的高精度室内三维定位方法
US20140249750A1 (en) Navigational and location determination system
CN117289322A (zh) 一种基于imu、gps与uwb的高精度定位算法
CN102128618B (zh) 主动式动态定位方法
CN108775899A (zh) 基于伪卫星和惯性信息的深部开采井上下坐标系连接方法
ES2861024T3 (es) Unidad de determinación de posición y un procedimiento de determinación de una posición de un objeto con base en tierra o mar
CN110426034A (zh) 基于地图信息辅助惯导阵列的室内定位方法
Chan et al. Range scale-factor calibration of the velodyne VLP-16 lidar system for position tracking applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230703

Address after: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd.

Address before: 325000 building C1, marine science and Technology Pioneer Park, Longwan District, Wenzhou City, Zhejiang Province

Patentee before: INSTITUTE OF LASER AND OPTOELECTRONICS INTELLIGENT MANUFACTURING, WENZHOU University

Effective date of registration: 20230703

Address after: Room A2101, 2102, 2103, 2105, Block A, Daqing E-commerce Industrial Park, No. 4, Xinxing Avenue, Daqing Hi tech Zone, Daqing City, Heilongjiang Province, 163000

Patentee after: DAQING ANRUIDA TECHNOLOGY DEVELOPMENT Co.,Ltd.

Address before: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee before: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd.

TR01 Transfer of patent right