CN115235455B - 一种基于智能手机pdr与视觉修正的行人定位方法 - Google Patents

一种基于智能手机pdr与视觉修正的行人定位方法 Download PDF

Info

Publication number
CN115235455B
CN115235455B CN202211133744.1A CN202211133744A CN115235455B CN 115235455 B CN115235455 B CN 115235455B CN 202211133744 A CN202211133744 A CN 202211133744A CN 115235455 B CN115235455 B CN 115235455B
Authority
CN
China
Prior art keywords
pedestrian
pdr
positioning
visual
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211133744.1A
Other languages
English (en)
Other versions
CN115235455A (zh
Inventor
潘献飞
陈宗阳
陈昶昊
褚超群
涂哲铭
张礼廉
胡小平
吴文启
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202211133744.1A priority Critical patent/CN115235455B/zh
Publication of CN115235455A publication Critical patent/CN115235455A/zh
Application granted granted Critical
Publication of CN115235455B publication Critical patent/CN115235455B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种基于智能手机PDR与视觉修正的行人定位方法,包括:建立待测区域的视觉特征地图;基于视觉特征地图的全局定位确定行人的初始位置与航向角;在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离;当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息;以视觉定位结果为定位参考,对PDR定位结果进行修正。本发明应用于行人导航领域,通过间接性地调用视觉定位来修正PDR位置和航向角误差,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。

Description

一种基于智能手机PDR与视觉修正的行人定位方法
技术领域
本发明涉及行人导航技术领域,具体是一种基于智能手机PDR与视觉修正的行人定位方法。
背景技术
随着人们对位置服务需求的提高,室内定位技术成为一个研究热点。由于信号的遮挡与干扰,卫星导航***在大多数情况下无法满足用户室内定位服务的需求。为了解决在复杂室内环境下卫星信号遮挡的问题,研究人员提出了许多室内定位方法。典型的室内定位技术包括Wi-Fi指纹、蓝牙、射频识别、超宽带、视觉、航位推算等。随着微电子技术的发展,基于移动智能终端MEMS传感器的行人航位推算(Pedestrian dead recking, PDR)因其具有极强自主性、连续性和不需要事先部署基站的便捷性而得到研究者的青睐。
目前,绝大多数的智能手机中内置有加速度计、陀螺仪、磁力计等传感器。行人航位推算是利用智能手机的惯性传感器对行人位置进行估计的一种自主相对定位算法,通过对行人进行步态检测、步长估计和航向计算来推算出行人的行走路线和位置。然而,由于智能手机内置的MEMS传感器精度有限且惯性传感器件自身存在累积误差,导致PDR在长时间进行位置估算时定位误差会越来越大。另外,传统的PDR方法只能实现在二维平面的行人位置估计,当行人发生上下楼高度位置变化时,PDR则无法进行准确的定位。
为了解决PDR误差累积的问题,许多学者提出将PDR与其他室内定位手段融合的解决方案,如利用Wi-Fi、蓝牙、地磁等额外信息对PDR定位结果进行修正,从而减小PDR的定位误差累积。但是,借助Wi-Fi和蓝牙等外部信号的辅助手段需要预先在室内场景中部署大量的基础设施,且依赖外部信号,易受环境中信号的干扰。基于室内磁场特征辅助的PDR方法需要在离线阶段花费大量时间和精力构建细粒度的信号指纹数据库,基于地图信息约束的PDR定位方法则对高精度室内地图的绘制提出了较高的要求。上述方案利用绝对位置定位技术与PDR算法进行融合,虽然可以解决PDR误差累积的问题,但是需要额外布设基础设施,增加了定位***的成本,也在一定程度上削弱了惯性导航的自主性和连续性的优势,在实际应用中缺乏明显的局限性。因此,研究一种低成本的、不依赖外部设施的辅助PDR进行精确鲁棒的行人室内定位技术有着重要的应用价值。
近年来,计算机视觉技术迅速发展,视觉SLAM算法也不断发展成熟。基于视觉特征地图的全局定位技术与SLAM的回环检测原理相同,本质上是一种信息检索的方法,利用视觉特征匹配的方式对用户的位置进行估计。基于视觉定位技术的实施不受外部环境限制,只需要用户提供一个摄像头来获取当前图像即可,并且当前智能手机中均内置有摄像头传感器。因此,在行人航位推算过程中可以借助智能手机内置的摄像头传感器进行视觉定位,来辅助修正PDR方法的累积误差,从而达到提高定位精度的目的。但是,虽然传统的视觉匹配方法可以得到定位信息,但是图像查询与匹配效率较低,无法满足实时性要求,难以得到实际应用部署。
发明内容
针对上述现有技术中的不足,本发明提供一种基于智能手机PDR与视觉修正的行人定位方法,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。
为实现上述目的,本发明提供一种基于智能手机PDR与视觉修正的行人定位方法,包括如下步骤:
步骤1,建立待测区域的视觉特征地图,其过程为:采用视觉传感器在待测区域采集场景图像,基于视觉SLAM算法进行同步定位与建图,将SLAM建图结果以关键帧为基本组织形式保存为地图数据库,用于后续在线视觉定位使用。
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角。
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离,其过程为:通过分析智能手机加速度计的输出数据进行行人步态检测,当检测出行人一步发生后,根据加速度值计算行人此步的步长,通过陀螺仪输出的角速率信息计算行人前进的方向。在已知起始位置和初始航向的前提下,根据得到的步长和航向角便可推算出行人每一时刻的位置。
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息,其过程为:利用PDR方法推算行人的行走距离达到设定阈值后,采用智能手机的摄像头拍摄当前场景图像,并检测当前帧的特征点与描述子信息。利用PDR的先验位置信息,将其与离线建立好的特征地图进行特征匹配寻找候选关键帧,然后建立当前帧与候选帧间2D-3D匹配,从而获得当前时刻的全局定位信息。
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5。其中,采用基于扩展卡尔曼滤波方法(EKF)将PDR与视觉定位结果松组合融合。PDR是一种相对定位方法,在定位过程中存在累积误差的问题,需要借助绝对位置信息来进行修正。而基于视觉特征地图的视觉定位结果是一种绝对位置信息且无误差漂移,因此可间接性地利用视觉定位结果来修正PDR的累积误差,不仅可以提高定位精度,同时可将传统PDR的应用场景从二维平面拓展至三维空间中。
本发明提供的一种基于智能手机PDR与视觉修正的行人定位方法,该方法利用智能手机内置的加速度计、陀螺仪传感器实现行人航位推算,同时借助手机的摄像头传感器拍摄场景图像,基于词袋模型进行视觉特征匹配定位,将PDR与视觉定位结果采用扩展卡尔曼滤波算法(EKF)进行松组合融合,得到行人位置的融合定位结果。通过间接性地调用视觉定位来修正PDR位置和航向角误差,不仅可以获得较好的定位性能提升,同时将传统PDR的应用场景从二维平面拓展至三维空间中,具有实际的研究意义和应用价值。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例中基于智能手机PDR与视觉修正的行人定位方法的流程图;
图2为本发明实施例中单帧关键帧所包含的信息示意图;
图3为本发明实施例中PDR定位的流程图;
图4为本发明实施例中视觉定位的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是物理连接或无线通信连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1所示为本实施例公开的一种基于智能手机PDR与视觉修正的行人定位方法,其主要包括如下步骤1-步骤5。
步骤1,建立待测区域的视觉特征地图
视觉特征地图的建立技术是指利用一定的传感器信息,将不同时刻视觉信息中的视觉特征转化为统一的、可用于全局定位的特征地图,建立视觉特征地图本质上是一个同步建图与定位(SLAM)的过程。
考虑到视觉定位的实时性以及视觉特征的尺度不变性和旋转不变性要求,本实施例采用基于ORB特征的视觉SLAM算法在待测区域离线建立视觉特征地图。局部地图的建立采用局部BA优化算法,通过最小化相机的重投影误差同时优化各相机位姿和各特征点的空间位置。
假设相机的位姿为
Figure 810872DEST_PATH_IMAGE001
,对应的李群为
Figure 92817DEST_PATH_IMAGE002
,特征点的空间位置为
Figure 214357DEST_PATH_IMAGE003
,观测数据为像素坐标
Figure 849738DEST_PATH_IMAGE004
,构建关于观测误差的最小二乘问题,为:
Figure 412437DEST_PATH_IMAGE005
其中,
Figure 740651DEST_PATH_IMAGE006
为在相机位姿
Figure 5279DEST_PATH_IMAGE007
处观察路标
Figure 975509DEST_PATH_IMAGE008
所产生的数据;
Figure 720611DEST_PATH_IMAGE009
为观测方程,
Figure 95091DEST_PATH_IMAGE010
为与当前帧共视的关键帧个数,
Figure 722382DEST_PATH_IMAGE011
为共视的地图点个数。
SLAM建图得到的视觉特征地图以关键帧为基本组织形式保存为地图数据。参考图2,在每个关键帧中,包含了关键帧在地图坐标系下的位姿、特征点的像素坐标及三维空间位置、特征点的特征描述子,完整的视觉特征地图由建图区域的所有关键帧组成。在具体实施过程为,关键帧的筛选/确定过程采用两个标准:
1)当前帧与上一个关键帧的平均视差大于设定阈值keyframe_parallax,通常设置为10左右;
2)当前帧跟踪到的特征点数目低于设定阈值track_num,一般设置为50左右。
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角
在具体实施过程中,当行人初次进入待测区域时,可以调用基于视觉特征地图的位置识别算法,在步骤1已建立视觉特征地图的区域内计算得到视觉全局定位结果,即可以将该视觉全局定位结果作为行人的初始位置与航向角
Figure 824199DEST_PATH_IMAGE012
。其中,视觉全局定位结果的获取过程与步骤4相同,在此先不赘述。
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离
基于PDR对行人航位进行推算的过程为:通过分析智能手机加速度计输出数据进行步态检测,在检测到行人一步发生后,根据加速度值计算该步的步长,根据陀螺仪的角速率数据计算行人的航向角。在已知行人前一时刻位置的基础上,根据计算得到的步长和航向信息便可推算出行人当前时刻的位置,因此位置更新过程为:
Figure 486124DEST_PATH_IMAGE013
式中,
Figure 31506DEST_PATH_IMAGE014
为行人在第k步时的位置,
Figure 146093DEST_PATH_IMAGE015
为行人在第k-1步时的位置,
Figure 887538DEST_PATH_IMAGE016
为在第k步时的航向角,
Figure 669550DEST_PATH_IMAGE017
为第k步的步长。
参考图3,基于PDR对行人航位进行推算的过程具体为:
行人的行走过程具有周期性的变化规律。根据行人行走过程中的运动特点,通过分析加速度计的三轴加速度变化规律可精确推算出行走步数。由于行人行走过程中身体的抖动以及传感器的误差等原因,在获取原始加速度数据后需要采用平滑滤波的方法对其进行预处理,即:
Figure 385833DEST_PATH_IMAGE018
其中,
Figure 987716DEST_PATH_IMAGE019
t时刻滤波后的加速度,
Figure 775543DEST_PATH_IMAGE020
为第
Figure 271115DEST_PATH_IMAGE021
时刻的加速度,M为滑动窗口的大小。在具体实施过程中,滑动窗口大小的选择与加速度数据的采集频率和步频有关,一般设置为5左右可取得较好的步态检测效果。
将原始加速度数据平滑滤波后便可进行步态检测。由于行人持有手机的姿态并不固定,如果采用单轴加速度值进行步态检测会遇到周期特征不明显的问题,因此将三轴的合成加速度
Figure 548513DEST_PATH_IMAGE022
作为步态检测的判定依据,其大小计算为:
Figure 247479DEST_PATH_IMAGE023
其中,
Figure 838997DEST_PATH_IMAGE024
Figure 64442DEST_PATH_IMAGE025
Figure 637375DEST_PATH_IMAGE026
分别代表平滑滤波后的加速度在
Figure 213849DEST_PATH_IMAGE027
轴、
Figure 15583DEST_PATH_IMAGE028
轴、
Figure 95535DEST_PATH_IMAGE029
轴的分量;
再根据合成加速度
Figure 839369DEST_PATH_IMAGE030
的大小以及连续两个待定步之间的时间间隔来判断一步是否发生:
假设
Figure 637560DEST_PATH_IMAGE031
时刻的合成加速度
Figure 305302DEST_PATH_IMAGE032
为第
Figure 380706DEST_PATH_IMAGE033
步时间内的峰值,记为
Figure 436386DEST_PATH_IMAGE034
。则
Figure 580929DEST_PATH_IMAGE035
应满足:
Figure 317940DEST_PATH_IMAGE036
其中,
Figure 372484DEST_PATH_IMAGE037
t-1时刻的合成加速度,
Figure 208853DEST_PATH_IMAGE038
t+1时刻的合成加速度;
判定一步发生的具体准则为:
Figure 981637DEST_PATH_IMAGE039
其中,
Figure 256761DEST_PATH_IMAGE040
为加速度峰值阈值;
Figure 556024DEST_PATH_IMAGE041
为相邻峰值的时间间隔,即第
Figure 687928DEST_PATH_IMAGE042
步的持续时间,
Figure 885691DEST_PATH_IMAGE043
Figure 636609DEST_PATH_IMAGE044
为时间间隔的阈值下限和上限。
考虑到行人行走速度快慢的影响,需要对加速度峰值阈值
Figure 931324DEST_PATH_IMAGE045
和时间间隔阈值
Figure 171813DEST_PATH_IMAGE046
Figure 309402DEST_PATH_IMAGE047
作进一步的动态设置。峰值阈值
Figure 723066DEST_PATH_IMAGE048
限定在
Figure 809971DEST_PATH_IMAGE049
m/s2之间,并根据当前加速度峰值与前两个时刻加速度峰值的均值之比进行动态调整如下:
Figure 159043DEST_PATH_IMAGE050
其中,
Figure 128136DEST_PATH_IMAGE051
为第k步计算时的峰值阈值,
Figure 470125DEST_PATH_IMAGE052
为第k+1步计算时的峰值阈值,
Figure 208274DEST_PATH_IMAGE053
为第
Figure 728248DEST_PATH_IMAGE054
步合成加速度峰值与前三步合成加速度平均峰值的比值。对于最初三步计算时的峰值阈值设置为12左右。
时间间隔阈值
Figure 184637DEST_PATH_IMAGE055
Figure 143366DEST_PATH_IMAGE056
的设置需要结合行人在正常行走时的频率范围0.5-5Hz进行考虑。具体动态调整如下:
Figure 126234DEST_PATH_IMAGE057
在检测到行人一步发生后,对该步的步长和航向进行估计。采用Weinbeng步长模型估计第
Figure 941743DEST_PATH_IMAGE058
步的步长
Figure 495216DEST_PATH_IMAGE059
,即:
Figure 319952DEST_PATH_IMAGE060
其中,
Figure 235956DEST_PATH_IMAGE061
是步长系数,对于不同的行人取值不同,与每个人的身高、步频等因素有关;
Figure 347000DEST_PATH_IMAGE062
Figure 43561DEST_PATH_IMAGE063
是第
Figure 344092DEST_PATH_IMAGE064
步过程中合成加速度的最大值和最小值。
在具体实施过程中,基于陀螺仪的航向估计只能为PDR提供一个相对航向估计值,在已知初始航向信息的前提下,对陀螺仪输出的角速率进行积分计算得到当前时刻的航向,为:
Figure 786706DEST_PATH_IMAGE065
其中,
Figure 209597DEST_PATH_IMAGE066
为初始航向角;
Figure 65557DEST_PATH_IMAGE067
为陀螺仪相对于导航坐标系Z轴的角速率测量值,
Figure 91151DEST_PATH_IMAGE068
为第
Figure 44064DEST_PATH_IMAGE069
步的航向角变化量,
Figure 247643DEST_PATH_IMAGE070
为航位推算的初始时刻,
Figure 387637DEST_PATH_IMAGE071
为第
Figure 29971DEST_PATH_IMAGE064
步时所对应的时刻。
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息
当采用PDR方法推算行人的行走距离达到设定阈值
Figure 696445DEST_PATH_IMAGE072
后,调用基于视觉特征地图的位置识别算法,在步骤1已建立视觉特征地图的区域内计算得到视觉全局定位结果。视觉位置识别与视觉SLAM中回环检测原理相同,全局定位的第一步可以看作是闭环检测的过程。首先提取当前帧的ORB特征点和特征描述子,基于词袋模型(Bag-of-Words, BoW)计算当前帧的词袋向量信息。然后在由关键帧组成的视觉特征地图中,利用PDR推算的位置先验信息,通过计算不同图像的词袋向量之间的距离(即图像间的相似度)寻找与当前帧相似的地图中的关键帧,这些关键帧会作为候选帧用于进一步的精定位过程。
参考图4,基于视觉特征地图的进行全局定位的过程具体包括:
建立视觉特征地图的字典:视觉SLAM中特征描述子的字典是通过对大量图像的特征进行聚类得到的,步骤1的视觉特征地图是已建立好的,可以通过对视觉特征地图中出现的所有特征点进行聚类,生成专门针对此视觉特征地图的ORB字典。
字典的训练是基于K-means算法得到N个单词(Word):
Figure 461138DEST_PATH_IMAGE073
。为了提高图像匹配和查询的效率,使用K叉树来表达字典,叶子层即为所谓的单词。构建完K叉树字典后,采用TF-IDF(Term Frequency-Inverse Document Frequency)方法为每个单词赋予权值。IDF的思想是,某单词在字典中出现的频率越低,分类图像的区分度就越高:
Figure 291691DEST_PATH_IMAGE074
其中,
Figure 409820DEST_PATH_IMAGE075
为单词
Figure 337325DEST_PATH_IMAGE076
IDF值,
Figure 131974DEST_PATH_IMAGE077
为字典中所有特征数量,
Figure 184244DEST_PATH_IMAGE078
为单词
Figure 496276DEST_PATH_IMAGE079
中的特征数量;
TF的思想是,某单词在一幅图像中出现的次数越多,它的区分度越高。假设图像
Figure 888075DEST_PATH_IMAGE080
中单词
Figure 932254DEST_PATH_IMAGE081
出现了
Figure 534137DEST_PATH_IMAGE082
次,一共出现的单词次数为
Figure 243335DEST_PATH_IMAGE083
,则单词
Figure 817536DEST_PATH_IMAGE084
TF
Figure 94934DEST_PATH_IMAGE085
为:
Figure 59479DEST_PATH_IMAGE086
最终得到单词
Figure 385418DEST_PATH_IMAGE087
的权值
Figure 142021DEST_PATH_IMAGE088
为:
Figure 528003DEST_PATH_IMAGE089
对于某幅图像A,它的特征点对应到多个单词,计算IF-IDF值得到描述该幅图像的词袋向量,为:
Figure 963533DEST_PATH_IMAGE090
其中,
Figure 155480DEST_PATH_IMAGE091
为字典的所有单词个数,
Figure 704273DEST_PATH_IMAGE092
为单词
Figure 198839DEST_PATH_IMAGE093
TF-IDF值,
Figure 997031DEST_PATH_IMAGE094
为图像A的词袋向量。
图像之间的相似度计算一般利用词袋向量距离的
Figure 851723DEST_PATH_IMAGE095
范数形式,即:
Figure 255023DEST_PATH_IMAGE096
式中,
Figure 45124DEST_PATH_IMAGE097
为图像A与图像B之间的相似度,
Figure 533874DEST_PATH_IMAGE098
为图像B的词袋向量,
Figure 942990DEST_PATH_IMAGE099
为词袋向量
Figure 263113DEST_PATH_IMAGE100
的第
Figure 161799DEST_PATH_IMAGE101
个分量,
Figure 59217DEST_PATH_IMAGE102
为词袋向量
Figure 396657DEST_PATH_IMAGE103
的第
Figure 181073DEST_PATH_IMAGE104
个分量,
Figure 516240DEST_PATH_IMAGE105
Figure 776320DEST_PATH_IMAGE106
表示词袋向量
Figure 776506DEST_PATH_IMAGE107
Figure 743325DEST_PATH_IMAGE108
的第i个分量,也就是每个视觉单词
Figure 311709DEST_PATH_IMAGE109
的权重值,与
Figure 668872DEST_PATH_IMAGE110
Figure 285799DEST_PATH_IMAGE111
表示的含义相同;
获取智能手机上摄像头采集的当前帧图像,计算出当前帧与视觉特征地图中PDR推算位置附近所有关键帧的相似度后,选择相似度最高的若干帧作为候选帧,进行特征匹配与PnP位姿求解,得到精确的全局定位信息,其具体实施过程为:
特征匹配是指判断不同图像的特征点之间的对应关系,特征点之间的相似度通常采用特征描述子距离进行度量。对于ORB特征的BRIEF二进制描述子,通常采用汉明距离
Figure 435020DEST_PATH_IMAGE112
来表述相似度,即:
Figure 33361DEST_PATH_IMAGE113
其中,
Figure 205716DEST_PATH_IMAGE114
表示异或运算;
Figure 423071DEST_PATH_IMAGE115
Figure 302165DEST_PATH_IMAGE116
分别表示两幅图像中ORB特征点的BRIEF描述子。
基于汉明距离的特征相似度度量方法,采用快速近似最近邻(FLANN)对特征点进行匹配。考虑到可能会出现误匹配的问题,使用随机采样一致性(RANSC)对匹配进行筛选,剔除一些错误匹配的点对。
在获得当前帧与候选帧的特征匹配关系之后,由于视觉特征地图中已知候选帧特征点的三维坐标,采用PnP(Perspective-n-Point)方法求解当前帧相对于地图的位姿。PnP是利用3D-2D点对求解位姿的方法,3D点由视觉特征地图中得到,2D点是当前帧的特征点。采用非线性优化的方式,把PnP问题构建成一个关于最小化重投影误差的非线性最小而成问题。
考虑有
Figure 946773DEST_PATH_IMAGE117
个三维空间点
Figure 606424DEST_PATH_IMAGE118
及投影点
Figure 752104DEST_PATH_IMAGE119
,待求相机的位姿
Figure 610338DEST_PATH_IMAGE120
,它的李群表示为
Figure 35635DEST_PATH_IMAGE121
。假设某空间点坐标为
Figure 182582DEST_PATH_IMAGE122
,其投影的像素坐标为
Figure 741740DEST_PATH_IMAGE123
。由于相机的位姿未知及观测点噪声的影响,3D点的投影位置与观测位置存在一个误差。将所有的重投影误差求和,构建一个最小二乘问题,迭代求解最优的相机位姿
Figure 579114DEST_PATH_IMAGE124
,使其最小化,即:
Figure 831104DEST_PATH_IMAGE125
其中,
Figure 199769DEST_PATH_IMAGE126
表示尺度因子;
Figure 172404DEST_PATH_IMAGE127
为相机内参矩阵。
在计算出每个候选帧与当前帧之间的平移与旋转后,通过RANSAC方法剔除一些异常的候选帧。最后将剩余的候选帧中所有地图点投影到当前帧搜索特征匹配,如果匹配的数目大于设置阈值
Figure 270810DEST_PATH_IMAGE128
,则接收相机位姿结果,否则不进行视觉修正,跳过后面步骤5的滤波融合步骤。
计算得到相机的位姿结果后,相机的位置
Figure 631384DEST_PATH_IMAGE129
作为行人当前时刻的位置参考信息,将相机的姿态矩阵
Figure 674295DEST_PATH_IMAGE130
转换为欧拉角,可得到行人当前时刻的参考航向角信息
Figure 575255DEST_PATH_IMAGE131
,为:
Figure 465851DEST_PATH_IMAGE132
其中,
Figure 935009DEST_PATH_IMAGE133
为姿态矩阵R中第2行第1列位置的元素,
Figure 75004DEST_PATH_IMAGE134
为姿态矩阵R中第1行第1列位置的元素。
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5。
在具体实施过程中,基于扩展卡尔曼滤波方法(EKF)将PDR与视觉定位结果松组合融合,以视觉位置识别结果作为定位参考,不仅可以修正PDR的累积误差,提高定位精度,同时可解决PDR在三维空间中行人定位问题。
在扩展卡尔曼滤波方法EKF的预测阶段,第
Figure 717338DEST_PATH_IMAGE135
步时行人的状态转移方程如下:
Figure 649390DEST_PATH_IMAGE136
其中,
Figure 148505DEST_PATH_IMAGE137
为第
Figure 979058DEST_PATH_IMAGE138
步的状态预测向量,即通过行人航位推算PDR得到的行人第
Figure 362766DEST_PATH_IMAGE139
步的位置坐标和航向角;
Figure 759112DEST_PATH_IMAGE140
为通过扩展卡尔曼滤波方法EFK对第
Figure 632390DEST_PATH_IMAGE141
步进行最优估计获得的状态向量,即通过视觉修正后得到的行人第
Figure 137189DEST_PATH_IMAGE141
步的位置坐标和航向角
Figure 183643DEST_PATH_IMAGE142
Figure 637758DEST_PATH_IMAGE143
Figure 619620DEST_PATH_IMAGE144
;初始值设置为PDR的初始位置和航向角,即
Figure 221503DEST_PATH_IMAGE145
Figure 9331DEST_PATH_IMAGE146
表示状态转移方程中的非线性函数;
Figure 504903DEST_PATH_IMAGE147
表示上一次调用视觉定位结果来修正PDR定位结果所对应的步数;
Figure 782300DEST_PATH_IMAGE148
为过程噪声向量;
将状态转移方程中的非线性函数
Figure 74741DEST_PATH_IMAGE149
Figure 338364DEST_PATH_IMAGE150
附近进行线性化处理,舍去高阶部分后得到第
Figure 563809DEST_PATH_IMAGE151
步所对应的状态矩阵
Figure 215370DEST_PATH_IMAGE152
,为:
Figure 916478DEST_PATH_IMAGE153
其中,
Figure 46108DEST_PATH_IMAGE154
表示将非线性函数
Figure 391639DEST_PATH_IMAGE155
Figure 886206DEST_PATH_IMAGE156
附近进行线性化处理;
之后对预测变量
Figure 684397DEST_PATH_IMAGE157
的协方差矩阵
Figure 617718DEST_PATH_IMAGE158
进行更新,为:
Figure 207968DEST_PATH_IMAGE159
其中,
Figure 935753DEST_PATH_IMAGE160
表示采用扩展卡尔曼滤波方法EKF对第
Figure 221241DEST_PATH_IMAGE161
步状态最优估计值的协方差矩阵,其初始值设为
Figure 630357DEST_PATH_IMAGE162
Figure 684900DEST_PATH_IMAGE163
表示预测模型本身所带来的过程噪声矩阵,由行人航位推算方法PDR各要素的平均误差组成,其中
Figure 849165DEST_PATH_IMAGE164
Figure 12162DEST_PATH_IMAGE165
表示位置平均误差,
Figure 21707DEST_PATH_IMAGE166
表示航向角平均误差。
在扩展卡尔曼滤波方法EKF的更新阶段,***的观测方程为:
Figure 196336DEST_PATH_IMAGE167
其中,
Figure 203606DEST_PATH_IMAGE168
为观测矩阵;
Figure 666949DEST_PATH_IMAGE169
表示在第
Figure 276922DEST_PATH_IMAGE170
步由视觉定位识别得到的观测向量,
Figure 696270DEST_PATH_IMAGE171
Figure 999076DEST_PATH_IMAGE172
为第k步时视觉定位的位置信息,
Figure 684135DEST_PATH_IMAGE173
为第k步时视觉定位的航向角;
Figure 238744DEST_PATH_IMAGE174
为观测误差向量;
Figure 325649DEST_PATH_IMAGE175
表示在第
Figure 799356DEST_PATH_IMAGE176
步由PDR定位识别得到的观测向量,
Figure 158662DEST_PATH_IMAGE177
Figure 313699DEST_PATH_IMAGE178
为第k步时PDR定位的位置信息,
Figure 317428DEST_PATH_IMAGE179
为第k步时PDR定位的航向角。
计算第
Figure 102981DEST_PATH_IMAGE180
步的EKF增益矩阵
Figure 559370DEST_PATH_IMAGE181
,为:
Figure 518099DEST_PATH_IMAGE182
其中,
Figure 500967DEST_PATH_IMAGE183
为第
Figure 519739DEST_PATH_IMAGE184
步对应的观测噪声协方差矩阵,通过下式计算:
Figure 463424DEST_PATH_IMAGE185
其中,
Figure 163527DEST_PATH_IMAGE186
为窗口长度,
Figure 876268DEST_PATH_IMAGE187
为第
Figure 800362DEST_PATH_IMAGE188
步时视觉位置识别得到的观测向量,
Figure 621556DEST_PATH_IMAGE189
为第
Figure 718825DEST_PATH_IMAGE190
步时PDR推算得到的状态向量。
计算行人第
Figure 754914DEST_PATH_IMAGE191
步状态的最优估计值
Figure 787592DEST_PATH_IMAGE192
,为:
Figure 909132DEST_PATH_IMAGE193
同时更新状态最优估计值的协方差矩阵,用于下次卡尔曼滤波方法EKF计算,为:
Figure 810092DEST_PATH_IMAGE194
其中,
Figure 645496DEST_PATH_IMAGE195
为单位矩阵。
在具体计算过程中,对于行人的高度位置,可以直接采用视觉定位结果中的高度值,从而实现行人在三维空间中的室内定位。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。

Claims (5)

1.一种基于智能手机PDR与视觉修正的行人定位方法,其特征在于,包括如下步骤:
步骤1,建立待测区域的视觉特征地图,所述视觉特征地图以关键帧为基本组织形式保存为地图数据库,键帧的确定过程采用两个标准,为:
当前帧与上一个关键帧的平均视差大于设定阈值keyframe_parallax;
当前帧跟踪到的特征点数目低于设定阈值track_num;
步骤2,基于视觉特征地图的全局定位确定行人的初始位置与航向角;
步骤3,PDR定位:在初始位置与航向角的基础上基于PDR对行人航位进行推算,并推算行人的行走距离;
步骤4,视觉定位:当行人的行走距离达到设定阈值后,基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息;
步骤5,以视觉定位结果为定位参考,对PDR定位结果进行修正,并将修正后的PDR定位结果作为行人新的初始位置与航向角后重复步骤3-5;
步骤3中,所述基于PDR对行人航位进行推算,具体为:
获取智能手机中加速度计的原始加速度数据,并采用平滑滤波对其进行预处理,为:
Figure 192167DEST_PATH_IMAGE001
其中,
Figure 523791DEST_PATH_IMAGE002
t时刻滤波后的加速度,
Figure 417667DEST_PATH_IMAGE003
为第
Figure 811739DEST_PATH_IMAGE004
时刻的加速度,M为滑动窗口的大小;
将滤波后的原始加速度数据的三轴分量合成,得到合成加速度acc,为:
Figure 895102DEST_PATH_IMAGE005
其中,
Figure 691019DEST_PATH_IMAGE006
Figure 319578DEST_PATH_IMAGE007
Figure 528842DEST_PATH_IMAGE008
分别代表平滑滤波后的加速度在
Figure 760103DEST_PATH_IMAGE009
轴、
Figure 67586DEST_PATH_IMAGE010
轴、
Figure 991680DEST_PATH_IMAGE011
轴的分量;
根据加速度
Figure 688241DEST_PATH_IMAGE012
的大小以及连续两个待定步之间的时间间隔来判断一步是否发生,一步发生的准则为:
Figure 598559DEST_PATH_IMAGE013
其中,
Figure 103490DEST_PATH_IMAGE014
为第
Figure 588698DEST_PATH_IMAGE015
步时间内合成加速度的峰值,
Figure 444658DEST_PATH_IMAGE016
为加速度峰值阈值;
Figure 594886DEST_PATH_IMAGE017
为第
Figure 344536DEST_PATH_IMAGE015
步的持续时间,
Figure 876011DEST_PATH_IMAGE018
Figure 829055DEST_PATH_IMAGE019
为时间间隔的阈值下限和上限;
检测一步发生后,对该步的步长和航向进行估计,为:
Figure 799285DEST_PATH_IMAGE020
其中,
Figure 278808DEST_PATH_IMAGE021
为第
Figure 89507DEST_PATH_IMAGE015
步的步长,
Figure 920060DEST_PATH_IMAGE022
是步长系数,
Figure 162822DEST_PATH_IMAGE023
Figure 637797DEST_PATH_IMAGE024
是第
Figure 511075DEST_PATH_IMAGE015
步过程中合成加速度的最大值和最小值;
Figure 891241DEST_PATH_IMAGE025
其中,
Figure 983699DEST_PATH_IMAGE026
为第
Figure 703394DEST_PATH_IMAGE027
步的航向角,
Figure 606628DEST_PATH_IMAGE028
为初始航向角;
Figure 224822DEST_PATH_IMAGE029
为陀螺仪相对于导航坐标系Z轴的角速率测量值,
Figure 12649DEST_PATH_IMAGE030
为第
Figure 445905DEST_PATH_IMAGE027
步的航向角变化量,
Figure 978429DEST_PATH_IMAGE031
为航位推算的初始时刻,
Figure 739712DEST_PATH_IMAGE032
为第
Figure 190285DEST_PATH_IMAGE027
步时所对应的时刻;
最后根据步长和航向进行位置更新,为:
Figure 618992DEST_PATH_IMAGE033
式中,
Figure 818023DEST_PATH_IMAGE034
为行人在第k步时的位置,
Figure 456815DEST_PATH_IMAGE035
为行人在第k-1步时的位置;
考虑到行人行走速度快慢的影响,对加速度峰值阈值
Figure 586445DEST_PATH_IMAGE036
进行动态设置,为:
Figure 977981DEST_PATH_IMAGE037
其中,
Figure 534864DEST_PATH_IMAGE038
为第k步计算时的峰值阈值,
Figure 598635DEST_PATH_IMAGE039
为第k+1步计算时的峰值阈值,
Figure 876164DEST_PATH_IMAGE040
为第
Figure 279463DEST_PATH_IMAGE041
步合成加速度峰值与前三步合成加速度平均峰值的比值;
考虑到行人行走速度快慢的影响,对时间间隔阈值
Figure 335144DEST_PATH_IMAGE042
Figure 666637DEST_PATH_IMAGE043
进行动态设置,为:
若当前步计算时的峰值阈值小于12,则
Figure 403649DEST_PATH_IMAGE044
若当前步计算时的峰值阈值大于或等于12且小于13.5,则
Figure 723772DEST_PATH_IMAGE045
若当前步计算时的峰值阈值大于或等于13.5,则
Figure 232245DEST_PATH_IMAGE046
2.根据权利要求1所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤4中,所述基于视觉特征地图的全局定位得到行人当前时刻的全局定位信息,具体为:
通过智能手机的摄像头采集当前帧图像,提取当前帧的ORB特征点和特征描述子,计算当前帧的词袋向量;
基于不同图像的词袋向量之间的距离在视觉特征地图寻找与当前帧相似的关键帧,作为侯选帧;
建立当前帧与侯选帧之间的2D-3D点对匹配,采用RANSAC方法剔除异常的候选帧后,将剩余的候选帧中所有地图点投影到当前帧搜索特征匹配,将所有的重投影误差求和构建一个最小二乘问题,再采用PnP方法求解得到相机的位姿;
最后将相机的姿态矩阵转换为欧拉角,即得到行人当前位置的航向角。
3.根据权利要求1所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤5中,基于扩展卡尔曼滤波方法将PDR定位结果与视觉定位结果松组合融合,以视觉定位结果作为定位参考修正PDR定位结果的累积误差。
4.根据权利要求3所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,步骤5中,所述以视觉定位结果作为定位参考修正PDR定位结果的累积误差,具体为:
在扩展卡尔曼滤波方法的预测阶段,建立第
Figure 208291DEST_PATH_IMAGE047
步时行人的状态转移方程,为:
Figure 545732DEST_PATH_IMAGE048
其中,
Figure 766366DEST_PATH_IMAGE049
为第
Figure 101533DEST_PATH_IMAGE050
步的状态预测向量,即通过PDR得到的行人第
Figure 158350DEST_PATH_IMAGE050
步的位置坐标和航向角
Figure 971586DEST_PATH_IMAGE051
Figure 282612DEST_PATH_IMAGE052
Figure 382155DEST_PATH_IMAGE053
Figure 638519DEST_PATH_IMAGE054
为通过扩展卡尔曼滤波方法对第
Figure 255445DEST_PATH_IMAGE055
步进行最优估计获得的状态向量,即通过视觉修正后得到的行人第
Figure 201404DEST_PATH_IMAGE055
步的位置坐标和航向角
Figure 347215DEST_PATH_IMAGE056
Figure 332619DEST_PATH_IMAGE057
Figure 612291DEST_PATH_IMAGE058
Figure 553702DEST_PATH_IMAGE059
为非线性函数;
Figure 713157DEST_PATH_IMAGE055
表示上一次调用视觉定位结果来修正PDR定位结果所对应的步数;
Figure 231863DEST_PATH_IMAGE060
为过程噪声向量,
Figure 190592DEST_PATH_IMAGE061
为第i步的步长,
Figure 861876DEST_PATH_IMAGE062
为第i步的航向角,
Figure 942964DEST_PATH_IMAGE063
为第i步的航向角变化量;
将非线性函数
Figure 558753DEST_PATH_IMAGE064
Figure 695074DEST_PATH_IMAGE065
附近进行线性化处理,舍去高阶部分后得到第
Figure 673395DEST_PATH_IMAGE066
步所对应的状态矩阵
Figure 597488DEST_PATH_IMAGE067
,为:
Figure 107098DEST_PATH_IMAGE068
基于状态矩阵
Figure 142050DEST_PATH_IMAGE069
对预测变量
Figure 974877DEST_PATH_IMAGE070
的协方差矩阵
Figure 709353DEST_PATH_IMAGE071
进行更新,为:
Figure 299734DEST_PATH_IMAGE072
其中,
Figure 466273DEST_PATH_IMAGE073
表示采用扩展卡尔曼滤波方法对第
Figure 966656DEST_PATH_IMAGE074
步状态最优估计值的协方差矩阵,
Figure 498131DEST_PATH_IMAGE075
表示过程噪声矩阵;
在扩展卡尔曼滤波方法的更新阶段,***的观测方程为:
Figure 903705DEST_PATH_IMAGE076
其中,
Figure 660220DEST_PATH_IMAGE077
为观测矩阵,
Figure 405322DEST_PATH_IMAGE078
表示在第
Figure 966754DEST_PATH_IMAGE079
步由视觉定位识别得到的观测向量,
Figure 610356DEST_PATH_IMAGE080
Figure 790801DEST_PATH_IMAGE081
Figure 780623DEST_PATH_IMAGE082
为第k步时视觉定位的位置信息与航向角,
Figure 388322DEST_PATH_IMAGE083
为观测误差向量;
计算第
Figure 752176DEST_PATH_IMAGE079
步的EKF增益矩阵
Figure 860946DEST_PATH_IMAGE084
,为:
Figure 580640DEST_PATH_IMAGE085
其中,
Figure 437869DEST_PATH_IMAGE086
为第
Figure 836489DEST_PATH_IMAGE079
步对应的观测噪声协方差矩阵;
计算行人第
Figure 358738DEST_PATH_IMAGE079
步状态的最优估计值
Figure 306840DEST_PATH_IMAGE087
,为:
Figure 256341DEST_PATH_IMAGE088
其中,
Figure 611099DEST_PATH_IMAGE089
即为修正后的PDR定位结果。
5.根据权利要求4所述的基于智能手机PDR与视觉修正的行人定位方法,其特征在于,状态最优估计值的协方差矩阵的更新过程为:
Figure 812405DEST_PATH_IMAGE090
其中,
Figure 241112DEST_PATH_IMAGE091
为第
Figure 689411DEST_PATH_IMAGE079
步状态最优估计值的协方差矩阵,
Figure 311891DEST_PATH_IMAGE092
为单位矩阵。
CN202211133744.1A 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法 Active CN115235455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211133744.1A CN115235455B (zh) 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211133744.1A CN115235455B (zh) 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法

Publications (2)

Publication Number Publication Date
CN115235455A CN115235455A (zh) 2022-10-25
CN115235455B true CN115235455B (zh) 2023-01-13

Family

ID=83681806

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211133744.1A Active CN115235455B (zh) 2022-09-19 2022-09-19 一种基于智能手机pdr与视觉修正的行人定位方法

Country Status (1)

Country Link
CN (1) CN115235455B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116681935B (zh) * 2023-05-31 2024-01-23 国家深海基地管理中心 一种深海热液喷口自主识别定位方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109405829A (zh) * 2018-08-28 2019-03-01 桂林电子科技大学 基于智能手机音视频多源信息融合的行人自定位方法
CN112129281A (zh) * 2019-06-25 2020-12-25 南京航空航天大学 一种基于局部邻域地图的高精度图像导航定位方法
CN112637762A (zh) * 2020-12-11 2021-04-09 武汉科技大学 一种基于改进pdr算法的室内融合定位方法
CN113029148A (zh) * 2021-03-06 2021-06-25 西南交通大学 一种基于航向角准确修正的惯性导航室内定位方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090082711A (ko) * 2008-01-28 2009-07-31 삼성전자주식회사 보행자 항법 시스템에서의 보폭 추정 방법 및 시스템
EP2386828B1 (en) * 2010-05-12 2013-12-11 Technische Universität Graz Method and system for detection of a zero velocity state of an object
CN104215238A (zh) * 2014-08-21 2014-12-17 北京空间飞行器总体设计部 一种智能手机室内定位方法
KR101713496B1 (ko) * 2016-09-02 2017-03-07 유치헌 가속도 센서를 이용한 무지연 실시간 걸음검출 시스템 및 방법
CN111595344B (zh) * 2020-06-01 2023-02-24 中国矿业大学 一种基于地图信息辅助的多姿态下行人行位推算方法
CN114111784A (zh) * 2021-10-26 2022-03-01 杭州电子科技大学 一种基于众包的室内走廊地图自动构建方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109405829A (zh) * 2018-08-28 2019-03-01 桂林电子科技大学 基于智能手机音视频多源信息融合的行人自定位方法
CN112129281A (zh) * 2019-06-25 2020-12-25 南京航空航天大学 一种基于局部邻域地图的高精度图像导航定位方法
CN112637762A (zh) * 2020-12-11 2021-04-09 武汉科技大学 一种基于改进pdr算法的室内融合定位方法
CN113029148A (zh) * 2021-03-06 2021-06-25 西南交通大学 一种基于航向角准确修正的惯性导航室内定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于图像检索和航位推算的室内定位方法研究;朱会平;《中国优秀硕士学位论文全文数据库信息科技辑》;20200615(第06期);第I138-790页 *

Also Published As

Publication number Publication date
CN115235455A (zh) 2022-10-25

Similar Documents

Publication Publication Date Title
CN109993113B (zh) 一种基于rgb-d和imu信息融合的位姿估计方法
CN110125928B (zh) 一种基于前后帧进行特征匹配的双目惯导slam***
CN105371847B (zh) 一种室内实景导航方法及***
Wang et al. Pedestrian dead reckoning based on walking pattern recognition and online magnetic fingerprint trajectory calibration
CN105761242B (zh) 一种基于计算机双目视觉与惯性测量的盲人行走定位方法
WO2017088196A1 (zh) 基于无线指纹和mems传感器的融合导航装置和方法
CN110579207B (zh) 基于地磁信号结合电脑视觉的室内定位***及方法
KR102226846B1 (ko) Imu 센서와 카메라를 이용한 하이브리드 실내 측위 시스템
CN110553648A (zh) 一种用于室内导航的方法和***
CN106056075A (zh) 基于无人机的社区网格化中重点人员识别及跟踪***
CN111595344B (zh) 一种基于地图信息辅助的多姿态下行人行位推算方法
Wang et al. Pedestrian heading estimation based on spatial transformer networks and hierarchical LSTM
CN108549376A (zh) 一种基于信标的导航定位方法及***
CN109579825A (zh) 基于双目视觉和卷积神经网络的机器人定位***及方法
CN110032965A (zh) 基于遥感图像的视觉定位方法
CN110533719A (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
CN115235455B (zh) 一种基于智能手机pdr与视觉修正的行人定位方法
CN115574816A (zh) 仿生视觉多源信息智能感知无人平台
CN114076596A (zh) 一种基于星敏感器的自主星跟踪方法、***及存储介质
CN117739972B (zh) 一种无全球卫星定位***的无人机进近阶段定位方法
CN116007609A (zh) 一种多光谱图像和惯导融合的定位方法和计算***
CN112580683A (zh) 一种基于互相关的多传感器数据时间对齐***及其方法
Shu et al. Accurate indoor 3d location based on mems/vision by using a smartphone
CN116380079A (zh) 一种融合前视声呐与orb-slam3的水下slam方法
GB2616940A (en) Passive combined indoor positioning system and method based on intelligent terminal sensor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant