CN113029153A - 基于智能手机多传感器融合和svm分类的多场景pdr定位方法 - Google Patents

基于智能手机多传感器融合和svm分类的多场景pdr定位方法 Download PDF

Info

Publication number
CN113029153A
CN113029153A CN202110334800.7A CN202110334800A CN113029153A CN 113029153 A CN113029153 A CN 113029153A CN 202110334800 A CN202110334800 A CN 202110334800A CN 113029153 A CN113029153 A CN 113029153A
Authority
CN
China
Prior art keywords
pedestrian
acceleration
axis
mobile phone
angular velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110334800.7A
Other languages
English (en)
Other versions
CN113029153B (zh
Inventor
邱潇涵
范雨欣
王雕
史治国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110334800.7A priority Critical patent/CN113029153B/zh
Publication of CN113029153A publication Critical patent/CN113029153A/zh
Application granted granted Critical
Publication of CN113029153B publication Critical patent/CN113029153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Telephone Function (AREA)
  • Navigation (AREA)

Abstract

本发明涉及定位技术领域中的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,该方法包括两部分的内容,一是通过智能手机上的多种传感器测得行人的运动特征,并通过峰值检测的方法进行步数检测,通过非线性步长模型进行步长估计,通过运动特征进行方向估计,并将步数检测、步长估计、方向估计三者结合得到高精度的行人移动轨迹数据;二是提出了一种利用支持向量机区分行人携带智能手机模式的方法,可以在不同的模式下应用相应的计算模型,有效避免了传统PDR方法在多场景切换时的较大误差。设计的多场景PDR定位方法具有较高的精度与较快的运行速度,且仅需一部智能手机,不依赖外部辅助设备,从而使定位精度和鲁棒性得到明显改善。

Description

基于智能手机多传感器融合和SVM分类的多场景PDR定位方法
技术领域
本发明涉及室内定位领域,具体涉及一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法。
背景技术
随着智能移动设备的普及,室内定位的市场需求越来越大,如何实现在近距离复杂环境下的高精度室内定位逐渐成为研究热点,WIFI定位、蓝牙定位、超声波定位、红外线定位、磁场定位等室内定位方式不断涌现。在复杂多变的室内环境中,目前已有方法均存在一定局限性,难以投入实际应用。
行人航迹推算技术(PDR)依据移动终端的传感器获取行人步数、步长、方向,进而推算行人当前位置。相较于红外、超声波等定位方式,PDR不需在环境中额外布置设备,仅需依托智能手机内置的加速度计、陀螺仪、磁力计即可完成位置估计。然而,单步误差积累、移动终端与行人运动不一致等问题均会影响其定位精度。
发明内容
本发明目的为克服现有技术的不足,提供一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法。
本发明的目的是通过以下技术方案来实现的:一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,该方法包括以下步骤:
步骤1:通过UWB或WiFi定位的方式获取当前设备的初始位置;
步骤2:通过手机集成的加速度计、陀螺仪与气压计采集得到当前手机的加速度、角速度与气压值;
步骤3:对步骤2采集得到的数据进行低通滤波处理,滤除采样噪声;
步骤4:对经过步骤3滤波后的加速度与角速度数据进行四元数变换,将其从载体坐标系转换到世界坐标系;
步骤5:取世界坐标系下z轴加速度大小作为步数检测的依据,采取加速度峰值检测的方法,对步数进行判断;
步骤6:依据步骤5的峰值检测方法检测到一步之后,计算出一步所花的时间T,得到步频f=1/T,根据非线性步长模型计算得到步长;
步骤7:基于滤波后的加速度频域特征,采用SVM方法进行分类,区分手机处于行人口袋、手机在左手时的行人摆臂、手机在右手时的行人摆臂和平端手机这四种状态;
步骤8:对于四种不同的状态,通过检测角速度或加速度特征值计算一步内前进的方向;
步骤9:基于步骤6计算得到的步长与步骤8计算得到的方向,更新行人行走一步之后的位置;
步骤10:持续检测气压计的变化,若气压计示数出现连续下降趋势,则判断为行人上楼;若气压计示数出现连续上升趋势,则判断为行人下楼;
步骤11:完成一步的位置更新之后,持续检测步数变化;若出现新的一步,重复步骤5至步骤10;否则结束定位进程。
进一步地,所述步骤3中,低通滤波的通带截止频率为2.3Hz至3Hz,以行人的步频上限为佳。
进一步地,所述步骤4中,四元数的微分方程如下:
Figure BDA0002996997940000021
其中ωx、ωy、ωz分别代表陀螺仪传感器测得的三轴角速度,q0、q1、q2、q3代表待求的四元数;
通过一阶毕卡法迭代求解该微分方程,具体计算公式如下:
Figure BDA0002996997940000022
Figure BDA0002996997940000023
Figure BDA0002996997940000024
Figure BDA0002996997940000025
其中Δt代表时间微分量;
通过陀螺仪不断测得的角速度更新四元数,根据四元数方向余弦矩阵与欧拉角的关系,按照以下公式求出欧拉角:
Figure BDA0002996997940000031
其中φ、θ、ψ分别代表欧拉角中的翻滚角(Roll)、俯仰角(Pitch)、偏航角(Yaw),完成从载体坐标系到世界坐标系的转换。
进一步地,所述步骤5中,峰值检测步数的实现步骤如下:
S1:对世界坐标系下行人行走时的z轴加速度进行带通滤波,通带截止频率分别为0.5Hz和2.5Hz,滤除噪声与重力分量;
S2:取z轴加速度的模不小于0.5的波峰,若相邻两个波峰之间间隔不小于0.6s,则视作检测到一步。
进一步地,所述步骤6中,结合步频f、用户输入的身高h与个体特征参数c,根据非线性步长模型计算得到步长SL:
SL=[0.7+0.371×(h-1.75)+0.227×(f-1.79)×h÷1.75]×c;
其中个体特征参数c的值在0.8至1.2之间,通常取值为1。
进一步地,所述步骤7中,SVM分类的依据是行走时手机采集得到的加速度频谱特征;在有监督学习的前提下,将用户行走的加速度频谱特征用于训练分类模型,并将训练结果存储至云端,在实际使用时将用户行走的加速度频谱特征与训练结果进行匹配,实现实时的状态分类检测;SVM分类的实现步骤如下:
S0:原理说明:SVM即支持向量机,也称为最大间隔分类器,可以通过分离超平面将原始样本集划分成两部分或多部分。SVM的基本思路是找到能够正确划分训练集并且几何间隔最大的超平面,并且使得间隔最大化,即转换成凸二次规划问题。
S1:在有监督学习的情况下,对已知行人手机状态采集得到的加速度数据进行带通滤波处理,通带截止频率分别为0.5Hz和2.5Hz,滤除噪声与重力分量;
S2:通过峰值检测的方法判断步数,做出标记;
S3:对两步为一段的时域数据进行频域变换得到频域特征作为训练集合;
S4:对四种类别的数据分别附上标签:平端label=1,口袋label=2,左摆臂label=3,右摆臂label=4;
S5:对训练集合的数据进行归一化处理,映射到[0,1]之间;
S6:训练:采用镜像基函数RBF作为SVM的核函数并通过3-折交叉验证的方式找到其中最优的惩罚参数c以及RBF核参数g。将验证后得到的最佳参数c和g以及训练集、训练集标签代入到SVM训练函数中,得到训练模型;
S7:预测:将行人行走过程中实际采集到的加速度频谱数据,经步骤S1至S3中的滤波、分段和频域变换操作后,输入到步骤S6训练好的SVM分类模型中,得到预测的分类结果。
进一步地,所述步骤8中,手机处于不同状态下的方向检测具体方法如下:
S1:对于手机处于手持平端的状态和处于行人口袋的状态,首先对加速度值进行带通滤波,滤除重力加速度分量;再找到一步时间段内z轴加速度az=0,且z轴加速度增大,即
Figure BDA0002996997940000041
的时刻t0,取t0时刻的x、y轴加速度矢量和方向作为该步的前进方向;
S2:对于手机处于行人右手摆臂的情况,当一步内z轴方向上的角速度大于0时,取x、y轴上的角速度峰值矢量和方向作为该步前进方向;
S3:对于手机处于行人左手摆臂的情况,当一步内z轴方向上的角速度小于0时,取x、y轴上的角速度峰值矢量和方向作为该步前进方向。
进一步地,所述步骤8中,对于手机处于行人左右手摆臂的情况,在行走过程中,行人的摆臂运动可简化分解为以下两个子运动:一为水平面上手臂末端绕肩膀点的转动,体现为绕z轴转动的角速度ωz,二为竖直平面上手臂末端绕肩膀点的转动,体现为绕x轴转动的角速度ωx与绕y轴转动的角速度ωy;当行人右手手持手机摆臂,朝着正北方向运动,则手机角速度数据体现为绕z轴的一个随时间近似正弦变化的角速度ωz,以及绕x轴的一个随时间近似正弦变化的角速度ωx,由于人向北走,手臂朝南北方向摆动,故其绕y轴几乎无转动,即ωy≈0;由三轴角速度信息推测行人行走方向:若持手机手为右手,当行人手臂由后向前摆动过程中,ωz>0,视作当手机到达最低点时,摆动速度最快,即ωx与ωy达到峰值;可由两数据峰值的相对大小确定此时手机绕哪个水平轴转动,将该轴逆时针转动90°,若持手机手为左手,则将该轴顺时针转动90°,即可获得行人此时的前进方向。
进一步地,所述步骤8中,当手机平端在行人手上或手机放在行人贴身口袋中时,手机的运动可视为与行人躯干运动一致,行人迈出一步的过程可以划分为腿部迈动与重心转换两个阶段:在腿部迈动阶段,后腿离开地面,并逐渐向前迈出,最终脚后跟触及前方地面;由采集的加速度信息可知,从脚迈到最高点到脚后跟接触地面前一刻,人体躯干z轴方向上滤除重力后的加速度呈现由负值到正值的变化;在这个过程中,z轴方向上加速度为0对应的时刻,人体竖直向下方向上的速度达到最大,身体处于试图稳定的状态,此时身体左右摇晃最少,水平面上的加速度只由人体朝行进方向的平移运动产生,即水平面上的加速度合成方向能够准确地反映出行人的行走方向。
本发明的有益效果为:首先,通过智能手机终端上的加速度计、陀螺仪、磁力计、气压计获得行人运动数据,使用峰值检测法进行步数检测,使用非线性步长模型进行步长估计,使用加速度与角速度特征进行方向估计,并将步数检测、步长估计、方向估计三者相结合得到高精度的行人移动轨迹数据;其次,提出了一种利用支持向量机将定位时行人携带智能手机的方式区分开来的方法,可以在不同的方式下应用不同的行人移动轨迹计算模型,有效地避免了传统方法中PDR在多场景中切换使用时的较大误差。总之,该方法为一种精度较高、成本低、普适性高的室内定位方法,适合实际应用。
附图说明
图1为本发明的方法流程图;
图2为本发明具体实施例中行人持续朝北行走的三轴角速度波形图;
图3为本发明具体实施例中测试集的实际分类和预测分类图。
具体实施方式
下面对本发明的具体实施方式进行描述,便于本技术领域的技术人员理解本发明。应当指出,对于本技术领域的普通技术人员而言,在不脱离本发明原理的前提下,还可对本发明进行若干改进及修饰,这些改进与修饰也落入本发明权利要求的保护范围内。
如图1所示,本发明提出的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,包括以下步骤:
步骤1:通过UWB或WiFi定位的方式获取当前设备的初始位置;
步骤2:通过手机集成的加速度计、陀螺仪与气压计采集得到当前手机的加速度、角速度与气压值;
步骤3:对步骤2采集得到的数据进行低通滤波处理,滤除采样噪声;
步骤4:对经过步骤3滤波后的加速度与角速度数据进行四元数变换,将其从载体坐标系转换到世界坐标系;
步骤5:取世界坐标系下z轴加速度大小作为步数检测的依据,采取加速度峰值检测的方法,对步数进行判断;
步骤6:依据步骤5的峰值检测方法检测到一步之后,计算出一步所花的时间T,得到步频f=1/T,根据非线性步长模型计算得到步长;
步骤7:基于滤波后的加速度频域特征,采用SVM方法进行分类,区分手机处于行人口袋、手机在左手时的行人摆臂、手机在右手时的行人摆臂和平端手机这四种状态;
步骤8:对于四种不同的状态,通过检测角速度或加速度特征值计算一步内前进的方向;
步骤9:基于步骤6计算得到的步长与步骤8计算得到的方向,更新行人行走一步之后的位置;
步骤10:持续检测气压计的变化,若气压计示数出现连续下降趋势,则判断为行人上楼;若气压计示数出现连续上升趋势,则判断为行人下楼;
步骤11:完成一步的位置更新之后,持续检测步数变化;若出现新的一步,重复步骤5至步骤10;否则结束定位进程。
进一步地,所述步骤3中,低通滤波的通带截止频率为2.3Hz至3Hz,以行人的步频上限为佳。
进一步地,所述步骤4中,四元数的微分方程如下:
Figure BDA0002996997940000061
其中ωx、ωy、ωz分别代表陀螺仪传感器测得的三轴角速度,q0、q1、q2、q3代表待求的四元数;
通过一阶毕卡法迭代求解该微分方程,具体计算公式如下:
Figure BDA0002996997940000062
Figure BDA0002996997940000063
Figure BDA0002996997940000064
Figure BDA0002996997940000065
其中Δt代表时间微分量;
通过陀螺仪不断测得的角速度更新四元数,根据四元数方向余弦矩阵与欧拉角的关系,按照以下公式求出欧拉角:
Figure BDA0002996997940000066
其中φ、θ、ψ分别代表欧拉角中的翻滚角(Roll)、俯仰角(Pitch)、偏航角(Yaw),完成从载体坐标系到世界坐标系的转换。
进一步地,所述步骤5中,峰值检测步数的实现步骤如下:
S1:对世界坐标系下行人行走时的z轴加速度进行带通滤波,通带截止频率分别为0.5Hz和2.5Hz,滤除噪声与重力分量;
S2:取z轴加速度的模不小于0.5的波峰,若相邻两个波峰之间间隔不小于0.6s,则视作检测到一步。
进一步地,所述步骤6中,结合步频f、用户输入的身高h与个体特征参数c,根据非线性步长模型计算得到步长SL:
SL=[0.7+0.371×(h-1.75)+0.227×(f-1.79)×h÷1.75]×c;
其中个体特征参数c的值在0.8至1.2之间,通常取值为1。
进一步地,所述步骤7中,SVM分类的依据是行走时手机采集得到的加速度频谱特征;在有监督学习的前提下,将用户行走的加速度频谱特征用于训练分类模型,并将训练结果存储至云端,在实际使用时将用户行走的加速度频谱特征与训练结果进行匹配,实现实时的状态分类检测;SVM分类的实现步骤如下:
S0:原理说明:SVM即支持向量机,也称为最大间隔分类器,可以通过分离超平面将原始样本集划分成两部分或多部分。SVM的基本思路是找到能够正确划分训练集并且几何间隔最大的超平面,并且使得间隔最大化,即转换成凸二次规划问题。
S1:在有监督学习的情况下,对已知行人手机状态采集得到的加速度数据进行带通滤波处理,通带截止频率分别为0.5Hz和2.5Hz,滤除噪声与重力分量;
S2:通过峰值检测的方法判断步数,做出标记;
S3:对两步为一段的时域数据进行频域变换得到频域特征作为训练集合;
S4:对四种类别的数据分别附上标签:平端label=1,口袋label=2,左摆臂label=3,右摆臂label=4;
S5:对训练集合的数据进行归一化处理,映射到[0,1]之间;
S6:训练:采用镜像基函数RBF作为SVM的核函数并通过3-折交叉验证的方式找到其中最优的惩罚参数c以及RBF核参数g。参数c是在分界面简单性和分类样本之间的权衡,参数g是单个训练样本的影响大小。在3-折交叉验证的过程中可以设置参数c和g的变化范围为2^-10~2^10,步进大小设为0.5。将验证后得到的最佳参数c和g以及训练集、训练集标签代入到SVM训练函数中,得到训练模型;
S7:预测:将行人行走过程中实际采集到的加速度频谱数据,经步骤S1至S3中的滤波、分段和频域变换操作后,输入到步骤S6训练好的SVM分类模型中,得到预测的分类结果。
进一步地,所述步骤8中,手机处于不同状态下的方向检测具体方法如下:
S1:对于手机处于手持平端的状态和处于行人口袋的状态,首先对加速度值进行带通滤波,滤除重力加速度分量;再找到一步时间段内z轴(空轴)加速度az=0,且z轴加速度增大,即
Figure BDA0002996997940000081
的时刻t0,取t0时刻的x、y轴加速度矢量和方向作为该步的前进方向;
S2:对于手机处于行人右手摆臂的情况,当一步内z轴方向上的角速度大于0时,取x、y轴上的角速度峰值矢量和方向作为该步前进方向;
S3:对于手机处于行人左手摆臂的情况,当一步内z轴方向上的角速度小于0时,取x、y轴上的角速度峰值矢量和方向作为该步前进方向。
手机处于不同状态下的方向检测具体原理如下:
S1:对于手机处于行人左右手摆臂的情况,在行走过程中,行人的摆臂运动可简化分解为以下两个子运动:一为水平面上手臂末端绕肩膀点的转动,体现为绕z轴转动的角速度ωz,二为竖直平面上手臂末端绕肩膀点的转动,体现为绕x轴转动的角速度ωx与绕y轴转动的角速度ωy;当行人右手手持手机摆臂,朝着正北方向运动,则手机角速度数据体现为绕z轴的一个随时间近似正弦变化的角速度ωz,以及绕x轴的一个随时间近似正弦变化的角速度ωx,由于人向北走,手臂朝南北方向摆动,故其绕y轴几乎无转动,即ωy≈0;行人持续朝北行走的三轴角速度波形可近似如图2所示;由三轴角速度信息推测行人行走方向:若持手机手为右手,当行人手臂由后向前摆动过程中,ωz>0,视作当手机到达最低点时,摆动速度最快,即ωx与ωy达到峰值;可由两数据峰值的相对大小确定此时手机绕哪个水平轴转动,将该轴逆时针转动90°,若持手机手为左手,则将该轴顺时针转动90°,即可获得行人此时的前进方向。
S2:当手机平端在行人手上或手机放在行人贴身口袋中时,手机的运动可视为与行人躯干运动一致,行人迈出一步的过程可以划分为腿部迈动与重心转换两个阶段:在腿部迈动阶段,后腿离开地面,并逐渐向前迈出,最终脚后跟触及前方地面;由采集的加速度信息可知,从脚迈到最高点到脚后跟接触地面前一刻,人体躯干z轴方向上滤除重力后的加速度呈现由负值到正值的变化;在这个过程中,z轴方向上加速度为0对应的时刻,人体竖直向下方向上的速度达到最大,身体处于试图稳定的状态,此时身体左右摇晃最少,水平面上的加速度只由人体朝行进方向的平移运动产生,即水平面上的加速度合成方向能够准确地反映出行人的行走方向。
针对一个具体场景测试SVM分类性能,测试过程与结果如下:
具体场景:在一个商场内,行人以四种不同的姿态带着手机行走,每一种姿态大约行走两分钟,手机中的传感器便可以采集到不同时刻的数据,并将数据保存下来。
操作步骤:
数据预处理:通过步数判断对两步为一段的时域加速度数据进行频域变换得到频域特征,其中75%的数据作为训练集,25%的数据作为测试集;对四种类别的数据分别附上标签:平端label=1,口袋label=2,左摆臂label=3,右摆臂label=4,可分别得到训练集标签和测试集标签;
SVM:采用镜像基函数RBF作为SVM的核函数并通过3-折交叉验证的方式找到其中最优的参数c和参数g。参数c是在分界面简单性和分类样本之间的权衡,参数g是单个训练样本的影响大小。
训练:在3-折交叉验证的过程中可以设置参数c和g的变化范围为2^-10~2^10,步进大小设为0.5。将3-折交叉验证后得到的最佳参数c=0.23和g=0.015625以及训练集、训练集标签代入到SVM训练函数中,并得到训练模型。
测试:将测试集、测试标签以及训练好的模型代入到预测函数中,可以得到测试集的测试结果,可以将测试结果与测试集标签进行比较,从而可以得到分类正确率。
如图3所示,共计64组数据中只有1个数据分类错误,分类正确率为98.4375%。
综上所述,本发明涉及定位技术领域中的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,该方法包括两部分的内容,一是通过智能手机终端上的加速度计、陀螺仪、磁力计、气压计测得行人的运动特征,并通过判断阈值的方法进行步数检测,通过非线性步长模型进行步长估计,通过加速度计和陀螺仪的特征进行方向估计,并将步数检测、步长估计、方向估计三者相结合得到高精度的行人移动轨迹数据;二是提出了一种利用支持向量机将定位时行人携带智能手机的方式区分开来的方法,可以在不同的方式下应用不同的行人移动轨迹计算模型,有效地避免了传统方法中PDR在多场景中切换使用时的较大误差。设计的行人移动轨迹预测算法和SVM分类算法具有较高的精度与较快的运行速度,而且仅需要一部普通的智能手机,完全不依赖外部辅助设备,从而使定位精度和定位***鲁棒性得到明显改善。

Claims (10)

1.一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,包括以下步骤:
步骤1:通过UWB或WiFi定位的方式获取当前设备的初始位置;
步骤2:通过手机集成的加速度计、陀螺仪与气压计采集得到当前手机的加速度、角速度与气压值;
步骤3:对步骤2采集得到的数据进行低通滤波处理,滤除采样噪声;
步骤4:对经过步骤3滤波后的加速度与角速度数据进行四元数变换,将其从载体坐标系转换到世界坐标系;
步骤5:取世界坐标系下z轴加速度大小作为步数检测的依据,采取加速度峰值检测的方法,对步数进行判断;
步骤6:依据步骤5的峰值检测方法检测到一步之后,计算出一步所花的时间T,得到步频f=1/T,根据非线性步长模型计算得到步长;
步骤7:基于滤波后的加速度频域特征,采用SVM方法进行分类,区分手机处于行人口袋、手机在左手时的行人摆臂、手机在右手时的行人摆臂和平端手机这四种状态;
步骤8:对于四种不同的状态,通过检测角速度或加速度特征值计算一步内前进的方向;
步骤9:基于步骤6计算得到的步长与步骤8计算得到的方向,更新行人行走一步之后的位置;
步骤10:持续检测气压计的变化,若气压计示数出现连续下降趋势,则判断为行人上楼;若气压计示数出现连续上升趋势,则判断为行人下楼;
步骤11:完成一步的位置更新之后,持续检测步数变化;若出现新的一步,重复步骤5至步骤10;否则结束定位进程。
2.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤3中,低通滤波的通带截止频率为2.3Hz至3Hz,以行人的步频上限为佳。
3.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤4中,四元数的微分方程如下:
Figure FDA0002996997930000011
其中ωx、ωy、ωz分别代表陀螺仪传感器测得的三轴角速度,q0、q1、q2、q3代表待求的四元数;
通过一阶毕卡法迭代求解该微分方程,具体计算公式如下:
Figure FDA0002996997930000021
Figure FDA0002996997930000022
Figure FDA0002996997930000023
Figure FDA0002996997930000024
其中Δt代表时间微分量;
通过陀螺仪不断测得的角速度更新四元数,根据四元数方向余弦矩阵与欧拉角的关系,按照以下公式求出欧拉角:
Figure FDA0002996997930000025
其中φ、θ、ψ分别代表欧拉角中的翻滚角(Roll)、俯仰角(Pitch)、偏航角(Yaw),完成从载体坐标系到世界坐标系的转换。
4.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤5中,峰值检测步数的实现步骤如下:
S1:对世界坐标系下行人行走时的z轴加速度进行带通滤波,通带截止频率分别为0.5Hz和2.5Hz,滤除噪声与重力分量;
S2:取z轴加速度的模不小于0.5的波峰,若相邻两个波峰之间间隔不小于0.6s,则视作检测到一步。
5.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤6中,结合步频f、用户输入的身高h与个体特征参数c,根据非线性步长模型计算得到步长SL:
SL=[0.7+0.371×(h-1.75)+0.227×(f-1.79)×h÷1.75]×c;
其中个体特征参数c的值在0.8至1.2之间,通常取值为1。
6.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤7中,SVM分类的依据是行走时手机采集得到的加速度频谱特征;在有监督学习的前提下,将用户行走的加速度频谱特征用于训练分类模型,并将训练结果存储至云端,在实际使用时将用户行走的加速度频谱特征与训练结果进行匹配,实现实时的状态分类检测。
7.根据权利要求6所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述SVM分类的实现步骤如下:
S1:在有监督学习的情况下,对已知行人手机状态采集得到的加速度数据进行带通滤波处理,通带截止频率分别为0.5Hz和2.5Hz,滤除噪声与重力分量;
S2:通过峰值检测的方法判断步数,做出标记;
S3:对两步为一段的时域数据进行频域变换得到频域特征作为训练集合;
S4:对四种类别的数据分别附上标签:平端label=1,口袋label=2,左摆臂label=3,右摆臂label=4;
S5:对训练集合的数据进行归一化处理,映射到[0,1]之间;
S6:训练:采用镜像基函数RBF作为SVM的核函数并通过3-折交叉验证的方式找到其中最优的惩罚参数c以及RBF核参数g;将验证后得到的最佳参数c和g以及训练集、训练集标签代入到SVM训练函数中,得到训练模型;
S7:预测:将行人行走过程中实际采集到的加速度频谱数据,经步骤S1至S3中的滤波、分段和频域变换操作后,输入到步骤S6训练好的SVM分类模型中,得到预测的分类结果。
8.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤8中,手机处于不同状态下的方向检测具体方法如下:
S1:对于手机处于手持平端的状态和处于行人口袋的状态,首先对加速度值进行带通滤波,滤除重力加速度分量;再找到一步时间段内z轴加速度az=0,且z轴加速度增大,即
Figure FDA0002996997930000031
的时刻t0,取t0时刻的x、y轴加速度矢量和方向作为该步的前进方向;
S2:对于手机处于行人右手摆臂的情况,当一步内z轴方向上的角速度大于0时,取x、y轴上的角速度峰值矢量和方向作为该步前进方向;
S3:对于手机处于行人左手摆臂的情况,当一步内z轴方向上的角速度小于0时,取x、y轴上的角速度峰值矢量和方向作为该步前进方向。
9.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤8中,对于手机处于行人左右手摆臂的情况,在行走过程中,行人的摆臂运动可简化分解为以下两个子运动:一为水平面上手臂末端绕肩膀点的转动,体现为绕z轴转动的角速度ωz,二为竖直平面上手臂末端绕肩膀点的转动,体现为绕x轴转动的角速度ωx与绕y轴转动的角速度ωy;当行人右手手持手机摆臂,朝着正北方向运动,则手机角速度数据体现为绕z轴的一个随时间近似正弦变化的角速度ωz,以及绕x轴的一个随时间近似正弦变化的角速度ωx,由于人向北走,手臂朝南北方向摆动,故其绕y轴几乎无转动,即ωy≈0;由三轴角速度信息推测行人行走方向:若持手机手为右手,当行人手臂由后向前摆动过程中,ωz>0,视作当手机到达最低点时,摆动速度最快,即ωx与ωy达到峰值;可由两数据峰值的相对大小确定此时手机绕哪个水平轴转动,将该轴逆时针转动90°,若持手机手为左手,则将该轴顺时针转动90°,即可获得行人此时的前进方向。
10.根据权利要求1所述的一种基于智能手机多传感器融合和SVM分类的多场景PDR定位方法,其特征在于,所述步骤8中,当手机平端在行人手上或手机放在行人贴身口袋中时,手机的运动可视为与行人躯干运动一致,行人迈出一步的过程可以划分为腿部迈动与重心转换两个阶段:在腿部迈动阶段,后腿离开地面,并逐渐向前迈出,最终脚后跟触及前方地面;由采集的加速度信息可知,从脚迈到最高点到脚后跟接触地面前一刻,人体躯干z轴方向上滤除重力后的加速度呈现由负值到正值的变化;在这个过程中,z轴方向上加速度为0对应的时刻,人体竖直向下方向上的速度达到最大,身体处于试图稳定的状态,此时身体左右摇晃最少,水平面上的加速度只由人体朝行进方向的平移运动产生,即水平面上的加速度合成方向能够准确地反映出行人的行走方向。
CN202110334800.7A 2021-03-29 2021-03-29 基于智能手机多传感器融合和svm分类的多场景pdr定位方法 Active CN113029153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110334800.7A CN113029153B (zh) 2021-03-29 2021-03-29 基于智能手机多传感器融合和svm分类的多场景pdr定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110334800.7A CN113029153B (zh) 2021-03-29 2021-03-29 基于智能手机多传感器融合和svm分类的多场景pdr定位方法

Publications (2)

Publication Number Publication Date
CN113029153A true CN113029153A (zh) 2021-06-25
CN113029153B CN113029153B (zh) 2024-05-28

Family

ID=76452724

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110334800.7A Active CN113029153B (zh) 2021-03-29 2021-03-29 基于智能手机多传感器融合和svm分类的多场景pdr定位方法

Country Status (1)

Country Link
CN (1) CN113029153B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114061616A (zh) * 2021-10-22 2022-02-18 北京自动化控制设备研究所 一种自适应波峰检测计步方法
CN117367487A (zh) * 2022-07-01 2024-01-09 荣耀终端有限公司 爬高状态识别方法和装置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101151508A (zh) * 2005-03-28 2008-03-26 旭化成电子材料元件株式会社 行进方向计测装置和行进方向计测方法
JP2009133691A (ja) * 2007-11-29 2009-06-18 Kddi Corp 加速度センサ及び地磁気センサを用いて歩行者の進行方向を決定する携帯端末、プログラム及び方法
JP2012168004A (ja) * 2011-02-14 2012-09-06 Kddi Corp 遊脚期の加速度データを用いて歩行者の進行方向を決定する携帯端末、プログラム及び方法
CN104215238A (zh) * 2014-08-21 2014-12-17 北京空间飞行器总体设计部 一种智能手机室内定位方法
FR3015072A1 (fr) * 2013-12-18 2015-06-19 Movea Procede de determination de l'orientation d'un repere capteur lie a un terminal mobile muni d'un ensemble capteur, porte par un utilisateur et comprenant au moins un capteur de mouvement lie en mouvement
CN104977006A (zh) * 2015-08-11 2015-10-14 北京纳尔信通科技有限公司 一种基于模糊理论和多传感器融合的室内定位方法
US20150354951A1 (en) * 2013-01-21 2015-12-10 Trusted Positioning Inc. Method and Apparatus for Determination of Misalignment Between Device and Pedestrian
DE202011110882U1 (de) * 2011-08-04 2017-01-19 Google Inc. Bewegungsrichtungsermittlung mit verrauschten Signalen von Inertialnavigationssystemen in Mobilgeräten
JP2017023689A (ja) * 2015-07-24 2017-02-02 株式会社東芝 モニタリングシステム、モニタ方法およびプログラム
WO2017158633A1 (en) * 2016-03-17 2017-09-21 Gipstech S.R.L. Method for estimating the direction of motion of an individual
WO2017215024A1 (zh) * 2016-06-16 2017-12-21 东南大学 一种基于新型多传感器融合技术的行人导航装置和方法
CN108225304A (zh) * 2018-01-26 2018-06-29 青岛美吉海洋地理信息技术有限公司 基于多源传感器室内快速定位方法与***
CN108844533A (zh) * 2018-04-24 2018-11-20 西安交通大学 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法
CN109163723A (zh) * 2018-08-16 2019-01-08 东南大学 一种手机在口袋中摆动时的角度测量方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101151508A (zh) * 2005-03-28 2008-03-26 旭化成电子材料元件株式会社 行进方向计测装置和行进方向计测方法
JP2009133691A (ja) * 2007-11-29 2009-06-18 Kddi Corp 加速度センサ及び地磁気センサを用いて歩行者の進行方向を決定する携帯端末、プログラム及び方法
JP2012168004A (ja) * 2011-02-14 2012-09-06 Kddi Corp 遊脚期の加速度データを用いて歩行者の進行方向を決定する携帯端末、プログラム及び方法
DE202011110882U1 (de) * 2011-08-04 2017-01-19 Google Inc. Bewegungsrichtungsermittlung mit verrauschten Signalen von Inertialnavigationssystemen in Mobilgeräten
US20150354951A1 (en) * 2013-01-21 2015-12-10 Trusted Positioning Inc. Method and Apparatus for Determination of Misalignment Between Device and Pedestrian
US20160313126A1 (en) * 2013-12-18 2016-10-27 Movea Method for determining the orientation of a sensor frame of reference tied to a mobile terminal furnished with a sensor assembly, carried or worn by a user and comprising at least one motion tied motion sensor
FR3015072A1 (fr) * 2013-12-18 2015-06-19 Movea Procede de determination de l'orientation d'un repere capteur lie a un terminal mobile muni d'un ensemble capteur, porte par un utilisateur et comprenant au moins un capteur de mouvement lie en mouvement
CN104215238A (zh) * 2014-08-21 2014-12-17 北京空间飞行器总体设计部 一种智能手机室内定位方法
JP2017023689A (ja) * 2015-07-24 2017-02-02 株式会社東芝 モニタリングシステム、モニタ方法およびプログラム
CN104977006A (zh) * 2015-08-11 2015-10-14 北京纳尔信通科技有限公司 一种基于模糊理论和多传感器融合的室内定位方法
WO2017158633A1 (en) * 2016-03-17 2017-09-21 Gipstech S.R.L. Method for estimating the direction of motion of an individual
WO2017215024A1 (zh) * 2016-06-16 2017-12-21 东南大学 一种基于新型多传感器融合技术的行人导航装置和方法
CN108225304A (zh) * 2018-01-26 2018-06-29 青岛美吉海洋地理信息技术有限公司 基于多源传感器室内快速定位方法与***
CN108844533A (zh) * 2018-04-24 2018-11-20 西安交通大学 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法
CN109163723A (zh) * 2018-08-16 2019-01-08 东南大学 一种手机在口袋中摆动时的角度测量方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张会清;许潇民;代汝勇;: "基于MEMS与Android智能手机融合的室内个人导航算法", 北京工业大学学报, no. 05 *
李博: "基于智能终端MEMS传感器的三维自主室内定位***研究", 中国优秀硕士学位论文全文数据库 信息科技辑 (月刊), pages 37 - 60 *
郭英;刘清华;姬现磊;李冠泽;王胜利;: "基于手机加速度计的行人步态分析", 中国惯性技术学报, no. 06, 15 December 2017 (2017-12-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114061616A (zh) * 2021-10-22 2022-02-18 北京自动化控制设备研究所 一种自适应波峰检测计步方法
CN117367487A (zh) * 2022-07-01 2024-01-09 荣耀终端有限公司 爬高状态识别方法和装置

Also Published As

Publication number Publication date
CN113029153B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN106780608A (zh) 位姿信息估计方法、装置和可移动设备
CN113029153B (zh) 基于智能手机多传感器融合和svm分类的多场景pdr定位方法
CN210402266U (zh) 一种手语翻译***和手语翻译手套
CN110553643B (zh) 一种基于神经网络的行人自适应零速更新点选取方法
CN107016342A (zh) 一种动作识别方法及***
CN104536558A (zh) 一种智能指环和控制智能设备的方法
CN111337943A (zh) 一种基于视觉引导激光重定位的移动机器人定位方法
CN106293103A (zh) 基于惯性传感器的四轴飞行器手势控制装置和控制方法
CN103557862A (zh) 一种移动终端运动轨迹检测方法
CN109540143B (zh) 多传感源动态峰值融合的行人非常规动作方向识别方法
CN103630147A (zh) 一种基于hmm的个人自主导航***零速检测方法
CN108693982A (zh) 一种将手机内置传感器采集数据从手机坐标系转换到参考坐标系的处理方法
Wang et al. A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu
CN114323008A (zh) 基于机器学习分类的融合航向角估计方法及***
Wang et al. Traffic police gesture recognition using accelerometer
CN111435083A (zh) 行人航迹推算方法、导航方法及装置、手持终端及介质
CN204172543U (zh) 基于惯性测量的原笔迹记录智能笔
CN109567814B (zh) 刷牙动作的分类识别方法、计算设备、***及存储介质
CN110236560A (zh) 智能穿戴设备的六轴姿态检测方法、***
CN109682372A (zh) 一种结合建筑物结构信息与rfid标定的改进型pdr方法
CN112130676B (zh) 一种可穿戴终端及其翻腕识别方法
CN109117719A (zh) 基于局部可变形部件模型融合特征的驾驶姿态识别方法
Chandel et al. Airite: Towards accurate & infrastructure-free 3-d tracking of smart devices
CN110390281B (zh) 一种基于感知设备的手语识别***及其工作方法
CN110187767B (zh) 一种按摩椅手势控制***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Qiu Xiaohan

Inventor after: Fan Yuxin

Inventor after: Wang Diao

Inventor after: Yan Chenggang

Inventor after: Shi Zhiguo

Inventor before: Qiu Xiaohan

Inventor before: Fan Yuxin

Inventor before: Wang Diao

Inventor before: Shi Zhiguo

GR01 Patent grant
GR01 Patent grant