CN110929766A - 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 - Google Patents

一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 Download PDF

Info

Publication number
CN110929766A
CN110929766A CN201911093223.6A CN201911093223A CN110929766A CN 110929766 A CN110929766 A CN 110929766A CN 201911093223 A CN201911093223 A CN 201911093223A CN 110929766 A CN110929766 A CN 110929766A
Authority
CN
China
Prior art keywords
mobile phone
gaussian mixture
sliding window
posture
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911093223.6A
Other languages
English (en)
Other versions
CN110929766B (zh
Inventor
易荷田
曾庆化
黄河泽
雷棋尧
熊智
曾世杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201911093223.6A priority Critical patent/CN110929766B/zh
Publication of CN110929766A publication Critical patent/CN110929766A/zh
Application granted granted Critical
Publication of CN110929766B publication Critical patent/CN110929766B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Telephone Function (AREA)

Abstract

本发明公开了一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,包括对多名行人的手机各姿态下内部加速度传感器、陀螺仪和近距离传感器的三轴数据进行采集,量化处理,求解加速度传感器重力分量,并虚拟为重力计数据;采用高斯混合聚类算法对各姿态信号特征匹配;设定滑动窗口大小为M,存储一系列时刻采样点的簇划分结果,对滑动窗口内一系列连续手机位姿转换进行检测;输出姿态转换检测判断结果。本发明方法具有较强的普适性,同时方法可靠性高,计算简单并具有较好的实时性。

Description

一种基于高斯混合聚类算法的自适应行人手机姿态识别方法
技术领域
本发明属于行人定位导航技术领域,特别涉及了一种基于高斯混合聚类算法的自适应行人手机姿态识别方法。
背景技术
随着智能手机的普及,基于智能手机的行人定位及导航技术成为定位导航领域中的一个重要的新兴分支。目前在室内导航情景下,比较常用的方法为行人航向推算算法(PDR),这种方法的使用要求手机保持相对人体固定的位置以保证手机解算的航向能准确反映行人的航向。这是由于,一旦手机的姿态发生较大变动,导航***会误判为行人的航向发生了变化,这会对定位导航结果造成严重错误的影响。此外,在日常生活场景中,根据人们的日常生活习惯,手机常处于多种放置姿态,一般可分为手持手机竖屏状态即阅读状态,手持手机横屏状态即游戏或视频状态,手持手机通话状态,手持手机甩手状态以及手机放置在裤兜的状态。所以,固定的手机携带方式极大限制了行人行走时手机的使用场景,严重影响了用户体验。为了适应更加广泛的应用场景,实现不预设手机携带方式的行人定位及导航,一种高效且适应于广大人群的对多种行人携带手机姿态的实时识别方法具有重大的研究意义。
发明内容
发明目的:为了解决上述背景技术提出的技术问题,本发明旨在提供一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,对行人手机的姿态进行识别,并检测行人手机姿态是否发生变化,有利于扩大PDR算法的应用场景。
技术方案:为了实现上述发明目的,本发明采用以下技术方案:
一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,包括以下步骤:
(1)对行人的手机各姿态下内部加速度传感器、陀螺仪和近距离传感器的三轴数据进行采集,量化处理,求解加速度传感器重力分量,并虚拟为重力计数据;
(2)采用高斯混合聚类算法对待识别行人的实时手机姿态进行分类识别;
(3)姿态转换检测,对待识别行人携带手机时两种姿态之间的转换过程进行检测与识别;
设定滑动窗口大小为M,存储一系列时刻采样点的簇划分结果,即姿态判别结果;对滑动窗口内一系列连续手机姿态转换进行检测;
(4)输出姿态转换检测判断结果,输出姿态转换检测判断结果;即判断是否发生姿态转换,给出两姿态转换临界过程附近的采样点。
进一步的,步骤(1)中将加速度传感器输出数据虚拟为重力计在手机X轴、Y轴、Z轴三个方向上的重力分量信号,三轴陀螺仪输出数据包括在手机X轴、Y轴、Z轴三个方向上的陀螺仪信号。
进一步的,步骤(2)中高斯混合聚类算法对待识别行人的实时手机姿态分别识别的方法为:
(21)设置高斯混合聚类模型初始参数;
高斯混合聚类模型初始参数为(αiii),其中,μi与Σi是第i个高斯混合成分的均值和方差参数,而αi>0为相应“混合系数”,
Figure BDA0002267492980000021
i∈[1,k],其中k为已知聚类簇数即手机姿态个数;所述各个手机姿态的高斯混合聚类模型参数(αiii)即各个姿态下对多名行人手机各姿态下虚拟重力计数据处理所得,计算公式为:
Figure BDA0002267492980000022
Figure BDA0002267492980000023
其中,gxpi、gypi和gzpi分别为第i类姿态下第p组虚拟重力计x、y和z轴的重力分布数据,Xpi为三维向量即第i类姿态下第p组重力计三轴数值
Figure BDA0002267492980000024
m是用于计算第i类姿态下初始高斯混合成分的数据的总个数;
各手机姿态出现概率认为是相等的,则取
Figure BDA0002267492980000025
(22)初始化或更新滑动窗口,设定滑动窗口长度为H,定义变量:
A=maxGrozm,m∈[1,H];
其中,maxGrozm为滑动窗口中最大的陀螺仪z轴数值;计算滑动窗口内A大小,判断是否超过阈值thrl进行相应的手机位姿匹配与区分,滑动窗口每读入一个数据更新一次,窗口的总长度不变,滑动窗口长度H大于陀螺仪信号一周期的采样数据个数;
(23)进行高斯混合聚类算法匹配过程。
更进一步的,步骤(23)包括以下步骤:
(231)计算Xt由各混合成分生成的后验概率γit,Xt为t时刻待识别行人手机虚拟重力计三轴数值
Figure BDA0002267492980000031
其中,gxt、gyt和gzt分别为虚拟重力计在x、y和z轴分量,即
Figure BDA0002267492980000032
其中,
Figure BDA0002267492980000033
根据后验概率γti的大小确定Xt的簇标记
Figure BDA0002267492980000034
即当i使得γti取最大时令λt等于i即进行一次姿态划分;即,取后验概率最大的类作为待识别行人手机姿态的类别;
(232)所有手机姿态均由聚类识别分类,特别地对于重力分布有重合的手机姿态,根据手机三轴陀螺仪数据,基于聚类识别结果结合近距离传感器的信号特征E1和E2进行匹配识别;
定义鉴别裤兜模式传感器信号特征为E1,定义鉴别甩手模式的传感器信号特征为E2,定义聚类算法识别结果为E3,具体计算方式为:
Figure BDA0002267492980000035
Figure BDA0002267492980000036
Figure BDA0002267492980000041
其中,proximity是近距离传感器数值,即当近距离传感器数值为0时,特征E1成立,否则不成立;maxGroz为连续采样点内陀螺仪z轴最大值即滑动窗口A内最大值,thrl为阈值,若maxGroz大于该阈值则E2成立;N为1时聚类识别结果为竖屏,N为2时聚类识别结果为横屏,N为3时聚类识别结果为通话,N为4时聚类识别结果为甩手,N为5时聚类识别结果为裤兜;具体识别逻辑决策表如下:
表1重力重合区域聚类算法结合信号特征识别决策逻辑表
Figure BDA0002267492980000042
表1中,括号里的数字为该事件的结果,E1(0)E3(4)表示E1=0和E3=4同时满足时,分类结果为甩手;E1(1)E3(4)表示E1=1和E3=4同时满足时,分类结果为裤兜;E2(0)E3(5)表示E2=0和E3=5同时满足时,分类结果为裤兜;
(233)将数据Xt划入相应的簇Cλt=Cλt∪{Xt},簇即为一系列待识别手机姿态划分的一类;
(234)输出簇划分结果,即手机姿态判别结果,令t=t+1,返回步骤(231)。
进一步的,步骤(3)包括以下步骤:
(31)计算该滑动窗口内的状态点来自于哪几种位姿;
(32)判别每种位姿的状态点是否连续且连续个数超过阈值G,若是则判定该滑动窗口表示的时间段内存在该姿态,否则该姿态的出现为错判;
(33)对这一过程连续状态点进行位姿转换过程匹配,判断属于哪两种位姿之间的转换。
其中,滑动窗口大小M大于行人一步以内的姿态状态点个数。
有益效果:与现有技术相比,本发明方法普适性强识别准确率高,实现了自适应的行人手机姿态识别。相比于深度学习等方法,本方法计算简单,容易实现,且实时性高。
附图说明
图1为本发明的整体流程图;
图2为本发明中单个行人手机重力计球面坐标区域分布示意图;
图3为三个行人手机姿态重力球重力分布示意图;
图4为行人行走过程中各姿态下陀螺仪Z轴信号特征图。
具体实施方式
下面结合附图和具体实施例对本发明的技术方案做进一步的详细说明:
一种基于新型高斯混合聚类算法的自适应行人携带手机姿态识别方法,在行人携带手机过程中,通过对手机内置加速度传感器、陀螺仪传感器以及近距离传感器等传感器的信号特征进行分析和匹配,应用高斯混合聚类算法实现对不同行人自适应手机位姿识别,并检测手机姿态转换。
高斯混合聚类采用概率模型来表达聚类原型。结合目前应用场景,已知手机各使用姿态类别个数,已知各姿态分布具有区域性分布特征如图2,同时对于不同行人各姿态的重力分布特征如图3所示难以用静态区域方法识别,本发明提出利用高斯混合聚类方法来实现对不同行人个手机姿态的识别与分类。
如图1所示,本发明的一种基于聚类算法的自适应实时行人携带手机位姿识别方法,包含如下具体步骤:
步骤1、对行人的手机各姿态下内部加速度传感器、陀螺仪和近距离传感器的三轴数据进行采集,量化处理,求解加速度传感器重力分量,并虚拟为重力计数据;
将加速度传感器输出数据虚拟为重力计在手机X轴、Y轴、Z轴三个方向上的重力分量信号,三轴陀螺仪输出数据包括在手机X轴、Y轴、Z轴三个方向上的陀螺仪信号。
步骤2、采用高斯混合聚类算法对待识别行人的实时手机姿态进行分类识别;
每个行人不同手机姿态的三轴重力分布投影到球面坐标系中,所述球面坐标系三轴代表重力计三轴,即将重力计三轴输出数据分别投影到球面坐标系三轴上,有明显的区域分布特征如图2(a)和图2(b)所示,其中I、II、III、IV和V分别为横屏、竖屏、通话、裤兜以及甩手姿态。
对于多个不同的行人同种手机姿态分布区域存在差异如图3所示,难以进行静态的区域划分,则采用概率模型表达聚类原型,利用高斯混合聚类可以实现对不同行人手机姿态的动态区域自适应识别。所有手机姿态均基于高斯混合聚类算法对进行聚类识别;特别地,对于有重力分布区域重合的手机姿态根据聚类识别结果结合其它传感器信号特征进行识别,具体为:
对手机内置陀螺仪传感器及近距离传感器等传感器的信号特征进行分析和匹配。对于不同位姿陀螺仪Z轴信号最大值等信号特征有明显区别如图4所示;当手机被放置于裤兜中手机近距离传感器被遮挡数值为0。当重力分布难以区分时,即难以根据重力分布进行聚类划分时,进行这一步,即结合各姿态信号特征匹配进行区分,提高识别率。
具体实现步骤如下:
(21)设置高斯混合聚类模型初始参数(αiii);
高斯混合聚类模型初始参数为(αiii),其中,μi与Σi是第i个高斯混合成分的均值和方差参数,而αi>0为相应的“混合系数”,
Figure BDA0002267492980000061
i∈[1,k],其中k为已知聚类簇数;各个手机姿态的高斯混合聚类模型初始参数(αiii)即各个姿态下对多名行人手机各姿态下虚拟重力计数据处理所得,计算公式为:
Figure BDA0002267492980000062
Figure BDA0002267492980000063
其中,gxpi、gypi和gzpi分别为第i类姿态下第p组重力计x、y和z轴的重力数据。Xpi为三维向量即第i类姿态下第p组重力计三轴数值
Figure BDA0002267492980000064
m是用于计算第i类姿态下初始高斯混合成分的数据的总个数。
各手机姿态出现概率认为是相等的,则
Figure BDA0002267492980000065
(22)初始化或更新滑动窗口,设定滑动窗口长度为N,定义变量:
A=maxGrozm,m∈[1,N];
其中,maxGrozm为滑动窗口中最大的陀螺仪z轴数值。不同位姿下陀螺仪z轴数值和信号峰峰值大小有明显区别,尤其甩手状态下陀螺仪信号明显存在剧烈震荡的信号特征。计算滑动窗口内A大小,判断是否超过阈值thrl进行相应的手机位姿匹配与区分。滑动窗口每读入一个数据更新一次,窗口的总长度不变。滑动窗口长度N大于陀螺仪信号一周期的采样数据个数。
(23)进行高斯混合聚类算法匹配过程;
(231)计算Xt由各混合成分生成的后验概率γit,Xt为t时刻待识别行人手机重力计三轴数值
Figure BDA0002267492980000071
其中,gxt、gyt和gzt分别为虚拟重力计在x、y和z轴分量,即
Figure BDA0002267492980000072
其中,
Figure BDA0002267492980000073
高斯混合聚类算法判别姿态具体计算方式为:根据后验概率的大小确定t时刻待识别重力计信号Xt的簇标记
Figure BDA0002267492980000074
即当i使得γji取最大时,令λj等于i即进行一次姿态划分;即,取后验概率最大的类作为待识别行人手机姿态的类别。
(232)所有姿态包括竖屏、横屏、通话、甩手和裤兜均由聚类算法判别,特别地对于重力分布有重合的姿态如甩手和裤兜,需要进一步由上述高斯混合聚类识别结果结合近距离传感器的信号特征E1、E2进行匹配识别。
对于重力重合的情况例如裤兜和甩手姿态的识别,具体实施方式为:定义鉴别裤兜模式传感器信号特征为E1,定义鉴别甩手模式的传感器信号特征为E2,定义聚类算法识别结果为E3,具体计算方式:
Figure BDA0002267492980000075
Figure BDA0002267492980000076
Figure BDA0002267492980000081
其中,proximity是近距离传感器数值,即当近距离传感器数值为0时,特征E1成立,否则不成立。maxGroz为连续采样点内陀螺仪z轴最大值即滑动窗口A内最大值,thrl为阈值,若maxGroz大于该阈值则E2成立。N为1时聚类识别结果为竖屏,N为2时聚类识别结果为横屏,N为3时聚类识别结果为通话,N为4时聚类识别结果为甩手,N为5时聚类识别结果为裤兜。具体识别逻辑决策表如下:
表1重力重合区域聚类算法结合信号特征识别决策逻辑表
Tab.1Gravity coincidence region clustering algorithm combined withsignal feature recognition decision
Figure BDA0002267492980000082
表1中,括号里的数字为该事件的结果,E1(0)E3(4)表示E1=0和E3=4同时满足时,分类结果为甩手;E1(1)E3(4)表示E1=1和E3=4同时满足时,分类结果为裤兜;E2(0)E3(5)表示E2=0和E3=5同时满足时,分类结果为裤兜。
(233)将数据Xt划入相应的簇
Figure BDA0002267492980000083
簇即为一系列待识别手机姿态划分的一类;
(234)输出簇划分结果,即手机姿态判别结果,令t=t+1,返回步骤(231)。
步骤3、姿态转换检测,对待识别行人携带手机时两种姿态之间的转换过程进行检测与识别;
设定滑动窗口大小为M,存储一系列时刻采样点的簇划分结果,对滑动窗口内一系列连续手机位姿转换进行检测;
(31)计算该滑动窗口内的状态点来自于哪几种位姿;
(32)判别每种位姿的状态点是否连续,且连续状态点个数是否超过阈值G,若是则判定该滑动窗口表示的时间段内存在该位姿,否则该位姿的出现为错判。这是由于一种稳定的位姿状态转换到另一种稳定的位姿状态的过程中,很有可能出现个别位姿类别误判点或者这两种位姿的转换经过第三种位姿的重力特征区域如图2(a)和2(b)所示,在该图中状态II转换到IV经过了状态V。
(33)对这一过程连续状态点进行位姿转换过程匹配,判断属于哪两种位姿之间的转换。
姿态转换过程,可能出现个别姿态误判点,也可能出现两种姿态之间的转换的重力分布经过了第三种姿态的重力分布区域如图2(a)和2(b)所示,而姿态转换过程中陀螺仪信号受到转换动作的干扰,信号特征难以用于姿态区分。步骤3方法所述避免了以上几种情况下手机姿态转换误判的情况发生,姿态连续状态点个数超过阈值表示这是一个稳定存在的状态。
该步骤中滑动窗口大小M大于行人一步以内的姿态状态点个数。
步骤4、输出姿态转换检测判断结果,输出姿态转换检测判断结果;即判断是否发生姿态转换,给出两姿态转换临界过程附近的采样点。
本发明实施例对手机姿态分类不做限定,在上述任意实施例的基础上,优选的,手机姿态可以包括打电话、手持竖屏、手持横屏、甩手、裤兜。
本发明实施例对加速度信号和姿态角信号的采集频率不做限定,在上述任意实施例的基础上,其采样间隔可以为ams,频率为
Figure BDA0002267492980000091
则每路信号每秒有
Figure BDA0002267492980000092
个点。当样本数据中的信号包括重力计在手机X轴、Y轴、Z轴三个方向上的重力分量信号以及在X轴、Y轴、Z轴三个方向上的陀螺仪信号,上述6路信号共计
Figure BDA0002267492980000093
个采样点每秒。

Claims (6)

1.一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,其特征在于,包括以下步骤:
(1)对行人的手机各姿态下内部加速度传感器、陀螺仪和近距离传感器的三轴数据进行采集,量化处理,求解加速度传感器重力分量,并虚拟为重力计数据;
(2)采用高斯混合聚类算法对待识别行人的实时手机姿态进行分类识别;
(3)姿态转换检测,对待识别行人携带手机时两种姿态之间的转换过程进行检测与识别;
设定滑动窗口大小为M,存储一系列时刻采样点的簇划分结果,即姿态判别结果;对滑动窗口内一系列连续手机姿态转换进行检测;
(4)输出姿态转换检测判断结果,输出姿态转换检测判断结果;即判断是否发生姿态转换,给出两姿态转换临界过程附近的采样点。
2.根据权利要求1所述的一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,其特征在于,步骤(1)中将加速度传感器输出数据虚拟为重力计在手机X轴、Y轴、Z轴三个方向上的重力分量信号,三轴陀螺仪输出数据包括在手机X轴、Y轴、Z轴三个方向上的陀螺仪信号。
3.根据权利要求1所述的一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,其特征在于,步骤(2)中高斯混合聚类算法对待识别行人的实时手机姿态分别识别的方法为:
(21)设置高斯混合聚类模型初始参数;
高斯混合聚类模型初始参数为(αiii),其中,μi与Σi是第i个高斯混合成分的均值和方差参数,而αi>0为相应“混合系数”,
Figure RE-FDA0002372253280000011
其中k为已知聚类簇数即手机姿态个数;所述各个手机姿态的高斯混合聚类模型参数(αiii)即各个姿态下对多名行人手机各姿态下虚拟重力计数据处理所得,计算公式为:
Figure RE-FDA0002372253280000021
Figure RE-FDA0002372253280000022
其中,gxpi、gypi和gzpi分别为第i类姿态下第p组虚拟重力计x、y和z轴的重力分布数据,Xpi为三维向量即第i类姿态下第p组重力计三轴数值
Figure RE-FDA0002372253280000023
m是用于计算第i类姿态下初始高斯混合成分的数据的总个数;
各手机姿态出现概率认为是相等的,则取
Figure RE-FDA0002372253280000024
(22)初始化或更新滑动窗口,设定滑动窗口长度为H,定义变量:
A=max Grozm,m∈[1,H];
其中,max Grozm为滑动窗口中最大的陀螺仪z轴数值;计算滑动窗口内A大小,判断是否超过阈值thrl进行相应的手机位姿匹配与区分,滑动窗口每读入一个数据更新一次,窗口的总长度不变,滑动窗口长度H大于陀螺仪信号一周期的采样数据个数;
(23)进行高斯混合聚类算法匹配过程。
4.根据权利要求3所述的一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,其特征在于,步骤(23)包括以下步骤:
(231)计算Xt由各混合成分生成的后验概率γit,Xt为t时刻待识别行人手机虚拟重力计三轴数值
Figure RE-FDA0002372253280000025
其中,gxt、gyt和gzt分别为虚拟重力计在x、y和z轴分量,即
Figure RE-FDA0002372253280000026
其中,
Figure RE-FDA0002372253280000027
根据后验概率γti的大小确定Xt的簇标记
Figure RE-FDA0002372253280000031
即当i使得γti取最大时令λt等于i即进行一次姿态划分;即,取后验概率最大的类作为待识别行人手机姿态的类别;
(232)所有手机姿态均由聚类识别分类,特别地对于重力分布有重合的手机姿态,根据手机三轴陀螺仪数据,基于聚类识别结果结合近距离传感器的信号特征E1和E2进行匹配识别;
定义鉴别裤兜模式传感器信号特征为E1,定义鉴别甩手模式的传感器信号特征为E2,定义聚类算法识别结果为E3,具体计算方式为:
Figure RE-FDA0002372253280000032
Figure RE-FDA0002372253280000033
Figure RE-FDA0002372253280000034
其中,proximity是近距离传感器数值,即当近距离传感器数值为0时,特征E1成立,否则不成立;maxGroz为连续采样点内陀螺仪z轴最大值即滑动窗口A内最大值,thrl为阈值,若maxGroz大于该阈值则E2成立;N为1时聚类识别结果为竖屏,N为2时聚类识别结果为横屏,N为3时聚类识别结果为通话,N为4时聚类识别结果为甩手,N为5时聚类识别结果为裤兜;具体识别逻辑决策表如下:
表1重力重合区域聚类算法结合信号特征识别决策逻辑表
Figure RE-FDA0002372253280000035
表1中,括号里的数字为该事件的结果,E1(0)E3(4)表示E1=0和E3=4同时满足时,分类结果为甩手;E1(1)E3(4)表示E1=1和E3=4同时满足时,分类结果为裤兜;E2(0)E3(5)表示E2=0和E3=5同时满足时,分类结果为裤兜;
(233)将数据Xt划入相应的簇Cλt=Cλt∪{Xt},簇即为一系列待识别手机姿态划分的一类;
(234)输出簇划分结果,即手机姿态判别结果,令t=t+1,返回步骤(231)。
5.根据权利要求1所述的一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,其特征在于,步骤(3)包括以下步骤:
(31)计算该滑动窗口内的状态点来自于哪几种位姿;
(32)判别每种位姿的状态点是否连续且连续个数超过阈值G,若是则判定该滑动窗口表示的时间段内存在该姿态,否则该姿态的出现为错判;
(33)对这一过程连续状态点进行位姿转换过程匹配,判断属于哪两种位姿之间的转换。
6.根据权利要求5所述的一种基于高斯混合聚类算法的自适应行人手机姿态识别方法,其特征在于,滑动窗口大小M大于行人一步以内的姿态状态点个数。
CN201911093223.6A 2019-11-11 2019-11-11 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法 Active CN110929766B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911093223.6A CN110929766B (zh) 2019-11-11 2019-11-11 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911093223.6A CN110929766B (zh) 2019-11-11 2019-11-11 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法

Publications (2)

Publication Number Publication Date
CN110929766A true CN110929766A (zh) 2020-03-27
CN110929766B CN110929766B (zh) 2023-02-03

Family

ID=69853703

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911093223.6A Active CN110929766B (zh) 2019-11-11 2019-11-11 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法

Country Status (1)

Country Link
CN (1) CN110929766B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112428263A (zh) * 2020-10-16 2021-03-02 北京理工大学 机械臂控制方法、装置及聚类模型训练方法
CN113021818A (zh) * 2021-03-25 2021-06-25 弘丰塑胶制品(深圳)有限公司 一种具有自动脱料功能的注射模具的控制***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1024026A (ja) * 1996-07-11 1998-01-27 Ricoh Co Ltd 携帯型情報処理装置
CN105046215A (zh) * 2015-07-07 2015-11-11 中国科学院上海高等研究院 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法
CN108810272A (zh) * 2018-06-07 2018-11-13 郑州信大先进技术研究院 基于移动终端多传感器的行为识别模型训练方法及装置
CN109708631A (zh) * 2018-12-26 2019-05-03 南京航空航天大学 一种基于手机模态识别的行人导航航向修正方法
CN110068322A (zh) * 2019-04-18 2019-07-30 中国电子科技集团公司电子科学研究院 一种基于终端的行人定位方法及行人定位装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1024026A (ja) * 1996-07-11 1998-01-27 Ricoh Co Ltd 携帯型情報処理装置
CN105046215A (zh) * 2015-07-07 2015-11-11 中国科学院上海高等研究院 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法
CN108810272A (zh) * 2018-06-07 2018-11-13 郑州信大先进技术研究院 基于移动终端多传感器的行为识别模型训练方法及装置
CN109708631A (zh) * 2018-12-26 2019-05-03 南京航空航天大学 一种基于手机模态识别的行人导航航向修正方法
CN110068322A (zh) * 2019-04-18 2019-07-30 中国电子科技集团公司电子科学研究院 一种基于终端的行人定位方法及行人定位装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112428263A (zh) * 2020-10-16 2021-03-02 北京理工大学 机械臂控制方法、装置及聚类模型训练方法
CN113021818A (zh) * 2021-03-25 2021-06-25 弘丰塑胶制品(深圳)有限公司 一种具有自动脱料功能的注射模具的控制***

Also Published As

Publication number Publication date
CN110929766B (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
CN111857356B (zh) 识别交互手势的方法、装置、设备和存储介质
CN107352032B (zh) 一种人流量数据的监控方法及无人机
Zhang et al. A handheld inertial pedestrian navigation system with accurate step modes and device poses recognition
EP2697665B1 (en) Device position estimates from motion and ambient light classifiers
CN110113116B (zh) 基于wifi信道信息的人体行为识别方法
CN104731307B (zh) 一种体感动作识别方法及人机交互装置
CN102640085A (zh) 用于识别手势的***和方法
WO2016025713A1 (en) Three-dimensional hand tracking using depth sequences
Yuan et al. Accelerometer-based Chinese traffic police gesture recognition system
CN108196668B (zh) 一种便携式手势识别***及方法
Thiemjarus et al. A study on instance-based learning with reduced training prototypes for device-context-independent activity recognition on a mobile phone
CN108629170A (zh) 身份识别方法以及相应的装置、移动终端
CN111595344B (zh) 一种基于地图信息辅助的多姿态下行人行位推算方法
CN110929766B (zh) 一种基于高斯混合聚类算法的自适应行人手机姿态识别方法
CN206968975U (zh) 一种无人机
CN107122711A (zh) 一种基于角度径向变换和质心的夜视视频步态识别方法
CN103105924A (zh) 人机交互方法和装置
Yang et al. Human posture recognition in intelligent healthcare
CN107465814B (zh) 一种基于手机惯性传感器的用户输入识别方法
CN106971203B (zh) 基于走路特征数据的身份识别方法
CN105975989B (zh) 一种基于九轴运动传感器的肘部运动状态识别方法
Iyer et al. Generalized hand gesture recognition for wearable devices in IoT: Application and implementation challenges
CN110926467B (zh) 一种基于均值聚类算法的自适应行人手机姿态识别方法
CN111803902B (zh) 泳姿识别方法、装置、可穿戴设备及存储介质
CN116092193A (zh) 一种基于人体运动状态识别的行人航迹推算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant