CN109543762A - 一种多特征融合姿态识别***及方法 - Google Patents
一种多特征融合姿态识别***及方法 Download PDFInfo
- Publication number
- CN109543762A CN109543762A CN201811431810.7A CN201811431810A CN109543762A CN 109543762 A CN109543762 A CN 109543762A CN 201811431810 A CN201811431810 A CN 201811431810A CN 109543762 A CN109543762 A CN 109543762A
- Authority
- CN
- China
- Prior art keywords
- node
- force
- sensing sensor
- human body
- foot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000001133 acceleration Effects 0.000 claims abstract description 16
- 230000006399 behavior Effects 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 3
- 239000011229 interlayer Substances 0.000 claims description 2
- 210000001699 lower leg Anatomy 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 238000012549 training Methods 0.000 abstract description 4
- 230000005484 gravity Effects 0.000 abstract description 2
- 210000002683 foot Anatomy 0.000 description 42
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 206010000117 Abnormal behaviour Diseases 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 208000028752 abnormal posture Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000001255 hallux Anatomy 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种多特征融合姿态识别***及方法,该***包括管理终端、云服务器、无线网络和人体节点,其中人体节点包括胸部节点、足部节点L和足部节点R,足部节点L包括第二单片机、第二2.4G模块、第二电源模块和第一力敏传感器组,足部节点R包括第三单片机、第二气压传感器、第三2.4G模块、第三电源模块和第二力敏传感器组。本发明通过合加速度、姿态角和高度差百分比检测人体上身与脚的姿态变化,还结合足底压强特征对人体重心变化进行监测,并利用云计算训练得到的参数对姿态进行识别,能够有效识别身体的日常行为姿态,并能在终端上查询,具有广泛的应用前景。
Description
技术领域
本发明涉及姿态识别技术领域,具体是指一种多特征融合姿态识别***及方法。
背景技术
随着传感器技术与物联网技术的发展,姿态识别的应用越来越广泛。在医疗健康领域中,主要可用于人类跌倒等异常行为及日常行为的检测,降低跌倒对老人等弱势群体的伤害,帮助正常人减少或纠正久坐、久站等不良生活习惯;还可应用于VR游戏行业,通过对玩家的姿态识别,大大增强游戏的体验感。
目前姿态识别技术主要依靠摄像头和可穿戴设备,存在问题如下:
(1)摄像头通过采集图像进行分析,难以保证用户的个人隐私;
(2)摄像头对光线较为敏感,而且黑暗环境下只能依靠红外摄像头,成本较高;
(3)当前可穿戴设备主要依靠加速度传感器或力敏传感器,特征较为单一,误判率较高。
发明内容
为克服现有姿态识别***存在的不足之处,本发明提供了一种多特征融合姿态识别***及方法,其目的在于克服现有技术中姿态检测技术受环境限制、功能简单、误判率较高等问题。
为了实现上述目的,本发明具有如下构成:
该多特征融合姿态识别***,包括管理终端、云服务器、无线网络和人体节点;其中,所述人体节点包括胸部节点、足部节点L和足部节点R;所述胸部节点包括第一单片机、9轴传感器、第一气压传感器、Wi-Fi模块、第一2.4G模块和第一电源模块;所述足部节点L包括第二单片机、第二2.4G模块、第二电源模块和位于左鞋垫夹层的第一力敏传感器组;所述足部节点R包括第三单片机、第二气压传感器、第三2.4G模块、第三电源模块和位于右鞋垫夹层的第二力敏传感器组;
所述Wi-Fi模块通过无线网络与云服务器通信,9轴传感器、第一气压传感器、Wi-Fi模块、第一2.4G模块均与第一单片机连接,第一电源模块用以为胸部节点供电;
所述第一力敏传感器组和第二2.4G模块均与第二单片机连接,第二电源模块用以为足部节点L供电;
所述第二气压传感器、第三2.4G模块和第二力敏传感器组均与第三单片机连接,第三电源模块用以为足部节点R供电。
可选地,所述足部节点L位于左鞋后跟的腔体内,所述足部节点L的上方为左鞋垫,第一力敏传感器组位于左鞋垫夹层中。
可选地,所述足部节点R位于右鞋后跟的腔体内,所述足部节点R的上方为右鞋垫,第二力敏传感器组位于右鞋垫夹层中。
可选地,所述第一力敏传感器和第二力敏传感器组分别由8个力敏传感器构成,其电压输出分别为Li(i∈[1,8])和Ri(i∈[1,8]),第一力敏传感器组中,力敏传感器L1位于左脚的第一趾骨处,力敏传感器L2、力敏传感器L3和力敏传感器L4位于左脚的跖趾关节处,力敏传感器L5和力敏传感器L6位于左脚的足外侧,力敏传感器L7和力敏传感器L8位于足跟处;第二力敏传感器中,力敏传感器R1位于右脚的第一趾骨处,力敏传感器R2、力敏传感器R3和力敏传感器R4位于左脚的跖趾关节处,力敏传感器R5和力敏传感器R6位于左脚的足外侧。
本发明实施例还提供一种多特征融合姿态识别方法,所述方法包括如下步骤:
(1)采用管理终端通知人体节点采集用户姿态参数;
(2)人体节点中的胸部节点通知足部节点L和足部节点R采集数据,足部节点L采集第一力敏传感器组的电压数据,足部节点R采集第二力敏传感器组的电压数据和第二气压传感器的数据,胸部节点采集9轴传感器的三轴角度、三轴加速度数据和第一气压传感器的数据;
(3)根据人体节点采集的数据计算人体与水平面的倾角、人体合加速度、胸足高度差百分比和设置有第二力敏传感器组的各个点的单位面积受力,判断当前状态,如果当前状态为训练或更新状态,则将计算结果和计算结果所对应的人体姿态类别的标签发送至云服务器,并继续步骤(4),如果当前状态为识别状态,则继续步骤(5);
(4)云服务器根据步骤(3)的计算结果和计算结果所对应的人体姿态类别的标签计算不同的人体姿态类别的划分指标和划分值;
(5)根据步骤(3)的计算结果和不同的人体姿态类别的划分指标和划分值判断人体姿态类别。
可选地,所述步骤(2)包括如下步骤:
(2-1)所述胸部节点通过第一2.4G模块分别发送命令给足部节点L和足部节点R;
(2-2)所述节点L通过第二2.4G模块接收到胸部节点的命令后,将采集到的第一力敏传感器组的电压数据L1~L8通过第二2.4G模块发送给胸部节点;
(2-3)所述足部节点R通过第三2.4G模块接收到胸部节点的命令后,将采集到的第二力敏传感器组的电压数据R1~R8和第二气压传感器的数据P2通过第三2.4G模块发送给胸部节点;
(2-4)所述胸部节点分别接收足部节点L和足部节点R的数据,同时采集9轴传感器的三轴角度(x,y,z)和三轴加速度数据(ax,ay,az),以及第一气压传感器数据P1。
可选地,所述步骤(3)包括如下步骤:
(3-1)根据以下公式计算人体与水平面的倾角BTA:
(3-2)根据以下公式计算人体合加速度ha:
(3-3)根据以下公式计算胸足高度差百分比HP:
HP=44330·((P2/P0)1/5.255-(P1/P0)1/5.255)/H0
式中,P0为标准大气压,H0为用户身高;
(3-4)根据以下公式分别计算第一力敏传感器组和第二力敏传感器组中各点的单位面积受力LPai、RPai:
LPai=0.2/(ln(Li)-1.17)-0.2
RPai=0.2/(ln(Ri)-1.17)-0.2
(3-5)根据以下公式分别计算第一力敏传感器组和第二力敏传感器组各点的开关量LPaDi、RPaDi:
LPaDi=ε(LPai-ρ)
RPaDi=ε(RPai-ρ)
式中,ρ为预设的足底压强阈值;
(3-6)根据以下公式分别计算第一力敏传感器组和第二力敏传感器组的开关量综合输出LPaDSUM、RPaDSUM:
可选地,所述步骤(4)包括如下步骤:
(4-1)云服务器分别计算:步行与坐姿的胸足高度差百分比HP的最佳划分值HP1,下蹲与捡姿态的胸足高度差百分比HP的最佳划分值HP2,下蹲与坐姿的人体与水平面的倾角BTA的最佳划分值θ1,下蹲与捡姿态的人体与水平面的倾角BTA的最佳划分值θ2;
(4-2)人体姿态参数确定完成,云服务器将计算得到的划分指标和最佳划分值返回至胸部节点。
可选地,所述步骤(5)包括如下步骤:
(5-1)首先根据人体合加速度ha检测人体运动程度,并结合人体与水平面的倾角BTA检测人体上身的倾斜程度及足底压力;
若|ha|≥15m/s2或|ha|≤5m/s2,且下一时刻HP<P2,BTA<θ2,LPaDSUM<ω1,RPaDSUM<ω1,则判断为跌倒,继续进行(5-2);若5m/s2<|ha|<15m/s2,则进行(5-3);
(5-2)若|ax|<5m/s2且x≤0°,则为向前跌倒;若|ax|<5m/s2且x>0°,则为向后跌倒;若|ay|<5m/s2且y>0°,则为向左跌倒;若|ay|<5m/s2且y≤0°,则为向右跌倒;
(5-3)根据胸足高度差百分比HP检测人体是否有下降行为,若HP≤P1,则判断为坐姿、下蹲或捡,继续进行(5-4);否则判断为步行或站立,进行(5-6);
(5-4)综合考虑胸足高度差百分比HP和人体与水平面的倾角BTA,若BTA≥θ1且P2≤HP≤P1,则判断为坐姿,若θ2≤BTA<θ1且HP<P2,则判断为下蹲;若BTA<θ2,HP≤P1且LPaDSUM≥ω1或RPaDSUM≥ω1,则判断为捡,继续进行(5-5)进行具体捡的类型判别;
(5-5)若LPaDSUM≥ω1且RPaDSUM≥ω1,则判断为向前捡;若LPaDSUM≥ω1且RPaDSUM=0,则判断为向左捡;若LPaDSUM=0且RPaDSUM≥ω1,则判断为向右捡;
(5-6)根据足底压强变化周期计算步频,若步频极小,则判断为站立;若步频符合人体步行规律,则判断为步行。
可选地,所述方法还包括如下步骤:
(6)若姿态识别结果为跌倒,或检测到久站、久坐等不健康行为,则通过短信或语音提醒家人或用户;
(7)所述胸部节点将识别的姿态结果上传至云服务器,管理终端根据云服务器数据显示数据曲线和识别的姿态结果。
本发明所提供的多特征融合姿态识别***及方法,具有如下有益效果:
本发明利用传感器技术及物联网技术,设计了一种多特征融合姿态识别***;还利用压力、高度、角度和加速度特征,对人体正常、异常行为姿态进行建模分析,设计了一种多特征融合姿态识别方法;本发明可对人体姿态进行有效识别,并实现异常姿态的警报提醒与日常姿态数据的实时展示。
附图说明
图1是本发明一实施例的多特征融合姿态识别***的示意图;
图2是本发明一实施例的第一、二传感器组在鞋垫中布局的示意图;
图3是本发明一实施例的多特征融合姿态识别方法的流程图;
图中的附图标记:管理终端100,云服务器200,无线网络300,人体节点400,胸部节点410,足部节点L420,足部节点R430,第一单片机411,9轴传感器412,第一气压传感器413,Wi-Fi模块414,第一2.4G模块415,第一电源模块416,第二单片机421,第二2.4G模块422,第二电源模块423,第一力敏传感器组424,第三单片机431,第二气压传感器432,第三2.4G模块433,第三电源模块434,第二力敏传感器组435。
具体实施方式
下面结合图1至图3,对本发明技术方案进行详细说明:
如图1所示,为了解决现有技术中的技术问题,本发明实施例提供了一种多特征融合姿态识别***。其中,所述***包括管理终端100、云服务器200、无线网络300和人体节点400。其中人体节点400包括胸部节点410、足部节点L420和足部节点R430。所述胸部节点410包括第一单片机411、9轴传感器412、第一气压传感器413、Wi-Fi模块414、第一2.4G模块415和第一电源模块416。所述Wi-Fi模块414通过无线网络300与云服务器200通信,9轴传感器412、第一气压传感器413、Wi-Fi模块414、第一2.4G模块415均与第一单片机411连接,第一电源模块416用以胸部节点410供电。所述足部节点L420包括第二单片机421、第二2.4G模块422、第二电源模块423和位于左鞋垫夹层的第一力敏传感器组424。所述足部节点L420位于左鞋后跟的腔体内,上方为左鞋垫,第一力敏传感器组424位于左鞋垫夹层中;第一力敏传感器组424和第二2.4G模块422均与第二单片机421连接,第二电源模块423用以足部节点L420供电。所述足部节点R430包括第三单片机431、第二气压传感器432、第三2.4G模块433、第三电源模块434和位于右鞋垫夹层的第二力敏传感器组435。所述足部节点R430位于右鞋后跟的腔体内,上方为右鞋垫,第二力敏传感器组435位于右鞋垫夹层中;第二气压传感器432、第三2.4G模块均433和第二力敏传感器组435均与第三单片机431连接,第三电源模块434用以足部节点R430供电。
如图2所示,为本发明的第一力敏传感器424和第二力敏传感器组435在鞋垫中布局的示意图,第一力敏传感器424和第二力敏传感器组435分别由8个力敏传感器构成,其电压输出分别为Li(i∈[1,8])和Ri(i∈[1,8])。以第一力敏传感器组424为例,L1位于第一趾骨处,L2、L3和L4位于跖趾关节处,L5和L6位于足外侧,L7和L8位于足跟处。
如图3所示,本发明实施例还提供了一种多特征融合姿态识别方法,包括以下步骤:
步骤(1)借助管理终端100通知人体节点400进行用户姿态参数训练或更新,并标记具体姿态,如:步行、站立、坐等,执行步骤(2);
步骤(2)人体节点400数据采集与通信:
(2-1)胸部节点410通过第一2.4G模块415分别发送命令给足部节点L/R420和430;
(2-2)足部节点L420通过第二2.4G模块422接收到胸部节点的命令后,将采集到的第一力敏传感器组424电压数据L1~L8通过第二2.4G模块422发送给胸部节点410;
(2-3)足部节点R430通过第三2.4G模块433接收到胸部节点410的命令后,将采集到的第二力敏传感器组435电压数据R1~R8和第二气压传感器432数据P2通过第三2.4G模块433发送给胸部节点410;
(2-4)胸部模块410分别接收足部节点L420和足部节点R430的数据,同时采集9轴传感器412的三轴角度(x,y,z)和三轴加速度数据(ax,ay,az),以及第一气压传感器413数据P1;
步骤(3)数据预处理过程如下,处理结束后将处理结果和原始数据上传至云服务器200;若为参数训练或更新状态,则继续执行步骤(4);若为日常使用状态,则执行步骤(5);
(3-1)根据以下公式计算人体与水平面的倾角BTA:
(3-2)根据以下公式计算人体合加速度ha:
(3-3)根据以下公式计算胸足高度差百分比HP:
HP=44330·((P2/P0)1/5.255-(P1/P0)1/5.255)/H0
式中,P0为标准大气压,H0为用户身高。
(3-4)根据以下公式分别计算第一力敏传感器424和第二力敏传感器组435各点的单位面积受力LPai、RPai:
LPai=0.2/(ln(Li)-1.17)-0.2
RPai=0.2/(ln(Ri)-1.17)-0.2
(3-5)根据以下公式分别计算第一力敏传感器424和第二力敏传感器组435各点的开关量LPaDi、RPaDi:
LPaDi=ε(LPai-ρ)
RPaDi=ε(RPai-ρ)
式中,ρ为足底压强阈值,取0.45N/cm2,
(3-6)根据以下公式分别计算第一力敏传感器424和第二力敏传感器组435的开关量综合输出LPaDSUM、RPaDSUM:
步骤(4)云服务器200处理:
(4-1)云服务器200分别计算:步行与坐姿HP的最佳划分值HP1,下蹲与捡姿态HP的最佳划分值HP2,下蹲与坐姿BTA的最佳划分值θ1,下蹲与捡姿态BTA的最佳划分值θ2;
(4-2)人体姿态参数确定完成,云服务器200将参数返回至胸部节点410;
步骤(5)姿态识别:
(5-1)首先根据ha检测人体运动程度,并结合BTA检测人体上身的倾斜程度及足底压力;若|ha|≥15m/s2或|ha|≤5m/s2,且下一时刻HP<P2,BTA<θ2,LPaDSUM<ω1,RPaDSUM<ω1,则判断为跌倒,继续进行(5-2);若5m/s2<|ha|<15m/s2,则进行(5-3);
(5-2)若|ax|<5m/s2且x≤0°,则为向前跌倒;若|ax|<5m/s2且x>0°,则为向后跌倒;若|ay|<5m/s2且y>0°,则为向左跌倒;若|ay|<5m/s2且y≤0°,则为向右跌倒;
(5-3)根据HP检测人体是否有下降行为,若HP≤P1,则判断为坐姿、下蹲或捡,继续进行(5-4);否则判断为步行或站立,进行(5-6);
(5-4)综合考虑HP和BTA,若BTA≥θ1且P2≤HP≤P1,则判断为坐姿,若θ2≤BTA<θ1且HP<P2,则判断为下蹲;若BTA<θ2,HP≤P1且LPaDSUM≥ω1或RPaDSUM≥ω1,则判断为捡,继续进行(5-5)进行具体捡的类型判别;
(5-5)若LPaDSUM≥ω1且RPaDSUM≥ω1,则判断为向前捡;若LPaDSUM≥ω1且RPaDSUM=0,则判断为向左捡;若LPaDSUM=0且RPaDSUM≥ω1,则判断为向右捡;
(5-6)根据足底压强变化周期计算步频,若步频极小,则判断为站立;若步频符合人体步行规律,则判断为步行;
(5-7)姿态识别结束后进行步骤(6)、步骤(7);
步骤(6)警报提醒:若姿态识别结果为跌倒,或检测到久站、久坐等不健康行为,则提醒家人或用户;
步骤(7)管理终端100显示:胸部节点410将识别的姿态结果上传至云服务器200,管理终端100根据云服务器200数据显示数据曲线及当前姿态等相关信息。
采用本发明中的一种多特征融合姿态识别***及方法,能够有效识别身体的日常行为姿态,并能在终端上查询历史记录,同时发生跌倒事件或久坐、久站等不健康姿态时可警报提醒。本发明通过倾角、合加速度和姿态角检测人体上身姿态变化,通过胸足高度差百分比分析上身与脚的垂直距离变化,还结合足底压强特征对人体重心变化进行监测,最后利用云计算训练得到的各个参数对姿态进行识别;在提高准确率的同时保护了用户的隐私,且应用范围不受场景限制,在医疗健康行业及游戏行业具有广泛的应用前景。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (10)
1.一种多特征融合姿态识别***,其特征在于,包括管理终端(100)、云服务器(200)、无线网络(300)和人体节点(400);其中,所述人体节点(400)包括胸部节点(410)、足部节点L(420)和足部节点R(430);所述胸部节点(410)包括第一单片机(411)、9轴传感器(412)、第一气压传感器(413)、Wi-Fi模块(414)、第一2.4G模块(415)和第一电源模块(416);所述足部节点L(420)包括第二单片机(421)、第二2.4G模块(422)、第二电源模块(423)和位于左鞋垫夹层的第一力敏传感器组(424);所述足部节点R(430)包括第三单片机(431)、第二气压传感器(432)、第三2.4G模块(433)、第三电源模块(434)和位于右鞋垫夹层的第二力敏传感器组(435);
所述Wi-Fi模块(414)通过无线网络(300)与云服务器(200)通信,9轴传感器(412)、第一气压传感器(413)、Wi-Fi模块(414)、第一2.4G模块(415)均与第一单片机(411)连接,第一电源模块(416)用以为胸部节点(410)供电;
所述第一力敏传感器组(424)和第二2.4G模块(422)均与第二单片机(421)连接,第二电源模块(423)用以为足部节点L(420)供电;
所述第二气压传感器(432)、第三2.4G模块(433)和第二力敏传感器组(435)均与第三单片机(431)连接,第三电源模块(434)用以为足部节点R(430)供电。
2.根据权利要求1所述的一种多特征融合姿态识别***,其特征在于,所述足部节点L(420)位于左鞋后跟的腔体内,所述足部节点L(420)的上方为左鞋垫,第一力敏传感器组(424)位于左鞋垫夹层中。
3.根据权利要求1所述的一种多特征融合姿态识别***,其特征在于,所述足部节点R(430)位于右鞋后跟的腔体内,所述足部节点R(430)的上方为右鞋垫,第二力敏传感器组(435)位于右鞋垫夹层中。
4.根据权利要求1所述的一种多特征融合姿态识别***,其特征在于,所述第一力敏传感器(424)和第二力敏传感器组(435)分别由8个力敏传感器构成,其电压输出分别为Li(i∈[1,8])和Ri(i∈[1,8]),第一力敏传感器组(424)中,力敏传感器L1位于左脚的第一趾骨处,力敏传感器L2、力敏传感器L3和力敏传感器L4位于左脚的跖趾关节处,力敏传感器L5和力敏传感器L6位于左脚的足外侧,力敏传感器L7和力敏传感器L8位于足跟处;第二力敏传感器(435)中,力敏传感器R1位于右脚的第一趾骨处,力敏传感器R2、力敏传感器R3和力敏传感器R4位于左脚的跖趾关节处,力敏传感器R5和力敏传感器R6位于左脚的足外侧。
5.一种多特征融合姿态识别方法,其特征在于,所述方法包括如下步骤:
(1)采用管理终端通知人体节点采集用户姿态参数;
(2)人体节点中的胸部节点通知足部节点L和足部节点R采集数据,足部节点L采集第一力敏传感器组的电压数据,足部节点R采集第二力敏传感器组的电压数据和第二气压传感器的数据,胸部节点采集9轴传感器的三轴角度、三轴加速度数据和第一气压传感器的数据;
(3)根据人体节点采集的数据计算人体与水平面的倾角、人体合加速度、胸足高度差百分比和设置有第二力敏传感器组的各个点的单位面积受力,判断当前状态,如果当前状态为训练或更新状态,则将计算结果和计算结果所对应的人体姿态类别的标签发送至云服务器,并继续步骤(4),如果当前状态为识别状态,则继续步骤(5);
(4)云服务器根据步骤(3)的计算结果和计算结果所对应的人体姿态类别的标签计算不同的人体姿态类别的划分指标和划分值;
(5)根据步骤(3)的计算结果和不同的人体姿态类别的划分指标和划分值判断人体姿态类别。
6.根据权利要求5所述的多特征融合姿态识别方法,其特征在于,所述步骤(2)包括如下步骤:
(2-1)所述胸部节点通过第一2.4G模块分别发送命令给足部节点L和足部节点R;
(2-2)所述节点L通过第二2.4G模块接收到胸部节点的命令后,将采集到的第一力敏传感器组的电压数据L1~L8通过第二2.4G模块发送给胸部节点;
(2-3)所述足部节点R通过第三2.4G模块接收到胸部节点的命令后,将采集到的第二力敏传感器组的电压数据R1~R8和第二气压传感器的数据P2通过第三2.4G模块发送给胸部节点;
(2-4)所述胸部节点分别接收足部节点L和足部节点R的数据,同时采集9轴传感器的三轴角度(x,y,z)和三轴加速度数据(ax,ay,az),以及第一气压传感器数据P1。
7.根据权利要求6所述的多特征融合姿态识别方法,其特征在于,所述步骤(3)包括如下步骤:
(3-1)根据以下公式计算人体与水平面的倾角BTA:
(3-2)根据以下公式计算人体合加速度ha:
(3-3)根据以下公式计算胸足高度差百分比HP:
HP=44330·((P2P0)15.255-(P1P0)15.255)H0
式中,P0为标准大气压,H0为用户身高;
(3-4)根据以下公式分别计算第一力敏传感器组和第二力敏传感器组中各点的单位面积受力LPai、RPai:
LPai=0.2(ln(Li)-1.17)-0.2
RPai=0.2(ln(Ri)-1.17)-0.2
(3-5)根据以下公式分别计算第一力敏传感器组和第二力敏传感器组各点的开关量LPaDi、RPaDi:
LPaDi=ε(LPai-ρ)
RPaDi=ε(RPai-ρ)
式中,ρ为预设的足底压强阈值;
(3-6)根据以下公式分别计算第一力敏传感器组和第二力敏传感器组的开关量综合输出LPaDSUM、RPaDSUM:
8.根据权利要求7所述的多特征融合姿态识别方法,其特征在于,所述步骤(4)包括如下步骤:
(4-1)云服务器分别计算:步行与坐姿的胸足高度差百分比HP的最佳划分值HP1,下蹲与捡姿态的胸足高度差百分比HP的最佳划分值HP2,下蹲与坐姿的人体与水平面的倾角BTA的最佳划分值θ1,下蹲与捡姿态的人体与水平面的倾角BTA的最佳划分值θ2;
(4-2)人体姿态参数确定完成,云服务器将计算得到的划分指标和最佳划分值返回至胸部节点。
9.根据权利要求8所述的多特征融合姿态识别方法,其特征在于,所述步骤(5)包括如下步骤:
(5-1)首先根据人体合加速度ha检测人体运动程度,并结合人体与水平面的倾角BTA检测人体上身的倾斜程度及足底压力;
若|ha|≥15m/s2或|ha|≤5m/s2,且下一时刻HP<P2,BTA<θ2,LPaDSUM<ω1,RPaDSUM<ω1,则判断为跌倒,继续进行(5-2);若5m/s2<|ha|<15m/s2,则进行(5-3);
(5-2)若|ax|<5m/s2且x≤0°,则为向前跌倒;若|ax|<5m/s2且x>0°,则为向后跌倒;若|ay|<5m/s2且y>0°,则为向左跌倒;若|ay|<5m/s2且y≤0°,则为向右跌倒;
(5-3)根据胸足高度差百分比HP检测人体是否有下降行为,若HP≤P1,则判断为坐姿、下蹲或捡,继续进行(5-4);否则判断为步行或站立,进行(5-6);
(5-4)综合考虑胸足高度差百分比HP和人体与水平面的倾角BTA,若BTA≥θ1且P2≤HP≤P1,则判断为坐姿,若θ2≤BTA<θ1且HP<P2,则判断为下蹲;若BTA<θ2,HP≤P1且LPaDSUM≥ω1或RPaDSUM≥ω1,则判断为捡,继续进行(5-5)进行具体捡的类型判别;
(5-5)若LPaDSUM≥ω1且RPaDSUM≥ω1,则判断为向前捡;若LPaDSUM≥ω1且RPaDSUM=0,则判断为向左捡;若LPaDSUM=0且RPaDSUM≥ω1,则判断为向右捡;
(5-6)根据足底压强变化周期计算步频,若步频极小,则判断为站立;若步频符合人体步行规律,则判断为步行。
10.根据权利要求9所述的多特征融合姿态识别方法,其特征在于,所述方法还包括如下步骤:
(6)若姿态识别结果为跌倒,或检测到久站、久坐等不健康行为,则通过短信或语音提醒家人或用户;
(7)所述胸部节点将识别的姿态结果上传至云服务器,管理终端根据云服务器数据显示数据曲线和识别的姿态结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811431810.7A CN109543762B (zh) | 2018-11-28 | 2018-11-28 | 一种多特征融合姿态识别***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811431810.7A CN109543762B (zh) | 2018-11-28 | 2018-11-28 | 一种多特征融合姿态识别***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109543762A true CN109543762A (zh) | 2019-03-29 |
CN109543762B CN109543762B (zh) | 2021-04-06 |
Family
ID=65851912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811431810.7A Active CN109543762B (zh) | 2018-11-28 | 2018-11-28 | 一种多特征融合姿态识别***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543762B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427890A (zh) * | 2019-08-05 | 2019-11-08 | 华侨大学 | 基于深度级联网络和质心分化编码的多人姿态估计方法 |
CN113686256A (zh) * | 2021-08-19 | 2021-11-23 | 广州偶游网络科技有限公司 | 智能鞋及下蹲动作识别方法 |
CN116250830A (zh) * | 2023-02-22 | 2023-06-13 | 武汉易师宝信息技术有限公司 | 人体姿态判断与识别***、装置与识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003236002A (ja) * | 2002-02-20 | 2003-08-26 | Honda Motor Co Ltd | 身体保護方法および身体保護装置 |
JP2006158431A (ja) * | 2004-12-02 | 2006-06-22 | Kaoru Uchida | 転倒予防トレーニング補助装置 |
CN103076619A (zh) * | 2012-12-27 | 2013-05-01 | 山东大学 | 一种消防员室内外3d无缝定位及姿态检测***及方法 |
CN106448057A (zh) * | 2016-10-27 | 2017-02-22 | 浙江理工大学 | 基于多传感器融合跌倒检测的***及方法 |
CN106887115A (zh) * | 2017-01-20 | 2017-06-23 | 安徽大学 | 一种老人跌倒监测装置及跌倒风险评估方法 |
-
2018
- 2018-11-28 CN CN201811431810.7A patent/CN109543762B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003236002A (ja) * | 2002-02-20 | 2003-08-26 | Honda Motor Co Ltd | 身体保護方法および身体保護装置 |
JP2006158431A (ja) * | 2004-12-02 | 2006-06-22 | Kaoru Uchida | 転倒予防トレーニング補助装置 |
CN103076619A (zh) * | 2012-12-27 | 2013-05-01 | 山东大学 | 一种消防员室内外3d无缝定位及姿态检测***及方法 |
CN106448057A (zh) * | 2016-10-27 | 2017-02-22 | 浙江理工大学 | 基于多传感器融合跌倒检测的***及方法 |
CN106887115A (zh) * | 2017-01-20 | 2017-06-23 | 安徽大学 | 一种老人跌倒监测装置及跌倒风险评估方法 |
Non-Patent Citations (3)
Title |
---|
YUNKUN NING 等: "Real-time Action Recognition and Fall Detection Based on Smartphone", 《2018 40TH ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY》 * |
屠碧琪: "基于多传感融合的老人跌倒检测算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
郑娱 等: "跌倒检测***的研究进展", 《中国医学物理学杂志》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427890A (zh) * | 2019-08-05 | 2019-11-08 | 华侨大学 | 基于深度级联网络和质心分化编码的多人姿态估计方法 |
CN110427890B (zh) * | 2019-08-05 | 2021-05-11 | 华侨大学 | 基于深度级联网络和质心分化编码的多人姿态估计方法 |
CN113686256A (zh) * | 2021-08-19 | 2021-11-23 | 广州偶游网络科技有限公司 | 智能鞋及下蹲动作识别方法 |
CN113686256B (zh) * | 2021-08-19 | 2024-05-31 | 广州市偶家科技有限公司 | 智能鞋及下蹲动作识别方法 |
CN116250830A (zh) * | 2023-02-22 | 2023-06-13 | 武汉易师宝信息技术有限公司 | 人体姿态判断与识别***、装置与识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109543762B (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vallabh et al. | Fall detection monitoring systems: a comprehensive review | |
US10319209B2 (en) | Method and system for motion analysis and fall prevention | |
US11047706B2 (en) | Pedometer with accelerometer and foot motion distinguishing method | |
CN104146712B (zh) | 穿戴式足底压力检测设备及足底压力检测和姿态预测方法 | |
US20180177436A1 (en) | System and method for remote monitoring for elderly fall prediction, detection, and prevention | |
CN104361321B (zh) | 一种判断老年人摔倒行为及身体平衡能力的方法 | |
CN109726672B (zh) | 一种基于人体骨架序列和卷积神经网络的摔倒检测方法 | |
EP3525673B1 (en) | Method and apparatus for determining a fall risk | |
WO2018223505A1 (zh) | 一种识别步态的可穿戴设备 | |
CN109171734A (zh) | 基于多传感器数据融合的人体行为分析云管理*** | |
CN109543762A (zh) | 一种多特征融合姿态识别***及方法 | |
WO2018217652A1 (en) | Systems and methods for markerless tracking of subjects | |
CN106923839A (zh) | 运动辅助装置、运动辅助方法以及记录介质 | |
CN110600125B (zh) | 一种基于人工智能的体态分析助手***及传输方法 | |
Majumder et al. | A multi-sensor approach for fall risk prediction and prevention in elderly | |
CN110706255A (zh) | 一种基于自适应跟随的跌倒检测方法 | |
Zhao et al. | Recognition of human fall events based on single tri-axial gyroscope | |
CN112115827B (zh) | 基于人体姿态动态特征的跌倒行为识别方法 | |
KR20170043308A (ko) | 보행 데이터에 기반한 대상자 식별 방법 | |
Jatesiktat et al. | An elderly fall detection using a wrist-worn accelerometer and barometer | |
Ren et al. | Chameleon: personalised and adaptive fall detection of elderly people in home-based environments | |
Liu et al. | Posture recognition algorithm for the elderly based on BP neural networks | |
CN106778497A (zh) | 一种基于综合检测的智能养老看护方法及*** | |
Ren et al. | Real-time energy-efficient fall detection based on SSR energy efficiency strategy | |
CN109730660B (zh) | 一种婴幼儿穿戴设备和用户端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |