CN110659677A - 一种基于可移动传感器组合设备的人体跌倒检测方法 - Google Patents

一种基于可移动传感器组合设备的人体跌倒检测方法 Download PDF

Info

Publication number
CN110659677A
CN110659677A CN201910853810.4A CN201910853810A CN110659677A CN 110659677 A CN110659677 A CN 110659677A CN 201910853810 A CN201910853810 A CN 201910853810A CN 110659677 A CN110659677 A CN 110659677A
Authority
CN
China
Prior art keywords
data
sensor
input
modal
wrist
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910853810.4A
Other languages
English (en)
Inventor
李巧勤
杨尚明
刘勇国
陶文元
杨晓帅
刘晞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910853810.4A priority Critical patent/CN110659677A/zh
Publication of CN110659677A publication Critical patent/CN110659677A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明属于电子信息检测技术领域,公开了一种基于可移动传感器组合设备的人体跌倒检测方法,包括:基于可穿戴传感器***采集人体用户传感器数据。对采集的传感器数据进行数值归一化处理。采用基于时序多模态学习的CorrRNN模型对采集的传感器数据分类。通过腰部及腕部传感器收集数据分别构建分类器,并对分类结果加权组合得到跌倒类别判断结果。本发明提出的方法通过两个可穿戴传感器结合进行跌倒检测,采用了CorrRNN模型,该模型以无监督的方式进行训练,消除了对标记数据的需要,并且结合GRU以捕获长期依赖性和时序输入结构。可极大提高跌倒检测检测精度。

Description

一种基于可移动传感器组合设备的人体跌倒检测方法
技术领域
本发明属于电子信息检测技术领域,尤其涉及一种基于可移动传感器组合设备的人体跌倒检测方法。
背景技术
目前,最接近的现有技术:
对于独居和没有任何监督的老年人,能够及早发现异常活动模式至关重要。在这种智能辅助应用和环境的背景下,身体活动的识别和跌倒的检测被认为是必不可少的功能。由于跌倒对健康和医疗保健成本的高度影响,人们越来越关注自动跌倒检测方法。可穿戴传感器,特别是基于MEMS的微型惯性传感器(例如,加速度计和陀螺仪)的出现促进了这种快速发展。它们的大小和重量迅速缩小到可以不显眼地附着在身体上的程度。
中国专利“CN108549900A基于移动设备佩戴位置的人体跌倒检测方法”提供了一种基于移动设备佩戴位置的人体跌倒检测方法,包括:首先采用旋转模式分量和姿态角融合的特征提取方法,利用加速度计和陀螺仪数据计算出旋转半径、角速度幅度、姿态角并提取特征,然后将其分类得到移动设备的佩戴位置;随后根据位置自适应调整一种基于时序分析的跌倒检测算法。该专利所述的技术方案在佩戴位置不同的情况下,自动调整传感器的佩戴位置,再根据不同的佩戴位置确定检测算法,但人体跌倒活动不仅为简单的前向、后向、侧向跌倒等,在真实场景中,用户在非昏***况下,在各种跌倒下都会用手抓住支撑物或通过肘部支撑地面,跌倒情况复杂,在判断跌倒佩戴位置时,因为跌倒时碰撞阶段与地面冲击对人体产生受力,佩戴位置可能发生改变,难以确定一个具体的佩戴方向。
目前已经有多种可穿戴的跌倒检测报警装置,但这些跌倒检测报警装置因为人体之间的差异性,在测试的检测精度下,在真实使用时检测精度会降低的问题。
综上所述,现有技术存在的问题是:
(1)现有技术面对复杂的人体活动情况下,检测精度较差,无法适应各个不同的环境。
(2)目前的跌倒检测报警装置因为人体之间的差异性,在测试的检测精度下,在真实使用时检测精度会降低。
解决上述技术问题的难度:
真实使用情况过于复杂,通过枚举跌倒情况,调整适用于各种佩戴位置及各种跌倒类别的检测算法,判断复杂且难以包含所有场景。并且真实跌倒与实验环境不同,不能进行简单分类,用户在各种跌倒下都会用手抓住支撑物或通过肘部支撑地面,与实验数据存在差异,检测精度降低。
解决上述技术问题的意义:
通过腕部及腰部传感器佩戴,对于真实活动中用户的各种活动导致的跌到检测误差进行校正,同时通过算法直接检测跌倒,有利于提高跌倒检测精度,检测更加精准。
发明内容
针对现有技术存在的问题,本发明提供了一种基于可移动传感器组合设备的人体跌倒检测方法。
本发明是这样实现的,一种基于可移动传感器组合设备的人体跌倒检测方法。所述基于可移动传感器组合设备的人体跌倒检测方法包括:
步骤一,基于可穿戴传感器***采集人体用户传感器数据;
步骤二,对采集的传感器数据进行数值归一化处理;
步骤三,采用基于时序多模态学习的CorrRNN模型对采集的传感器数据分类;
步骤四,通过腰部及腕部传感器收集数据分别构建分类器,并对分类结果加权组合得到跌倒类别判断结果。
进一步,所述步骤一中基于可穿戴传感器***采集人体用户传感器数据具体包括:
(1)采集用户数据的可穿戴传感器***,为惯性测量单元(Inertial MeasurementUnit,IMU),IMU可测量日常动作中三轴加速度、三轴角速度,通过蓝牙连接IMU与PC,实现数据的无线实时传输,采样频率设置为20Hz。
(2)两个传感器分别放置在腕部及腰部,腕部佩戴位置为右手桡骨接近腕骨处,腰部佩戴位置为髋骨前侧正中处位置。
(3)动作类别。动作划分为跌倒及日常动作,日常动作包含坐、站、躺、慢跑、快跑、上下楼梯等基本动作,以及接打电话、蹲下等日常活动。
进一步,所述步骤二中对采集的传感器数据进行数值归一化处理具体包括:
信号数值归一化,将所有数据映射到0~1范围。采用线性函数归一化方法,转换函数如下:
Figure BDA0002197714580000031
其中max为样本数据的最大值,min为样本数据的最小值。x是原始的传感器信号数据,x*是归一化后的结果。
进一步,所述步骤三中采用基于时序多模态学习的CorrRNN模型对采集的传感器数据分类具体包括:
(1)输入数据,采集N位测试人员跌倒及日常动作数据作为训练样本,样本集记为T((X1,Y1,X2,Y2,c)1,…,(X1,Y1,X2,Y2,c)N),其中X1,Y1,X2,Y2分别代表两个可穿戴传感器收集的数据,X1表示腰部传感器收集的加速度数据,Y1表示腰部传感器收集的螺旋仪数据;X2表示腕部传感器收集的加速度数据,Y2表示腕部传感器收集的螺旋仪数据,c表示动作分类。
把腰部和腕部收集的数据,分别输入模型进行训练,最后两个分类器组合最终进行分类。后续步骤中,以腰部数据作为输入,腕部及腰部传感器数据采用的方法相同。由此后续步骤将X1,Y1简写为x,y。
将两种数据(加速度数据、螺旋仪数据)表示为长度T的序列。
Figure BDA0002197714580000041
Figure BDA0002197714580000043
表示X模态在时序t的m维特征。为了简单,后续省略上标符m和n。
(2)时序多模态学习
在t时融合两种模态,扩展表示为
Figure BDA0002197714580000045
l是历史时序范围。给定多模态数据序列对
Figure BDA0002197714580000046
训练一个特征学习模型M,学习多维联合表示
Figure BDA0002197714580000047
(3)CorrRNN模型结构
模型实现了编码器-解码器工作,实现序列到序列学习,并以无监督的方式学习序列表示。模型包括两个重新生成的神经网络:多模态编码器和多模态解码器。多模态编码器将两个输入序列映射到公共空间。多模态解码器从编码器获得的联合表示重构两个输入序列。编码器和解码器都是双层网络。多模态输入在被送到称为融合层的公共层之前,首先映射到单独的隐藏层。在重构多模态输入之前,首先对联合表示进行解码以分离隐藏层。
使用一对多模态输入训练模型,在最后一步编码器中的融合层的激活被输出作为序列特征表示。根据模型输入可以获得两种类型的特征表示:如果两个输入模态都存在,获得它们的联合表示;如果仅存在一种形式,将获得“增强的”单模态表示。
(4)多模态编码器
多模态编码器将输入模态序列融合成公共表示,多模态编码器在每一时间使用三个主要模块。
动态加权模块(DW):通过评估输入信号与最近历史记录的一致性,动态地对两种模态的信号进行加权。
GRU模块(GRU):融合输入模态以生成融合表示。该模块还使用重置和更新门捕获序列的时序结构。
相关模块(Corr):将GRU模块生成的中间状态作为输入,以计算基于相关性的损失。
其中动态加权模块根据其随时序的一致性评估,在给定时序步长为每个模态输入分配权重。分配给输入模态的动态权重基于当前输入与前一时序步骤的融合数据,表示之间的一致性。使用双线性函数来评估两种模态的一致性得分
Figure BDA0002197714580000052
即:
Figure BDA0002197714580000053
这里
Figure BDA0002197714580000054
是在模型训练过程中学到的参数。这两种模态的权重是通过使用Laplace平滑对分数进行归一化来获得的:
Figure BDA0002197714580000055
GRU模块包含不同的门单元,用于调制模块内的信息流。GRU模块在时序t处将xt和yt作为输入并且跟踪三个量,即融合表示
Figure BDA0002197714580000056
和模态特定表示
Figure BDA0002197714580000057
融合表示构成历史多模态输入的单个表示。模态特定表示
Figure BDA0002197714580000059
被认为是维持模态输入的投影,计算它们的相关性的度量。该模块中的计算表达如下:
Figure BDA00021977145800000511
Figure BDA00021977145800000512
Figure BDA00021977145800000513
Figure BDA00021977145800000514
Figure BDA00021977145800000515
Figure BDA00021977145800000516
Figure BDA00021977145800000517
其中σ是逻辑S形函数,
Figure BDA00021977145800000519
是双曲线正切函数,r和z是复位和更新门的输入,h和分别代表标准GRU的激活和候选激活,b是神经元的偏置;Ur为输出层第r个神经元的输入。
模型对不同的输入X和Y使用单独的权重,使得模型可以捕获模态关系和每种模态的特定方面。
Correlation模块计算从GRU模块获得的模态输入
Figure BDA0002197714580000061
的投影之间的相关性。形式上,在时序t给定两个模态
Figure BDA0002197714580000062
Figure BDA0002197714580000063
的N个映射,相关性计算如下:
Figure BDA0002197714580000064
其中,
Figure BDA0002197714580000065
将基于相关的损失函数表示为
Figure BDA0002197714580000066
通过这一函数使两种模态之间的相关性最大化。
(5)多模态解码器
多模态解码器从多模态编码器计算的联合表示
Figure BDA0002197714580000067
同时重构各个模态输入序列x和y。通过最小化训练时的重构损失,得到的联合表示从两种模态中保留尽可能多的信息。为了共享模态中的信息,在多模态解码器中引入两个额外的重构损失项:交叉重构和自我重构。最终,多模解码器包括三个重构损失:
融合重构损失,从联合表示
Figure BDA0002197714580000068
重构的误差:
自我重构损失,从中重构
Figure BDA00021977145800000611
Figure BDA00021977145800000612
中重构
Figure BDA00021977145800000613
误差:
Figure BDA00021977145800000614
交叉重构损失,从中重构
Figure BDA00021977145800000616
Figure BDA00021977145800000617
中重构
Figure BDA00021977145800000618
误差:
Figure BDA00021977145800000619
其中β是用于平衡两个输入模态的损失函数值的相对比例的超参数,而f,g分别表示由多模态编码器和解码器实现的特征映射。用于训练模型的目标函数表示为:
Figure BDA00021977145800000620
其中λ是用于缩放相关损失项的贡献的超参数,N是训练阶段使用的小批量数据的大小。目标函数结合由解码器计算的不同形式的重构损失,其中相关损失作为编码处理的一部分被计算。使用具有自适应学习速率的随机梯度下降算法来优化上述目标函数。
(6)对收集的传感器数据进行分类
通过计算LSTM(DCL)网络的最后一个卷积层(第5层)的输出来获得传感器特征,从获取的归一化后的数据提取特征。根据提取的特征,使用滑动窗口,从持续时序进行采样。这些运动序列用于训练CorrRNN模型,使用随机梯度下降,训练跌倒检测模型。
进一步,所述步骤四中通过腰部及腕部传感器收集数据分别构建分类器,并对分类结果加权组合得到跌倒类别判断结果,具体包括:
分别构建腰部和腕部位置的分类器,通过两个分类器进行加权组合,以两个分类器单独的分类精度,腰部分类精度为O1,腕部分类精度为O2,腰部分类器的权重为O1/(O1+O2),腕部分类器的权重为O2/(O1+O2),将两个分类器加权组合形成最终分类器进行跌倒检测。
本发明的另一目的在于提供一种应用所述基于可移动传感器组合设备的人体跌倒检测方法的可穿戴传感器。
本发明的另一目的在于提供一种应用所述基于可移动传感器组合设备的人体跌倒检测方法的电子信息检测***。
综上所述,本发明的优点及积极效果为:
与现有技术相比,本发明提出的方法通过两个可穿戴传感器结合进行跌倒检测,采用了CorrRNN模型。该模型基于编码器-解码器框架,通过利用跨模态的相关性来学习多元输入的联合表示。该模型以无监督的方式进行训练(即通过最小化输入-输出重构损失项并最大化基于交叉模态的相关项),这消除了对标记数据的需要,并且结合GRU以捕获长期依赖性和时序输入结构。可极大提高跌倒检测检测精度。
本发明因为加速度数据和螺旋仪数据的数值范围不同,通过归一化处理,可以提升精度。本发明提供了一种佩戴在腰部及腕部传感器组合的人体跌倒检测方法,通过在腰部及腕部佩戴可穿戴传感器采集数据并融合进行跌倒检测,提高跌倒检测的检测精度以及容错程度,使跌倒检测精度得到极大提高。
附图说明
图1是本发明实施例提供的跌倒检测方法总体流程图。
图2是本发明实施例提供的基于可移动传感器组合设备的人体跌倒检测方法流程图。
图3是本发明实施例提供的CorrRNN模型流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明的目的是提供一种使用穿戴式传感器获取数据、基于递归神经网络的跌倒检测方法。所实现的方法具有稳健性,有效性和性能先进性。本发明使用了两套传感器,分别佩戴在右手腕部及腰部髋骨前侧正中处位置,跌倒检测方法采用CorrRNN模型。模型同时学习联合表示和模态之间的时序依赖性,在目标函数中使用多个损失项,包括最大相关损失项以增强交叉学习模态信息,以及使用注意模型来动态调整不同输入模态对联合表示的贡献,以达到预期效果。通过分别构建腕部及腰部的CorrRNN模型,将两个CorrRNN模型通过加权进行组合,进一步提高检测的准确性。该方法对不同场景下老年人跌倒检测具有高检测精度和高有效性。
下面结合附图对本发明的应用原理作详细描述。
本发明使用两个可穿戴传感器设备,进行人体跌倒检测。两个传感器分别放置在腰部和腕部,收集的数据包含加速度数据和螺旋仪数据。两个不同位置的传感器数据分别输入模型进行训练得到两个分类器,最后通过两个分类器组合最终进行分类,分类器采用CorrRNN模型构建。
如图1所示,本发明实施例提供的基于可移动传感器组合设备的人体跌倒检测方法包括:
S101:基于可穿戴传感器***采集人体用户传感器数据;
S102:对采集的传感器数据进行数值归一化处理;
S103:采用基于时序多模态学习的CorrRNN模型对采集的传感器数据分类;
S104:通过腰部及腕部传感器收集数据分别构建分类器,并对分类结果加权组合得到跌倒类别判断结果。
进一步,所述步骤一中基于可穿戴传感器***采集人体用户传感器数据具体包括:
(1)采集用户数据的可穿戴传感器***,为惯性测量单元(Inertial MeasurementUnit,IMU),IMU可测量日常动作中三轴加速度、三轴角速度,通过蓝牙连接IMU与PC,实现数据的无线实时传输,采样频率设置为20Hz。
(2)两个传感器分别放置在腕部及腰部,腕部佩戴位置为右手桡骨接近腕骨处,腰部佩戴位置为髋骨前侧正中处位置。
(3)动作类别。动作划分为跌倒及日常动作,日常动作包含坐、站、躺、慢跑、快跑、上下楼梯等基本动作,以及接打电话、蹲下等日常活动。
进一步,所述步骤二中对采集的传感器数据进行数值归一化处理具体包括:
信号数值归一化,将所有数据映射到0~1范围。采用线性函数归一化方法,转换函数如下:
其中max为样本数据的最大值,min为样本数据的最小值。x是原始的传感器信号数据,x*是归一化后的结果。
进一步,所述步骤三中采用基于时序多模态学习的CorrRNN模型对采集的传感器数据分类具体包括:
(1)输入数据,采集N位测试人员跌倒及日常动作数据作为训练样本,样本集记为T((X1,Y1,X2,Y2,c)1,…,(X1,Y1,X2,Y2,c)N),其中X1,Y1,X2,Y2分别代表两个可穿戴传感器收集的数据,X1表示腰部传感器收集的加速度数据,Y1表示腰部传感器收集的螺旋仪数据;X2表示腕部传感器收集的加速度数据,Y2表示腕部传感器收集的螺旋仪数据,c表示动作分类。
把腰部和腕部收集的数据,分别输入模型进行训练,最后两个分类器组合最终进行分类。后续步骤中,以腰部数据作为输入,腕部及腰部传感器数据采用的方法相同。由此后续步骤将X1,Y1简写为x,y。
将两种数据(加速度数据、螺旋仪数据)表示为长度T的序列。
Figure BDA0002197714580000101
Figure BDA0002197714580000103
表示X模态在时序t的m维特征。为了简单起见,后续省略了上标符m和n。
(2)时序多模态学习
在t时融合两种模态,扩展表示为
Figure BDA0002197714580000104
l是历史时序范围。给定多模态数据序列对训练一个特征学习模型M,学习多维联合表示
Figure BDA0002197714580000107
(3)CorrRNN模型结构
模型实现了编码器-解码器工作,实现序列到序列学习,并以无监督的方式学习序列表示。模型包括两个重新生成的神经网络:多模态编码器和多模态解码器,模型流程图如图3所示。多模态编码器将两个输入序列映射到公共空间。多模态解码器从编码器获得的联合表示重构两个输入序列。编码器和解码器都是双层网络。多模态输入在被送到称为融合层的公共层之前,首先映射到单独的隐藏层。类似地,在重构多模态输入之前,首先对联合表示进行解码以分离隐藏层。
使用一对多模态输入训练模型,在最后一步编码器中的融合层的激活被输出作为序列特征表示。根据模型输入可以获得两种类型的特征表示:如果两个输入模态都存在,获得它们的联合表示;如果仅存在一种形式,将获得“增强的”单模态表示。
(4)多模态编码器
多模态编码器将输入模态序列融合成公共表示,使得一个连贯的输入被给予更大的重要性,并且输入之间的相关性被最大化。因此,多模态编码器在每一时间使用三个主要模块。
动态加权模块(DW):通过评估输入信号与最近历史记录的一致性,动态地对两种模态的信号进行加权。
GRU模块(GRU):融合输入模态以生成融合表示。该模块还使用重置和更新门捕获序列的时序结构。
相关模块(Corr):将GRU模块生成的中间状态作为输入,以计算基于相关性的损失。
其中动态加权模块根据其随时序的一致性评估,在给定时序步长为每个模态输入分配权重。分配给输入模态的动态权重基于当前输入与前一时序步骤的融合数据,表示之间的一致性。使用双线性函数来评估两种模态的一致性得分
Figure BDA0002197714580000111
Figure BDA0002197714580000112
即:
Figure BDA0002197714580000113
这里
Figure BDA0002197714580000114
是在模块训练过程中学到的参数。这两种模态的权重是通过使用Laplace平滑对分数进行归一化来获得的:
Figure BDA0002197714580000115
GRU模块包含不同的门单元,用于调制模块内的信息流。GRU模块在时序步t处将xt和yt作为输入并且跟踪三个量,即融合表示
Figure BDA0002197714580000116
和模态特定表示
Figure BDA0002197714580000117
融合表示
Figure BDA0002197714580000118
构成历史多模态输入的单个表示。模态特定表示
Figure BDA0002197714580000119
被认为是维持模态输入的投影,计算它们的相关性的度量。该模块中的计算可以正式表达如下:
Figure BDA00021977145800001110
Figure BDA00021977145800001111
Figure BDA0002197714580000122
Figure BDA0002197714580000124
Figure BDA0002197714580000125
Figure BDA0002197714580000126
其中σ是逻辑S形函数,
Figure BDA00021977145800001215
是双曲线正切函数,r和z是复位和更新门的输入,h和
Figure BDA0002197714580000127
分别代表标准GRU的激活和候选激活,b是神经元的偏置;Ur为输出层第r个神经元的输入。
模型对不同的输入X和Y使用单独的权重,使得模型可以捕获模态关系和每种模态的特定方面。
Correlation模块计算从GRU模块获得的模态输入的投影之间的相关性。形式上,在时序t给定两个模态
Figure BDA0002197714580000129
Figure BDA00021977145800001210
的N个映射,相关性计算如下:
Figure BDA00021977145800001211
其中,
Figure BDA00021977145800001212
将基于相关的损失函数表示为
Figure BDA00021977145800001213
通过这一函数使两种模态之间的相关性最大化。
(5)多模态解码器
多模态解码器从多模态编码器计算的联合表示同时重构各个模态输入序列x和y。通过最小化训练时的重构损失,得到的联合表示从两种模态中保留尽可能多的信息。为了共享模态中的信息,在多模态解码器中引入了两个额外的重构损失项:交叉重构和自我重构。有利于联合表示,而且在仅存在其中一种模态的情况下也可以改善模型的性能。最终,多模解码器包括三个重构损失:
融合重构损失,从联合表示重构的误差:
Figure BDA0002197714580000132
自我重构损失,从
Figure BDA0002197714580000133
中重构
Figure BDA0002197714580000134
Figure BDA0002197714580000135
中重构
Figure BDA0002197714580000136
误差:
交叉重构损失,从中重构
Figure BDA0002197714580000139
Figure BDA00021977145800001310
中重构
Figure BDA00021977145800001311
误差:
Figure BDA00021977145800001312
其中β是用于平衡两个输入模态的损失函数值的相对比例的超参数,而f,g分别表示由多模态编码器和解码器实现的特征映射。因此,用于训练模型的目标函数可以表示为:
Figure BDA00021977145800001313
其中λ是用于缩放相关损失项的贡献的超参数,N是训练阶段使用的小批量大小。因此,目标函数结合了由解码器计算的不同形式的重构损失,其中相关损失作为编码处理的一部分被计算。使用具有自适应学习速率的随机梯度下降算法来优化上述目标函数。
(6)对收集的传感器数据进行分类
通过计算LSTM(DCL)网络的最后一个卷积层(第5层)的输出来获得传感器特征,从获取的归一化后的数据提取特征。根据提取的特征,使用滑动窗口,从持续时序进行采样。这些活动序列用于训练CorrRNN模型,使用随机梯度下降,训练跌倒检测模型。
进一步,所述步骤四中通过腰部及腕部传感器收集数据分别构建分类器,并对分类结果加权组合得到跌倒类别判断结果具体包括:
分别构建腰部和腕部位置的分类器,通过两个分类器进行加权组合,以两个分类器单独的分类精度,腰部分类精度为O1,腕部分类精度为O2,腰部分类器的权重为O1/(O1+O2),腕部分类器的权重为O2/(O1+O2),将两个分类器加权组合形成最终分类器进行跌倒检测。
本发明提出了一种基于腰部和腕部传感器组合的跌倒检测方法,利用两个部位的传感器组合,其中腕部判断人体细节运动,腰部判断人体躯干动作,将两者结合进行跌倒检测,更有效的检测人体全身运动。分类器采用了CorrRNN模型,该模型学习模态联合表示和模态之间的时间依赖性,能够动态地权衡不同的输入模态,以便能够强调更有用的信号,在传感器中同样适用。通过加权的方式将两个部位分类器组合,以提供更高的检测精度,以及适应更多的人体活动环境。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于可移动传感器组合设备的人体跌倒检测方法,其特征在于,所述基于可移动传感器组合设备的人体跌倒检测方法包括:
步骤一,基于可穿戴传感器***采集人体用户传感器数据;
步骤二,对采集的传感器数据进行数值归一化处理;
步骤三,采用基于时序多模态学习的CorrRNN模型对采集的传感器数据分类;
步骤四,通过腰部及腕部传感器收集数据分别构建分类器,并对分类结果加权组合得到跌倒类别判断结果。
2.如权利要求1所述的基于可移动传感器组合设备的人体跌倒检测方法,其特征在于,所述步骤一中基于可穿戴传感器***采集人体用户传感器数据具体包括:
(1)采集用户数据的可穿戴传感器***,为惯性测量单元IMU,IMU测量日常动作中三轴加速度、三轴角速度,通过蓝牙连接IMU与PC,实现数据的无线实时传输,采样频率设置为20Hz;
(2)两个传感器分别放置在腕部及腰部,腕部佩戴位置为右手桡骨接近腕骨处,腰部佩戴位置为髋骨前侧正中处位置;
(3)动作类别:动作划分为跌倒及日常动作,日常动作包含坐、站、躺、慢跑、快跑、上下楼梯的基本动作,以及接打电话、蹲下的日常活动。
3.如权利要求1所述的基于可移动传感器组合设备的人体跌倒检测方法,其特征在于,所述步骤二中对采集的传感器数据进行数值归一化处理具体包括:
信号数值归一化,将所有数据映射到0~1范围;采用线性函数归一化方法,转换函数如下:
Figure FDA0002197714570000011
其中max为样本数据的最大值,min为样本数据的最小值;x是原始的传感器信号数据,x*是归一化后的结果。
4.如权利要求1所述的基于可移动传感器组合设备的人体跌倒检测方法,其特征在于,所述步骤三中采用基于时序多模态学习的CorrRNN模型对采集的传感器数据分类具体包括:
(1)输入数据,采集N位测试人员跌倒及日常动作数据作为训练样本,样本集记为T((X1,Y1,X2,Y2,c)1...,(X1,Y1,X2,Y2,c)N),其中X1,Y1,X2,Y2分别代表两个可穿戴传感器收集的数据,X1表示腰部传感器收集的加速度数据,Y1表示腰部传感器收集的螺旋仪数据;X2表示腕部传感器收集的加速度数据,Y2表示腕部传感器收集的螺旋仪数据,c表示动作分类;
把腰部和腕部收集的数据,分别输入模型进行训练,最后两个分类器组合最终进行分类;后续步骤中,以腰部数据作为输入,腕部及腰部传感器数据采用的方法相同;由此后续步骤将X1,Y1简写为x,y;
将加速度数据、螺旋仪数据表示为长度T的序列;
Figure FDA0002197714570000021
Figure FDA0002197714570000023
表示X模态在时序t的m维特征;
(2)时序多模态学习
在t时融合两种模态,扩展表示为
Figure FDA0002197714570000024
l是历史时序范围;给定多模态数据序列对
Figure FDA0002197714570000026
训练一个特征学习模型M,学习多维联合表示
Figure FDA0002197714570000027
(3)CorrRNN模型结构
包括两个重新生成的神经网络:多模态编码器和多模态解码器;
多模态编码器将两个输入序列映射到公共空间;多模态解码器从编码器获得的联合表示重构两个输入序列;编码器和解码器都是双层网络;
多模态输入在被送到称为融合层的公共层之前,首先映射到单独的隐藏层;在重构多模态输入之前,首先对联合表示进行解码以分离隐藏层;
使用一对多模态输入训练模型,在最后一步编码器中的融合层的激活被输出作为序列特征表示;根据模型输入可以获得两种类型的特征表示:如果两个输入模态都存在,获得它们的联合表示;如果仅存在一种形式,将获得“增强的”单模态表示;
(4)多模态编码器
多模态编码器将输入模态序列融合成公共表示,多模态编码器在每一时间使用三个主要模块;
动态加权模块DW:通过评估输入信号与最近历史记录的一致性,动态地对两种模态的信号进行加权;
GRU模块GRU:融合输入模态以生成融合表示;该模块还使用重置和更新门捕获序列的时序结构;
相关模块Corr:将GRU模块生成的中间状态作为输入,以计算基于相关性的损失;
其中动态加权模块根据其随时序的一致性评估,在给定时序步长为每个模态输入分配权重;分配给输入模态的动态权重基于当前输入与前一时序步骤的融合数据,表示之间的一致性;使用双线性函数来评估两种模态的一致性得分
Figure FDA00021977145700000313
Figure FDA0002197714570000031
Figure FDA0002197714570000032
Figure FDA0002197714570000033
是在模块训练过程中学到的参数;这两种模态的权重是通过使用Laplace平滑对分数进行归一化获得的:
Figure FDA0002197714570000034
GRU模块包含不同的门单元,用于调制模块内的信息流;GRU模块在时序t处将xt和yt作为输入并且跟踪三个量,即融合表示
Figure FDA0002197714570000035
和模态特定表示
Figure FDA0002197714570000036
融合表示
Figure FDA0002197714570000037
构成历史多模态输入的单个表示;模态特定表示
Figure FDA0002197714570000038
被认为是维持模态输入的投影,计算它们的相关性的度量;该模块中的计算表达如下:
Figure FDA0002197714570000039
Figure FDA00021977145700000310
Figure FDA00021977145700000311
Figure FDA00021977145700000312
Figure FDA0002197714570000041
Figure FDA0002197714570000042
Figure FDA0002197714570000043
Figure FDA0002197714570000044
其中σ是逻辑S形函数,
Figure FDA0002197714570000045
是双曲线正切函数,r和z是复位和更新门的输入,h和分别代表标准GRU的激活和候选激活;b是神经元的偏置;Ur为输出层第r个神经元的输入;
模型对不同的输入X和Y使用单独的权重,使得模型捕获模态关系和每种模态的特定方面;
Correlation模块计算从GRU模块获得的模态输入
Figure FDA0002197714570000047
的投影之间的相关性;形式上,在时序t给定两个模态
Figure FDA0002197714570000049
的N个映射,相关性计算如下:
Figure FDA00021977145700000410
其中;
Figure FDA00021977145700000411
将基于相关的损失函数表示为
Figure FDA00021977145700000412
通过这一函数使两种模态之间的相关性最大化;
(5)多模态解码器
多模态解码器从多模态编码器计算的联合表示
Figure FDA00021977145700000413
同时重构各个模态输入序列x和y;通过最小化训练时的重构损失,得到的联合表示从两种模态中保留尽可能多的信息;在多模态解码器中引入两个额外的重构损失项:交叉重构和自我重构;最终,多模解码器包括三个重构损失:
融合重构损失,从联合表示
Figure FDA00021977145700000414
重构的误差:
Figure FDA00021977145700000415
自我重构损失,从
Figure FDA00021977145700000416
中重构
Figure FDA00021977145700000417
Figure FDA00021977145700000418
中重构
Figure FDA00021977145700000419
误差:
Figure FDA0002197714570000051
交叉重构损失,从
Figure FDA0002197714570000052
中重构
Figure FDA0002197714570000053
Figure FDA0002197714570000054
中重构误差:
其中β是用于平衡两个输入模态的损失函数值的相对比例的超参数,而f,g分别表示由多模态编码器和解码器实现的特征映射;用于训练模型的目标函数表示为:
Figure FDA0002197714570000057
其中λ是用于缩放相关损失项的贡献的超参数,N是训练阶段使用的小批量数据的大小;目标函数结合由解码器计算的不同形式的重构损失,其中相关损失作为编码处理的一部分被计算;使用具有自适应学习速率的随机梯度下降算法来优化上述目标函数;
(6)对收集的传感器数据进行分类
通过计算LSTM网络的最后一个卷积层的输出获得传感器特征,从获取的归一化后的数据提取特征;根据提取的特征,使用滑动窗口,从持续时序进行采样;运动序列用于训练CorrRNN模型,使用随机梯度下降,训练跌倒检测模型。
5.如权利要求1所述的基于可移动传感器组合设备的人体跌倒检测方法,其特征在于,所述步骤四中通过腰部及腕部传感器收集数据分别构建分类器,并对分类结果加权组合得到跌倒类别判断结果具体包括:
分别构建腰部和腕部位置的分类器,通过两个分类器进行加权组合,以两个分类器单独的分类精度,腰部分类精度为O1,腕部分类精度为O2,腰部分类器的权重为O1/(O1+O2),腕部分类器的权重为O2/(O1+O2),将两个分类器加权组合形成最终分类器进行跌倒检测。
6.一种应用权利要求1~5任意一项所述基于可移动传感器组合设备的人体跌倒检测方法的可穿戴传感器。
7.一种应用权利要求1~5任意一项所述基于可移动传感器组合设备的人体跌倒检测方法的电子信息检测***。
CN201910853810.4A 2019-09-10 2019-09-10 一种基于可移动传感器组合设备的人体跌倒检测方法 Pending CN110659677A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910853810.4A CN110659677A (zh) 2019-09-10 2019-09-10 一种基于可移动传感器组合设备的人体跌倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910853810.4A CN110659677A (zh) 2019-09-10 2019-09-10 一种基于可移动传感器组合设备的人体跌倒检测方法

Publications (1)

Publication Number Publication Date
CN110659677A true CN110659677A (zh) 2020-01-07

Family

ID=69036903

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910853810.4A Pending CN110659677A (zh) 2019-09-10 2019-09-10 一种基于可移动传感器组合设备的人体跌倒检测方法

Country Status (1)

Country Link
CN (1) CN110659677A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111681389A (zh) * 2020-06-12 2020-09-18 电子科技大学 一种基于盲源分离的老年人跌倒行为检测方法
CN111931568A (zh) * 2020-06-30 2020-11-13 青岛科技大学 一种基于增强式学习的人体跌倒检测方法及***
CN112998697A (zh) * 2021-02-22 2021-06-22 电子科技大学 一种基于骨架数据的跌倒伤害程度预测方法、***及终端
CN113286309A (zh) * 2021-05-18 2021-08-20 合肥工业大学 基于csi的异构通信方法及***
WO2021212883A1 (zh) * 2020-04-20 2021-10-28 电子科技大学 一种基于智能移动终端的跌倒检测方法
CN115731602A (zh) * 2021-08-24 2023-03-03 中国科学院深圳先进技术研究院 基于拓扑表征的人体活动识别方法、装置、设备、存储介质
CN117173795A (zh) * 2023-11-03 2023-12-05 赋之科技(深圳)有限公司 一种危险动作检测方法及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106539587A (zh) * 2016-12-08 2017-03-29 浙江大学 一种基于多运动传感器的跌倒风险评估以及监测***及评估方法
CN106887115A (zh) * 2017-01-20 2017-06-23 安徽大学 一种老人跌倒监测装置及跌倒风险评估方法
US20170220854A1 (en) * 2016-01-29 2017-08-03 Conduent Business Services, Llc Temporal fusion of multimodal data from multiple data acquisition systems to automatically recognize and classify an action
CN109171738A (zh) * 2018-07-13 2019-01-11 杭州电子科技大学 基于人体加速度多特征融合和knn的跌倒检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170220854A1 (en) * 2016-01-29 2017-08-03 Conduent Business Services, Llc Temporal fusion of multimodal data from multiple data acquisition systems to automatically recognize and classify an action
CN106539587A (zh) * 2016-12-08 2017-03-29 浙江大学 一种基于多运动传感器的跌倒风险评估以及监测***及评估方法
CN106887115A (zh) * 2017-01-20 2017-06-23 安徽大学 一种老人跌倒监测装置及跌倒风险评估方法
CN109171738A (zh) * 2018-07-13 2019-01-11 杭州电子科技大学 基于人体加速度多特征融合和knn的跌倒检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XITONG YANG等: "Deep Multimodal Representation Learning from Temporal Data", 《IEEE CVPR》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021212883A1 (zh) * 2020-04-20 2021-10-28 电子科技大学 一种基于智能移动终端的跌倒检测方法
CN111681389A (zh) * 2020-06-12 2020-09-18 电子科技大学 一种基于盲源分离的老年人跌倒行为检测方法
CN111681389B (zh) * 2020-06-12 2021-02-26 电子科技大学 一种基于盲源分离的老年人跌倒行为检测方法
CN111931568A (zh) * 2020-06-30 2020-11-13 青岛科技大学 一种基于增强式学习的人体跌倒检测方法及***
CN112998697A (zh) * 2021-02-22 2021-06-22 电子科技大学 一种基于骨架数据的跌倒伤害程度预测方法、***及终端
CN112998697B (zh) * 2021-02-22 2022-06-14 电子科技大学 一种基于骨架数据的跌倒伤害程度预测方法、***及终端
CN113286309A (zh) * 2021-05-18 2021-08-20 合肥工业大学 基于csi的异构通信方法及***
CN115731602A (zh) * 2021-08-24 2023-03-03 中国科学院深圳先进技术研究院 基于拓扑表征的人体活动识别方法、装置、设备、存储介质
CN117173795A (zh) * 2023-11-03 2023-12-05 赋之科技(深圳)有限公司 一种危险动作检测方法及终端
CN117173795B (zh) * 2023-11-03 2024-02-23 赋之科技(深圳)有限公司 一种危险动作检测方法及终端

Similar Documents

Publication Publication Date Title
CN110659677A (zh) 一种基于可移动传感器组合设备的人体跌倒检测方法
Zhu et al. Using deep learning for energy expenditure estimation with wearable sensors
Gil-Martín et al. Improving physical activity recognition using a new deep learning architecture and post-processing techniques
Atallah et al. Sensor placement for activity detection using wearable accelerometers
CN110236550B (zh) 一种基于多模态深度学习的人体步态预测装置
CN104598880A (zh) 一种基于模糊支持向量机的行为识别方法
Sikder et al. Log-sum distance measures and its application to human-activity monitoring and recognition using data from motion sensors
Khodabandelou et al. Attention-based gated recurrent unit for gesture recognition
CN111274998A (zh) 帕金森病手指敲击动作识别方法及***、存储介质及终端
CN113171080B (zh) 一种基于可穿戴传感信息融合的能量代谢评估方法和***
Kelly et al. Automatic prediction of health status using smartphone-derived behavior profiles
Malshika Welhenge et al. Human activity classification using long short-term memory network
CN110414590A (zh) 基于智能移动设备和卷积神经网络的人体活动识别方法
Padmaja et al. A novel random split point procedure using extremely randomized (Extra) trees ensemble method for human activity recognition
Chuang et al. A wearable activity sensor system and its physical activity classification scheme
Liu et al. Deep-learning-based signal enhancement of low-resolution accelerometer for fall detection systems
Zhen et al. Hybrid Deep‐Learning Framework Based on Gaussian Fusion of Multiple Spatiotemporal Networks for Walking Gait Phase Recognition
Tarekegn et al. Enhancing human activity recognition through sensor fusion and hybrid deep learning model
CN113780223A (zh) 假肢的步态识别方法、装置及存储介质
Kabir et al. Secure Your Steps: A Class-Based Ensemble Framework for Real-Time Fall Detection Using Deep Neural Networks
CN110598789A (zh) 一种基于模糊感知器的人体疲劳状态预测方法及***
CN114521900B (zh) 一种基于迁移学习心律失常分类识别的方法
CN115554674A (zh) 一种运动能耗预测方法及装置
Peng et al. Experimental analysis of artificial neural networks performance for accessing physical activity recognition in daily life
Sowmiya et al. A hybrid approach using bidirectional neural networks for human activity recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200107

RJ01 Rejection of invention patent application after publication