CN114913585A - 融合面部表情的居家老人摔倒检测方法 - Google Patents
融合面部表情的居家老人摔倒检测方法 Download PDFInfo
- Publication number
- CN114913585A CN114913585A CN202210555311.9A CN202210555311A CN114913585A CN 114913585 A CN114913585 A CN 114913585A CN 202210555311 A CN202210555311 A CN 202210555311A CN 114913585 A CN114913585 A CN 114913585A
- Authority
- CN
- China
- Prior art keywords
- displacement
- facial expression
- head
- feature
- time sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及老人摔倒检测技术领域,且公开了融合面部表情的居家老人摔倒检测方法,包括以下步骤:1)收集监控视频数据集;2)提取视频中的前景人体目标;3)获取人体头部骨骼点坐标并提取人体头部骨骼点的位移时序特征,同时获取监控视频中人体的面部图像;4)将头部骨骼点的位移时序特征与面部图像分别输入位移时序特征注意力模块与面部表情识别模块;5)获取特征权重,对两个神经网络模块的输出张量特征采用自适应加权特征融合方式进行融合;6)融合后的特征经过分类器进行判断是否为摔倒。该融合面部表情的居家老人摔倒检测方法,通过将面部表情特征与头部骨骼点的位移特征自适应加权特征融合,提高了检测的准确性。
Description
技术领域
本发明涉及老人摔倒检测技术领域,具体为一种融合面部表情的居家老人摔倒检测方法。
背景技术
日常生活中,导致人体摔倒的原因主要有两种,一种是因腿脚不方便被绊倒或滑到,另一种是因疾病引起的摔倒,摔倒时如果没有得到及时的救助,往往会导致伤情加重,甚至付出生命代价,因此,对于人体的摔倒进行检测显得尤为重要。
目前,针对老年人摔倒检测多基于人体动作的特征,常见的人体摔倒检测技术可分为三类,包括基于穿戴式,基于环境传感器以及基于视频,例如中国专利CN 109584506 A公开了一种基于云平台居家老人摔倒监测***及方法,该专利通过利用嵌入式、云平台技术构造出一个智能居家老人摔倒监测***,从而为广大老人的居家养老服务,采用可穿戴式检测摔倒设备,成本低,私密性高,但是这些方法需穿戴传感器,舒适性较差,或者容易受周围环境的偶然性与不确定性影响,并且有时会因老人下蹲以及其他一些行为而产生误判,故而,提出一种融合面部表情的居家老人摔倒检测方法来解决上述问题。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了融合面部表情的居家老人摔倒检测方法,可及时监测居家老年人摔倒的异常行为,给予老年人及时的救助,尽可能的减少因摔倒对老年人造成的伤害。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:融合面部表情的居家老人摔倒检测方法,包括以下步骤:
1)收集监控视频数据集;
2)提取视频中的前景人体目标;
3)采用OpenPose算法获取人体头部骨骼点坐标并提取人体头部骨骼点的位移时序特征,利用OpenCV自带的Haar特征人脸检测器,获取监控视频中人体的面部图像;
4)将头部骨骼点的位移时序特征与面部图像分别输入位移时序特征注意力模块与面部表情识别模块,分别得到包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征;
5)获取特征权重,对两个神经网络模块的输出张量特征采用自适应加权的特征融合方式进行融合;
6)融合后的特征经过由全连接层与Sigmoid激活函数组成的分类器进行判断是否为摔倒。
优选的,所述步骤2)采用ViBe方法提取前景人体目标,为后续的头部骨骼点位移检测与面部表情检测做准备。
优选的,所述步骤3)首先通过OpenPose算法采集得到头部骨骼点的坐标,计算前后相邻两帧头部骨骼点的位移量,将视频中头部骨骼点的坐标逐帧计算位移量,组合成一个头部骨骼点位移序列,同时利用OpenCV自带的Haar特征人脸检测器,获取监控视频中人体的面部图像,将得到的头部骨骼点的位移时序特征送入位移时序特征注意力模块,获取的面部图像送入由卷积神经网络(CNN)为主干网络,并在相邻网络层之间引入通道注意力网络(SENet)构建的面部表情识别模块,将两个模块的输出特征进行自适应加权特征融合后送入分类器进行判断是否为摔倒。
所述计算头部骨骼点的位移时序特征的具体步骤如下:
a.假设t时刻头部骨骼点的坐标为(xt,yt),t+1时刻的头部骨骼点坐标为(xt+1,yt+1),d代表t时刻与t+1时刻时间跨度内头部骨骼点的位移量,计算公式为:
b.计算由连续时刻构成序列长度为T的头部骨骼点的位移时序特征Q:
Q={dpp=1,2…T}
其中,dp为p时刻与p+1时刻时间跨度内头部骨骼点的位移量。
所述利用OpenCV自带的Haar特征人脸检测器进行人脸检测,获取监控视频中人体的面部图像,输入面部表情识别模块。
优选的,所述步骤4)将步骤3)获取的头部骨骼点的位移时序特征送入位移时序特征注意力模块,获取的面部图像送入由卷积神经网络(CNN)为主干网络,并在相邻网络层之间引入通道注意力网络(SENet)构建的人脸表情识别模块,通道注意力网络(SENet)是将特征通道采用“特征重标定”的思想来进行融合,将通道注意力网络(SENet)加入到卷积神经网络(CNN)的卷积层与池化层之间,通过上述两个模块分别检测出包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征。
优选的,所述步骤5)先将步骤4)得到的包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征通过权重获取模块计算得到各自的特征权重,将获取权重后的第一输出张量特征与第二输出张量特征进行维度上的加权融合,使融合后的特征具有更强的表达能力,能够更加准确的进行判断是否为摔倒,自适应加权特征融合方法表示为:
G=ωF+(1-ω)M
其中,G表示融合特征,ω表示权重系数,F表示包含面部表情信息的第二输出张量特征,M表示包含位移关键帧信息的第一输出张量特征。
优选的,所述步骤6)采用分类器判断是否为摔倒,其中,若仅依靠头部骨骼点的位移来判断是否为摔倒,可能会因下蹲或坐下等动作产生误差,在头部骨骼点位移的基础上通过自适应加权融合的方法融入面部表情特征,当头部骨骼点的位移量过大且面部表情为痛苦时,输出为摔倒的概率大,反之,输出为非摔倒的概率大,二分类交叉熵损失函数L为:
(三)有益效果
与现有技术相比,本发明提供了融合面部表情的居家老人摔倒检测方法,具备以下有益效果:
该融合面部表情的居家老人摔倒检测方法,通过采用自适应加权特征融合的方式将人体的面部表情特征与头部骨骼点的位移特征进行融合,能够针对不同的情况为面部表情特征与头部骨骼点位移特征分配不同的权重进行融合,进而做出更加准确的判断;将卷积神经网络(CNN)与通道注意力网络(SENet)结合构建面部表情识别模块,能够获取图像中更多的特征,提高检测的准确性。
附图说明
图1为本发明的流程图;
图2为本发明的神经网络模型结构图。
具体实施方式
下面将结合本发明的实施例和附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
人体在摔倒过程中,骨骼点的位移量会发生变化,因此本发明选取头部骨骼点为感兴趣点,将头部骨骼点的位移量作为是否为摔倒的判断条件之一,同时,面部表情是人类表达情感和意图最为有效的方式之一,人体在摔倒时会表现出痛苦的表情,因此将面部表情作为是否为摔倒的另一个判断条件,通过获取人体头部骨骼点位移变化与面部表情两种特征,自适应加权融合后送入分类器进行分类,可进一步提高检测的准确率。
本发明提供一种融合人体面部表情特征的摔倒检测方法,通过老年人面部表情特征与骨骼点的位移特征判断是否为摔倒,本发明共分为两个阶段,分别是训练阶段与测试阶段,在训练阶段训练好神经网络与分类器,在测试阶段随机输入一段老年人居家活动的监控视频数据,判断是否有摔倒现象,其中,训练阶段具体如下。
请参阅图1-2,融合面部表情的居家老人摔倒检测方法,包括以下步骤:
1)收集监控视频数据集;
2)提取视频中的前景人体目标;
3)采用OpenPose算法获取人体头部骨骼点坐标并提取人体头部骨骼点的位移时序特征,利用OpenCV自带的Haar特征人脸检测器,获取监控视频中人体的面部图像;
4)将头部骨骼点的位移时序特征与面部图像分别输入位移时序特征注意力模块与面部表情识别模块,分别得到包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征;
5)获取特征权重,对两个神经网络模块的输出张量特征采用自适应加权的特征融合方式进行融合;
6)融合后的特征经过由全连接层与Sigmoid激活函数组成的分类器进行判断是否为摔倒。
其中,步骤2)采用ViBe方法提取前景人体目标,为后续的头部骨骼点位移检测与面部表情检测做准备。
步骤3)首先通过OpenPose算法采集得到头部骨骼点的坐标,计算前后相邻两帧头部骨骼点的位移量,将视频中头部骨骼点的坐标逐帧计算位移量,组合成一个头部骨骼点位移序列,同时利用OpenCV自带的Haar特征人脸检测器,获取监控视频中人体的面部图像,将得到的头部骨骼点的位移时序特征送入位移时序特征注意力模块,获取的面部图像送入由卷积神经网络(CNN)为主干网络,并在相邻网络层之间引入通道注意力网络(SENet)构建的面部表情识别模块,将两个模块的输出特征进行自适应加权特征融合后送入分类器进行判断是否为摔倒。
需要说明的是,计算头部骨骼点的位移时序特征的具体步骤如下:
a.假设t时刻头部骨骼点的坐标为(xt,yt),t+1时刻的头部骨骼点坐标为(xt+1,yt+1),d代表t时刻与t+1时刻时间跨度内头部骨骼点的位移量,计算公式为:
b.计算由连续时刻构成序列长度为T的头部骨骼点的位移时序特征Q:
Q={dpp=1,2…T}
其中,dp为p时刻与p+1时刻时间跨度内头部骨骼点的位移量。
经过上述步骤可以得到头部骨骼点的位移时序特征,利用OpenCV自带的Haar特征人脸检测器进行人脸检测,获取监控视频中人体的面部图像。
步骤4)将步骤3)获取的头部骨骼点的位移时序特征送入位移时序特征注意力模块,获取的面部图像送入由卷积神经网络(CNN)为主干网络,并在相邻网络层之间引入通道注意力网络(SENet)构建的人脸表情识别模块,通道注意力网络(SENet)是将特征通道采用“特征重标定”的思想来进行融合,将通道注意力网络(SENet)加入到卷积神经网络(CNN)的卷积层与池化层之间,不仅能够提高感受野,还可以使网络自动学习到不同通道的重要程度,从而提高检测效率,通过上述两个模块分别检测出包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征,其中,位移时序特征注意力模块由LSTM层、时间注意力层、全连接层2以及ReLU层2组成,面部表情识别模块由Conv1、SENet1、池化层1、Conv2、SENet2、池化层2、全连接层1以及ReLU层1组成。
步骤5)先将步骤4)得到的包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征通过权重获取模块计算得到各自的特征权重,权重获取模块由Conv3、BN层1、Relu层3、Conv4以及BN层2组成,需要对不同的表情设置不同的权重来进行融合,融合权重的确定是加权融合方法的关键,当面部表情为痛苦时,权重系数大,当面部表情为愉快时,权重系数小,第一输出张量特征与第二输出张量特征的权重系数之和为1,得到包含面部表情信息的第二输出张量特征的权重系数之后,便可得到包含位移关键帧信息的第一输出张量特征的权重系数,将获取权重后的第一输出张量特征与第二输出张量特征进行维度上的加权融合,使融合后的特征具有更强的表达能力,能够更加准确的进行判断是否为摔倒,自适应加权特征融合方法表示为:
G=ωF+(1-ω)M
其中,G表示融合特征,ω表示权重系数,F表示包含面部表情信息的第二输出张量特征,M表示包含位移关键帧信息的第一输出张量特征。
步骤6)通过采用分类器判断是否为摔倒,其中,若仅依靠头部骨骼点的位移来判断是否为摔倒,可能会因下蹲或坐下等动作产生误差,在头部骨骼点位移的基础上通过自适应加权融合的方法融入面部表情特征,当头部骨骼点的位移量过大且面部表情为痛苦时,输出为摔倒的概率大,反之,输出为非摔倒的概率大,二分类交叉熵损失函数L为:
测试阶段具体如下:
在测试阶段,选取一段监控视频,首先提取视频中的前景人体目标,通过OpenPose算法获取头部骨骼点的坐标,计算得到头部骨骼点的位移时序特征,同时利用OpenCV自带的Haar特征人脸检测器,获取监控视频中人体的面部图像,将头部骨骼点的位移时序特征送入训练好的时序特征注意力模块,将面部图像送入训练好的人脸表情识别模块后的输出送入权重获取模块,通过自适应加权特征融合的方法将两种输出张量特征融合,并送入分类器进行分类,输出摔倒与非摔倒的概率,概率高的为判断结果。
本发明的有益效果是:
该融合面部表情的居家老人摔倒检测方法,通过采用自适应加权特征融合的方式将人体的面部表情特征与头部骨骼点的位移特征进行融合,能够针对不同的情况为面部表情特征与头部骨骼点位移特征分配不同的权重进行融合,进而做出更加准确的判断;将卷积神经网络(CNN)与通道注意力网络(SENet)结合构建面部表情识别模块,能够获取图像中更多的特征,提高检测的准确性。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (6)
1.融合面部表情的居家老人摔倒检测方法,其特征在于,包括以下步骤:
1)收集监控视频数据集;
2)提取视频中的前景人体目标;
3)采用OpenPose算法获取人体头部骨骼点坐标并提取人体头部骨骼点的位移时序特征,利用OpenCV自带的Haar特征人脸检测器,获取监控视频中人体的面部图像;
4)将头部骨骼点的位移时序特征与面部图像分别输入位移时序特征注意力模块与面部表情识别模块,分别得到包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征;
5)获取特征权重,对两个神经网络模块的输出张量特征采用自适应加权的特征融合方式进行融合;
6)融合后的特征经过由全连接层与Sigmoid激活函数组成的分类器进行判断是否为摔倒。
2.根据权利要求1所述的融合面部表情的居家老人摔倒检测方法,其特征在于,所述步骤2)采用ViBe方法提取前景人体目标,为后续的头部骨骼点位移检测与面部表情检测做准备。
3.根据权利要求1所述的融合面部表情的居家老人摔倒检测方法,其特征在于,所述步骤3)首先通过OpenPose算法采集得到头部骨骼点的坐标,计算前后相邻两帧头部骨骼点的位移量,将视频中头部骨骼点的坐标逐帧计算位移量,组合成一个头部骨骼点位移序列,同时利用OpenCV自带的Haar特征人脸检测器,获取监控视频中人体的面部图像,将得到的头部骨骼点的位移时序特征送入位移时序特征注意力模块,获取的面部图像送入由卷积神经网络(CNN)为主干网络,并在相邻网络层之间引入通道注意力网络(SENet)构建的面部表情识别模块,将两个模块的输出特征进行自适应加权特征融合后送入分类器进行判断是否为摔倒。
所述计算头部骨骼点的位移时序特征的具体步骤如下:
a.假设t时刻头部骨骼点的坐标为(xt,yt),t+1时刻的头部骨骼点坐标为(xt+1,yt+1),d代表t时刻与t+1时刻时间跨度内头部骨骼点的位移量,计算公式为:
b.计算由连续时刻构成序列长度为T的头部骨骼点的位移时序特征Q:
Q={dp|p=1,2…T}
其中,dp为p时刻与p+1时刻时间跨度内头部骨骼点的位移量。
利用OpenCV自带的Haar特征人脸检测器进行人脸检测,获取监控视频中人体的面部图像,输入面部表情识别模块。
4.根据权利要求1所述的融合面部表情的居家老人摔倒检测方法,其特征在于,所述步骤4)将步骤3)获取的头部骨骼点的位移时序特征送入位移时序特征注意力模块,获取的面部图像送入由卷积神经网络(CNN)为主干网络,并在相邻网络层之间引入通道注意力网络(SENet)构建的人脸表情识别模块,通道注意力网络(SENet)是将特征通道采用“特征重标定”的思想来进行融合,将通道注意力网络(SENet)加入到卷积神经网络(CNN)的卷积层与池化层之间,通过上述两个模块分别检测出包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征。
5.根据权利要求1所述的融合面部表情的居家老人摔倒检测方法,其特征在于,所述步骤5)先将步骤4)得到的包含位移关键帧信息的第一输出张量特征与包含面部表情信息的第二输出张量特征通过权重获取模块计算得到各自的特征权重,将获取权重后的第一输出张量特征与第二输出张量特征进行维度上的加权融合,使融合后的特征具有更强的表达能力,能够更加准确的进行判断是否为摔倒,自适应加权特征融合方法表示为:
G=ωF+(1-ω)M
其中,G表示融合特征,ω表示权重系数,F表示包含面部表情信息的第二输出张量特征,M表示包含位移关键帧信息的第一输出张量特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210555311.9A CN114913585A (zh) | 2022-05-20 | 2022-05-20 | 融合面部表情的居家老人摔倒检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210555311.9A CN114913585A (zh) | 2022-05-20 | 2022-05-20 | 融合面部表情的居家老人摔倒检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114913585A true CN114913585A (zh) | 2022-08-16 |
Family
ID=82769603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210555311.9A Pending CN114913585A (zh) | 2022-05-20 | 2022-05-20 | 融合面部表情的居家老人摔倒检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114913585A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116580436A (zh) * | 2023-05-08 | 2023-08-11 | 长春理工大学 | 一种带有辅助分类器的轻量化卷积网络面部情绪识别方法 |
-
2022
- 2022-05-20 CN CN202210555311.9A patent/CN114913585A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116580436A (zh) * | 2023-05-08 | 2023-08-11 | 长春理工大学 | 一种带有辅助分类器的轻量化卷积网络面部情绪识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543526B (zh) | 基于深度差异性特征的真假面瘫识别*** | |
CN109166275B (zh) | 一种基于加速度传感器的人体跌倒检测方法 | |
CN101194273B (zh) | 时空自组织映射 | |
CN103268495B (zh) | 计算机***中基于先验知识聚类的人体行为建模识别方法 | |
CN110532850B (zh) | 一种基于视频关节点和混合分类器的跌倒检测方法 | |
CN103955699A (zh) | 一种基于监控视频的实时摔倒事件检测方法 | |
CN111488850B (zh) | 一种基于神经网络的老年人跌倒检测方法 | |
CN110287825A (zh) | 一种基于关键骨骼点轨迹分析的摔倒动作检测方法 | |
JP7185805B2 (ja) | 転倒リスク評価システム | |
CN104361321A (zh) | 一种判断老年人摔倒行为及身体平衡能力的方法 | |
CN104269025B (zh) | 面向户外摔倒监测的穿戴式单节点特征及位置选取方法 | |
CN112801000B (zh) | 一种基于多特征融合的居家老人摔倒检测方法及*** | |
CN112489368A (zh) | 智能跌倒识别与检测报警方法及*** | |
CN107609477A (zh) | 一种基于深度学习与智能手环相结合的摔倒检测方法 | |
CN108596087A (zh) | 一种基于双网络结果的驾驶疲劳程度检测回归模型 | |
CN112464793A (zh) | 一种在线***行为检测方法、***和存储介质 | |
CN114358194A (zh) | 基于姿态跟踪的孤独症谱系障碍异常肢体行为检测方法 | |
CN111403026A (zh) | 一种面瘫等级评估方法 | |
CN109101943A (zh) | 一种用于检测老人跌倒的机器视觉方法 | |
CN109567832A (zh) | 一种基于智能手环的检测愤怒驾驶状态的方法及*** | |
CN114913585A (zh) | 融合面部表情的居家老人摔倒检测方法 | |
CN117894078A (zh) | 一种基于ai视觉的宠物行为分析*** | |
CN113011399A (zh) | 基于生成协同判别网络的视频异常事件检测方法及*** | |
CN116386272A (zh) | 一种实时检测行人摔倒的预警*** | |
CN115147768B (zh) | 一种跌倒风险评估方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |