CN110991274B - 一种基于混合高斯模型和神经网络的行人摔倒检测方法 - Google Patents
一种基于混合高斯模型和神经网络的行人摔倒检测方法 Download PDFInfo
- Publication number
- CN110991274B CN110991274B CN201911130289.8A CN201911130289A CN110991274B CN 110991274 B CN110991274 B CN 110991274B CN 201911130289 A CN201911130289 A CN 201911130289A CN 110991274 B CN110991274 B CN 110991274B
- Authority
- CN
- China
- Prior art keywords
- skeleton
- image
- pedestrian
- frame
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 87
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 32
- 239000000203 mixture Substances 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 17
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 210000000988 bone and bone Anatomy 0.000 claims description 48
- 239000011159 matrix material Substances 0.000 claims description 48
- 238000010586 diagram Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 12
- 210000003423 ankle Anatomy 0.000 claims description 8
- 210000003127 knee Anatomy 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 238000013527 convolutional neural network Methods 0.000 abstract description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0476—Cameras to detect unsafe condition, e.g. video cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于混合高斯模型和神经网络的行人摔倒检测方法。现有的基于硬件传感器和基于视频图像的摔倒检测方案检测准确率和泛化能力较差。本发明结合了混合高斯模型和神经网络,采用alphapose神经网络能对运动的物体区域进行行人目标检测和骨骼提取,单人骨骼提取的训练集采用人工合成三维人体模型的方法,之后的浅层卷积神经网络会对提取的骨骼进行分类,完成摔倒检测。高斯混合模型能快速的定位运动的前景,过滤视频帧中大量的非运动物体,减少神经网络的计算量。本发明方法检测速度快,且神经网络有较强的泛化性,能应用于实时的视频监控。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于混合高斯模型和神经网络的行人摔倒检测方法。
背景技术
在现代社会中,由于摔倒造成的经济损失一直居高不下,特别是老年人群体。随着我国人口老龄化现象的日趋明显,摔倒检测越来越成为智能监控安防工程的重要关注课题。现如今,计算机视觉技术已经取得了巨大的进步,这使得通过视频监控实时检测摔倒的发生成为了可能。
现在的摔倒检测主要存在两个方向:基于硬件传感器和基于视频图像的摔倒检测。基于硬件传感器的方向已经有了很大的进展,然而使用这种方式有许多问题,其中比较严重的有:这些设备需要长时间佩戴,对于老人的活动有比较大的阻碍;这些设备需要逐年的更新,且这些设备一般价格较高,对于独生子女家庭是个不小的负担。而基于视频图像的摔倒检测也包含基于运动物体提取,形态学操作,提取HOG特征并进行SVM分类等传统人工提取特征方向和深度学习提取骨骼方向。其中,传统人工提取特征方向具有检测速度快,计算复杂度低的优势,然而,在检测过程中,监控拍摄的角度,背景的变化,行人穿着的变化,行人体格的不同都会对检测结果带来影响,这个方法的检测准确率和泛化能力都较差。而深度学习提取骨骼方向可以通过扩大训练集的方式提高检测的准确率和泛化能力,这使得这个方法理论上能有效的实现摔倒检测。然而,有限的摔倒行人样本和巨大的计算复杂度都阻碍这一方案在实时摔倒检测方面的发展。
发明内容
本发明的目的是为了针对现在技术不能有效的应用于实时视频监控中,提出了一种基于混合高斯模型和神经网络的行人摔倒检测方法。
高斯混合模型能快速的定位运动的前景,再通过alphapose神经网络对运动的物体进行行人目标检测和骨骼提取。之后的浅层卷积神经网络会对提取的骨骼进行分类,完成摔倒检测。
本发明方法的具体步骤如下:
步骤(1).提取视频中的前景区域:
(1-1).每帧图像转化为灰度图,并使用混合高斯模型提取前景:将第一帧图像设为背景,混合高斯模型对此背景进行建模,之后每一帧图像读入后遍历每个像素点;将不符合背景模型的像素点判定为前景区域的像素点,将其设为255;符合背景模型的像素点的像素值设为0;最终形成此帧图像前景区域的掩膜;
(1-2).合并掩膜:将每N帧图像形成的掩膜进行矩阵逻辑操作中的或操作,并对结果进行形态学的先闭后开操作,最终找到前景区域的具***置;
(1-3).输出:每读入N帧图像输出1帧输出图像,所述的输出图像为仅前景区域保持原有像素值,背景区域像素值全为0的前景区域图像;
步骤(2).利用alphapose神经网络进行行人检测和骨骼检测:
(2-1).准备行人检测数据集和单人骨骼检测数据集:
行人检测数据集:从互联网上下载已经公开的官方的行人数据集;
单人骨骼提取数据集:采用人工合成数据的方式生成,具体如下:
下载已经公开的二维骨架数据集,从骨架数据集中随机抽取骨架数据,并根据骨骼距离函数进行聚类,得到336个具有代表性的二维骨架图像;
根据二维骨架图像,生成做此336个动作的3D人体模型,且要求3D合成软件能合成不同身高、体重、性别的人体模型,且能匹配不同的穿着和背景、摄像头拍摄角度;
根据生成的数据标注骨骼关键点的坐标;
(2-2).训练yolov3行人检测神经网络,并进行检测:
训练:所述的yolov3行人检测神经网络只检测行人,其训练集即为行人检测数据集;
检测:将步骤(1)中输出图像输入训练后的行人检测神经网络,检测是否有行人;若有,则得到每个检测出的行人的外接矩形框顶点坐标,提取此矩形框内的图像;若没有,则进行下一帧图像的行人检测;
(2-3).训练单人骨骼检测网络,并进行检测:
训练:使用单人骨骼提取数据集进行单人骨骼检测网络的训练;
检测:用已经训练好的单人骨骼检测网络检测提取的的各个矩形框内的图像,输出此帧图像中每个行人的骨骼关键点坐标数据,并根据之前帧的骨骼检测结果拼接形成每个行人的骨骼时间序列图,具体实现方法如下:
对单帧骨骼矩阵进行0到255之间的归一化;
同时,更新第n人的骨骼时间序列:在读入视频之前,先初始化第n个人的骨骼时间序列图Fn为空矩阵[];在从第1帧到第i帧的读入视频过程中,依次按列往Fn尾部加入此帧图像形成的第n人单帧骨骼矩阵:
当i≤imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵;当i>imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵,同时移除此骨骼时间序列中最早加入的单帧骨骼矩阵,始终保持Fn为imax行144列矩阵,形成如下形式的Fn:
(2-4).关键点初分类:
对单人骨骼检测网络输出的各个行人的骨骼关键点坐标数据进行判断;根据此行人的骨骼关键点坐标数据画出骨骼,并计算此骨骼的外接矩形的宽高比,若大于设定阈值τ1,则根据下式对此人骨骼数据进行判断,若满足,则判定为疑似摔倒,将此人骨骼时间序列图输出到步骤(3);
Yn,neck、Xn,neck分别表示图像中第n人骨骼中脖子的y坐标轴值和x坐标轴值;
步骤(3).采用MobileNet网络对疑似摔倒骨骼的序列图进行分类:
(3-1).制作训练集:
采集(2-4)输出的疑似摔倒的行人的骨骼序列图,并对这些骨骼序列图进行人为标注:摔倒标注为0,误判标注为1;误判即为疑似摔倒的动作形成的骨骼序列图;
(3-2).构建MobileNet网络进行训练并检测:
MobileNet网络共28层,0-26层为系列卷积层,最后一层为全连接层,其卷积层的卷积核都为1x1或3x3;卷积层经过7x7的平均池化后与1024x1000的全连接层连接;最后一层为分类层,构建一个1024x2的分类层,并采用softmax获得类别概率;
训练:加载网络上下载的训练好的MobileNet网络权重,使用(3-1)中数据集训练网络,先只训练最后一层分类层,当损失函数的下降率低于设定阈值τ2后,再对所有层进行训练;优化器设置为RMSProp,并在每m次迭代后学习率下降10%;损失函数采用交叉熵损失函数;
检测:将(2-4)判定为疑似摔倒输出的骨骼时间序列图输入完成训练的此MobileNet网络进行分类,若判定为摔倒,则进行报警。
附图说明
图1为本发明方法的流程图。
具体实施方式
一种基于混合高斯模型和神经网络的行人摔倒检测方法,如图1所示,具体步骤如下:
步骤(1).提取视频中的前景区域:
(1-1).每帧图像转化为灰度图,并使用混合高斯模型提取前景:将第一帧图像设为背景,混合高斯模型对此背景进行建模,之后每一帧图像读入后遍历每个像素点;将不符合背景模型的像素点判定为前景区域的像素点,将其设为255;符合背景模型的像素点的像素值设为0;最终形成此帧图像前景区域的掩膜。
(1-2).合并掩膜:将每N帧图像形成的掩膜进行矩阵逻辑操作中的或操作,并对结果进行形态学的先闭后开操作,用于减少噪声和填补空洞,最终找到前景区域的具***置;N=10~30。
(1-3).输出:每读入N帧图像输出1帧输出图像,所述的输出图像为仅前景区域保持原有像素值,背景区域像素值全为0的前景区域图像,具体实现如下:
(k·N+1)帧图像与其对应的掩膜图像进行矩阵逻辑操作中的与操作,并将形成的图像作为输出图像,k=2,3,4,5,6,…;(k·N+1)帧图像对应的掩膜图像是(k-1)N帧图像到k·N帧图像合并形成的掩膜。
以此图像作为输出使得alphapose神经网络只会对可能存在行人的前景区域进行检测,减少了需要检测的图像的面积,能有效的减轻alphapose神经网络的计算负担,提高运行速度。
步骤(2).利用alphapose神经网络进行行人检测和骨骼检测:
(2-1).准备行人检测数据集和单人骨骼检测数据集:
行人检测数据集:从互联网上下载已经公开的官方的行人数据集,例如:Caltech行人数据库、coco行人数据集、INRIA数据集。
单人骨骼提取数据集:采用人工合成数据的方式生成,具体如下:
下载已经公开的二维骨架数据集,从骨架数据集中随机抽取骨架数据,并根据骨骼距离函数进行聚类,得到336个具有代表性的二维骨架图像;
根据二维骨架图像,使用一些开源的3D合成软件生成做此336个动作的3D人体模型,且要求3D合成软件能合成不同身高、体重、性别的人体模型,且能匹配不同的穿着和背景、摄像头拍摄角度,用于增加数据集的多样性,增加单人骨骼提取神经网络的泛化性;
根据生成的数据标注骨骼关键点的坐标。
采用人工合成数据的方式能有效的解决缺少大量人体骨骼数据的问题,且能根据实际问题合成特定情况下的数据,灵活性好。
(2-2).训练yolov3行人检测神经网络,并进行检测:
训练:所述的yolov3行人检测神经网络只检测行人,其训练集即为行人检测数据集。
检测:将步骤(1)中输出图像输入训练后的行人检测神经网络,检测是否有行人;若有,则得到每个检测出的行人的外接矩形框顶点坐标,提取此矩形框内的图像;若没有,则进行下一帧图像的行人检测。
(2-3).训练单人骨骼检测网络,并进行检测:
训练:使用单人骨骼提取数据集进行单人骨骼检测网络的训练。
检测:用已经训练好的单人骨骼检测网络检测提取的的各个矩形框内的图像,输出此帧图像中每个行人的骨骼关键点坐标数据,并根据之前帧的骨骼检测结果拼接形成每个行人的骨骼时间序列图,具体实现方法如下:
形成第i帧图像中第n人单帧骨骼矩阵:分别选择左肩、右肩、左髋、右髋参照坐标点拼接形成骨骼的矩阵。
Yn,nose、Xn,nose分别表示图像中第n人骨骼中鼻子的y坐标轴值和x坐标轴值;
Yn,neck、Xn,neck分别表示图像中第n人骨骼脖子的y坐标轴值和x坐标轴值;
对单帧骨骼矩阵进行0到255之间的归一化。
同时,更新第n人的骨骼时间序列:在读入视频之前,先初始化第n个人的骨骼时间序列图Fn为空矩阵[];在从第1帧到第i帧的读入视频过程中,依次按列往Fn尾部加入此帧图像形成的第n人单帧骨骼矩阵:当i≤imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵;当i>imax,按列往F尾部加入i帧图像形成的第n人单帧骨骼矩阵,同时移除此骨骼时间序列中最早加入的单帧骨骼矩阵,始终保持Fn为imax行144列矩阵,即形成如下形式的Fn:
(2-4).关键点初分类:
对单人骨骼检测网络输出的各个行人的骨骼关键点坐标数据进行判断;根据此行人的骨骼关键点坐标数据画出骨骼,并计算此骨骼的外接矩形的宽高比,若大于设定阈值τ1,则根据下式对此人骨骼数据进行判断,若满足,则判定为疑似摔倒,将此人骨骼时间序列图输出到步骤(3),τ1=0.7~0.8;
Yn,neck、Xn,neck分别表示图像中第n人骨骼中脖子的y坐标轴值和x坐标轴值;
步骤(3).采用MobileNet网络对疑似摔倒骨骼的序列图进行分类:
(3-1).制作训练集:
采集(2-4)输出的疑似摔倒的行人的骨骼序列图,并对这些骨骼序列图进行人为标注:摔倒标注为0,误判标注为1;所述的误判包含下蹲,弯腰等一系列疑似摔倒的动作形成的骨骼序列图。
(3-2).构建MobileNet网络进行训练并检测:
MobileNet网络共28层,0-26层为系列卷积层,最后一层为全连接层,其卷积层的卷积核都为1x1或3x3,这使得此网络拥有极少的参数和快速的前向传播速度。卷积层经过7x7的平均池化后与1024x1000的全连接层连接。最后一层为分类层,构建一个1024x2的分类层即可,并采用softmax获得类别概率。
训练:加载网络上下载的训练好的MobileNet网络权重,使用(3-1)中数据集训练网络,先只训练最后一层分类层,当损失函数的下降率低于设定阈值τ2(τ2=3~6%,本实施例中τ2=5%)后,再对所有层进行训练。优化器设置为RMSProp,并在每m次迭代后学习率下降10%;损失函数采用交叉熵损失函数。
检测:将(2-4)判定为疑似摔倒输出的骨骼时间序列图输入完成训练的此MobileNet网络进行分类,若判定为摔倒,则进行报警。
Claims (6)
1.一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于具体步骤如下:
步骤(1).提取视频中的前景区域:
(1-1).每帧图像转化为灰度图,并使用混合高斯模型提取前景:将第一帧图像设为背景,混合高斯模型对此背景进行建模,之后每一帧图像读入后遍历每个像素点;将不符合背景模型的像素点判定为前景区域的像素点,将其设为255;符合背景模型的像素点的像素值设为0;最终形成此帧图像前景区域的掩膜;
(1-2).合并掩膜:将每N帧图像形成的掩膜进行矩阵逻辑操作中的或操作,并对结果进行形态学的先闭后开操作,最终找到前景区域的具***置;
(1-3).输出:每读入N帧图像输出1帧输出图像,所述的输出图像为仅前景区域保持原有像素值,背景区域像素值全为0的前景区域图像;
步骤(2).利用alphapose神经网络进行行人检测和骨骼检测:
(2-1).准备行人检测数据集和单人骨骼检测数据集:
行人检测数据集:从互联网上下载已经公开的官方的行人数据集;
单人骨骼提取数据集:采用人工合成数据的方式生成,具体如下:
下载已经公开的二维骨架数据集,从骨架数据集中随机抽取骨架数据,并根据骨骼距离函数进行聚类,得到336个具有代表性的二维骨架图像;
根据二维骨架图像,生成做此336个动作的3D人体模型,且要求3D合成软件能合成不同身高、体重、性别的人体模型,且能匹配不同的穿着和背景、摄像头拍摄角度;
根据生成的数据标注骨骼关键点的坐标;
(2-2).训练yolov3行人检测神经网络,并进行检测:
训练:所述的yolov3行人检测神经网络只检测行人,其训练集即为行人检测数据集;
检测:将步骤(1)中输出图像输入训练后的行人检测神经网络,检测是否有行人;若有,则得到每个检测出的行人的外接矩形框顶点坐标,提取此矩形框内的图像;若没有,则进行下一帧图像的行人检测;
(2-3).训练单人骨骼检测网络,并进行检测:
训练:使用单人骨骼提取数据集进行单人骨骼检测网络的训练;
检测:用已经训练好的单人骨骼检测网络检测提取的的各个矩形框内的图像,输出此帧图像中每个行人的骨骼关键点坐标数据,并根据之前帧的骨骼检测结果拼接形成每个行人的骨骼时间序列图,具体实现方法如下:
对单帧骨骼矩阵进行0到255之间的归一化;
同时,更新第n人的骨骼时间序列:在读入视频之前,先初始化第n个人的骨骼时间序列图Fn为空矩阵[];在从第1帧到第i帧的读入视频过程中,依次按列往Fn尾部加入此帧图像形成的第n人单帧骨骼矩阵:
当i≤imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵;当i>imax,按列往Fn尾部加入i帧图像形成的第n人单帧骨骼矩阵,同时移除此骨骼时间序列中最早加入的单帧骨骼矩阵,始终保持Fn为imax行144列矩阵,形成如下形式的Fn:
(2-4).关键点初分类:
对单人骨骼检测网络输出的各个行人的骨骼关键点坐标数据进行判断;根据此行人的骨骼关键点坐标数据画出骨骼,并计算此骨骼的外接矩形的宽高比,若大于设定阈值τ1,则根据下式对此人骨骼数据进行判断,若满足,则判定为疑似摔倒,将此人骨骼时间序列图输出到步骤(3);
Yn,neck、Xn,neck分别表示图像中第n人骨骼中脖子的y坐标轴值和x坐标轴值;
步骤(3).采用MobileNet网络对疑似摔倒骨骼的序列图进行分类:
(3-1).制作训练集:
采集(2-4)输出的疑似摔倒的行人的骨骼序列图,并对这些骨骼序列图进行人为标注:摔倒标注为0,误判标注为1;误判即为疑似摔倒的动作形成的骨骼序列图;
(3-2).构建MobileNet网络进行训练并检测:
MobileNet网络共28层,0-26层为系列卷积层,最后一层为全连接层,其卷积层的卷积核都为1x1或3x3;卷积层经过7x7的平均池化后与1024x1000的全连接层连接;最后一层为分类层,构建一个1024x2的分类层,并采用softmax获得类别概率;
训练:加载网络上下载的训练好的MobileNet网络权重,使用(3-1)中数据集训练网络,先只训练最后一层分类层,当损失函数的下降率低于设定阈值τ2后,再对所有层进行训练;优化器设置为RMSProp,并在每m次迭代后学习率下降10%;损失函数采用交叉熵损失函数;
检测:将(2-4)判定为疑似摔倒输出的骨骼时间序列图输入完成训练的此MobileNet网络进行分类,若判定为摔倒,则进行报警。
2.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(1)中,N=10~30。
3.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于(1-3)的具体方式是:
(k·N+1)帧图像与其对应的掩膜图像进行矩阵逻辑操作中的与操作,并将形成的图像作为输出图像,k=2,3,4,5,6,…;(k·N+1)帧图像对应的掩膜图像是(k-1)N帧图像到k·N帧图像合并形成的掩膜。
4.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(2)中,τ1=0.7~0.8。
5.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(2)中,imax=144。
6.如权利要求1所述的一种基于混合高斯模型和神经网络的行人摔倒检测方法,其特征在于:步骤(3)中,τ2=3~6%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911130289.8A CN110991274B (zh) | 2019-11-18 | 2019-11-18 | 一种基于混合高斯模型和神经网络的行人摔倒检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911130289.8A CN110991274B (zh) | 2019-11-18 | 2019-11-18 | 一种基于混合高斯模型和神经网络的行人摔倒检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110991274A CN110991274A (zh) | 2020-04-10 |
CN110991274B true CN110991274B (zh) | 2022-03-18 |
Family
ID=70084983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911130289.8A Active CN110991274B (zh) | 2019-11-18 | 2019-11-18 | 一种基于混合高斯模型和神经网络的行人摔倒检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110991274B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652111A (zh) * | 2020-05-29 | 2020-09-11 | 浙江大华技术股份有限公司 | 一种目标检测方法及相关装置 |
CN111860392B (zh) * | 2020-07-28 | 2021-04-20 | 珠海安联锐视科技股份有限公司 | 基于目标检测和前景检测热力图统计方法 |
CN112464856B (zh) * | 2020-12-09 | 2023-06-13 | 成都华栖云科技有限公司 | 基于人体骨骼关键点的视频流动作检测方法 |
CN112528960B (zh) * | 2020-12-29 | 2023-07-14 | 之江实验室 | 一种基于人体姿态估计和图像分类的吸烟行为检测方法 |
CN113033437A (zh) * | 2021-03-29 | 2021-06-25 | 合肥工业大学 | 一种基于改进模式识别的跌倒监测方法及*** |
CN117037272B (zh) * | 2023-08-08 | 2024-03-19 | 深圳市震有智联科技有限公司 | 一种老人摔倒监测方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845456A (zh) * | 2017-03-01 | 2017-06-13 | 西安电子科技大学 | 一种视频监控***中人体摔倒监测的方法 |
CN108509938A (zh) * | 2018-04-16 | 2018-09-07 | 重庆邮电大学 | 一种基于视频监控的跌倒检测方法 |
CN110135319A (zh) * | 2019-05-09 | 2019-08-16 | 广州大学 | 一种异常行为检测方法及其*** |
CN110188599A (zh) * | 2019-04-12 | 2019-08-30 | 哈工大机器人义乌人工智能研究院 | 一种人体姿态行为智能分析识别方法 |
CN110321780A (zh) * | 2019-04-30 | 2019-10-11 | 苏州大学 | 基于时空运动特性的异常摔倒行为检测方法 |
-
2019
- 2019-11-18 CN CN201911130289.8A patent/CN110991274B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845456A (zh) * | 2017-03-01 | 2017-06-13 | 西安电子科技大学 | 一种视频监控***中人体摔倒监测的方法 |
CN108509938A (zh) * | 2018-04-16 | 2018-09-07 | 重庆邮电大学 | 一种基于视频监控的跌倒检测方法 |
CN110188599A (zh) * | 2019-04-12 | 2019-08-30 | 哈工大机器人义乌人工智能研究院 | 一种人体姿态行为智能分析识别方法 |
CN110321780A (zh) * | 2019-04-30 | 2019-10-11 | 苏州大学 | 基于时空运动特性的异常摔倒行为检测方法 |
CN110135319A (zh) * | 2019-05-09 | 2019-08-16 | 广州大学 | 一种异常行为检测方法及其*** |
Non-Patent Citations (4)
Title |
---|
Abnormal Behavior Recognition Based on Improved Gaussian Mixture Model and Hierarchical Detectors;Shuang Liu等;《2017 13th International Conference on Natural Computation, Fuzzy Systems and Knowledge Discovery》;20171231;全文 * |
An Image-Based Fall Detection System for the Elderly;Kun-Lin Lu等;《Appl. Sci》;20181231;全文 * |
基于行为视觉的行人摔倒自动检测***设计;陈文青等;《现代电子技术》;20161231;全文 * |
改进混合高斯模型在人体跌倒检测中的应用;孙朋等;《计算机工程与应用》;20171231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110991274A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991274B (zh) | 一种基于混合高斯模型和神经网络的行人摔倒检测方法 | |
CN110555368B (zh) | 基于三维卷积神经网络的跌倒行为识别方法 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN110135243B (zh) | 一种基于两级注意力机制的行人检测方法及*** | |
CN106874894B (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
WO2019232894A1 (zh) | 一种基于复杂场景下的人体关键点检测***及方法 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN111767847B (zh) | 一种集成目标检测和关联的行人多目标跟踪方法 | |
CN108875586B (zh) | 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法 | |
TW202133036A (zh) | 行為預測方法及裝置、步態識別方法及裝置、電子設備和電腦可讀存儲介質 | |
Zhou et al. | Learning to estimate 3d human pose from point cloud | |
CN106778768A (zh) | 基于多特征融合的图像场景分类方法 | |
CN109948471A (zh) | 基于改进InceptionV4网络的交通雾霾能见度检测方法 | |
CN104156979B (zh) | 一种基于高斯混合模型的视频中异常行为在线检测方法 | |
JP6381368B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
Zhou et al. | A study on attention-based LSTM for abnormal behavior recognition with variable pooling | |
CN110826575A (zh) | 一种基于机器学习的水下目标识别方法 | |
CN104794446A (zh) | 基于合成描述子的人体动作识别方法及*** | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
Konstantinidis et al. | Skeleton-based action recognition based on deep learning and Grassmannian pyramids | |
Aiouez et al. | Real-time Arabic Sign Language Recognition based on YOLOv5. | |
CN110490049A (zh) | 基于多特征和svm区分人体平衡障碍的方法 | |
CN113763418B (zh) | 一种基于头肩检测的多目标跟踪方法 | |
CN115240269A (zh) | 基于体型变换的步态识别方法、设备及存储介质 | |
CN111046861B (zh) | 识别红外影像的方法、构建识别模型的方法及应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |