CN111209848B - 一种基于深度学习的实时跌倒检测方法 - Google Patents

一种基于深度学习的实时跌倒检测方法 Download PDF

Info

Publication number
CN111209848B
CN111209848B CN202010006573.0A CN202010006573A CN111209848B CN 111209848 B CN111209848 B CN 111209848B CN 202010006573 A CN202010006573 A CN 202010006573A CN 111209848 B CN111209848 B CN 111209848B
Authority
CN
China
Prior art keywords
human body
network
detection
stage
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010006573.0A
Other languages
English (en)
Other versions
CN111209848A (zh
Inventor
孙光民
王中岐
李新梦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202010006573.0A priority Critical patent/CN111209848B/zh
Publication of CN111209848A publication Critical patent/CN111209848A/zh
Application granted granted Critical
Publication of CN111209848B publication Critical patent/CN111209848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度学习的实时跌倒检测方法,其中检测方法流程包括:人体姿态估计模块:将摄像头或本地视频解析之后的视频流依次取出单帧图片,输入到openpose算法模型人体进行检测,得到人体各个部分的关键点坐标,使用SSD‑Mobilenet算法排除非人体区域的关键点,跌倒检测模块:之后对检测到的人体骨骼关键点坐标使用SVDD算法进行分类,该方法解决了传统视频监控方法耗费人力物力的缺点,相比较于使用kinect的跌倒检测方法对于场景和环境要求严格的问题,本方法使用使用普通摄像头,对于环境和使用角度要求较低,同时成本低廉,具有实时性,而且误检率较低,具有较高的鲁棒性,可以适应不同的复杂场景。

Description

一种基于深度学习的实时跌倒检测方法
技术领域
本发明涉及一种基于深度学习的实时跌倒检测方法。根据openpose人体姿态估计算法结合SVDD分类算法,设计出一种更加准确高效的实时跌倒检测算法,属于深度学习技术领域、人体姿态估计技术领域、和图像处理技术领域。
背景技术
近年来,随着我国人口老龄化的速度不断加快,老年人的安全和健康已经成为了社会广泛关注的话题。根据世界卫生组织的报告,每年65岁及以上的老年人中,有大约28-35%曾经跌倒,因此,准确并且快速识别跌倒并且通知老年人的监护人或者医护人员是非常有必要的。目前很多养老院都存在着看护人员不足,不能及时发现老年人身体安全出现状况的问题,对于老年人的监护存在着很大的缺陷。
近年来,研究人员提出了多种实现自动跌倒检测的方法,分别是基于可穿戴式设备的跌倒检测方法、基于环境传感器的跌倒检测方法和基于机器视觉的跌倒检测方法。
可穿戴式跌倒检测***检测不受空间的限制,但往往需要被检测者长时间佩戴可穿戴式设备,这些设备通常安装较为繁琐,长时间佩戴使用者会出现厌烦情绪,而且老年人通常记忆力都会有一定程度的减弱从而忘记佩戴可穿戴设备。基于环境传感器的跌倒检测方法具有无需穿戴、检测区域大的优点,而且具有一次安装长期多人使用的优势,可以适用于家庭、养老院等场合。缺点在于对比其他两种方法对于环境设备的要求更高,成本也比较高,同时准确率也存在不稳定的问题。
随着人工智能、模式识别等技术的发展,越来越的基于机器视觉的跌倒检测方法被提出,监控***作为公共安全领域的一项重要技术已经得到广泛应用。但是,目前的大多数监控***仅仅停留在对捕获的视频信号进行人工监控和事后录像分析阶段,需要大量的物力人力。所谓的智能监控***,要求计算机自动对捕捉到的图像数据进行实时分析和处理,对目标进行检测、识别与跟踪,并对目标的行为进行分析,当目标行为异常时,监控***会执行报警、保存视频数据等一系列操作。把智能监控***和跌倒检测结合在一起,可以在老年人摔倒的第一时间通知监护人或者报警,大大缩短了老年人从跌倒到得到救治的时间,减少了二次伤害的可能性,减少后期治疗等费用,对于提高老年人的晚年生活质量,减少社会公共资源的浪费具有重大的意义。
发明内容
本发明要解决的技术问题在于,针对现有的使用传统图像处理进行跌倒检测的技术误检率和实时性上的缺陷,提高检测的速度和准确率。。
为了解决上述技术问题,本发明提供一种基于深度学习的实时跌倒检测方法。
本跌倒检测算法主要步骤如下:
步骤1,使用摄像头等设备采集人体图像;
步骤2,进行人体骨骼关键点识别;
步骤2.1,使用神经网络卷积VGG-19提取特征,预测每个关键点的热点图谱,通过多阶段的网络迭代,每一个阶段的输出作为下一个阶段的输入,对上一个阶段的结果优化;
步骤2.2,对于预测的关键点增加矢量编码,对于图像中的关键点进行组合,同一个人的不同部位进行连接;
步骤2.3,迁移学习训练图像数据集,使模型可以更好地应用于特定场景;
步骤3,使用SSD-Mobilenet目标检测算法对检测的人体关键点区域进行目标检测,去掉非人体的部分;
步骤3.1,先使用Mobilenet网络对COCO数据集进行预训练,生成预训练模型;
步骤3.2,使用步骤2.3采集的数据生成tfrecord数据用于迁移学习;
步骤3.3,步骤3.3把步骤3.2生成的数据和步骤3.1生成的预训练模型融合特征传入SSD网络,使模型经过较短时间的训练就可以收敛并具有较好的检测能力;
步骤4,使用SVDD分类算法对采集到的人体骨骼关键点进行分类。
有益效果
本方法的优势和创新性主要体现以下方面:
(1)实现一种全自动的算法流程,无需人工干预或最小程度干预,解决了传统视频监控方法耗费人力物力的缺点。
(2)使用openpose和SSD-Mobilenet算法相结合的人体姿态估计算法
对于使用openpose算法检测到的关键点,通过SSD-Mobilenet目标检测算法进行人体目标检测,过滤掉非人体的区域,减小算法的误判率。
(3)针对跌倒数据样本不平衡的问题,使用SVDD算法进行分类,通过
网格搜索等方法对参数进行优化。形成正样本训练的正常域,并通过正常域检测跌倒行为。
(4)将(2)和(3)结合构建一个鲁棒性较好,准确率较高的实时跌倒检测框架,使用多种目标检测,图像处理等多领域的算法,具有算法应用的创新型。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实时例的跌倒检测整体流程图。
图2为本发明实施例的神经网络特征提取部分网络结构图。
图3为本发明实施例的人体关键点检测结果图。
图4为本发明实施例的SVDD分类结果图。
图5为本发明实施例的人体跌倒检测结果图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,本发明提出一种基于深度学习的实时跌倒检测算法,具体步骤如下所示:
步骤1,使用摄像头等设备采集人体图像;
步骤2,进行人体骨骼关键点识别;
步骤2.1,使用神经网络卷积提取特征,预测每个关键点的热点图谱,通过多阶段的学习,每个阶段对上一个阶段的结果优化;
如图2所示,本方法使用VGG-19网络进行特征提取特征图fearture-map,由VGG-19的前10层初始化并进行微调,生成一组输入到每个分支第一阶段的特征映射F,在第一阶段,网络产生一组置信图的预测S1=ρ1(F)和一组部分亲和力场其中ρ1和/>是用于阶段1推断的CNN。在随后的阶段,来自前一阶段的两个分支的预测以及原始图像F被用于精确预测。特征F被连接并用于产生精确预测
公式中ρt是阶段t的预测。
在网络早期身体部位之间可能存在混淆,但是通过后期网络迭代,人体关键点的预测越来越准确。网络的两个分支有着两个损失函数,每个分支一个,在预测和groudtruth的maps和fields之间使用L2损失防止过拟合的情况出现,对于损失函数加权计算。
和/>分别是从1开始一直到C不同阶段t的L2损失函数,f为总体的损失函数。为每个人生成个人的confidence maps,由网络预测出各个置信度的集合。
在网络训练过程中,对于某一类给定的关键点j,对于某一个人k,他的置信度标志图只有一个峰值,置信度标签为每一个点到数据真实点的高斯距离。对于多个人,使用非极大值抑制(NMS)剔除网络中得分低的数据。
步骤2.2,对于预测的关键点增加矢量编码,对同一个人的不同部位进行连接;给定一组检测到的身体部位,对于每一对身体部位检测关联进行置信度度量,检测关联的一种方式是检测肢体上每对肢体之间的额外中点,并检查候选部位检测之间的发生率,当人体叠加在一起时这些中点可能会提供虚假关联,为了解决这些局限性,使用PAFs特征表示法,它保留了肢体支撑区域的位置和方向信息,PAFs是每个肢体的2D矢量场,对于属于特定肢体的区域中的每个像素,2D矢量编码从肢体的一部分指向另一部分的方向。每种类型的肢体都有一个对应的PAFs区域,用于连接两个相关的身体部位。对检测置信度图进行非极大值抑制(NMS),以获得一组离散的部位候选位置。对于每个部分,可能会有多个候选位置,由于图像中有多个人或误报,这些部分候选位置定义了一大组可能的肢体。使用PAF上的线积分计算来评分每个候选肢体,寻找最佳解析的问题对应于已知为NP-Hard的K维匹配问题,使用匈牙利算法来获得最佳匹配。
步骤2.3,为了使模型更加适用于本方法应用场景,采集了1000张人体各个动作的RGB图片,包含人体日常行为和跌倒图像,使用tensorflow框架对采集图片进行训练,随着迭代次数不断增加,损失函数值不算减小,设置迭代次数为5000次,当达到5000时,损失值为0.0925,使用模型对测试集进行测试,准确率为91.2%,证明算法满足使用要求,使用此步骤实施后效果如图3所示。
步骤3,使用SSD-Mobilenet目标检测模型对检测的人体关键点区域进行目标检测,去掉非人体的部分。
步骤3.1首先使用Mobilenet网络对COCO数据集进行预训练,这个数据集包括80类目标,包括人体,动物,交通工具,家用电器等12个大类,得到预训练的参数。
步骤3.2使用步骤2.3中的自建人体数据集,使用LabelImg工具标注人体样本,样本被标注好后,生成一一对应的xml文件,然后调用xml_to_csv.py生成csv表格,接下来使用generate_tfrecord.py文件把csv文件转化为tensorflow框架能识别的tfrecord格式。
步骤3.3把步骤3.2生成的数据和步骤3.1生成的预训练模型融合特征传入SSD网络,设置迭代次10000次,当损失达到1.8时停止训练,总损失为1.8,平均精度为78.4%。此步骤实施后可以去除冗余的关键点,只保留正确的人体骨骼关键点。
步骤4,使用SVDD分类算法对采集到的人体骨骼关键点进行分类。
虽然获得了关节点的轨迹,但仍存在数据不平衡的问题。在日常生活中,由于跌落类型的多样性,获得足够的实际样本下降不仅需要大量的人力和资源,而且难以获得,这导致样本不平衡,因此如何使用不平衡数据来检测跌倒已成为一个基本问题。本方法采用SVDD异常检测方法,通过网格搜索等方法对参数进行优化。形成正样本训练的正常域,并通过正常域检测跌倒行为。SVDD最初主要用于异常检测和图像分类。与分类器支持向量机(SVM)不同,SVDD属于单类SVM算法。主要思想是通过训练阳性样本来构建正常的域超球面,而超球面外部的样本是异常样本。对于给定的阳性样本集X,其包含N个阳性样本(Xi=0,1,2,...,N),以便在构建超球面时减少异常数据点被包括在正常域中的影响,惩罚因子C和松弛变量ξi,当半球R的超球面中心时,让正样本完全被球体包围,相应的优化方程是:
对于典型的二次规划问题,通过引入拉格朗日乘数并求解相应的函数。通常,在删除异常数据点之后,数据将不会以球形方式分布。因此,引入核函数K将低维空间中的非线性问题转化为高维线性问题。图4显示了二维SVDD异常检测图,红点是正常数据,蓝色交叉点是异常数据,决策边界被红点包围。决策中的边界点是支持向量。支持向量确定决策边界的形状和大小,这是模型的准确性。
此步骤实施后效果如图5所示。经过实验证明可见本方法的准确性和可靠性。

Claims (1)

1.一种基于深度学习的实时跌倒检测方法,其特征在于,具体步骤如下所示:
步骤1,采集人体图像;
步骤2,进行人体骨骼关键点识别;
步骤2.1,使用神经网络卷积提取特征,预测每个关键点的热点图谱,通过多阶段的学习,每个阶段对上一个阶段的结果优化;
使用VGG-19网络进行特征提取得到特征图feature-map,由VGG-19的前10层初始化并进行微调,生成一组输入到每个分支第一阶段的特征映射F,在第一阶段,网络产生一组置信图的预测S1=ρ1(F)和一组部分亲和力场其中ρ1和/>是用于阶段1推断的CNN;在随后的阶段,来自前一阶段的两个分支的预测以及原始图像F被用于精确预测;特征F被连接并用于产生精确预测
公式中ρt是阶段t的预测;
网络的两个分支有着两个损失函数,每个分支一个,对于损失函数加权计算;
和/>分别是不同阶段t的L2损失函数,f为总体的损失函数;为每个人生成个人的置信度图,由网络预测出各个置信度的集合;
在网络训练过程中,对于某一类给定的关键点j,对于某一个人k,他的置信度标志图只有一个峰值,置信度标签为每一个点到数据真实点的高斯距离;对于多个人,使用非极大值抑制剔除网络中得分低的数据;
步骤2.2,对于预测的关键点增加矢量编码,对同一个人的不同部位进行连接;给定一组检测到的身体部位,对于每一对身体部位检测关联进行置信度度量,使用PAFs特征表示法,PAFs是每个肢体的2D矢量场,对于属于特定肢体的区域中的每个像素,2D矢量编码从肢体的一部分指向另一部分的方向;
每种类型的肢体都有一个对应的PAFs区域,用于连接两个相关的身体部位;对检测置信度图进行非极大值抑制,以获得一组离散的部位候选位置;对于每个部分,会有多个候选位置,候选位置定义了一大组候选的肢体;使用PAFs上的线积分计算来评分每个候选肢体,寻找最佳解析的问题对应于已知为NP-Hard的K维匹配问题,使用匈牙利算法来获得最佳匹配;
步骤2.3,采集了人体各个动作的RGB图片,包含人体日常行为和跌倒图像,使用tensorflow框架对采集图片进行训练,随着迭代次数不断增加,损失函数值不算减小,设置迭代次数为5000次以上,使用模型对测试集进行测试;
步骤3,使用SSD-Mobilenet目标检测模型对检测的人体关键点区域进行目标检测,去掉非人体的部分;
步骤3.1首先使用Mobilenet网络对COCO数据集进行预训练,这个数据集包括80类目标,得到预训练的参数;
步骤3.2使用步骤2.3中的人体数据集,使用LabelImg工具标注人体样本,样本被标注好后,生成一一对应的xml文件,然后调用xml_to_csv.py生成csv表格,接下来使用generate_tfrecord.py文件把csv文件转化为tensorflow框架能识别的tfrecord格式;步骤3.3把步骤3.2生成的数据和步骤3.1生成的预训练模型融合特征传入SSD网络,设置迭代10000次以上,当损失达到小于1.8时停止训练;
步骤4,使用SVDD分类算法对采集到的人体骨骼关键点进行分类;
采用SVDD异常检测方法,通过网格搜索对参数进行优化;形成正样本训练的正常域,并通过正常域检测跌倒行为;
对于给定的样本集X,其包含N个样本,使用惩罚因子C和松弛变量ξi,当半球R的超球面中心时,让正样本完全被球体包围,相应的优化方程是:
CN202010006573.0A 2020-01-03 2020-01-03 一种基于深度学习的实时跌倒检测方法 Active CN111209848B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010006573.0A CN111209848B (zh) 2020-01-03 2020-01-03 一种基于深度学习的实时跌倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010006573.0A CN111209848B (zh) 2020-01-03 2020-01-03 一种基于深度学习的实时跌倒检测方法

Publications (2)

Publication Number Publication Date
CN111209848A CN111209848A (zh) 2020-05-29
CN111209848B true CN111209848B (zh) 2023-07-21

Family

ID=70786558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010006573.0A Active CN111209848B (zh) 2020-01-03 2020-01-03 一种基于深度学习的实时跌倒检测方法

Country Status (1)

Country Link
CN (1) CN111209848B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814588B (zh) * 2020-06-18 2023-08-01 浙江大华技术股份有限公司 行为检测方法以及相关设备、装置
CN111899470B (zh) * 2020-08-26 2022-07-22 歌尔科技有限公司 人体跌倒检测方法、装置、设备及存储介质
CN112215185B (zh) * 2020-10-21 2022-08-05 成都信息工程大学 一种从监控视频中检测跌倒行为的***及方法
CN112270381B (zh) * 2020-11-16 2022-06-03 电子科技大学 基于深度学习的人流量检测方法
CN112633327B (zh) * 2020-12-02 2023-06-30 西安电子科技大学 分阶段金属表面缺陷检测方法、***、介质、设备及应用
CN112766091B (zh) * 2021-01-05 2023-09-29 中科院成都信息技术股份有限公司 基于人体骨骼关键点的视频不安全行为识别***及方法
CN112861686B (zh) * 2021-02-01 2022-08-30 内蒙古大学 一种基于svm的图像目标检测方法
CN113177468B (zh) * 2021-04-27 2023-10-27 北京百度网讯科技有限公司 人体行为检测方法、装置、电子设备及存储介质
CN113368487A (zh) * 2021-06-10 2021-09-10 福州大学 基于OpenPose的3D私人健身***及其工作方法
CN113724853A (zh) * 2021-10-08 2021-11-30 联想新视界(南昌)人工智能工研院有限公司 一种基于深度学习的智慧医疗***
CN114220162A (zh) * 2021-11-17 2022-03-22 深圳职业技术学院 一种猪只姿态识别方法及装置
CN115471826B (zh) * 2022-08-23 2024-03-26 中国航空油料集团有限公司 航空加油车安全驾驶行为判别方法、装置和安全运维***

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722721A (zh) * 2012-05-25 2012-10-10 山东大学 一种基于机器视觉的人体跌倒检测方法
CN107220604A (zh) * 2017-05-18 2017-09-29 清华大学深圳研究生院 一种基于视频的跌倒检测方法
CN107506706A (zh) * 2017-08-14 2017-12-22 南京邮电大学 一种基于三维摄像头的人体跌倒检测方法
CN108182410A (zh) * 2017-12-28 2018-06-19 南通大学 一种联合目标区域定位和深度特征学习的跌倒识别算法
CN108805032B (zh) * 2018-05-17 2021-06-15 郑州大学 基于深度卷积网络的跌倒检测方法
CN108960056B (zh) * 2018-05-30 2022-06-03 西南交通大学 一种基于姿态分析和支持向量数据描述的跌倒检测方法
CN108875614A (zh) * 2018-06-07 2018-11-23 南京邮电大学 一种基于深度学习图像处理的摔倒检测方法
CN108961675A (zh) * 2018-06-14 2018-12-07 江南大学 基于卷积神经网络的跌倒检测方法
CN109492612B (zh) * 2018-11-28 2024-07-02 平安科技(深圳)有限公司 基于骨骼点的跌倒检测方法及其跌倒检测装置
CN109800802A (zh) * 2019-01-10 2019-05-24 深圳绿米联创科技有限公司 视觉传感器及应用于视觉传感器的物体检测方法和装置
CN110555368B (zh) * 2019-06-28 2022-05-03 西安理工大学 基于三维卷积神经网络的跌倒行为识别方法
CN110490080B (zh) * 2019-07-22 2023-05-09 毕昇云(武汉)信息技术有限公司 一种基于图像的人体跌倒判别方法
CN110633736A (zh) * 2019-08-27 2019-12-31 电子科技大学 一种基于多源异构数据融合的人体跌倒检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Doppler Radar Fall Activity Detection Using the Wavelet Transform;Bo Yu Su 等;IEEE Transactions on Biomedical Engineering;全文 *
基于特征自动提取的跌倒检测算法;胡双杰 等;传感技术学报;全文 *

Also Published As

Publication number Publication date
CN111209848A (zh) 2020-05-29

Similar Documents

Publication Publication Date Title
CN111209848B (zh) 一种基于深度学习的实时跌倒检测方法
CN110135319A (zh) 一种异常行为检测方法及其***
CN107808375B (zh) 融合多种上下文深度学习模型的水稻病害图像检测方法
Yu et al. Railway obstacle detection algorithm using neural network
CN110728252B (zh) 一种应用于区域人员运动轨迹监控的人脸检测方法
CN112132157B (zh) 一种基于树莓派的步态人脸融合识别方法
Lu et al. Multi-object detection method based on YOLO and ResNet hybrid networks
CN117116498A (zh) 移动查房数据处理***及其方法
Gu et al. Automatic detection of safety helmet wearing based on head region location
Banerjee et al. Cnn-svm model for accurate detection of bacterial diseases in cucumber leaves
Du et al. Convolutional neural network-based data anomaly detection considering class imbalance with limited data
CN117723158B (zh) 非接触式体温监测***及其方法
Batool et al. Fundamental recognition of ADL assessments using machine learning engineering
Nagila et al. The effectiveness of machine learning and image processing in detecting plant leaf disease
Wahla et al. Visual fall detection from activities of daily living for assistive living
CN115862138A (zh) 一种人员摔倒行为检测方法、装置、设备及存储介质
CN114913585A (zh) 融合面部表情的居家老人摔倒检测方法
Darshana et al. A Revolutionary Machine-Learning based approach for identifying Ayurvedic Medicinal Plants
CN114495265A (zh) 多跨域场景下基于活动图加权的人体行为识别方法
Chakroun et al. Hierarchical convolutional neural networks for leaf disease detection
Nan et al. Safety Helmet Detection Dynamic Model Based on the Critical Area Attention Mechanism
Al-Otaibi et al. Statistical image analysis based automated leaves classification
CN112329743B (zh) 一种疫情环境下的异常体温监控方法、装置及介质
Cai et al. Image sequence-based risk behavior detection of power operation inspection personnel
CN117786507B (zh) 全局和局部特征耦合指导的滚动轴承未知故障检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant