CN113378692B - 一种降低跌倒行为误检的方法、检测*** - Google Patents

一种降低跌倒行为误检的方法、检测*** Download PDF

Info

Publication number
CN113378692B
CN113378692B CN202110635639.7A CN202110635639A CN113378692B CN 113378692 B CN113378692 B CN 113378692B CN 202110635639 A CN202110635639 A CN 202110635639A CN 113378692 B CN113378692 B CN 113378692B
Authority
CN
China
Prior art keywords
detection
head
waist
limb point
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110635639.7A
Other languages
English (en)
Other versions
CN113378692A (zh
Inventor
蔡冬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Ezviz Network Co Ltd
Original Assignee
Hangzhou Ezviz Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Ezviz Network Co Ltd filed Critical Hangzhou Ezviz Network Co Ltd
Priority to CN202110635639.7A priority Critical patent/CN113378692B/zh
Publication of CN113378692A publication Critical patent/CN113378692A/zh
Application granted granted Critical
Publication of CN113378692B publication Critical patent/CN113378692B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种降低跌倒行为误检的方法,该方法包括,在基于图像进行姿态识别的检测设备侧,利用获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系;所述第一检测结果为被识别为跌倒行为的检测结果;利用所述相对位置关系,对第一检测结果进行过滤,保留符合条件的第一检测结果,其中,所述条件为:以地平面为参照系,头部未位于腰部上方。本申请避免了将从站立到落座、站立到下蹲、弯腰等与跌倒行为相似的姿态的误检,提高了跌倒行为检测的准确性。

Description

一种降低跌倒行为误检的方法、检测***
技术领域
本发明涉及姿态检测领域,特别地,涉及一种降低跌倒行为误检的方法。
背景技术
随着技术的发展,特定人员看护的智能化成为热点。对于独居的老人、残(智)障人员等失能人员能够实时监控是否跌倒就显得非常实用。例如,通过监控摄像头,判断场景内是否出现跌倒的情况,若发生跌倒,则输出告警提示。
利用监控图像进行跌倒行为检测时,对于从站立到落坐、站立到下蹲等行为姿态通常被误检为跌倒行为,由于这些行为姿态是居家生活中常见行为,被误检的跌倒行为导致频繁报警,降低了跌倒检测报警的置信度。
发明内容
本发明提供了一种降低跌倒行为误检的方法,以提高跌倒行为检测的可靠性。
本发明提供的一种降低跌倒行为误检的方法是这样实现的:
在基于图像进行姿态识别的检测设备侧,
根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系;所述第一检测结果为被识别为跌倒行为的检测结果;
利用所述相对位置关系,对第一检测结果进行过滤,保留符合条件的第一检测结果,
其中,所述条件为:以地平面为参照系,头部未位于腰部上方。
较佳地,所述头部未位于腰部上方根据连接于腰部肢点和头部肢点所确定的全局坐标系下的第一线段与垂直于地平面的第一方向之间的第一夹角确定。
较佳地,所述根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系,包括:
将腰部肢点信息和头部肢点信息的像素坐标分别映射为世界坐标系下的全局坐标,
根据腰部肢点和头部肢点的全局坐标,计算连接于腰部肢点和头部肢点的第一线段与垂直于地平面的第一方向之间的第一夹角;
所述利用所述相对位置关系,对第一检测结果进行过滤,保留符合条件的第一检测结果,包括:
判断第一夹角是否大于设定的第一阈值,如果是,则保留该第一检测结果。
较佳地,所述检测设备的数量为n个,每个检测设备所采集的视野范围在地平面的投影范围相同,其中,n为大于等于2的自然数,
所述头部未位于腰部上方根据从腰部肢点到头部肢点所确定的全局坐标系下的有向线段的指向所确定的跌倒方向确定,
所述利用所述相对位置关系,对第一检测结果进行过滤,保留符合条件的第一检测结果,包括:
当有向线段指向本检测设备时,保留该第一检测结果;
当有向线段背离本检测设备时,去除该第一检测结果。
较佳地,所述根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系,包括:
在任一检测设备侧:
将腰部肢点信息和头部肢点信息的像素坐标分别映射为世界坐标系下全局坐标,
根据腰部肢点的全局坐标和头部肢点的全局坐标,判断有向线段在地平面的投影是否位于本检测设备视野范围在地平面上的投影范围内、且指向本检测设备,如果是,则判定跌倒方向朝向本检测设备,否则,判定跌倒方向背离本检测设备;
当跌倒方向朝向本检测设备,则根据腰部肢点和头部肢点的全局坐标,计算连接于腰部肢点和头部肢点的第一线段与垂直于地平面的第一方向之间的第一夹角。
较佳地,所述根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系,包括:
在任一检测设备侧:
将腰部肢点信息和头部肢点信息的像素坐标分别映射为世界坐标系下全局坐标,
根据腰部肢点和头部肢点的全局坐标,计算从腰部肢点到头部肢点的有向线段与垂直于地平面的第一方向之间的第一夹角。
较佳地,所述当有向线段指向本检测设备时,保留该第一检测结果,包括:
判断第一夹角是否大于设定的第一阈值,如果是,则保留该第一检测结果,并将该第一检测结果发送至指定设备,使得指定设备汇集来自各个检测设备的第一检测结果。
较佳地,所述当有向线段指向本检测设备时,保留该第一检测结果,包括:
判断第一夹角与第二夹角之差是否大于设定的第二阈值,如果是,则保留该第一检测结果,并将该第一检测结果发送至指定设备,使得指定设备汇集来自各个检测设备的第一检测结果;
其中,第二夹角为非跌倒状态下从腰部肢点到头部肢点的有向线段与垂直于地平面的第一方向之间的夹角。
本发明还提供一种检测设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器被配置执行所述计算机程序实现如任一所述降低跌倒行为误检的方法的步骤。
本发明另提供一种检测***,包括n个所述的检测设备,其中,n为大于等于2的自然数。
本发明提供的降低跌倒行为误检的方法,利用腰部肢点信息和头部肢点信息所确定的相对位置关系,对识别为跌倒行为的第一检测结果进行过滤,从而避免了将从站立到落座、站立到下蹲、弯腰等与跌倒行为相似的姿态的误检,提高了跌倒行为检测的准确性;通过多个检测设备联动检测,每个检测设备根据跌倒方向负责朝向本检测设备的跌倒行为的过滤,且各个检测设备的检测结果被合并,能够更进一步地减少误检;本申请所提供的降低跌倒行为误检的方法,使得跌倒行为检测更为精确,有利于提高跌倒检测报警的置信度。
附图说明
图1为本申请降低跌倒行为误检的方法的一种流程示意图。
图2为实施例一目标图像和用于基于图像进行姿态识别的检测设备位置关系的一种示意图。
图3为实施例一目标人员跌倒行为检测的一种框架示意图。
图4为目标人员跌倒行为检测的一种流程示意图。
图5为头部和腰部位置关系的一种示意图,
图6为实施例二多相机联动检测方法中多检测设备组成的检测***的一种示意图。
图7为实施例二跌倒行为检测的一种框架示意图。
图8为本实施例二跌倒行为检测的一种流程示意图。
图9为两相机同时进行检测一种示意图。
图10为本实施例三跌倒行为检测的一种流程示意图。
图11为考虑人体生理弯曲时非跌倒状态和跌倒状态下从腰部到头部的有向线段的一种示意图。
图12为本实施例四跌倒行为检测的一种流程示意图。
图13为本申请实施例检测设备的一种示意图。
图14为检测设备的另一种示意图。
具体实施方式
为了使本申请的目的、技术手段和优点更加清楚明白,以下结合附图对本申请做进一步详细说明。
申请人研究发现,从站立到落座、或者从站立到下蹲的姿态中,均为头部在上,腰部在下,而在跌倒姿态中,大多情形下头部和腰部不满足头部在上、腰部在下的相对位置关系。有鉴于此,可以分析图像中头部和腰部之间的位置关系,过滤掉传统的跌倒行为检测方法所检测的跌倒行为中满足头部在上腰部下的位置关系的跌倒行为,保留不满足头部在上腰部下的位置关系的跌倒行为,将其作为最终的检测结果。
参见图1所示,图1为本申请降低跌倒行为误检的方法的一种流程示意图。在基于图像进行姿态识别的检测设备侧,执行如下步骤:
步骤101,根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系;所述第一检测结果为已被识别为跌倒行为的检测结果;
步骤102,利用所述相对位置关系,对第一检测结果进行过滤,保留符合条件的第一检测结果,去除不符合条件的第一检测结果。
其中,所述条件为:以地平面为参照系,头部未位于腰部上方。
为便于理解本发明,以下以具体实施例来进行说明。
实施例一
参见图2所示,图2为实施例一目标图像和用于基于图像进行姿态识别的检测设备位置关系的一种示意图。该检测设备通过一图像采集装置采集视野范围中的图像数据。
参见图3所示,图3为实施例一目标人员跌倒行为检测的一种框架示意图。对于时间序列的T帧,基于每一帧分别进行目标检测、跟踪、属性识别、姿态估计,将各帧的姿态估计均通过图卷积分类识别来进行姿态识别,其中,T为大于等于1的自然数。
参见图4所示,图4为目标人员跌倒行为检测的一种流程示意图。其中,虚线框部分为一帧的处理流程,虚线框外部为多帧的处理。对于T帧中任意第t帧图像数据,进行如在处理:
步骤401,采用深度学习目标检测算法进行目标检测,以便有效识别图像中的所有目标的位置信息,得到至少一个目标框信息。
其中,深度学习目标检测算法可以是YOLO(you only look once)算法,Faster R-CNN算法,SSD算法。以YOLO算法为例,该算法可直接基于输入图像输出各个目标的类别和在图像中的相应的位置信息;在本实施例中,应用YOLO算法基于输入图像输出图像中所包括的各个人员和其位置。
步骤402,基于t帧目标位置信息,与t-1帧进行跟踪匹配,可以按照前后帧交并比进行跟踪匹配,当交并比大于设定的阈值则为匹配成功,生成t帧的跟踪目标框;
步骤403,基于t帧的跟踪目标框,通过分类神经网络对跟踪目标框中的目标进行属性识别,例如,识别出老人和非老人,又例如,识别出需要被看护人员,这种情况下,可以用被看护人员的图像对分类神经网络进行训练,然后,调用训练后的分类神经网络模型来对跟踪目标框中的目标进行识别;
进一步地,对跟踪目标框设置ID标识,并记录该跟踪目标框的属性识别结果。
步骤404,判断所述t帧的跟踪目标框中的目标是否被识别为设定的属性,例如,是否是老人,如果是,则执行步骤405,否则,返回步骤403,
步骤405,跟踪属性为设定属性(例如老人)的图像帧中的跟踪目标框,通过ALPHAPOSE算法进行姿态估计,输出目标骨骼数据信息,包括18个骨骼肢点,每个肢点三个信息,分别是像素坐标x、y和置信度信息,并将该骨骼数据信息存入用于进行图卷积分类的输入缓冲队列。
步骤406,将骨骼数据信息输入至图卷积分类模型,通过图卷积分类模型进行识别,如果输出为跌倒行结果(第一检测结果),则执行步骤407,否则,返回步骤401,或者,结束本次跌倒行为检测。
步骤407,基于所述骨骼数据信息中的腰部肢点和头部肢点,生成用于连接腰部肢点与头部肢点的第一线段,
参见图5所示,图5为头部和腰部位置关系的一种示意图,其中,在非跌倒状态下,头部在上,腰部在下,连接于腰部和头部的第一线段垂直于地平面,也就是如图所示的世界坐标系下的y方向,在跌倒状态下,连接于腰部和头部的第一线段不再垂直于地面。所述世界坐标系下的y方向为垂直于地平面的第一方向。
步骤408,利用图像视觉模型,将腰部肢点、和头部肢点的像素坐标分别转换为世界坐标系下的全局坐标,得到腰部肢点的全局坐标和头部肢点的全局坐标,
鉴于被检测目标始终在地面移动,故而可以设全局z坐标为0,则腰部肢点的全局x、y坐标和头部肢点的全局x、y坐标可以分别通过下式得到:
其中,u、v为肢点的像素坐标,K为相机内参,R、T为相机外参,可以预先通过相机标定获得,xw、yw分别为肢点的全局x、y坐标。
所应理解的是,步骤407、408也可以变换为:先利用图像视觉模型,将腰部肢点、和头部肢点的像素坐标分别转换为世界坐标系下的全局坐标,得到腰部肢点的全局坐标和头部肢点的全局坐标,然后再根据腰部肢点和头部肢点的全局坐标,生成用于连接腰部肢点与头部肢点的第一线段。
步骤409,根据腰部肢点的全局坐标和头部肢点的全局坐标,计算该第一线段与世界坐标系中y轴之间的第一夹角,
如图5中的几何关系,则第一线段与世界坐标系中y轴之间的第一夹角为:
其中,xw1、yw1分别为腰部肢点的全局坐标,xw2、yw2分别为头部肢点的全局坐标,为第一线段与世界坐标系中y轴之间的第一夹角。
步骤410,判断第一线段与世界坐标系中y轴之间的第一夹角是否大于设定的第一阈值,如果是,则认为该第一检测结果可靠,保留该第一检测结果,否则,认为该第一检测结果为误检,予以滤除。
所应理解的是,步骤409、步骤410也可以变换为:根据腰部肢点的全局坐标和头部肢点的全局坐标,计算该第一线段与世界坐标系中x轴(地平面)之间的第三夹角,然后判断第三夹角是否小于设定的第三阈值,如果是,则认为该第一检测结果可靠,保留该第一检测结果,否则,认为该第一检测结果为误检,予以滤除。
本实施例根据腰部与头部所形成的第一线段与垂直于地平面的第一方向上的第一夹角,对所检测的跌倒行为结果(第一检测结果)进行筛选,相当于为所检测的跌倒行为结果增加了约束条件,从而能够将不符合约束条件的第一检测结果予以排除,以有利于提高跌倒行为检测的可靠性,降低了误检。
实施例二
为进一步提高跌倒行为检测的可靠性,还可以采用多相机(检测设备)联动检测来降低跌倒行为的误检。
参见图6所示,图6为实施例二多相机联动检测方法中多检测设备组成的检测***的一种示意图。分别布置多个相机,较佳地,多个相机在地平面投影均匀分布。假设相机数量为n,则每个相机所采集的视野范围在地平面的投影范围至少为360°/n,其中,n为大于1的自然数。例如,当采用4个相机时,相机1的视野范围在地平面的投影范围为-45°~45°,相机2的视野范围在地平面的投影范围为45°~135°,相机3的视野范围在地平面的投影范围为135°~225°,相机3的视野范围在地平面的投影范围为225°~315°。
参见图7所示,图7为实施例二跌倒行为检测的一种框架示意图。每个相机独立地采集其视野范围的图像,并独立地进行跌倒行为检测,也就是说,对于其中任意相机,对于时间序列的T帧,基于每一帧分别进行目标检测、跟踪、姿态估计,将各帧的姿态估计均通过图卷积分类识别来进行姿态识别,其中,T为大于等于1的自然数。每个相机分别对姿态识别结果进行过滤,将每个相机过滤后所保留的姿态识别结果合并,作为最终检测结果。
参见图8所示,图8为本实施例二跌倒行为检测的一种流程示意图。检测***中的任一相机侧包括,
步骤801,采用深度学习目标检测算法进行目标检测,以便有效识别图像中的所有目标的位置信息,得到至少一个目标框信息。
其中,深度学习目标检测算法可以是YOLO(you only look once)算法,Faster R-CNN算法,SSD算法。以YOLO算法为例,该算法可直接基于输入图像输出各个目标的类别和在图像中的相应的位置信息;在本实施例中,应用YOLO算法基于输入图像输出图像中所包括的各个人员和其位置。
步骤802,基于t帧目标位置信息,与t-1帧进行跟踪匹配,可以按照前后帧交并比进行跟踪匹配,当交并比大于设定的阈值则为匹配成功,生成t帧的跟踪目标框;
步骤803,通过ALPHAPOSE算法对跟踪目标框进行姿态估计,输出目标骨骼数据信息,包括18个骨骼肢点,每个肢点三个信息,分别是坐标x、y和置信度信息,并将该骨骼数据信息存入用于进行图卷积分类的输入缓冲队列。
步骤804,将骨骼数据信息输入至图卷积分类模型,通过图卷积分类模型进行识别,如果输出为跌倒行为结果(第一检测结果),则执行步骤805,否则,返回步骤801,或者,结束本次跌倒行为检测。
步骤805,基于骨骼数据信息中的腰部肢点和头部肢点,生成从腰部肢点到头部肢点的有向线段,
参见图9所示,图9为两相机同时进行检测一种示意图。在非跌倒状态下,两相机所采集的图像均是头部在上,腰部在下,从腰部到头部的有向线段垂直于地平面,也就是如图所示的世界坐标系下的y方向,在跌倒状态3时,对于相机B而言,从腰部到头部的有向线段指向相机B,对于相机A而言,从腰部到头部的有向线段背离相机A,在跌倒状态2时,对于相机B而言,从腰部到头部的有向线段背离相机B,对于相机A而言,从腰部到头部的有向线段指向相机A。
步骤806,利用图像视觉模型,将腰部肢点、和头部肢点的像素坐标分别转换为世界坐标系下的全局坐标,得到腰部肢点的全局坐标和头部肢点的全局坐标,
该步骤与步骤408相同。
步骤807,根据腰部肢点的全局坐标和头部肢点的全局坐标,判断该有向线段是否在本相机视野范围内,如果是,则执行步骤808,否则,滤除第一检测结果,结束本流程。
其中,有向线段在本相机视野范围内的条件是:有向线段在地平面的投影在本相机视野范围在地平面上的投影范围、且指向本相机。
例如,图9中,当头部肢点的x全局坐标大于腰部肢点的x全局坐标时,说明有向线段指向相机B、且背离相机A,
当头部肢点的x全局坐标小于腰部肢点的x全局坐标时,说明有向线段指向相机A、且背离相机B,
鉴于相机A的视野范围在地平面上的投影范围为90°~270°,相机B的视野范围在地平面上的投影范围为90°~-90°,故而,在跌倒状态2时,由相机A执行步骤808;在跌倒状态3时,由相机B执行步骤808,这样,有利于减少***计算量,并使得各个检测设备只处理跌倒方向指向本检测设备的第一检测结果的过滤。
步骤808,根据腰部肢点的全局坐标和头部肢点的全局坐标,计算该有向线段与世界坐标系中y轴之间的第一夹角,该步骤与步骤409相同。
步骤809,判断有向线段与世界坐标系中y轴之间的第一夹角是否大于设定的第一阈值,如果是,则认为该第一检测结果可靠,保留该第一检测结果,并将该第一检测结果发送至指定设备中,以使得指定设备汇集来自各个相机第一检测结果,将汇集的第一检测结果输出,否则,认为该第一检测结果为误检,予以滤除。
其中,指定设备可以是多个相机中任一指定相机,也可以是网络设备,包括且不限于服务器、云端等。
通过上述步骤805~809,使得当有向线段指向本检测设备时,保留该第一检测结果;当有向线段背离本检测设备时,去除该第一检测结果。
本实施例由从腰部肢点到头部肢点的有向线段所关联的相机来对其第一检测结果实施过滤,由于所关联的相机能够采集到更全方位的图像,从而有利于提高检测结果可靠性;根据有向线段与世界坐标系中y轴之间的第一夹角情况进一步地检验检测结果,有利于降低误检,尤其是对于从站立到下蹲或落座、弯腰等姿态估计的误检,能够有效地予以剔除。
实施例三
参见图10所示,图10为本实施例三跌倒行为检测的一种流程示意图。检测***中的任一相机侧包括,
步骤1001~1006分别与步骤801~806相同;
步骤1007,根据腰部肢点的全局坐标和头部肢点的全局坐标,计算该有向线段与世界坐标系中y轴之间的第一夹角,该步骤与步骤409相同。
步骤1008,判断有向线段与世界坐标系中y轴之间的第一夹角是否大于设定的第一阈值,如果是,则认为该第一检测结果可靠,保留该第一检测结果,并将该第一检测结果发送至指定设备中,以使得指定设备汇集来自各个相机第一检测结果,将汇集的第一检测结果输出,否则,认为该第一检测结果为误检,予以滤除。
其中,指定设备可以是多个相机中任一指定相机,也可以是网络设备,包括且不限于服务器、云端等。
本实施例中,多个相机同时进行跌倒行为检测,有利于跌倒行为降低漏检,每个相机都对其第一检测结果实施过滤,相当于综合了多个相机的第一检测结果,有利于降低误检。
实施例四
鉴于人体本身具有生理弯曲,尤其对于老年人而言,生理弯曲随着年龄的增加而增加。参见图11所示,图11为考虑人体生理弯曲时非跌倒状态和跌倒状态下从腰部到头部的有向线段的一种示意图。从图中可见,由于生理弯曲的存在,在非跌倒状态下有效线段与世界坐标系中的y轴具有第一夹角。为了降低跌倒行为的误检,本实施例方法排除生理弯曲所带来的误检。
参见图12所示,图12为本实施例四跌倒行为检测的一种流程示意图。检测***中的任一相机侧包括,
步骤1201~1206分别与步骤801~806、或者步骤1001~1006相同;
步骤1207,根据腰部肢点的全局坐标和头部肢点的全局坐标,计算该有向线段与世界坐标系中y轴之间的第一夹角,该步骤与步骤409相同。
步骤1208,判断第一夹角与第二夹角之差是否大于设定的第二阈值,如果是,则认为该第一检测结果可靠,保留该第一检测结果,并将该第一检测结果发送至指定设备中,以使得指定设备汇集来自各个相机第一检测结果,将汇集的第一检测结果输出,否则,认为该第一检测结果为误检,予以滤除。
其中,第二夹角为非跌倒状态下从腰部肢点到头部肢点的有向线段与世界坐标系中y轴之间的夹角,该第二夹角可以在检测过程中根据第一检测结果为非跌倒行为时所使用的骨骼数据信息获得,也可以预先对锁定的被检测目标在非跌倒状态下(例如,站立等姿态)进行姿态估计时获得并作为属性予以保存。
本实施例根据第一夹角和第二夹角之差对第一检测结果进行过滤,由于第二夹角可以因被检测目标的不同而不同,从而能够更准确地过滤掉误检的第一检测结果,提高了***的可靠性。
参见图13所示,图13为本申请实施例检测设备的一种示意图,该检测设备中包括有用于降低跌倒行为误检的装置,该装置包括,
分析模块,用于根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系;所述第一检测结果为被识别为跌倒行为的检测结果;
过滤模块,用于利用所述相对位置关系,对第一检测结果进行过滤,保留符合条件的第一检测结果,
其中,所述条件为:以地平面为参照系,头部未位于腰部上方。
所述分析模块包括,
坐标转换子模块,用于将腰部肢点信息和头部肢点信息的像素坐标分别映射为世界坐标系下的全局坐标,得到腰部肢点和头部肢点的全局位置信息,
计算子模块,用于根据腰部肢点和头部肢点的全局位置信息,计算连接于腰部肢点和头部肢点的第一线段与垂直于地平面的第一方向之间的第一夹角。
所述过滤模块还用于:当第一夹角大于设定第一阈值时,保留该第一检测结果。
所述分析模块还包括,
跌倒方向识别子模块,用于根据从腰部肢点到头部肢点所确定的全局坐标系下的有向线段的指向,确定跌倒方向;
所述过滤模块还用于:当有向线段指向本检测设备时,保留该第一检测结果;当有向线段背离本检测设备时,去除该第一检测结果。
较佳地,所述分析模块还包括,
触发子模块,用于当跌倒方向指向本检测设备时,向计算子模块输出触发信号以触发计算子模块计算第一夹角。
参见图14所示,图14为检测设备的另一种示意图。该检测设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器被配置执行所述计算机程序实现本申请实施例任一所述降低跌倒行为误检的方法的步骤。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供了一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现实施例所述步骤。
对于装置/网络侧设备/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (9)

1.一种降低跌倒行为误检的方法,其特征在于,该方法包括,在n个基于图像进行姿态识别的检测设备中的每一检测设备侧,其中,每个检测设备所采集的视野范围在地平面的投影范围相同,n为大于等于2的自然数,
获取该检测设备基于图像所识别的跌倒行为的第一检测结果;
根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系;
利用所述相对位置关系,对第一检测结果进行过滤,当由腰部位置指向头部位置有向线段指向本检测设备时,保留该第一检测结果;当由腰部位置指向头部位置有向线段背离本检测设备时,去除该第一检测结果;
其中,
各检测设备侧所保留的第一检测结果被汇集以用于跌倒行为检测;
所述由腰部位置指向头部位置有向线段指向本检测设备,包括:以地平面为参照系,头部未位于腰部上方,且,根据腰部和头部相对位置关系所确定的有向线段指向本检测设备;
所述根据获取第一检测结果时所使用的姿态估计的骨骼信息中的腰部肢点信息和头部肢点信息,确定腰部和头部之间的相对位置关系,包括:
在任一检测设备侧:
将腰部肢点信息和头部肢点信息的像素坐标分别映射为世界坐标系下全局坐标,
根据腰部肢点的全局坐标和头部肢点的全局坐标,判断有向线段在地平面的投影是否位于本检测设备视野范围在地平面上的投影范围内、且指向本检测设备,
如果是,则判定有向线段指向本检测设备,
否则,判定有向线段背离本检测设备。
2.如权利要求1所述的方法,其特征在于,所述头部未位于腰部上方根据连接于腰部肢点和头部肢点所确定的全局坐标系下的第一线段与垂直于地平面的第一方向之间的第一夹角确定。
3.如权利要求2所述的方法,其特征在于,所述根据连接于腰部肢点和头部肢点所确定的全局坐标系下的第一线段与垂直于地平面的第一方向之间的第一夹角确定,包括:
将腰部肢点信息和头部肢点信息的像素坐标分别映射为世界坐标系下的全局坐标,
根据腰部肢点和头部肢点的全局坐标,计算连接于腰部肢点和头部肢点的第一线段与垂直于地平面的第一方向之间的第一夹角;
所述利用所述相对位置关系,对第一检测结果进行过滤,保留符合条件的第一检测结果,包括:
判断第一夹角是否大于设定的第一阈值,如果是,则保留该第一检测结果。
4.如权利要求1所述的方法,其特征在于,所述头部未位于腰部上方根据从腰部肢点到头部肢点所确定的全局坐标系下的有向线段的指向所确定的跌倒方向确定。
5.如权利要求4所述的方法,其特征在于,所述根据从腰部肢点到头部肢点所确定的全局坐标系下的有向线段的指向所确定的跌倒方向确定,包括:
如果有向线段指向本检测设备,则判定跌倒方向朝向本检测设备,否则,判定跌倒方向背离本检测设备;当跌倒方向朝向本检测设备,则根据腰部肢点和头部肢点的全局坐标,计算连接于腰部肢点和头部肢点的第一线段与垂直于地平面的第一方向之间的第一夹角。
6.如权利要求3所述的方法,其特征在于,所述有向线段指向本检测设备时,保留该第一检测结果,包括:
判断第一夹角是否大于设定的第一阈值,如果是,则保留该第一检测结果,并将该第一检测结果发送至指定设备,使得指定设备汇集来自各个检测设备的第一检测结果。
7.如权利要求3所述的方法,其特征在于,所述有向线段指向本检测设备时,保留该第一检测结果,包括:
判断第一夹角与第二夹角之差是否大于设定的第二阈值,如果是,则保留该第一检测结果,并将该第一检测结果发送至指定设备,使得指定设备汇集来自各个检测设备的第一检测结果;
其中,第二夹角为非跌倒状态下从腰部肢点到头部肢点的有向线段与垂直于地平面的第一方向之间的夹角。
8.一种检测设备,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器被配置执行所述计算机程序实现如权利要求1至7任一所述降低跌倒行为误检的方法的步骤。
9.一种检测***,其特征在于,包括n个如权利要求8所述的检测设备,其中,n为大于等于2的自然数。
CN202110635639.7A 2021-06-08 2021-06-08 一种降低跌倒行为误检的方法、检测*** Active CN113378692B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110635639.7A CN113378692B (zh) 2021-06-08 2021-06-08 一种降低跌倒行为误检的方法、检测***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110635639.7A CN113378692B (zh) 2021-06-08 2021-06-08 一种降低跌倒行为误检的方法、检测***

Publications (2)

Publication Number Publication Date
CN113378692A CN113378692A (zh) 2021-09-10
CN113378692B true CN113378692B (zh) 2023-09-15

Family

ID=77576424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110635639.7A Active CN113378692B (zh) 2021-06-08 2021-06-08 一种降低跌倒行为误检的方法、检测***

Country Status (1)

Country Link
CN (1) CN113378692B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081619A (en) * 1995-07-19 2000-06-27 Matsushita Electric Industrial Co., Ltd. Movement pattern recognizing apparatus for detecting movements of human bodies and number of passed persons
CN103118647A (zh) * 2010-09-22 2013-05-22 松下电器产业株式会社 运动支援***
CN105448039A (zh) * 2014-08-21 2016-03-30 昆山市华正电子科技有限公司 降低误报警率的跌倒检测方法
CN108629946A (zh) * 2018-06-14 2018-10-09 清华大学深圳研究生院 一种基于rgbd传感器的人体跌倒检测方法
CN108652637A (zh) * 2018-06-30 2018-10-16 源珈力医疗器材国际贸易(上海)有限公司 一种穿戴式跌倒预测防护***及其预测方法
CN112698288A (zh) * 2020-11-17 2021-04-23 芜湖美的厨卫电器制造有限公司 用于识别姿态的方法、装置、处理器、热水器及监测***
CN112906548A (zh) * 2021-02-07 2021-06-04 广东省科学院智能制造研究所 一种基于边缘计算的跌倒检测方法及***

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0203483D0 (sv) * 2002-11-21 2002-11-21 Wespot Ab Method and device for fall detection
JP7473355B2 (ja) * 2019-08-29 2024-04-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 転倒リスク評価方法、転倒リスク評価装置及び転倒リスク評価プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081619A (en) * 1995-07-19 2000-06-27 Matsushita Electric Industrial Co., Ltd. Movement pattern recognizing apparatus for detecting movements of human bodies and number of passed persons
CN103118647A (zh) * 2010-09-22 2013-05-22 松下电器产业株式会社 运动支援***
CN105448039A (zh) * 2014-08-21 2016-03-30 昆山市华正电子科技有限公司 降低误报警率的跌倒检测方法
CN108629946A (zh) * 2018-06-14 2018-10-09 清华大学深圳研究生院 一种基于rgbd传感器的人体跌倒检测方法
CN108652637A (zh) * 2018-06-30 2018-10-16 源珈力医疗器材国际贸易(上海)有限公司 一种穿戴式跌倒预测防护***及其预测方法
CN112698288A (zh) * 2020-11-17 2021-04-23 芜湖美的厨卫电器制造有限公司 用于识别姿态的方法、装置、处理器、热水器及监测***
CN112906548A (zh) * 2021-02-07 2021-06-04 广东省科学院智能制造研究所 一种基于边缘计算的跌倒检测方法及***

Also Published As

Publication number Publication date
CN113378692A (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
CN108629946B (zh) 一种基于rgbd传感器的人体跌倒检测方法
WO2021227874A1 (zh) 一种跌倒行为的检测方法和设备
US8179440B2 (en) Method and system for object surveillance and real time activity recognition
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
CN111753643B (zh) 人物姿态识别方法、装置、计算机设备和存储介质
Delachaux et al. Indoor activity recognition by combining one-vs.-all neural network classifiers exploiting wearable and depth sensors
JP6773829B2 (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP6444283B2 (ja) 姿勢判定装置
JP2018206321A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN109791615A (zh) 用于检测并跟踪目标对象的方法、目标对象跟踪设备和计算机程序产品
JP2000251078A (ja) 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
CN111598865A (zh) 基于热红外和rgb双摄的手足口病检测方法、装置及***
CN113807289A (zh) 人体姿态的检测方法及装置、电子设备、存储介质
CN108710841A (zh) 一种基于MEMs红外阵列传感器的人脸活体检测装置及方法
US20220366716A1 (en) Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program
CN113378692B (zh) 一种降低跌倒行为误检的方法、检测***
CN113008380A (zh) 一种智慧ai体温预警方法、***及存储介质
JP7304235B2 (ja) 学習済みモデル、学習装置、学習方法、及び学習プログラム
US20220395193A1 (en) Height estimation apparatus, height estimation method, and non-transitory computer readable medium storing program
CN113989643B (zh) 管道状态检测方法、装置、介质及计算设备
CN113283415B (zh) 一种基于深度相机的久坐久卧检测方法
CN114170677A (zh) 一种检测抽烟行为的网络模型训练方法及其设备
JP7136344B2 (ja) カメラの較正方法、カメラ及びプログラム
Rasouli et al. Dynamic posture estimation in a network of depth sensors using sample points
KR102134771B1 (ko) 객체 인식을 통해 위급 상황을 판단하는 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant