CN108171187A - 一种基于骨点提取的异常行为自动识别方法及装置 - Google Patents
一种基于骨点提取的异常行为自动识别方法及装置 Download PDFInfo
- Publication number
- CN108171187A CN108171187A CN201810007029.0A CN201810007029A CN108171187A CN 108171187 A CN108171187 A CN 108171187A CN 201810007029 A CN201810007029 A CN 201810007029A CN 108171187 A CN108171187 A CN 108171187A
- Authority
- CN
- China
- Prior art keywords
- bone point
- abnormal behaviour
- bone
- video
- confidence map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于骨点提取的异常行为自动识别方法及装置,本发明通过对视频中的人员进行骨点提取和检测,然后对骨点进行跟踪,最后利用训练好的分类器对不同帧的骨点位置进行分类,从而实现对异常行为的识别。本发明可以快速、准确的对视频中的人员的异常行为进行识别和预警,从而避免了传统异常行为识别方法准确率低、实时性差的问题。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种基于骨点提取的异常行为自动识别方法及装置。
背景技术
近年来,频发的突发事件和异常事件已经严重影响了社会的公共安全。针对频发的突发事件和异常事件等危害公共安全的行为,世界各国已经将异常行为识别技术作为安全防范的一种重要手段。
人体异常行为是指人体无规律的非正常行为,如人体的突然奔跑、打架、病倒、徘徊、人员大量聚集等。异常行为识别技术是从采集到的视频序列中检测并识别人员异常行为的一种技术,该技术可以有效的预防***、***件等突发事件的发生,可以为监控人员提供及时的预警信息,有效辅助相关人员实时的对监控场景中出现的异常情况进行判断和采取措施。
但是目前针对越来越多的突发事件和异常事件,现有技术中尚不能准确地对突发事件和异常事件中人的行为进行识别。
发明内容
鉴于上述的分析,本发明旨在提供一种基于骨点提取的异常行为自动识别方法及装置,用以解决现有技术不能准确地对突发事件和异常事件中人的行为进行识别的问题。
为解决上述问题,本发明主要是通过以下技术方案实现的:
本发明提供了一种基于骨点提取的异常行为自动识别方法,该方法包括:获取视频图像中人的置信图和部位亲和字段part affine field,对视频中的人员进行骨点检测,并确定骨点归属;采用光流法对不同人的各个骨点位置进行跟踪;将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为。
进一步地,所述获取视频图像中人的置信图和部位亲和字段包括:通过两路多级联卷积深度神经网络提取置信图和部位亲和字段。
进一步地,所述通过两路多级联卷积深度神经网络提取置信图和部位亲和字段包括:通过一路多级联卷积深度神经网络提取置信图对所有人的骨点进行预测,获得所有人骨点的位置;通过一路多级联卷积深度神经网络提取每个骨点的部位亲和字段,对骨点进行归属判断。
进一步地,所述采用光流法对不同人的各个骨点位置进行跟踪包括:
对一个连续的视频帧序列中的任意一个视频帧,通过提取其置信图和部位亲和字段两个特征,确定人体的骨点位置,对之后的任意两个相邻视频帧,寻找上一帧中出现的骨点在当前帧中的最佳位置,得到骨点在当前帧中的位置坐标,如此迭代进行,以对人体骨点进行跟踪。
进一步地,将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为包括:获取包含一类型异常行为的一段训练视频流,对该段训练视频流中的每帧图像作骨点检测和骨点跟踪的操作,获得多帧图像的人体骨点的位置;将所有视频帧的骨点位置构成一个训练样本;重复上述步骤,获得一类异常行为中的多个训练样本,构成训练样本集;采用高斯混合模型对训练样本集中的骨点位置进行建模构建分类器,通过所述分类器对异常行为进行分类。
另一方面,本发明还提供一种基于骨点提取的异常行为自动识别装置,该装置包括:骨点检测单元,用于获取视频图像中人的置信图和部位亲和字段,对视频中的人员进行骨点检测,并确定骨点归属;骨点跟踪单元,用于采用光流法对不同人的各个骨点位置进行跟踪;异常行为识别单元,用于将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为。
进一步地,所述骨点检测单元还用于,通过两路多级联卷积深度神经网络提取置信图和部位亲和字段。
进一步地,所述骨点检测单元还用于,通过一路多级联卷积深度神经网络提取置信图对所有人的骨点进行预测,获得所有人骨点的位置;通过一路多级联卷积深度神经网络提取每个骨点的部位亲和字段,对骨点进行归属判断。
进一步地,所述骨点跟踪单元还用于,对一个连续的视频帧序列中的任意一个视频帧,通过提取其置信图和部位亲和字段两个特征,确定人体的骨点位置,对之后的任意两个相邻视频帧,寻找上一帧中出现的骨点在当前帧中的最佳位置,得到骨点在当前帧中的位置坐标,如此迭代进行,以对人体骨点进行跟踪。
进一步地,所述异常行为识别单元还用于,获取包含一类型异常行为的一段训练视频流,对该段训练视频流中的每帧图像作骨点检测和骨点跟踪的操作,获得多帧图像的人体骨点的位置;将所有视频帧的骨点位置构成一个训练样本;重复上述步骤,获得第一类异常行为的多个训练样本,构成训练样本集;采用高斯混合模型对训练样本集中的骨点位置进行建模构建分类器,通过所述分类器对异常行为进行分类。
本发明有益效果如下:
本发明通过对视频中的人员进行骨点提取和检测,然后对骨点进行跟踪,最后利用训练好的分类器对不同帧的骨点位置进行分类,从而实现对异常行为的识别。本发明可以快速、准确的对视频中的人员的异常行为进行识别和预警,从而避免了传统异常行为识别方法准确率低、实时性差的问题。
本发明的其他特征和优点将在随后的说明书中阐述,并且部分的从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
图1是本发明实施例的一种基于骨点提取的异常行为自动识别方法的流程示意图;
图2是本发明实施例的一种基于骨点提取的异常行为自动识别装置的结构示意图;
图3是本发明实施例的另一种基于骨点提取的异常行为自动识别方法的流程示意图;
图4是本发明实施例的另一种基于骨点提取的异常行为自动识别装置的结构示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理。为了清楚和简化目的,当其可能使本发明的主题模糊不清时,将省略本文所描述的器件中已知功能和结构的详细具体说明。
本发明实施例通过对视频中的人员进行骨点提取和检测,然后对骨点进行跟踪,最后利用训练好的分类器对不同帧的骨点位置进行分类,从而实现对异常行为的识别。本发明可以快速、准确的对视频中的人员的异常行为进行识别和预警,从而避免了传统异常行为识别方法准确率低、实时性差的问题。以下结合附图以及几个实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不限定本发明。
本发明实施例提供了一种基于骨点提取的异常行为自动识别方法,参见图1,该方法包括:
S101、获取视频图像中人的置信图和部位亲和字段part affine field,对视频中的人员进行骨点检测,并确定骨点归属;
S102、采用光流法对不同人的各个骨点位置进行跟踪;
S103、将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为。
也就是说,本发明实施例通过对视频中的人员进行骨点提取和检测,然后对骨点进行跟踪,最后利用训练好的分类器对不同帧的骨点位置进行分类,从而实现对异常行为的识别。本发明可以快速、准确的对视频中的人员的异常行为进行识别和预警,从而避免了传统异常行为识别方法准确率低、实时性差的问题。
具体来说,本发明实施例是在进行骨点检测时,通过提取置信图获得视频中所有人员的骨点位置,然后通过提取部位亲和字段对骨点位置进行归属判断,即判断该骨点属于哪一个人,从而最终确定每个人的骨点位置,进而识别多人互动行为,如打架斗殴等行为。
需要说明的是,现有技术都是针对单人独立行为如跌倒、蹲下等进行识别,没有针对多人互动行为如打架斗殴等进行识别,本发明实施例所述的方法不但可以对单人独立行为进行识别,还可以对多人互动行为进行识别。
即,相比现有技术的异常行为识别技术,本发明实施例是通过对视频图像中人体的骨点的检测和对不同视频帧的骨点的跟踪,自动的对人员异常行为进行识别和预警,从而大大的提高了异常行为识别的准确率和实时性。
具体实施时,本发明实施例所述获取视频图像中人的置信图和部位亲和字段包括:通过两路多级联卷积深度神经网络提取置信图和部位亲和字段。
进一步地,本发明实施例所述通过两路多级联卷积深度神经网络提取置信图和部位亲和字段包括:通过一路多级联卷积深度神经网络提取置信图对所有人的骨点进行预测,获得所有人骨点的位置;通过一路多级联卷积深度神经网络提取每个骨点的部位亲和字段,对骨点进行归属判断。
具体实施时,本发明实施例所述采用光流法对不同人的各个骨点位置进行跟踪包括:对一个连续的视频帧序列中的任意一个视频帧,通过提取其置信图和部位亲和字段两个特征,确定人体的骨点位置,对之后的任意两个相邻视频帧,寻找上一帧中出现的骨点在当前帧中的最佳位置,得到骨点在当前帧中的位置坐标,如此迭代进行,以对人体骨点进行跟踪。
具体实施时,本发明实施例所述将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为包括:获取包含一类型异常行为的一段训练视频流,对该段训练视频流中的每帧图像作骨点检测和骨点跟踪的操作,获得多帧图像的人体骨点的位置;将所有视频帧的骨点位置构成一个训练样本;重复上述步骤,获得一类异常行为中的多个训练样本,构成训练样本集;采用高斯混合模型对训练样本集中的骨点位置进行建模构建分类器,通过所述分类器对异常行为进行分类。
总体来说,本发明实施例通过两路多级联卷积深度神经网络模型对视频图像中人体的骨点进行检测,然后采用光流法对不同视频帧的骨点进行跟踪,最后采用分类器对骨点位置进行分类,从而实现对人员异常行为的识别和预警。
图2是本发明实施例的一种基于骨点提取的异常行为自动识别装置的结构示意图,图3是本发明实施例的另一种基于骨点提取的异常行为自动识别方法的流程示意图,下面将结合图2和图3对本发明实施例所述的方法进行详细的解释和说明:
具体来说,为解决现有技术存在的准确率低、实时性差等问题,本发明实施例提供一种基于骨点提取的异常行为识别装置。具体如图2所示,本发明的拍照行为识别装置由视频数据采集单元、骨点检测单元、骨点跟踪单元、异常行为识别单元、报警单元组成。本发明实施例首先利用视频数据采集单元获取视频数据,然后对采集到的视频数据进行人体的骨点检测和骨点跟踪,从而准确地利用跟踪到的骨点进行异常行为识别,最后对异常行为进行报警。
本发明实施例还提供了另一种基于骨点提取的异常行为自动识别方法,具体如图3所示,在视频数据采集单元,利用视频采集装备对视频图像进行采集,以便在骨点检测单元对其进行分析处理。在骨点检测单元提取视频数据采集单元获取到的视频图像中人的置信图和部位亲和字段,从而对视频中的人员进行骨点检测。
需要说明的是,本发明实施例需首先对视频图像进行去噪等预处理,然后,本发明通过两路多级联卷积深度神经网络提取置信图和部位亲和字段两个特征。具体地,本发明实施例采用一路多级联卷积深度神经网络通过提取置信图对所有人的骨点进行预测,获得所有人骨点的位置;采用另外一路多级联卷积深度神经网络通过提取每个骨点的部位亲和字段,对骨点进行归属判断,即判断任意一骨点属于哪一个人,从而确定不同人的骨点位置。
在骨点跟踪单元确定了不同人的骨点位置后,采用光流法对不同人的各个骨点位置进行跟踪。
本发明实施例的光流法用于人体骨点跟踪包括:
1.对一个连续的视频帧序列中的任意一个视频帧,通过提取其置信图和部位亲和字段两个特征,确定人体的骨点位置;
2.对之后的任意两个相邻视频帧而言,寻找上一帧中出现的骨点在当前帧中的最佳位置,从而得到骨点在当前帧中的位置坐标;
3.如此迭代进行,便可实现人体骨点的跟踪。在异常行为识别单元,本发明利用训练好的分类器将一段时间内连续视频帧的骨点位置进行分类,从而识别人员的异常行为。
本发明实施例分类器的训练过程包括:
1.获取包含某类型异常行为的一段训练视频流,对该段训练视频流中的每帧图像作骨点检测和骨点跟踪的操作,获得多帧图像的人体骨点的位置;
2.将所有视频帧的骨点位置构成一个训练样本;
3.重复步骤1和2,获得某类异常行为中的多个训练样本,构成训练样本集;
4.采用高斯混合模型对训练样本集中的骨点位置进行建模构建分类器,以便利用该训练好的分类器对异常行为进行分类。
若分类器的输出结果为异常,则***给出异常报警,否则不报警。
需要说明的是,两路多级联卷积深度神经网络和光流法是现有的技术,所以在此不再对此做详细赘述。并且,本发明实施例的分类器不限于高斯混合模型,本领域的技术人员可以根据实际需要来设置其他的分类器,本发明实施例对此不作具体限定。
本发明实施例还提供了一种基于骨点提取的异常行为自动识别装置,参见图4,该装置包括:
骨点检测单元,用于获取视频图像中人的置信图和部位亲和字段partaffinefield,对视频中的人员进行骨点检测,并确定骨点归属;
骨点跟踪单元,用于采用光流法对不同人的各个骨点位置进行跟踪;
异常行为识别单元,用于将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为。
也就是说,本发明实施例通过对视频中的人员进行骨点提取和检测,然后对骨点进行跟踪,最后利用训练好的分类器对不同帧的骨点位置进行分类,从而实现对异常行为的识别。本发明可以快速、准确的对视频中的人员的异常行为进行识别和预警,从而避免了传统异常行为识别方法准确率低、实时性差的问题。
具体来说,本发明实施例是在进行骨点检测时,通过提取置信图获得视频中所有人员的骨点位置,然后通过提取部位亲和字段对骨点位置进行归属判断,即判断该骨点属于哪一个人,从而最终确定每个人的骨点位置,进而识别多人互动行为,如打架斗殴等行为。
需要说明的是,现有技术都是针对单人独立行为如跌倒、蹲下等进行识别,没有针对多人互动行为如打架斗殴等进行识别,本发明实施例所述的方法不但可以对单人独立行为进行识别,还可以对多人互动行为进行识别。
即,相比现有技术的异常行为识别方法,本发明实施例是通过对视频图像中人体的骨点的检测和对不同视频帧的骨点的跟踪,自动的对人员异常行为进行识别和预警,从而大大的提高了异常行为识别的准确率和实时性。
具体实施时,本发明实施例所述骨点检测单元还用于,通过两路多级联卷积深度神经网络提取置信图和部位亲和字段。
进一步地,本发明实施例所述骨点检测单元还用于,通过一路多级联卷积深度神经网络提取置信图对所有人的骨点进行预测,获得所有人骨点的位置;通过一路多级联卷积深度神经网络提取每个骨点的部位亲和字段,对骨点进行归属判断。
具体实施时,本发明实施例所述骨点跟踪单元还用于,对一个连续的视频帧序列中的任意一个视频帧,通过提取其置信图和部位亲和字段两个特征,确定人体的骨点位置,对之后的任意两个相邻视频帧,寻找上一帧中出现的骨点在当前帧中的最佳位置,得到骨点在当前帧中的位置坐标,如此迭代进行,以对人体骨点进行跟踪。
具体实施实施时本发明实施例所述异常行为识别单元还用于,获取包含一类型异常行为的一段训练视频流,对该段训练视频流中的每帧图像作骨点检测和骨点跟踪的操作,获得多帧图像的人体骨点的位置;将所有视频帧的骨点位置构成一个训练样本;重复上述步骤,获得第一类异常行为的多个训练样本,构成训练样本集;采用高斯混合模型对训练样本集中的骨点位置进行建模构建分类器,通过所述分类器对异常行为进行分类。
总体来说,本发明实施例通过两路多级联卷积深度神经网络模型对视频图像中人体的骨点进行检测,然后采用光流法对不同视频帧的骨点进行跟踪,最后采用分类器对骨点位置进行分类,从而实现对人员异常行为的识别和预警。
本发明实施例的相关内容可参照方法实施例部分进行理解,在此不做详细赘述。
相应的,本发明的实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现前述实施例提供的任一种所述的自动识别拍照行为的方法,因此也能实现相应的技术效果,相关部分可参照方法实施例进行理解,在此不再详细赘述。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (10)
1.一种基于骨点提取的异常行为自动识别方法,其特征在于,包括:
获取视频图像中人的置信图和部位亲和字段part affine field,对视频中的人员进行骨点检测,并确定骨点归属;
采用光流法对不同人的各个骨点位置进行跟踪;
将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为。
2.根据权利要求1所述的方法,其特征在于,所述获取视频图像中人的置信图和部位亲和字段包括:
通过两路多级联卷积深度神经网络提取置信图和部位亲和字段。
3.根据权利要求2所述的方法,其特征在于,所述通过两路多级联卷积深度神经网络提取置信图和部位亲和字段包括:
通过一路多级联卷积深度神经网络提取置信图对所有人的骨点进行预测,获得所有人骨点的位置;
通过一路多级联卷积深度神经网络提取每个骨点的部位亲和字段,对骨点进行归属判断。
4.根据权利要求1-3中任意一项所述的方法,其特征在于,所述采用光流法对不同人的各个骨点位置进行跟踪包括:
对一个连续的视频帧序列中的任意一个视频帧,通过提取其置信图和部位亲和字段两个特征,确定人体的骨点位置,对之后的任意两个相邻视频帧,寻找上一帧中出现的骨点在当前帧中的最佳位置,得到骨点在当前帧中的位置坐标,如此迭代进行,以对人体骨点进行跟踪。
5.根据权利要求1-3中任意一项所述的方法,其特征在于,将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为包括:
获取包含一类型异常行为的一段训练视频流,对该段训练视频流中的每帧图像作骨点检测和骨点跟踪的操作,获得多帧图像的人体骨点的位置;
将所有视频帧的骨点位置构成一个训练样本;
重复上述步骤,获得一类异常行为中的多个训练样本,构成训练样本集;
采用高斯混合模型对训练样本集中的骨点位置进行建模构建分类器,通过所述分类器对异常行为进行分类。
6.一种基于骨点提取的异常行为自动识别装置,其特征在于,包括:
骨点检测单元,用于获取视频图像中人的置信图和部位亲和字段part affine field,对视频中的人员进行骨点检测,并确定骨点归属;
骨点跟踪单元,用于采用光流法对不同人的各个骨点位置进行跟踪;
异常行为识别单元,用于将预定时间内连续视频帧的骨点位置进行分类,以识别异常行为。
7.根据权利要求6所述的装置,其特征在于,
所述骨点检测单元还用于,通过两路多级联卷积深度神经网络提取置信图和部位亲和字段。
8.根据权利要求7所述的装置,其特征在于,
所述骨点检测单元还用于,通过一路多级联卷积深度神经网络提取置信图对所有人的骨点进行预测,获得所有人骨点的位置;通过一路多级联卷积深度神经网络提取每个骨点的部位亲和字段,对骨点进行归属判断。
9.根据权利要求6-8中任意一项所述的装置,其特征在于,
所述骨点跟踪单元还用于,对一个连续的视频帧序列中的任意一个视频帧,通过提取其置信图和部位亲和字段两个特征,确定人体的骨点位置,对之后的任意两个相邻视频帧,寻找上一帧中出现的骨点在当前帧中的最佳位置,得到骨点在当前帧中的位置坐标,如此迭代进行,以对人体骨点进行跟踪。
10.根据权利要求6-8中任意一项所述的装置,其特征在于,
所述异常行为识别单元还用于,获取包含一类型异常行为的一段训练视频流,对该段训练视频流中的每帧图像作骨点检测和骨点跟踪的操作,获得多帧图像的人体骨点的位置;将所有视频帧的骨点位置构成一个训练样本;重复上述步骤,获得第一类异常行为的多个训练样本,构成训练样本集;采用高斯混合模型对训练样本集中的骨点位置进行建模构建分类器,通过所述分类器对异常行为进行分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810007029.0A CN108171187A (zh) | 2018-01-04 | 2018-01-04 | 一种基于骨点提取的异常行为自动识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810007029.0A CN108171187A (zh) | 2018-01-04 | 2018-01-04 | 一种基于骨点提取的异常行为自动识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108171187A true CN108171187A (zh) | 2018-06-15 |
Family
ID=62517285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810007029.0A Pending CN108171187A (zh) | 2018-01-04 | 2018-01-04 | 一种基于骨点提取的异常行为自动识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108171187A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543513A (zh) * | 2018-10-11 | 2019-03-29 | 平安科技(深圳)有限公司 | 智能监控实时处理的方法、装置、设备及存储介质 |
CN111046819A (zh) * | 2019-12-18 | 2020-04-21 | 浙江大华技术股份有限公司 | 一种行为识别处理方法及装置 |
CN111091060A (zh) * | 2019-11-20 | 2020-05-01 | 吉林大学 | 基于深度学习的跌倒和暴力检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787469A (zh) * | 2016-03-25 | 2016-07-20 | 广州市浩云安防科技股份有限公司 | 行人监控和行为识别的方法和*** |
CN106485055A (zh) * | 2016-09-22 | 2017-03-08 | 吉林大学 | 一种基于Kinect传感器的老年II型糖尿病患者运动训练*** |
-
2018
- 2018-01-04 CN CN201810007029.0A patent/CN108171187A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787469A (zh) * | 2016-03-25 | 2016-07-20 | 广州市浩云安防科技股份有限公司 | 行人监控和行为识别的方法和*** |
CN106485055A (zh) * | 2016-09-22 | 2017-03-08 | 吉林大学 | 一种基于Kinect传感器的老年II型糖尿病患者运动训练*** |
Non-Patent Citations (1)
Title |
---|
ZHE CAO ET AL: "《Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields》", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543513A (zh) * | 2018-10-11 | 2019-03-29 | 平安科技(深圳)有限公司 | 智能监控实时处理的方法、装置、设备及存储介质 |
CN111091060A (zh) * | 2019-11-20 | 2020-05-01 | 吉林大学 | 基于深度学习的跌倒和暴力检测方法 |
CN111091060B (zh) * | 2019-11-20 | 2022-11-04 | 吉林大学 | 基于深度学习的跌倒和暴力检测方法 |
CN111046819A (zh) * | 2019-12-18 | 2020-04-21 | 浙江大华技术股份有限公司 | 一种行为识别处理方法及装置 |
CN111046819B (zh) * | 2019-12-18 | 2023-09-05 | 浙江大华技术股份有限公司 | 一种行为识别处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108197575A (zh) | 一种基于目标检测和骨点检测的异常行为识别方法及装置 | |
Bashir et al. | Performance evaluation of object detection and tracking systems | |
CN103246869B (zh) | 基于人脸识别和行为语音识别的犯罪监控方法 | |
CN108053427A (zh) | 一种基于KCF与Kalman的改进型多目标跟踪方法、***及装置 | |
CN109117721A (zh) | 一种行人徘徊检测方法 | |
CN108062349A (zh) | 基于视频结构化数据及深度学习的视频监控方法和*** | |
CN108664608A (zh) | 可疑人员的识别方法、装置及计算机可读存储介质 | |
CN110443109A (zh) | 异常行为监控处理方法、装置、计算机设备和存储介质 | |
CN107204114A (zh) | 一种车辆异常行为的识别方法及装置 | |
CN106529477B (zh) | 基于显著轨迹和时空演化信息的视频人体行为识别方法 | |
CN105787472B (zh) | 一种基于时空拉普拉斯特征映射学习的异常行为检测方法 | |
CN106022296B (zh) | 一种基于车辆热点区域的概率聚合的***检测方法 | |
CN110136447A (zh) | 行车变道检测及违法变道识别的方法 | |
CN108629282A (zh) | 一种吸烟检测方法、存储介质及计算机 | |
CN108229407A (zh) | 一种视频分析中的行为检测方法与*** | |
CN107992826A (zh) | 一种基于深度孪生网络的人流检测方法 | |
CN110425005A (zh) | 矿井下皮带运输人员人机交互行为安全监控与预警方法 | |
CN106056079A (zh) | 一种图像采集设备及人脸五官的遮挡检测方法 | |
CN104637246A (zh) | 一种驾驶员多种行为预警***及危险评估方法 | |
CN108171187A (zh) | 一种基于骨点提取的异常行为自动识别方法及装置 | |
CN111126153B (zh) | 基于深度学习的安全监测方法、***、服务器及存储介质 | |
CN108846332A (zh) | 一种基于clsta的铁路司机行为识别方法 | |
CN106210634A (zh) | 一种智慧金睛识别人员倒地报警方法和装置 | |
CN103049740A (zh) | 基于视频图像的疲劳状态检测方法及装置 | |
CN102426757A (zh) | 基于模式识别的安全驾驶监控***和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180615 |
|
RJ01 | Rejection of invention patent application after publication |