CN106934382A - 基于视频识别恐怖嫌疑人的方法和装置 - Google Patents

基于视频识别恐怖嫌疑人的方法和装置 Download PDF

Info

Publication number
CN106934382A
CN106934382A CN201710167001.9A CN201710167001A CN106934382A CN 106934382 A CN106934382 A CN 106934382A CN 201710167001 A CN201710167001 A CN 201710167001A CN 106934382 A CN106934382 A CN 106934382A
Authority
CN
China
Prior art keywords
suspect
face region
human face
identified object
terrified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710167001.9A
Other languages
English (en)
Inventor
任文华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xu Jiqiong
Original Assignee
Xu Jiqiong
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xu Jiqiong filed Critical Xu Jiqiong
Priority to CN201710167001.9A priority Critical patent/CN106934382A/zh
Publication of CN106934382A publication Critical patent/CN106934382A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种基于视频识别恐怖嫌疑人的方法,它包括如下步骤:(1)采集多帧连续的视频图像;(2)在所采集的多帧连续的视频图像中检测被识别对象的人脸区域,并提取各帧视频图像中被识别对象人脸区域的特征;(3)根据所提取的各帧视频图像中被识别对象人脸区域的特征,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,并将所述人脸区域出现了持续时间位于最小阈值与最大阈值之间的表情动作的被识别对象确定为恐怖嫌疑人。本发明还提供了基于视频识别恐怖嫌疑人的装置。本发明的方法和装置可以基于视频动态识别出恐怖嫌疑人,适合在公共场合使用。

Description

基于视频识别恐怖嫌疑人的方法和装置
技术领域
本发明涉及动态识别技术领域,特别涉及一种基于视频识别恐怖嫌疑人的方法和装置。
背景技术
表情是人类表达自身情感信息的重要非言语性行为,可视为人类心理活动的晴雨表。达尔文于1872 年出版了著名的《人与动物的表情》(The Expression of Emotions inMan and Animals),人类对面部表情工作的研究从此拉开了序幕。时至今日,人类对于面部表情的研究已经十分丰富,但关注的大多是人的普通表情。然而,人类除了普通表情,还存在着一种其持续时间非常短的微表情。
Haggard,E. A. 和 Isaacs,K. S.于1966年率先发现微表情,认为微表情与自我防御机制有关,表达了被压抑的情绪。Ekman,P. 等人认为,微表情既可能包含普通表情的全部肌肉动作,也可能只包含普通表情肌肉动作的一部分,微表情是一种自发性的表情动作。本申请的发明人经过多年研究,发现***试图压抑与隐藏的真正情感与微表情密切相关。
目前恐怖活动已成为世界和平的重大威胁。在广场、机场、车站等公共场所,如何在流动的人群或人流中快速识别出恐怖嫌疑人是反恐工作的迫切需要。事实上,利用在公共场所获取的有关人群或人流的视频信息,快速识别出恐怖嫌疑人是人们渴望解决的技术问题。
发明内容
本发明的目的是要提供一种快速识别恐怖嫌疑人的方法和装置,以解决上述现有技术中的问题。
本发明的第一方面,提供了一种基于视频识别恐怖嫌疑人的方法,该种方法,其特征在于,包括如下步骤:
(1)采集多帧连续的视频图像;
(2)在所采集的多帧连续的视频图像中检测被识别对象的人脸区域,并提取各帧视频图像中被识别对象人脸区域的特征;
(3)根据所提取的各帧视频图像中被识别对象人脸区域的特征,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,并将所述人脸区域出现了持续时间位于最小阈值与最大阈值之间的表情动作的被识别对象确定为恐怖嫌疑人。
通常,在步骤(3)中,最小阈值为0.02秒,最大阈值为0.25秒;优选地,在步骤(3)中,最小阈值为0.03秒,最大阈值为0.23秒;更优选地,在步骤(3)中,最小阈值为0.06秒,最大阈值为0.21秒。
该种方法以所采集到的被识别对象的视频信息为基础,通过快速分析被识别对象的微表情动作,达到了快速鉴别被识别对象是否为恐怖嫌疑人的目的。该种方法适合对人流的快速动态筛选或鉴别,可以大大减少人工排查的工作量。
优选地,在步骤(3)中,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,包括如下步骤:
(31)判断被识别对象的人脸区域有否出现表情动作,如果有,执行步骤(32),否则,将被识别对象直接确定为非恐怖嫌疑人;
(32)计算所出现的表情动作的持续时间,判断所述持续时间是否位于最小阈值与最大阈值之间。
为了提高识别或鉴别的正确性,在步骤(1)中,多帧连续的视频图像为至少25帧连续的视频图像;优选地,在步骤(1)中,多帧连续的视频图像为至少75帧连续的视频图像。
优选地,在步骤(2)和步骤(3)中,所述人脸区域不包括眼睛区域。这样排除了眼睛部位可能出现的微动作,有利于保障其识别或鉴别的正确性。
优选地,在步骤(2)和步骤(3)中,所述人脸区域不包括眼睛区域和嘴巴区域。这样排除了眼睛部位和嘴巴部位可能出现的微动作,有利于保障其识别或鉴别的正确性。
在步骤(2)中,通常通过特征识别算法来提取各帧视频图像中被识别对象人脸区域的特征。
在优选的实施例中,在步骤(2)中,采用SIFT(Scale-invariant featuretransform)算法来提取各帧视频图像中被识别对象人脸区域的特征。
本发明的第二方面,提供了一种基于视频识别恐怖嫌疑人的装置,该种装置,其特征在于,所述装置包括:
视频采集单元,用于采集被识别对象的视频图像;
人脸检测和特征提取单元,该单元与视频采集单元连接,用于对视频采集单元所采集的视频图像进行被识别对象人脸区域的检测,并提取各帧视频图像中被识别对象人脸区域的特征;
恐怖嫌疑人识别单元,该单元与人脸检测和特征提取单元连接,用于根据人脸检测和特征提取单元所提取的各帧视频图像中被识别对象人脸区域的特征,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,并将所述人脸区域出现了持续时间位于最小阈值与最大阈值之间的表情动作的被识别对象确定为恐怖嫌疑人。
通常,最小阈值为0.02秒,最大阈值为0.25秒;优选地,最小阈值为0.03秒,最大阈值为0.23秒;更优选地,最小阈值为0.06秒,最大阈值为0.21秒。
为了提高识别或鉴别的正确性,通常多帧连续的视频图像为至少25帧连续的视频图像;优选地,多帧连续的视频图像为至少75帧连续的视频图像。
优选地,所述人脸区域不包括眼睛区域。这样排除了眼睛部位可能出现的微动作,有利于保障其识别或鉴别的正确性。
优选地,所述人脸区域不包括眼睛区域和嘴巴区域。这样排除了眼睛部位和嘴巴部位可能出现的微动作,有利于保障其识别或鉴别的正确性。
在人脸检测和特征提取单元中,通常通过特征识别算法来提取各帧视频图像中被识别对象人脸区域的特征。
优选地,在人脸检测和特征提取单元中,采用SIFT(Scale-invariant featuretransform)算法来提取各帧视频图像中被识别对象人脸区域的特征。
优选地,在恐怖嫌疑人识别单元中,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作包括如下步骤:
(31)判断被识别对象的人脸区域有否出现表情动作,如果有,执行步骤(32),否则,将被识别对象直接确定为非恐怖嫌疑人;
(32)计算所出现的表情动作的持续时间,判断所述持续时间是否位于最小阈值与最大阈值之间。
在一个优选的实施例中,所述装置还包括标记单元,该单元与恐怖嫌疑人识别单元连接,用于将恐怖嫌疑人识别单元所确定的恐怖嫌疑人进行标记。
在另一个优选的实施例中,所述装置还包括知识库单元,该单元分别与恐怖嫌疑人识别单元连接,用于提供识别所需的专家知识。
优选地,所述装置还包括接口单元。该单元可以与恐怖嫌疑人识别单元连接,也可以与标记单元连接,也可以与知识库单元连接,还可以分别与知识库单元和标记单元连接,用于向外输出所确定的恐怖嫌疑人信息,并接收来自外部的控制信号或数据。
本发明的装置,利用所获取的视频信息进行人脸检测和特征分析,并动态分析被识别的对象的人脸区域是否出现了给定持续时间的微表情动作,从而快速确定是否为恐怖嫌疑人,这样有效解决了恐怖嫌疑人快速鉴别或排查的问题。
附图说明
图1是本发明的基于视频识别恐怖嫌疑人的方法的原理框图。
图2是本发明的基于视频识别恐怖嫌疑人的装置的结构框图。
图3是本发明的基于视频识别恐怖嫌疑人的装置的第二个实施例的结构框图。
图4是本发明的基于视频识别恐怖嫌疑人的装置的第三个实施例的结构框图。
具体实施方式
图1展示了本发明的基于视频识别恐怖嫌疑人的方法的原理框图。从图1中可以看到,基于视频识别恐怖嫌疑人的方法包括如下步骤:
(1)采集多帧连续的视频图像;
(2)在所采集的多帧连续的视频图像中检测被识别对象的人脸区域,并提取各帧视频图像中被识别对象人脸区域的特征;
(3)根据所提取的各帧视频图像中被识别对象人脸区域的特征,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,并将所述人脸区域出现了持续时间位于最小阈值与最大阈值之间的表情动作的被识别对象确定为恐怖嫌疑人。
在步骤(1)中,可以采用视频采集单元来采集多帧连续的视频图像,视频采集单元可以选用摄像机的成像单元,这样容易采集到多帧连续的视频图像。
在步骤(2)中,本实施例是采用SIFT(Scale-invariant feature transform)算法来提取各帧视频图像中被识别对象人脸区域的特征。
在步骤(3)中,本实施例的最小阈值为0.03秒,最大阈值为0.23秒。
在步骤(3)中,本实施例的分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,包括了如下步骤:
(31)判断被识别对象的人脸区域有否出现表情动作,如果有,执行步骤(32),否则,将被识别对象直接确定为非恐怖嫌疑人;
(32)计算所出现的表情动作的持续时间,判断所述持续时间是否位于最小阈值与最大阈值之间。
本实施例的方法通过动态识别视频图像中被识别对象人脸区域的表情动作,将在人脸区域出现了持续时间位于0.03秒至0.23秒之间的微表情动作的被识别对象列为恐怖嫌疑人。该种方法其识别出恐怖嫌疑人的速度快且概率高,适合在公共场所使用。
图2展示了本发明的基于视频识别恐怖嫌疑人的装置的结构框图。从图2中可以看到,基于视频识别恐怖嫌疑人的装置10包括:视频采集单元11、与视频采集单元连接的人脸检测和特征提取单元12、与人脸检测和特征提取单元连接的恐怖嫌疑人识别单元13、以及接口单元15。
视频采集单元11用于采集被识别对象的视频图像,可以采集连续多帧的视频图像。本实施例的视频采集单元11为一摄像机的成像单元。成像单元例如是具有CCD(ChargeCoupled Device,电荷耦合器件)等拍摄元件的摄像机芯。
人脸检测和特征提取单元12对来自视频采集单元11的视频图像进行处理,检测被识别对象的人脸区域,并提取各帧视频图像中被识别对象人脸区域的特征。在本实施例中,采用SIFT(Scale-invariant feature transform)算法来提取各帧视频图像中被识别对象人脸区域的特征。
恐怖嫌疑人识别单元13根据人脸检测和特征提取单元所提取的各帧视频图像中被识别对象人脸区域的特征,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,并将所述人脸区域出现了持续时间位于最小阈值与最大阈值之间的表情动作的被识别对象确定为恐怖嫌疑人。在本实施例中,最小阈值为0.03秒,最大阈值为0.23秒,这样就将在人脸区域出现了持续时间位于0.03秒至0.23秒之间的微表情动作的被识别对象确定为恐怖嫌疑人。
在本实施例的恐怖嫌疑人识别单元13中,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作包括了如下步骤:
(31)判断被识别对象的人脸区域有否出现表情动作,如果有,执行步骤(32),否则,将被识别对象直接确定为非恐怖嫌疑人;
(32)计算所出现的表情动作的持续时间,判断所述持续时间是否位于最小阈值与最大阈值之间。
接口单元15与恐怖嫌疑人识别单元13连接,用于向外输出被确定为恐怖嫌疑人的信息。
图3展示了本发明的基于视频识别恐怖嫌疑人的装置的第二个实施例。从图3中可以看到,第二个实施例是在图2所示的第一个实施例的基础上,增加了标记单元14,标记单元14分别与恐怖嫌疑人识别单元13和接口单元15连接,用于将恐怖嫌疑人识别单元13所确定的恐怖嫌疑人进行标记,有利于后续的查看等处理。
图4展示了本发明的基于视频识别恐怖嫌疑人的装置的第三个实施例。从图4中可以看到,第三个实施例是在图3所示的第二个实施例的基础上,增加了知识库单元16,知识库单元16分别与恐怖嫌疑人识别单元13和接口单元15连接,用于提供识别所需的专家知识。本实施例的接口单元15用于向外输出被确定为恐怖嫌疑人的信息,并接收来自外部的控制信号或数据。
在这里有必要指出,本发明的基于视频识别恐怖嫌疑人的装置可以是依据本发明原理构成的摄像机或监控摄像机。
尽管已经展示和描述了目前认为是优选的本发明的实施例,但显而易见,本领域的技术人员可以进行各种改变和改进,而不背离由所附权利要求书所限定的本发明的范围。

Claims (10)

1.一种基于视频识别恐怖嫌疑人的方法,其特征在于,包括如下步骤:
(1)采集多帧连续的视频图像;
(2)在所采集的多帧连续的视频图像中检测被识别对象的人脸区域,并提取各帧视频图像中被识别对象人脸区域的特征;
(3)根据所提取的各帧视频图像中被识别对象人脸区域的特征,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,并将所述人脸区域出现了持续时间位于最小阈值与最大阈值之间的表情动作的被识别对象确定为恐怖嫌疑人。
2.如权利要求1所述的基于视频识别恐怖嫌疑人的方法,其特征在于,在步骤(3)中,最小阈值为0.02秒,最大阈值为0.25秒。
3.如权利要求1所述的基于视频识别恐怖嫌疑人的方法,其特征在于,在步骤(3)中,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,包括如下步骤:
(31)判断被识别对象的人脸区域有否出现表情动作,如果有,执行步骤(32),否则,将被识别对象直接确定为非恐怖嫌疑人;
(32)计算所出现的表情动作的持续时间,判断所述持续时间是否位于最小阈值与最大阈值之间。
4.如权利要求1所述的基于视频识别恐怖嫌疑人的方法,其特征在于,在步骤(2)和步骤(3)中,所述人脸区域不包括眼睛区域和嘴巴区域。
5.如权利要求1所述的基于视频识别恐怖嫌疑人的方法,其特征在于,在步骤(2)中,通过特征识别算法来提取各帧视频图像中被识别对象人脸区域的特征。
6.一种基于视频识别恐怖嫌疑人的装置,其特征在于,所述装置包括:
视频采集单元,用于采集被识别对象的视频图像;
人脸检测和特征提取单元,该单元与视频采集单元连接,用于对视频采集单元所采集的视频图像进行被识别对象人脸区域的检测,并提取各帧视频图像中被识别对象人脸区域的特征;
恐怖嫌疑人识别单元,该单元与人脸检测和特征提取单元连接,用于根据人脸检测和特征提取单元所提取的各帧视频图像中被识别对象人脸区域的特征,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作,并将所述人脸区域出现了持续时间位于最小阈值与最大阈值之间的表情动作的被识别对象确定为恐怖嫌疑人。
7.如权利要求6所述的基于视频识别恐怖嫌疑人的装置,其特征在于,最小阈值为0.03秒,最大阈值为0.23秒。
8.如权利要求6所述的基于视频识别恐怖嫌疑人的装置,其特征在于,所述装置还包括标记单元,该单元与恐怖嫌疑人识别单元连接,用于将恐怖嫌疑人识别单元所确定的恐怖嫌疑人进行标记。
9.如权利要求6所述的基于视频识别恐怖嫌疑人的装置,其特征在于,所述装置还包括接口单元,该单元与恐怖嫌疑人识别单元连接,用于向外输出所确定的恐怖嫌疑人信息。
10.如权利要求6所述的基于视频识别恐怖嫌疑人的装置,其特征在于,在恐怖嫌疑人识别单元中,分析被识别对象的人脸区域有否出现持续时间位于最小阈值与最大阈值之间的表情动作包括如下步骤:
(31)判断被识别对象的人脸区域有否出现表情动作,如果有,执行步骤(32),否则,将被识别对象直接确定为非恐怖嫌疑人;
(32)计算所出现的表情动作的持续时间,判断所述持续时间是否位于最小阈值与最大阈值之间。
CN201710167001.9A 2017-03-20 2017-03-20 基于视频识别恐怖嫌疑人的方法和装置 Pending CN106934382A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710167001.9A CN106934382A (zh) 2017-03-20 2017-03-20 基于视频识别恐怖嫌疑人的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710167001.9A CN106934382A (zh) 2017-03-20 2017-03-20 基于视频识别恐怖嫌疑人的方法和装置

Publications (1)

Publication Number Publication Date
CN106934382A true CN106934382A (zh) 2017-07-07

Family

ID=59432674

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710167001.9A Pending CN106934382A (zh) 2017-03-20 2017-03-20 基于视频识别恐怖嫌疑人的方法和装置

Country Status (1)

Country Link
CN (1) CN106934382A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109117765A (zh) * 2018-07-27 2019-01-01 长春阿德泰科电子设备有限公司 视频侦查装置和方法
CN109508638A (zh) * 2018-10-11 2019-03-22 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102894980A (zh) * 2011-07-28 2013-01-30 刘永强 能识别犯罪分子的安检设备
CN103258204A (zh) * 2012-02-21 2013-08-21 中国科学院心理研究所 一种基于Gabor和EOH特征的自动微表情识别方法
CN104008391A (zh) * 2014-04-30 2014-08-27 首都医科大学 一种基于非线性降维的人脸微表情捕捉及识别方法
CN104202579A (zh) * 2014-09-27 2014-12-10 江阴延利汽车饰件股份有限公司 一种智能警车

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102894980A (zh) * 2011-07-28 2013-01-30 刘永强 能识别犯罪分子的安检设备
CN103258204A (zh) * 2012-02-21 2013-08-21 中国科学院心理研究所 一种基于Gabor和EOH特征的自动微表情识别方法
CN104008391A (zh) * 2014-04-30 2014-08-27 首都医科大学 一种基于非线性降维的人脸微表情捕捉及识别方法
CN104202579A (zh) * 2014-09-27 2014-12-10 江阴延利汽车饰件股份有限公司 一种智能警车

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109117765A (zh) * 2018-07-27 2019-01-01 长春阿德泰科电子设备有限公司 视频侦查装置和方法
CN109508638A (zh) * 2018-10-11 2019-03-22 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
Ghosh et al. Real-time object recognition and orientation estimation using an event-based camera and CNN
CN109711318B (zh) 一种基于视频流的多人脸检测与跟踪方法
CN107749143B (zh) 一种基于WiFi信号的穿墙室内人员跌倒探测***及方法
Belshaw et al. Towards a single sensor passive solution for automated fall detection
WO2016169282A1 (zh) 一种包含视频分析的安检判图***和判图方法
CN105160318A (zh) 基于面部表情的测谎方法及***
CN105389549A (zh) 基于人体动作特征的对象识别方法及装置
CN109344688A (zh) 一种基于卷积神经网络的监控视频中人的自动识别方法
EP2518661A3 (en) System and method for human detection and counting using background modeling, hog and haar features
CN105631430A (zh) 一种人脸图像的匹配方法和装置
US20220122360A1 (en) Identification of suspicious individuals during night in public areas using a video brightening network system
CN105516652B (zh) 一种智能化校园路灯照明***
SA520420556B1 (ar) تحري الوجوه وتمييز حركة سير المشاه
WO2022041484A1 (zh) 人体跌倒检测方法、装置、设备及存储介质
CN106485217A (zh) 一种识别游览景区人流饱和度的方法与***
CN106780875A (zh) 一种人脸识别门禁一体化装置及其识别方法
KR20080018642A (ko) 원격 응급상황 모니터링 시스템 및 방법
Basavaraj et al. Vision based surveillance system for detection of human fall
CN106934382A (zh) 基于视频识别恐怖嫌疑人的方法和装置
CN109068024A (zh) 一种对时空信号进行滤波的方法
CN107977613A (zh) 提高人脸识别效率的方法和人脸识别***
KR101413620B1 (ko) 영상 분석을 통한 영상 텍스트화 장치
CN104392201B (zh) 一种基于全向视觉的人体跌倒识别方法
CN102609729B (zh) 多机位人脸识别方法及***
Mai et al. A fall detection alert system based on lightweight openpose and spatial-temporal graph convolution network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170707