CN110175587A - 一种基于人脸识别和步态识别算法的视频追踪方法 - Google Patents

一种基于人脸识别和步态识别算法的视频追踪方法 Download PDF

Info

Publication number
CN110175587A
CN110175587A CN201910464738.6A CN201910464738A CN110175587A CN 110175587 A CN110175587 A CN 110175587A CN 201910464738 A CN201910464738 A CN 201910464738A CN 110175587 A CN110175587 A CN 110175587A
Authority
CN
China
Prior art keywords
recognition
face
algorithm
gait
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910464738.6A
Other languages
English (en)
Other versions
CN110175587B (zh
Inventor
黄岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910464738.6A priority Critical patent/CN110175587B/zh
Publication of CN110175587A publication Critical patent/CN110175587A/zh
Application granted granted Critical
Publication of CN110175587B publication Critical patent/CN110175587B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明涉及安防技术领域,公开了一种基于人脸识别和步态识别算法的视频追踪方法。通过本发明创造,提供了一种实现在大场景和复杂环境下对特定目标自动进行视频追踪的新方法,即利用人脸识别算法和步态识别算法的各自优点,先基于人脸识别算法从数据库中识别出现场目标人员,然后基于步态识别算法锁定该现场目标人员,并控制动点摄像头保持对该现场目标人员的持续性视频追踪,从而可以有效解决单一算法无法满足在大场景和复杂环境中,由于处置人员无法及时到达现场且目标在不断移动的情况下,很难再次发现目标的问题,最终能够大幅提升公安机关对发现特定目标后的截获率。

Description

一种基于人脸识别和步态识别算法的视频追踪方法
技术领域
本发明属于安防技术领域,涉及视频监控技术中的视频自动追踪方法,具体地涉及一种基于人脸识别和步态识别算法的视频追踪方法。
背景技术
在现有安防技术领域中,通常利用视频监控技术来探测或监视设防区域,并实时显示、记录现场图像,以及提供可检索和显示历史图像的电子***或网络***。视频监控具有悠久的历史,在传统上广泛应用于安防领域,是协助公共***门打击犯罪、维持社会安定的重要手段。随着智能化技术的发展,目前已使监控***的功能从事后追查为主转为以预防为主,有效地提高了监控***本身的功能和效率。
目前人脸识别、步态识别、视频结构化分析等技术已在实际视频监控***中得到了广泛的应用,但是在应用过程中也存在一些不足之处:(1)当人脸***识别出特定对象后,由于处置人员需几分钟才能到达,此时特定对象可能已移动到其它位置,致使处置人员在复杂环境中很难再次找到目标;(2)若单独利用人脸识别算法进行视频追踪,由于需要保持两眼瞳距具备足够的像素,导致视频覆盖范围小,使得存在需要良好的人脸角度和人体朝向才能不断锁定目标的局限性,所以在复杂的环境中无法利用人脸识别算法进行持续性的视频追踪;(3)若单独利用步态算法进行视频追踪,虽然解决了视频覆盖面小和人体需要特定朝向的问题,但是由于在建库过程中需已知采集对象身份,使得需要提前通过人员行走姿态来进行采集,然而目前在室外进行大量采集时无法确定路过人员身份,在特定环境下采集无法满足大规模建库需求的问题,另外目前的步态识别算法也尚未达到人脸识别算法的准确度。
发明内容
为了解决在复杂环境下无法单独应用人脸识别技术或步态识别技术进行有效发现和自动跟踪特定目标的问题,本发明目的在于提供一种基于人脸识别和步态识别算法的视频追踪方法。
本发明所采用的技术方案为:
一种基于人脸识别和步态识别算法的视频追踪方法,包括如下步骤:
S101.接收来自枪球联动摄像机中定点摄像头的第一视频流数据;
S102.从所述第一视频流数据中获取若干第一现场人员的个体图像,并针对每个第一现场人员的个体图像,分别都进行人脸识别算法处理和步态识别算法处理,得到对应该第一现场人员的第一人脸特征信息和第一步态特征信息;
S103.将第一现场人员的第一人脸特征信息与目标人脸数据库中的目标人脸特征信息进行比对,若比中目标,则将该第一现场人员的第一步态特征信息作为目标步态特征信息,然后执行步骤S104;
S104.向枪球联动摄像机中动点摄像头的PTZ驱动机构发送移位指令,使该动点摄像头对准预定区域;
S105.接收来自枪球联动摄像机中动点摄像头的第二视频流数据;
S106.从所述第二视频流数据中获取若干第二现场人员的个体图像,并对每个第二现场人员的个体图像进行步态识别算法处理,得到对应该第二现场人员的第二步态特征信息;
S107.将第二现场人员的第二步态特征信息与所述目标步态特征信息进行比对,若比中目标,则将该第二现场人员作为追踪对象,然后执行步骤S108;
S108.继续获取来自动点摄像头的视频画面,并在该视频画面中标注出所述追踪对象。
优化的,在所述步骤S102中,按照如下方式对第一现场人员的个体图像分别进行人脸识别算法处理和步态识别算法处理:
S201.对第一现场人员的个体图像进行图像切割处理,分离得到第一现场人员的脸部图像和身部图像;
S202.对所述脸部图像进行人脸识别算法处理,获取第一现场人员的第一人脸特征信息,同时对连续多帧的所述身部图像进行步态识别算法处理,获取第一现场人员的第一步态特征信息。
优化的,在所述步骤S102之后还包括有如下步骤:
针对未比中目标的所有第一现场人员,将它们的第一人脸特征信息、第一步态特征信息以及根据对应个体图像所得到的脸部图像绑定储存在数据库中,然后继续执行步骤S101~S103。
优化的,在向PTZ驱动机构发送移位指令之前还包括有如下步骤:
针对与所述目标步态特征信息对应的第一现场人员,根据连续多帧的对应个体图像获取该第一现场人员的行走方向和行走速度,然后根据所述行走方向和所述行走速度预估出该第一现场人员在当前时刻会出现的区域,最后将预估出的区域作为即将被动点摄像头对准的预订区域。
优化的,在所述步骤S107中:
若未比中目标,则继续向枪球联动摄像机中动点摄像头的PTZ驱动机构发送移位指令,使该动点摄像头对准下一个预定区域,然后继续执行步骤S105~S107。
优化的,在所述步骤S108之后还包括有如下步骤:
根据追踪对象在当前视频画面中相对于画面中心的偏移方向和偏移距离,向PTZ驱动机构发送方位调整指令,使动点摄像头锁定对准追踪对象,然后继续执行步骤S108。
优化的,在所述步骤S108之后还包括有如下步骤:
根据追踪对象在当前视频画面中所占的画面比例,向PTZ驱动机构发送倍率调整指令:若所占画面比例过大,则使动点摄像头的倍率减小,反之则使动点摄像头的倍率增大,然后继续执行步骤S108。
优化的,在所述步骤S108之后还包括有如下步骤:
若追踪对象移出当前视频画面,则针对邻近区域的枪球联动摄像机,也分别同步地执行步骤S104~S107,直到其中一个枪球联动摄像机锁定追踪对象或达到预设时间。
进一步优化的,按照如下方式确定邻近区域:
根据连续多帧的视频画面获取追踪对象的移出方向,然后根据所述移出方向确定最匹配的邻近区域。
优化的,在所述步骤S103和/或S107中,若比中目标,还向人机交互设备发送目标发现报警消息。
本发明的有益效果为:
(1)本发明创造提供了一种实现在大场景和复杂环境下对特定目标自动进行视频追踪的新方法,即利用人脸识别算法和步态识别算法的各自优点,先基于人脸识别算法从数据库中识别出现场目标人员,然后基于步态识别算法锁定该现场目标人员,并控制动点摄像头保持对该现场目标人员的持续性视频追踪,从而可以有效解决单一算法无法满足在大场景和复杂环境中,由于处置人员无法及时到达现场且目标在不断移动的情况下,很难再次发现目标的问题,最终能够大幅提升公安机关对发现特定目标后的截获率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于人脸识别和步态识别算法的视频追踪方法流程示意图。
具体实施方式
下面结合附图及具体实施例来对本发明作进一步阐述。在此需要说明的是,对于这些实施例方式的说明虽然是用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明的示例实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。
应当理解,尽管本文可能使用术语第一、第二等等来描述各种单元,但是这些单元不应当受到这些术语的限制。这些术语仅用于区分一个单元和另一个单元。例如可以将第一单元称作第二单元,并且类似地可以将第二单元称作第一单元,同时不脱离本发明的示例实施例的范围。
应当理解,对于本文中可能出现的术语“和/或”,其仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B三种情况;对于本文中可能出现的术语“/和”,其是描述另一种关联对象关系,表示可以存在两种关系,例如,A/和B,可以表示:单独存在A,单独存在A和B两种情况;另外,对于本文中可能出现的字符“/”,一般表示前后关联对象是一种“或”关系。
应当理解,在本文中若将单元称作与另一个单元“连接”、“相连”或“耦合”时,它可以与另一个单元直相连接或耦合,或中间单元可以存在。相対地,在本文中若将单元称作与另一个单元“直接相连”或“直接耦合”时,表示不存在中间单元。另外,应当以类似方式来解释用于描述单元之间的关系的其他单词(例如,“在……之间”对“直接在……之间”,“相邻”对“直接相邻”等等)。
应当理解,本文使用的术语仅用于描述特定实施例,并不意在限制本发明的示例实施例。若本文所使用的,单数形式“一”、“一个”以及“该”意在包括复数形式,除非上下文明确指示相反意思。还应当理解,若术语“包括”、“包括了”、“包含”和/或“包含了”在本文中被使用时,指定所声明的特征、整数、步骤、操作、单元和/或组件的存在性,并且不排除一个或多个其他特征、数量、步骤、操作、单元、组件和/或他们的组合存在性或增加。
应当理解,还应当注意到在一些备选实施例中,所出现的功能/动作可能与附图出现的顺序不同。例如,取决于所涉及的功能/动作,实际上可以实质上并发地执行,或者有时可以以相反的顺序来执行连续示出的两个图。
应当理解,在下面的描述中提供了特定的细节,以便于对示例实施例的完全理解。然而,本领域普通技术人员应当理解可以在没有这些特定细节的情况下实现示例实施例。例如可以在框图中示出***,以避免用不必要的细节来使得示例不清楚。在其他实例中,可以不以不必要的细节来示出众所周知的过程、结构和技术,以避免使得示例实施例不清楚。
实施例一
如图1所示,本实施例提供的所述基于人脸识别和步态识别算法的视频追踪方法,包括如下步骤S101~S108。
S101.接收来自枪球联动摄像机中定点摄像头的第一视频流数据。
在所述步骤S101中,所述枪球联动摄像机布置在设防现场并用于采集现场视频图像,其为现有设备,一般由作为定点摄像头的网络摄像机和作为动点摄像头的智能球型摄像机组成。所述第一视频流数据是指由所述定点摄像头采集的且通过传输设备(例如网线)进行视频流(指将压缩的视频经过私有或者公用的网络传输,之后进行解压缩并在设备上进行播放的行为)传输的数据,包括有处于定点摄像头视野下的且连续的若干帧现场视频图像。
S102.从所述第一视频流数据中获取若干第一现场人员的个体图像,并针对每个第一现场人员的个体图像,分别都进行人脸识别算法处理和步态识别算法处理,得到对应该第一现场人员的第一人脸特征信息和第一步态特征信息。
在所述步骤S102中,所述第一现场人员是指出现在定点摄像头视野范围内的现场人员,因此在采集的现场视频图像中会包含有该现场人员的个体图像;另外,针对各个第一现场人员,可以基于接收时间戳随机生成一个ID号来进行唯一标识。
在所述步骤S102中,可优选按照如下方式对第一现场人员的个体图像分别进行人脸识别算法处理和步态识别算法处理:S201.对第一现场人员的个体图像进行图像切割处理,分离得到第一现场人员的脸部图像和身部图像;S202.对所述脸部图像进行人脸识别算法处理,获取第一现场人员的第一人脸特征信息,同时对连续多帧的所述身部图像进行步态识别算法处理,获取第一现场人员的第一步态特征信息。具体的,从所述第一视频流数据中获取第一现场人员的个体图像的方式以及进行图像切割处理的方式均为现有常规方式,所述人脸识别算法和所述步态识别算法也分别为现有常规算法。此外,所述身部图像是指在个体图像中切割掉脸部图像后的剩余身体躯干图像。
在所述步骤S102之后,优化的,还包括有如下步骤:针对未比中目标的所有第一现场人员,将它们的第一人脸特征信息、第一步态特征信息以及根据对应个体图像所得到的脸部图像绑定储存在数据库中,然后继续执行步骤S101~S103。通过将前述信息绑定储存在数据库中,可以在占用较小存储空间的同时(即无需保存大量的视频图像),方便后续进行历史回溯。另外具体的,根据个体图像得到脸部图像的方式可采用现有常规的图像切割处理方式。
S103.将第一现场人员的第一人脸特征信息与目标人脸数据库中的目标人脸特征信息进行比对,若比中目标,则将该第一现场人员的第一步态特征信息作为目标步态特征信息,然后执行步骤S104。
在所述步骤S103中,所述目标人脸数据库为现有常规数据库,其提前记录有特定目标的身份信息以及人脸特征信息,例如为失踪人员的人脸数据库或通缉犯的人脸数据库等。另外,为了实现第一时间提醒监视人员的目的,若比中目标,还向人机交互设备(例如运行监控软件的智能手机或电脑等)发送目标发现报警消息,其中,所述目标发现报警消息可以但不限于包括有针对比中目标的身份信息、第一人脸特征信息、第一步态特征信息以及根据对应个体图像所得到的脸部图像等。
S104.向枪球联动摄像机中动点摄像头的PTZ驱动机构发送移位指令,使该动点摄像头对准预定区域。
在所述步骤S104中,所述PTZ驱动机构为在安防监控应用中实现云台旋转移动及镜头变倍、变焦控制的现有设备,其中的,PTZ即为Pan/Tilt/Zoom的简写,代表云台全方位(左右/上下)移动及镜头变倍、变焦控制。优化的,为了实现快速地利用动点摄像头进行视频追踪目的,优化的,在向PTZ驱动机构发送移位指令之前还包括有如下步骤:针对与所述目标步态特征信息对应的第一现场人员,根据连续多帧的对应个体图像获取该第一现场人员的行走方向和行走速度,然后根据所述行走方向和所述行走速度预估出该第一现场人员在当前时刻会出现的区域,最后将预估出的区域作为即将被动点摄像头对准的预订区域。例如对于可360度旋转的动点摄像头,若预估右侧区域为特定目标在当前时刻会出现的区域,则先使动点摄像头对准右侧区域,可以利于及时发现特定目标。
S105.接收来自枪球联动摄像机中动点摄像头的第二视频流数据。
在所述步骤S105中,所述第二视频流数据是指由所述动点摄像头采集的且通过传输设备进行视频流传输的数据,包括有处于动点摄像头视野下的且连续的若干帧现场视频图像。
S106.从所述第二视频流数据中获取若干第二现场人员的个体图像,并对每个第二现场人员的个体图像进行步态识别算法处理,得到对应该第二现场人员的第二步态特征信息。
在所述步骤S106中,所述第二现场人员是指出现在动点摄像头视野范围内的现场人员,因此在采集的现场视频图像中会包含有该现场人员的个体图像;另外,针对各个第二现场人员,同样可以基于接收时间戳随机生成一个ID号来进行唯一标识。另外具体的,从所述第二视频流数据中获取第二现场人员的个体图像的方式也为现有常规方式,所述步态识别算法也为现有常规算法。
S107.将第二现场人员的第二步态特征信息与所述目标步态特征信息进行比对,若比中目标,则将该第二现场人员作为追踪对象,然后执行步骤S108。
在所述步骤S107中,若未比中目标,则继续向枪球联动摄像机中动点摄像头的PTZ驱动机构发送移位指令,使该动点摄像头对准下一个预定区域,然后继续执行步骤S105~S107。其中的下一个预定区域同样可以根据所述行走方向和所述行走速度进行预估,但预估出现概率一般小于前一个预定区域,即可以先根据所述行走方向和所述行走速度预估特定目标(即与所述目标步态特征信息对应的第一现场人员)出现在各个区域的概率,然后根据出现概率从大到小地使所述动点摄像头依次对准各个区域,直到发现追踪对象。另外,为了实现第一时间提醒监视人员目的,若比中目标,同样也可向人机交互设备发送目标发现报警消息。
S108.继续获取来自动点摄像头的视频画面,并在该视频画面中标注出所述追踪对象。
在所述步骤S108中,所述视频画面可在继续接收到的第二视频流数据中获取,所述标注方式可以但不限于为对视频画面中的追踪对象进行画框处理(例如画红线框),从而方便监视人员快速找到追踪对象。在所述步骤S108之后,为了自动进行视频追踪,确保追踪对象始终处于视频画面内,还包括有如下步骤:根据追踪对象在当前视频画面中相对于画面中心的偏移方向和偏移距离,向PTZ驱动机构发送方位调整指令,使动点摄像头锁定对准追踪对象,然后继续执行步骤S108。此外,为了使追踪对象在视频画面中始终大小适中(例如追踪对象在当前视频画面中所占的画面比例维持在10~40%之间),方便监视人员查找,在所述步骤S108之后还包括有如下步骤:根据追踪对象在当前视频画面中所占的画面比例,向PTZ驱动机构发送倍率调整指令:若所占画面比例过大,则使动点摄像头的倍率减小,反之则使动点摄像头的倍率增大,然后继续执行步骤S108。
考虑追踪对象可能移出当前视频画面的情况,为了继续进行追踪探寻,可在所述步骤S108之后还包括有如下步骤:若追踪对象移出当前视频画面,则针对邻近区域的枪球联动摄像机,也分别同步地执行步骤S104~S107,直到其中一个枪球联动摄像机锁定追踪对象或达到预设时间。由此还可以将视频追踪任务分派到邻近区域的枪球联动摄像机上,从而在无需重新进行人脸识别的基础上,可以进行更大地理区域上的间断性追踪。此外,可以优选按照如下方式确定邻近区域:根据连续多帧的视频画面获取追踪对象的移出方向,然后根据所述移出方向确定最匹配的邻近区域。例如当追踪对象的移出方向为东方时,可以将位于东方的第一邻近区域作为最匹配的邻近区域,如此可以高效地进行间断性追踪,避免其它邻近区域的设备消耗不必要的电能。
综上,采用本实施例所提供的基于人脸识别和步态识别算法的视频追踪方法,具有如下技术效果:
(1)本实施例提供了一种实现在大场景和复杂环境下对特定目标自动进行视频追踪的新方法,即利用人脸识别算法和步态识别算法的各自优点,先基于人脸识别算法从数据库中识别出现场目标人员,然后基于步态识别算法锁定该现场目标人员,并控制动点摄像头保持对该现场目标人员的持续性视频追踪,从而可以有效解决单一算法无法满足在大场景和复杂环境中,由于处置人员无法及时到达现场且目标在不断移动的情况下,很难再次发现目标的问题,最终能够大幅提升公安机关对发现特定目标后的截获率。
以上所描述的多个实施例仅仅是示意性的,若涉及到作为分离部件说明的单元,其可以是或者也可以不是物理上分开的;若涉及到作为单元显示的部件,其可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
最后应说明的是,本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。

Claims (10)

1.一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,包括如下步骤:
S101.接收来自枪球联动摄像机中定点摄像头的第一视频流数据;
S102.从所述第一视频流数据中获取若干第一现场人员的个体图像,并针对每个第一现场人员的个体图像,分别都进行人脸识别算法处理和步态识别算法处理,得到对应该第一现场人员的第一人脸特征信息和第一步态特征信息;
S103.将第一现场人员的第一人脸特征信息与目标人脸数据库中的目标人脸特征信息进行比对,若比中目标,则将该第一现场人员的第一步态特征信息作为目标步态特征信息,然后执行步骤S104;
S104.向枪球联动摄像机中动点摄像头的PTZ驱动机构发送移位指令,使该动点摄像头对准预定区域;
S105.接收来自枪球联动摄像机中动点摄像头的第二视频流数据;
S106.从所述第二视频流数据中获取若干第二现场人员的个体图像,并对每个第二现场人员的个体图像进行步态识别算法处理,得到对应该第二现场人员的第二步态特征信息;
S107.将第二现场人员的第二步态特征信息与所述目标步态特征信息进行比对,若比中目标,则将该第二现场人员作为追踪对象,然后执行步骤S108;
S108.继续获取来自动点摄像头的视频画面,并在该视频画面中标注出所述追踪对象。
2.如权利要求1所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在所述步骤S102中,按照如下方式对第一现场人员的个体图像分别进行人脸识别算法处理和步态识别算法处理:
S201.对第一现场人员的个体图像进行图像切割处理,分离得到第一现场人员的脸部图像和身部图像;
S202.对所述脸部图像进行人脸识别算法处理,获取第一现场人员的第一人脸特征信息,同时对连续多帧的所述身部图像进行步态识别算法处理,获取第一现场人员的第一步态特征信息。
3.如权利要求1所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在所述步骤S102之后还包括有如下步骤:
针对未比中目标的所有第一现场人员,将它们的第一人脸特征信息、第一步态特征信息以及根据对应个体图像所得到的脸部图像绑定储存在数据库中,然后继续执行步骤S101~S103。
4.如权利要求1所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在向PTZ驱动机构发送移位指令之前还包括有如下步骤:
针对与所述目标步态特征信息对应的第一现场人员,根据连续多帧的对应个体图像获取该第一现场人员的行走方向和行走速度,然后根据所述行走方向和所述行走速度预估出该第一现场人员在当前时刻会出现的区域,最后将预估出的区域作为即将被动点摄像头对准的预订区域。
5.如权利要求1所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在所述步骤S107中:
若未比中目标,则继续向枪球联动摄像机中动点摄像头的PTZ驱动机构发送移位指令,使该动点摄像头对准下一个预定区域,然后继续执行步骤S105~S107。
6.如权利要求1所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在所述步骤S108之后还包括有如下步骤:
根据追踪对象在当前视频画面中相对于画面中心的偏移方向和偏移距离,向PTZ驱动机构发送方位调整指令,使动点摄像头锁定对准追踪对象,然后继续执行步骤S108。
7.如权利要求1所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在所述步骤S108之后还包括有如下步骤:
根据追踪对象在当前视频画面中所占的画面比例,向PTZ驱动机构发送倍率调整指令:若所占画面比例过大,则使动点摄像头的倍率减小,反之则使动点摄像头的倍率增大,然后继续执行步骤S108。
8.如权利要求1、6或7所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在所述步骤S108之后还包括有如下步骤:
若追踪对象移出当前视频画面,则针对邻近区域的枪球联动摄像机,也分别同步地执行步骤S104~S107,直到其中一个枪球联动摄像机锁定追踪对象或达到预设时间。
9.如权利要求8所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,按照如下方式确定邻近区域:
根据连续多帧的视频画面获取追踪对象的移出方向,然后根据所述移出方向确定最匹配的邻近区域。
10.如权利要求1所述的一种基于人脸识别和步态识别算法的视频追踪方法,其特征在于,在所述步骤S103和/或S107中,若比中目标,还向人机交互设备发送目标发现报警消息。
CN201910464738.6A 2019-05-30 2019-05-30 一种基于人脸识别和步态识别算法的视频追踪方法 Active CN110175587B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910464738.6A CN110175587B (zh) 2019-05-30 2019-05-30 一种基于人脸识别和步态识别算法的视频追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910464738.6A CN110175587B (zh) 2019-05-30 2019-05-30 一种基于人脸识别和步态识别算法的视频追踪方法

Publications (2)

Publication Number Publication Date
CN110175587A true CN110175587A (zh) 2019-08-27
CN110175587B CN110175587B (zh) 2020-03-24

Family

ID=67696802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910464738.6A Active CN110175587B (zh) 2019-05-30 2019-05-30 一种基于人脸识别和步态识别算法的视频追踪方法

Country Status (1)

Country Link
CN (1) CN110175587B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110941730A (zh) * 2019-11-29 2020-03-31 南京甄视智能科技有限公司 基于人脸特征数据偏移的检索方法与装置
CN111008993A (zh) * 2019-12-06 2020-04-14 江西洪都航空工业集团有限责任公司 一种行人跨镜追踪的方法及装置
CN112307979A (zh) * 2020-10-31 2021-02-02 成都新潮传媒集团有限公司 一种人员属性识别方法、装置及计算机设备
CN112766225A (zh) * 2021-02-01 2021-05-07 黄岩 基于流动性人员的步态自动建库的装置及方法
CN112862859A (zh) * 2020-08-21 2021-05-28 海信视像科技股份有限公司 一种人脸特征值创建方法、人物锁定追踪方法及显示设备
CN113674309A (zh) * 2020-05-14 2021-11-19 杭州海康威视***技术有限公司 对象追踪的方法、装置、管理平台以及存储介质
CN116189336A (zh) * 2023-02-24 2023-05-30 广州奔智电子科技有限公司 一种智能门锁安防***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509086A (zh) * 2011-11-22 2012-06-20 西安理工大学 一种基于目标姿态预测及多特征融合的行人目标检测方法
CN105787440A (zh) * 2015-11-10 2016-07-20 深圳市商汤科技有限公司 一种基于人脸特征和步态特征的安保管理方法及***
CN103679171B (zh) * 2013-09-24 2017-02-22 暨南大学 基于人体重心轨迹分析的步态特征提取方法
CN107590452A (zh) * 2017-09-04 2018-01-16 武汉神目信息技术有限公司 一种基于步态与人脸融合的身份识别方法及装置
CN108171138A (zh) * 2017-12-22 2018-06-15 银河水滴科技(北京)有限公司 一种生物特征信息获取方法和装置
US10121064B2 (en) * 2015-04-16 2018-11-06 California Institute Of Technology Systems and methods for behavior detection using 3D tracking and machine learning
CN108960114A (zh) * 2018-06-27 2018-12-07 腾讯科技(深圳)有限公司 人体识别方法及装置、计算机可读存储介质及电子设备
CN109376672A (zh) * 2018-10-31 2019-02-22 银河水滴科技(北京)有限公司 基于生物特征识别的目标对象定位方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509086A (zh) * 2011-11-22 2012-06-20 西安理工大学 一种基于目标姿态预测及多特征融合的行人目标检测方法
CN103679171B (zh) * 2013-09-24 2017-02-22 暨南大学 基于人体重心轨迹分析的步态特征提取方法
US10121064B2 (en) * 2015-04-16 2018-11-06 California Institute Of Technology Systems and methods for behavior detection using 3D tracking and machine learning
CN105787440A (zh) * 2015-11-10 2016-07-20 深圳市商汤科技有限公司 一种基于人脸特征和步态特征的安保管理方法及***
CN107590452A (zh) * 2017-09-04 2018-01-16 武汉神目信息技术有限公司 一种基于步态与人脸融合的身份识别方法及装置
CN108171138A (zh) * 2017-12-22 2018-06-15 银河水滴科技(北京)有限公司 一种生物特征信息获取方法和装置
CN108960114A (zh) * 2018-06-27 2018-12-07 腾讯科技(深圳)有限公司 人体识别方法及装置、计算机可读存储介质及电子设备
CN109376672A (zh) * 2018-10-31 2019-02-22 银河水滴科技(北京)有限公司 基于生物特征识别的目标对象定位方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
裴仁旺: ""摄像头PTZ控制的目标跟踪"", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110941730A (zh) * 2019-11-29 2020-03-31 南京甄视智能科技有限公司 基于人脸特征数据偏移的检索方法与装置
CN110941730B (zh) * 2019-11-29 2020-12-08 南京甄视智能科技有限公司 基于人脸特征数据偏移的检索方法与装置
CN111008993A (zh) * 2019-12-06 2020-04-14 江西洪都航空工业集团有限责任公司 一种行人跨镜追踪的方法及装置
CN113674309A (zh) * 2020-05-14 2021-11-19 杭州海康威视***技术有限公司 对象追踪的方法、装置、管理平台以及存储介质
CN113674309B (zh) * 2020-05-14 2024-02-20 杭州海康威视***技术有限公司 对象追踪的方法、装置、管理平台以及存储介质
CN112862859A (zh) * 2020-08-21 2021-05-28 海信视像科技股份有限公司 一种人脸特征值创建方法、人物锁定追踪方法及显示设备
CN112862859B (zh) * 2020-08-21 2023-10-31 海信视像科技股份有限公司 一种人脸特征值创建方法、人物锁定追踪方法及显示设备
CN112307979A (zh) * 2020-10-31 2021-02-02 成都新潮传媒集团有限公司 一种人员属性识别方法、装置及计算机设备
CN112766225A (zh) * 2021-02-01 2021-05-07 黄岩 基于流动性人员的步态自动建库的装置及方法
CN116189336A (zh) * 2023-02-24 2023-05-30 广州奔智电子科技有限公司 一种智能门锁安防***
CN116189336B (zh) * 2023-02-24 2023-09-08 广州奔智电子科技有限公司 一种智能门锁安防***

Also Published As

Publication number Publication date
CN110175587B (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
CN110175587A (zh) 一种基于人脸识别和步态识别算法的视频追踪方法
CN109819208B (zh) 一种基于人工智能动态监控的密集人群安防监控管理方法
Wheeler et al. Face recognition at a distance system for surveillance applications
US9449233B2 (en) Distributed target tracking using self localizing smart camera networks
CN201248107Y (zh) 主从式摄像机智能视频监控***
KR102104088B1 (ko) Uwb 기반 위치 추적 및 인공지능 융합 지능형 객체 추적 영상 감시 시스템
CN100576908C (zh) 基于全方位视觉传感器的立体化智能摄像设备
CN101751677B (zh) 基于多摄像机的目标连续跟踪方法
CN106791613B (zh) 一种基于3dgis和视频相结合的智能监控***
CN104978571A (zh) 一种智能动态高清视频检测***
CN104200466B (zh) 一种预警方法及摄像机
CN103686131A (zh) 使用图像的3d信息的监控设备和***以及监控方法
CN104038729A (zh) 级联式多摄像机接力跟踪方法及***
CN102254169A (zh) 基于多摄像机的人脸识别方法及***
CN102436662A (zh) 一种非重叠视域多摄像机网络中的人体目标跟踪方法
CN102592146A (zh) 适用于视频监控的人脸检测及摄像机云台控制方法
CN109948474A (zh) Ai热成像全天候智能监控方法
CN107992837A (zh) 基于单个ptz监控摄像机的道路全景建模与车辆检测跟踪方法
CN107657232A (zh) 一种行人智能识别方法及其***
Sgouropoulos et al. Counting and tracking people in a smart room: An IoT approach
CN112132873A (zh) 一种基于计算机视觉的多镜头行人识别与跟踪
KR101290782B1 (ko) 지능적 다중 객체 추적 알고리즘 기반의 다중 ptz 카메라 제어 시스템 및 방법
CN111147811A (zh) 一种自动人脸追踪的三维成像***、成像方法和成像设备
CN115810025A (zh) 一种基于uwb和视觉的室内行人定位方法及***
CN203279057U (zh) 多目标智能跟踪锁定监控***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant