CN108171196B - 一种人脸检测方法及装置 - Google Patents

一种人脸检测方法及装置 Download PDF

Info

Publication number
CN108171196B
CN108171196B CN201810018060.4A CN201810018060A CN108171196B CN 108171196 B CN108171196 B CN 108171196B CN 201810018060 A CN201810018060 A CN 201810018060A CN 108171196 B CN108171196 B CN 108171196B
Authority
CN
China
Prior art keywords
face
area
moving target
detection
face detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810018060.4A
Other languages
English (en)
Other versions
CN108171196A (zh
Inventor
李志国
刘洋
曾建平
朱明�
李党
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Qianhai Intellidata Technology Co ltd
Beijing Icetech Science & Technology Co ltd
Original Assignee
Shenzhen Qianhai Intellidata Technology Co ltd
Beijing Icetech Science & Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Qianhai Intellidata Technology Co ltd, Beijing Icetech Science & Technology Co ltd filed Critical Shenzhen Qianhai Intellidata Technology Co ltd
Priority to CN201810018060.4A priority Critical patent/CN108171196B/zh
Publication of CN108171196A publication Critical patent/CN108171196A/zh
Application granted granted Critical
Publication of CN108171196B publication Critical patent/CN108171196B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种人脸检测方法,该方法包括:输入待检测的视频图像;对视频图像进行运动目标检测,获取运动目标区域;对运动目标区域进行blob团块处理,获取目标检测区域;选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果。与现有技术相比,本发明能快速地检测复杂场景中的人脸,且检测准确率高。

Description

一种人脸检测方法及装置
技术领域
本发明涉及图像处理、视频监控以及安防,特别涉及人脸检测方法及装置。
背景技术
近年来,由于人脸识别的广泛应用和其较高的市场期望,人脸识别一直是模式识别中的一个热门方向。
人脸检测作为人脸识别***中的关键环节,占用了大部分的***资源,并且其检测性能直接影响最终的识别精度,因此显得十分重要。
目前,常见的基于视频/图像的人脸检测方法有模板匹配法、肤色模型法、神经网络法、SVM分类器法、Adaboost分类器法等。但这些方法检测准确率较低,难以适应复杂的环境。
近年来,随着人工智能的快速发展,深度学***移、缩放、倾斜和旋转等变形的敏感度低,更加适用于无约束环境的图像人脸检测。
然而,现有的基于卷积神经网络的人脸检测方法一般采用较多的网络层实现,其运算复杂度较高。
综上所述,需要提出一种运算复杂度低且检测准确率高的人脸检测方法。
发明内容
有鉴于此,本发明的主要目的在于快速的实现人脸检测,且检测准确率高。
为达到上述目的,按照本发明的第一个方面,提供了一种人脸检测方法,该方法包括:
第一步骤,输入待检测的视频图像;
第二步骤,对视频图像进行运动目标检测,获取运动目标区域;
第三步骤,对运动目标区域进行blob团块处理,获取目标检测区域;
第四步骤,选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
第五步骤,采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果。
进一步地,所述第三步骤包括:
小团块合并步骤,在当前帧视频图像内,根据任意两个运动目标区域的宽度、高度和间距,判断这两个运动目标区域是否进行合并处理;
孤立小团块滤除步骤,在当前帧视频图像内,根据运动目标区域的面积、以及与其余运动目标区域的间距,将属于孤立小团块的运动目标区域滤除;
过大团块分割步骤,在当前帧视频图像内,根据运动目标区域的面积与视频图像面积的比值,将属于过大团块的运动目标区域进行分割处理。
进一步地,所述第四步骤包括:
训练样本选取步骤,选取标注人脸图像为正样本图像,选取标注非人脸图像为负样本图像,选取部分人脸样本图像;
一级卷积神经网络训练步骤,采用正样本图像、部分人脸样本图像和负样本图像,对第一级卷积神经网络进行训练,获取训练好的第一级人脸检测模型,并利用第一级人脸检测模型挖掘到难例负样本图像;
二级卷积神经网络训练步骤,采用正样本图像、部分人脸样本图像和一级卷积神经网络训练步骤输出的难例负样本图像,对第二级卷积神经网络进行训练,获取训练好的第二级人脸检测模型,并利用第二级人脸检测模型挖掘到难例负样本图像;
三级卷积神经网络训练步骤,采用正样本图像、部分人脸样本图像和二级卷积神经网络训练步骤输出的难例负样本图像,对第三级卷积神经网络进行训练,获取训练好的第三级人脸检测模型。
所述难例负样本图像为通过人脸检测模型误检的负样本图像。
进一步地,所述第五步骤包括:
待检测区域输入步骤,输入待检测的目标检测区域;
多尺度缩放步骤,对目标检测区域进行多尺度缩放;
第一级人脸检测模型检测步骤,采用第一级人脸检测模型,分别对每个尺度的目标检测区域进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第一人脸候选框,并转入第二级人脸检测模型检测步骤,否则转入人脸检测结果输出步骤;
第二级人脸检测模型检测步骤,采用第二级人脸检测模型,对第一人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第二人脸候选框,并转入第三级人脸检测模型检测步骤,否则转入人脸检测结果输出步骤;
第三级人脸检测模型检测步骤,采用第三级人脸检测模型,对第二人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为人脸框;
人脸检测结果输出步骤,若目标检测区域存在人脸框,则输出人脸框的位置;若目标检测区域不存在人脸框,则输出无人脸。
进一步地,按照本发明的一种人脸检测方法还可以包括:第六步骤,采用光流法对人脸检测结果进行跟踪,输出人脸跟踪结果。
按照本发明的另一个方面,提供了一种人脸检测装置,该装置包括:
视频图像输入模块,用于输入待检测的视频图像;
运动目标检测模块,用于对视频图像进行运动目标检测,获取运动目标区域;
blob团块处理模块,用于对运动目标区域进行blob团块处理,获取目标检测区域;
级联卷积神经网络训练模块,用于选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
人脸检测模块,用于采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果。
进一步地,所述blob团块处理模块包括:
小团块合并模块,用于在当前帧视频图像内,根据任意两个运动目标区域的宽度、高度和间距,判断这两个运动目标区域是否进行合并处理;
孤立小团块滤除模块,用于在当前帧视频图像内,根据运动目标区域的面积、以及与其余运动目标区域的间距,将属于孤立小团块的运动目标区域滤除;
过大团块分割模块,用于在当前帧视频图像内,根据运动目标区域的面积与视频图像面积的比值,将属于过大团块的运动目标区域进行分割处理。
进一步地,所述级联卷积神经网络训练模块包括:
训练样本选取模块,用于选取标注人脸图像为正样本图像,选取标注非人脸图像为负样本图像,选取部分人脸样本图像;
一级卷积神经网络训练模块,用于采用正样本图像、部分人脸样本图像和负样本图像,对第一级卷积神经网络进行训练,获取训练好的第一级人脸检测模型,并利用第一级人脸检测模型挖掘到难例负样本图像;
二级卷积神经网络训练模块,用于采用正样本图像、部分人脸样本图像和一级卷积神经网络训练模块输出的难例负样本图像,对第二级卷积神经网络进行训练,获取训练好的第二级人脸检测模型,并利用第二级人脸检测模型挖掘到难例负样本图像;
三级卷积神经网络训练模块,用于采用正样本图像、部分人脸样本图像和二级卷积神经网络训练模块输出的难例负样本图像,对第三级卷积神经网络进行训练,获取训练好的第三级人脸检测模型。
进一步地,所述人脸检测模块包括:
待检测区域输入模块,用于输入待检测的目标检测区域;
多尺度缩放模块,用于对目标检测区域进行多尺度缩放;
第一级人脸检测模型检测模块,用于采用第一级人脸检测模型,分别对每个尺度的目标检测区域进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第一人脸候选框,并转入第二级人脸检测模型检测模块,否则转入人脸检测结果输出模块;
第二级人脸检测模型检测模块,采用第二级人脸检测模型,对第一人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第二人脸候选框,并转入第三级人脸检测模型检测模块,否则转入人脸检测结果输出模块;
第三级人脸检测模型检测模块,采用第三级人脸检测模型,对第二人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为人脸框;
人脸检测结果输出模块,若目标检测区域存在人脸框,则输出人脸框的位置;若目标检测区域不存在人脸框,则输出无人脸。
进一步地,按照本发明的一种人脸检测装置还可以包括:人脸跟踪模块,用于采用光流法对人脸检测结果进行跟踪,输出人脸跟踪结果。
与现有的人脸检测技术相比,本发明的一种人脸检测方法及装置一方面采用级联卷积神经网络进行人脸检测,并且通过部分人脸样本的训练和难例负样本的挖掘,有效地提高了人脸检测的准确率;另一方面在进行级联卷积神经网络人脸检测前,先通过运动目标检测和blob团块处理获取目标检测区域,后面只需要在目标检测区域内进行人脸检测,从而大大地降低了运算量。
附图说明
图1示出了按照本发明的一种人脸检测方法的第一实施例的流程图。
图2示出了按照本发明的一种人脸检测方法的第二实施例的流程图。
图3示出了按照本发明的一种人脸检测装置的第一实施例的框架图。
图4示出了按照本发明的一种人脸检测装置的第二实施例的框架图。
具体实施方式
为使贵审查员能进一步了解本发明的结构、特征及其他目的,现结合所附较佳实施例详细说明如下,所说明的较佳实施例仅用于说明本发明的技术方案,并非限定本发明。
图1给出了按照本发明的一种人脸检测方法的第一实施例的流程图。如图1所示,按照本发明的一种人脸检测方法包括:
第一步骤S1,输入待检测的视频图像;
第二步骤S2,对视频图像进行运动目标检测,获取运动目标区域;
第三步骤S3,对运动目标区域进行blob团块处理,获取目标检测区域;
第四步骤S4,选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
第五步骤S5,采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果。
所述第二步骤S2可以通过现有运动目标检测方法实现,包括但不限于:静态差分法、高斯背景建模法、CodeBook背景建模法以及VIBE方法。
实施例,所述第二步骤S2采用混合高斯背景建模方法,如“基于熵理论改进混合高斯模型的运动目标检测算法.刘万军,李琳.《计算机应用研究》,2015,32(7):2226-2229”文献中的运动目标检测方法,对视频图像进行运动目标检测,获取前景检测目标,提取前景检测目标的外接矩形区域作为运动目标区域。
进一步地,所述第三步骤S3包括:
小团块合并步骤S31,在当前帧视频图像内,根据任意两个运动目标区域的宽度、高度和间距,判断这两个运动目标区域是否进行合并处理;
孤立小团块滤除步骤S32,在当前帧视频图像内,根据运动目标区域的面积、以及与其余运动目标区域的间距,将属于孤立小团块的运动目标区域滤除;
过大团块分割步骤S33,在当前帧视频图像内,根据运动目标区域的面积与视频图像面积的比值,将属于过大团块的运动目标区域进行分割处理。
进一步地,所述小团块合并步骤S31包括:对于当前帧视频图像内的任意两个运动目标区域Bi和Bj,计算运动目标区域Bi的宽度WBi和高度HBi,计算运动目标区域Bj的宽度WBj和高度HBj,分别计算运动目标区域Bi和Bj在x和y方向上的间距Xdij、Xdij,如果同时满足
Figure BDA0001542620330000061
Figure BDA0001542620330000062
则将运动目标区域Bi和Bj合并成一个运动目标区域,其中i,j∈{1,2,…,BNum1},i≠j,BNum1为当前帧视频图像内的运动目标区域的个数,W和H为当前帧视频图像的宽度和高度。
进一步地,所述孤立小团块滤除步骤S32包括:对于当前帧视频图像,分别计算每个运动目标区域的面积,获取运动目标区域的面积最大值SBmax,对于任意一个运动目标区域Bp,如果满足
Figure BDA0001542620330000063
则认为运动目标区域Bp为孤立小团块,将运动目标区域Bp滤除,其中p∈{1,2,…,BNum2},BNum2为当前帧视频图像内的运动目标区域的个数,SBp为运动目标区域Bp的面积。
进一步地,所述过大团块分割步骤S33包括:对于当前帧视频图像内的任意一个运动目标区域Bq,计算运动目标区域Bq的面积SBq与当前帧视频图像的面积S的比值
Figure BDA0001542620330000064
如果
Figure BDA0001542620330000065
则认为运动目标区域Bq为过大团块,并采用前景密度分布分割法,将运动目标区域Bq分割成一个或者多个运动目标区域,其中q∈{1,2,…,BNum3},BNum3为当前帧视频图像内的运动目标区域的个数。
进一步地,所述过大团块分割步骤S33中前景密度分布分割法包括:对于认为是过大团块的运动目标区域Bq,构建一个宽度为
Figure BDA0001542620330000066
高度为
Figure BDA0001542620330000067
的滑动窗口,采用滑动窗口在运动目标区域Bq内依次滑动一遍,统计每个滑动窗口区域内的前景点的数量值,获取滑动窗口区域内前景点数量值的最大值WFNummax,将前景点数量值为WFNummax的滑动窗口区域作为分割的运动目标区域Bq1;将运动目标区域Bq内除运动目标区域Bq1以外的部分作为分割子区域,分别计算每个分割子区域的面积,如果某个分割子区域的面积与运动目标区域Bq1面积的比值小于
Figure BDA0001542620330000071
则滤除此分割子区域,如果某个分割子区域的面积与运动目标区域Bq1面积的比值位于
Figure BDA0001542620330000072
之间,则将此分割子区域与运动目标区域Bq1合并,如果某个分割子区域的面积与运动目标区域Bq1面积的比值大于
Figure BDA0001542620330000073
则将此分割子区域作为分割的运动目标区域。
所述T1的取值范围为2~8,所述T2的取值范围为3~8,所述T3的取值范围为2~8,所述T4的取值范围为2~8,所述T5的取值范围为8~12,所述T6的取值范围为2~6。进一步地,所述T1的取值范围为2~4,所述T2的取值范围为4~6,所述T3的取值范围为2~4,所述T4的取值范围为2~4,T5的取值范围为9~11,所述T6的取值范围为3~5。
进一步地,所述第四步骤S4包括:
训练样本选取步骤S41,选取标注人脸图像为正样本图像,选取标注非人脸图像为负样本图像,选取部分人脸样本图像;
一级卷积神经网络训练步骤S42,采用正样本图像、部分人脸样本图像和负样本图像,对第一级卷积神经网络进行训练,获取训练好的第一级人脸检测模型,并利用第一级人脸检测模型挖掘到难例负样本图像;
二级卷积神经网络训练步骤S43,采用正样本图像、部分人脸样本图像和一级卷积神经网络训练步骤S42输出的难例负样本图像,对第二级卷积神经网络进行训练,获取训练好的第二级人脸检测模型,并利用第二级人脸检测模型挖掘到难例负样本图像;
三级卷积神经网络训练步骤S44,采用正样本图像、部分人脸样本图像和二级卷积神经网络训练步骤S43输出的难例负样本图像,对第三级卷积神经网络进行训练,获取训练好的第三级人脸检测模型。
所述标注人脸图像包括不同场景、不同光照、不同姿态、不同肤色等情况下只框选人脸的图像,所述标注非人脸图像包括不同场景、不同光照等情况下不含人脸的图像,所述标注部分人脸图像为含有人脸样本图像的图像。
进一步地,所述标注非人脸图像包括:含有肤色特征的身体部位,与肤色相近的背景等区域图像。
所述难例负样本图像为通过人脸检测模型误检的负样本图像。实施例,如果某个标注非人脸的负样本图像经过第一级人脸检测模型或者第二级人脸检测模型检测后,输出为人脸,则认为此负样本图像为难例负样本图像。
进一步地,所述第一级卷积神经网络(Convolutional Neural Network,简称CNN)、所述第二级卷积神经网络、所述第三级卷积神经网络为现有的卷积神经网络,可以包括但不限于:一般的CNN、RCNN、SPPNET、Fast-RCNN、Faster-RCNN、YOLO、SSD等或者上述网络的组合。
实施例一,所述第一级卷积神经网络包括:4个卷积层、1个池化层;所述第二级卷积神经网络包括:3个卷积层、3个池化层、3个全连接层;所述第三级卷积神经网络包括:4个卷积层、3个池化层、3个全连接层,其中最后一个全连接层输出为3,表示输出3个分类结果,包括:人脸、非人脸以及部分人脸。
实施例二,所述第一级卷积神经网络、所述第二级卷积神经网络、所述第三级卷积神经网络采用“卷积神经网络在人脸检测中的应用研究.刘秀青.山西大学,2015”论文中的神经网络结构,其中最后一个全连接层输出为3,表示输出3个分类结果,包括:人脸、非人脸以及部分人脸。
进一步地,所述第五步骤S5包括:
待检测区域输入步骤S51,输入待检测的目标检测区域;
多尺度缩放步骤S52,对目标检测区域进行多尺度缩放;
第一级人脸检测模型检测步骤S53,采用第一级人脸检测模型,分别对每个尺度的目标检测区域进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第一人脸候选框,并转入第二级人脸检测模型检测步骤S54,否则转入人脸检测结果输出步骤S56;
第二级人脸检测模型检测步骤S54,采用第二级人脸检测模型,对第一人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第二人脸候选框,并转入第三级人脸检测模型检测步骤S55,否则转入人脸检测结果输出步骤S56;
第三级人脸检测模型检测步骤S55,采用第三级人脸检测模型,对第二人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为人脸框;
人脸检测结果输出步骤S56,若目标检测区域存在人脸框,则输出人脸框的位置;若目标检测区域不存在人脸框,则输出无人脸。
图2给出了按照本发明的一种人脸检测方法的第二实施例的流程图。如图2所示,按照本发明的一种人脸检测方法包括:
第一步骤S1,输入待检测的视频图像;
第二步骤S2,对视频图像进行运动目标检测,获取运动目标区域;
第三步骤S3,对运动目标区域进行blob团块处理,获取目标检测区域;
第四步骤S4,选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
第五步骤S5,采用人脸检测模型对目标检测区域进行人脸检测,输出人脸检测结果;
第六步骤S6,采用光流法对人脸检测结果进行跟踪,输出人脸跟踪结果。
所述第六步骤S6可以通过现有的基于光流法的跟踪方法或者算法实现。
进一步地,所述第六步骤S6包括:
首帧人脸框ID赋予步骤S61,对于待检测的视频图像,将首次检测到人脸框的视频图像作为第一帧图像,将第一帧视频图像内的所有人脸框赋予唯一的ID号;
当前帧人脸框ID获取步骤S62,根据每一个ID号的人脸框在前一帧的位置,通过光流法计算此ID号的人脸框在当前帧的位置,并采用人脸比对法,对前一帧和当前帧对应此ID号的人脸框进行比对,若比对成功,则给当前帧对应此ID号位置的人脸框赋予此ID号,若比对失败,则给当前帧对应此ID号位置的人脸框赋予一个新的ID号,若当前帧对应此ID号位置无人脸框,则采用跟踪结果作为此ID号的人脸框位置,直到此ID号的人脸框消失;
人脸跟踪结果输出步骤S63,输出待检测视频中所有ID号的人脸框的跟踪结果。
实施例,所述第六步骤S6采用金字塔光流法对待检测视频图像的所有人脸框进行跟踪,例如“基于在线Boosting和LK光流的视频跟踪算法.《西南科技大学学报》,2012,27(4):80-84”中的方法。
图3给出了按照本发明的一种人脸检测装置的第一实施例的框架图。如图3所示,按照本发明的一种人脸检测装置包括:
视频图像输入模块1,用于输入待检测的视频图像;
运动目标检测模块2,用于对视频图像进行运动目标检测,获取运动目标区域;
blob团块处理模块3,用于对运动目标区域进行blob团块处理,获取目标检测区域;
级联卷积神经网络训练模块4,用于选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
人脸检测模块5,用于采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果。
所述运动目标检测模块2可以通过现有运动目标检测方法、设备或者装置实现,包括但不限于:基于静态差分、高斯背景建模、CodeBook背景建模以及VIBE算法的运动目标检测方法、设备或者装置。
进一步地,所述blob团块处理模块3包括:
小团块合并模块31,用于在当前帧视频图像内,根据任意两个运动目标区域的宽度、高度和间距,判断这两个运动目标区域是否进行合并处理;
孤立小团块滤除模块32,用于在当前帧视频图像内,根据运动目标区域的面积、以及与其余运动目标区域的间距,将属于孤立小团块的运动目标区域滤除;
过大团块分割模块33,用于在当前帧视频图像内,根据运动目标区域的面积与视频图像面积的比值,将属于过大团块的运动目标区域进行分割处理。
进一步地,所述小团块合并模块31包括:用于对于当前帧视频图像内的任意两个运动目标区域Bi和Bj,计算运动目标区域Bi的宽度WBi和高度HBi,计算运动目标区域Bj的宽度WBj和高度HBj,分别计算运动目标区域Bi和Bj在x和y方向上的间距Xdij、Xdij,如果同时满足
Figure BDA0001542620330000101
Figure BDA0001542620330000102
则将运动目标区域Bi和Bj合并成一个运动目标区域,其中i,j∈{1,2,…,BNum1},i≠j,BNum1为当前帧视频图像内的运动目标区域的个数,W和H为当前帧视频图像的宽度和高度。
进一步地,所述孤立小团块滤除模块32包括:用于对于当前帧视频图像,分别计算每个运动目标区域的面积,获取运动目标区域的面积最大值SBmax,对于任意一个运动目标区域Bp,如果满足
Figure BDA0001542620330000111
则认为运动目标区域Bp为孤立小团块,将运动目标区域Bp滤除,其中p∈{1,2,…,BNum2},BNum2为当前帧视频图像内的运动目标区域的个数,SBp为运动目标区域Bp的面积。
进一步地,所述过大团块分割模块33包括:用于对于当前帧视频图像内的任意一个运动目标区域Bq,计算运动目标区域Bq的面积SBq与当前帧视频图像的面积S的比值
Figure BDA0001542620330000112
如果
Figure BDA0001542620330000113
则认为运动目标区域Bq为过大团块,并采用前景密度分布分割模块,将运动目标区域Bq分割成一个或者多个运动目标区域,其中q∈{1,2,…,BNum3},BNum3为当前帧视频图像内的运动目标区域的个数。
进一步地,所述过大团块分割模块33中前景密度分布分割模块包括:用于对于认为是过大团块的运动目标区域Bq,构建一个宽度为
Figure BDA0001542620330000114
高度为
Figure BDA0001542620330000115
的滑动窗口,采用滑动窗口在运动目标区域Bq内依次滑动一遍,统计每个滑动窗口区域内的前景点的数量值,获取滑动窗口区域内前景点数量值的最大值WFNummax,将前景点数量值为WFNummax的滑动窗口区域作为分割的运动目标区域Bq1;将运动目标区域Bq内除运动目标区域Bq1以外的部分作为分割子区域,分别计算每个分割子区域的面积,如果某个分割子区域的面积与运动目标区域Bq1面积的比值小于
Figure BDA0001542620330000116
则滤除此分割子区域,如果某个分割子区域的面积与运动目标区域Bq1面积的比值位于
Figure BDA0001542620330000117
之间,则将此分割子区域与运动目标区域Bq1合并,如果某个分割子区域的面积与运动目标区域Bq1面积的比值大于
Figure BDA0001542620330000121
则将此分割子区域作为分割的运动目标区域。
所述T1的取值范围为2~8,所述T2的取值范围为3~8,所述T3的取值范围为2~8,所述T4的取值范围为2~8,所述T5的取值范围为8~12,所述T6的取值范围为2~6。进一步地,所述T1的取值范围为2~4,所述T2的取值范围为4~6,所述T3的取值范围为2~4,所述T4的取值范围为2~4,T5的取值范围为9~11,所述T6的取值范围为3~5。
进一步地,所述级联卷积神经网络训练模块4包括:
训练样本选取模块41,用于选取标注人脸图像为正样本图像,选取标注非人脸图像为负样本图像,选取部分人脸样本图像;
一级卷积神经网络训练模块42,用于采用正样本图像、部分人脸样本图像和负样本图像,对第一级卷积神经网络进行训练,获取训练好的第一级人脸检测模型,并利用第一级人脸检测模型挖掘到难例负样本图像;
二级卷积神经网络训练模块43,用于采用正样本图像、部分人脸样本图像和一级卷积神经网络训练模块42输出的难例负样本图像,对第二级卷积神经网络进行训练,获取训练好的第二级人脸检测模型,并利用第二级人脸检测模型挖掘到难例负样本图像;
三级卷积神经网络训练模块44,用于采用正样本图像、部分人脸样本图像和二级卷积神经网络训练模块43输出的难例负样本图像,对第三级卷积神经网络进行训练,获取训练好的第三级人脸检测模型。
所述标注人脸图像包括不同场景、不同光照、不同姿态、不同肤色等情况下只框选人脸的图像,所述标注非人脸图像包括不同场景、不同光照等情况下不含人脸的图像,所述标注部分人脸图像为含有人脸样本图像的图像。
进一步地,所述标注非人脸图像包括:含有肤色特征的身体部位,与肤色相近的背景等区域图像。
所述难例负样本图像为通过人脸检测模型误检的负样本图像。实施例,如果某个标注非人脸的负样本图像经过第一级人脸检测模型或者第二级人脸检测模型检测后,输出为人脸,则认为此负样本图像为难例负样本图像。
进一步地,所述第一级卷积神经网络(Convolutional Neural Network,简称CNN)、所述第二级卷积神经网络、所述第三级卷积神经网络为现有的卷积神经网络,可以包括但不限于:一般的CNN、RCNN、SPPNET、Fast-RCNN、Faster-RCNN、YOLO、SSD等或者上述网络的组合。
实施例,所述第一级卷积神经网络包括:4个卷积层、1个池化层;所述第二级卷积神经网络包括:3个卷积层、3个池化层、3个全连接层;所述第三级卷积神经网络包括:4个卷积层、3个池化层、3个全连接层。
进一步地,所述人脸检测模块5包括:
待检测区域输入模块51,用于输入待检测的目标检测区域;
多尺度缩放模块52,用于对目标检测区域进行多尺度缩放;
第一级人脸检测模型检测模块53,用于采用第一级人脸检测模型,分别对每个尺度的目标检测区域进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第一人脸候选框,并转入第二级人脸检测模型检测模块54,否则转入人脸检测结果输出模块56;
第二级人脸检测模型检测模块54,采用第二级人脸检测模型,对第一人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第二人脸候选框,并转入第三级人脸检测模型检测模块55,否则转入人脸检测结果输出模块56;
第三级人脸检测模型检测模块55,采用第三级人脸检测模型,对第二人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为人脸框;
人脸检测结果输出模块56,若目标检测区域存在人脸框,则输出人脸框的位置;若目标检测区域不存在人脸框,则输出无人脸。
图4给出了按照本发明的一种人脸检测装置的第二实施例的框架图。如图4所示,按照本发明的一种人脸检测装置包括:
视频图像输入模块1,用于输入待检测的视频图像;
运动目标检测模块2,用于对视频图像进行运动目标检测,获取运动目标区域;
blob团块处理模块3,用于对运动目标区域进行blob团块处理,获取目标检测区域;
级联卷积神经网络训练模块4,用于选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
人脸检测模块5,用于采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果;
人脸跟踪模块6,用于采用光流法对人脸检测结果进行跟踪,输出人脸跟踪结果。
所述人脸跟踪模块6可以通过现有的基于光流法的跟踪方法、设备或者装置实现。
进一步地,所述人脸跟踪模块6包括:
首帧人脸框ID赋予模块61,用于对于待检测的视频图像,将首次检测到人脸框的视频图像作为第一帧图像,将第一帧视频图像内的所有人脸框赋予唯一的ID号;
当前帧人脸框ID获取模块62,用于根据每一个ID号的人脸框在前一帧的位置,通过光流法计算此ID号的人脸框在当前帧的位置,并采用人脸比对法,对前一帧和当前帧对应此ID号的人脸框进行比对,若比对成功,则给当前帧对应此ID号位置的人脸框赋予此ID号,若比对失败,则给当前帧对应此ID号位置的人脸框赋予一个新的ID号,若当前帧对应此ID号位置无人脸框,则采用跟踪结果作为此ID号的人脸框位置,直到此ID号的人脸框消失;
人脸跟踪结果输出模块63,用于输出待检测视频中所有ID号的人脸框的跟踪结果。
与现有的人脸检测技术相比,本发明的一种人脸检测方法及装置一方面采用级联卷积神经网络进行人脸检测,并且通过部分人脸样本的训练和难例负样本的挖掘,有效地提高了人脸检测的准确率;另一方面在进行级联卷积神经网络人脸检测前,先通过运动目标检测和blob团块处理获取目标检测区域,后面只需要在目标检测区域内进行人脸检测,从而大大地降低了运算量。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,应当理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在于帮助本领域中的技术人员实践本发明。任何本领域中的技术人员很容易在不脱离本发明精神和范围的情况下进行进一步的改进和完善,因此本发明只受到本发明权利要求的内容和范围的限制,其意图涵盖所有包括在由所附权利要求所限定的本发明精神和范围内的备选方案和等同方案。

Claims (12)

1.一种人脸检测方法,其特征在于,该方法包括:
第一步骤,输入待检测的视频图像;
第二步骤,对视频图像进行运动目标检测,获取运动目标区域;
第三步骤,对运动目标区域进行blob团块处理,获取目标检测区域;
第四步骤,选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
第五步骤,采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果;
所述第三步骤包括:
小团块合并步骤,在当前帧视频图像内,根据任意两个运动目标区域的宽度、高度和间距,判断这两个运动目标区域是否进行合并处理;
孤立小团块滤除步骤,在当前帧视频图像内,根据运动目标区域的面积、以及与其余运动目标区域的间距,将属于孤立小团块的运动目标区域滤除;
过大团块分割步骤,在当前帧视频图像内,根据运动目标区域的面积与视频图像面积的比值,将属于过大团块的运动目标区域进行分割处理。
2.如权利要求1所述的方法,其特征在于,所述小团块合并步骤包括:对于当前帧视频图像内的任意两个运动目标区域Bi和Bj,计算运动目标区域Bi的宽度WBi和高度HBi,计算运动目标区域Bj的宽度WBj和高度HBj,分别计算运动目标区域Bi和Bj在x和y方向上的间距Xdij、Xdij,如果同时满足
Figure FDA0003197245290000011
Figure FDA0003197245290000012
则将运动目标区域Bi和Bj合并成一个运动目标区域,其中i,j∈{1,2,…,BNum1},i≠j,BNum1为当前帧视频图像内的运动目标区域的个数,W和H为当前帧视频图像的宽度和高度;
所述T1的取值范围为2~8。
3.如权利要求1所述的方法,其特征在于,所述孤立小团块滤除步骤包括:对于当前帧视频图像,分别计算每个运动目标区域的面积,获取运动目标区域的面积最大值SBmax,对于任意一个运动目标区域Bp,如果满足
Figure FDA0003197245290000013
则认为运动目标区域Bp为孤立小团块,将运动目标区域Bp滤除,其中p∈{1,2,…,BNum2},BNum2为当前帧视频图像内的运动目标区域的个数,SBp为运动目标区域Bp的面积;
所述T2的取值范围为3~8。
4.如权利要求1所述的方法,其特征在于,所述过大团块分割步骤包括:对于当前帧视频图像内的任意一个运动目标区域Bq,计算运动目标区域Bq的面积SBq与当前帧视频图像的面积S的比值
Figure FDA0003197245290000021
如果
Figure FDA0003197245290000022
则认为运动目标区域Bq为过大团块,并采用前景密度分布分割法,将运动目标区域Bq分割成一个或者多个运动目标区域,其中q∈{1,2,…,BNum3},BNum3为当前帧视频图像内的运动目标区域的个数;
所述T3的取值范围为2~8。
5.如权利要求4所述的方法,其特征在于,所述前景密度分布分割法包括:对于认为是过大团块的运动目标区域Bq,构建一个宽度为
Figure FDA0003197245290000023
高度为
Figure FDA0003197245290000024
的滑动窗口,采用滑动窗口在运动目标区域Bq内依次滑动一遍,统计每个滑动窗口区域内的前景点的数量值,获取滑动窗口区域内前景点数量值的最大值WFNummax,将前景点数量值为WFNummax的滑动窗口区域作为分割的运动目标区域Bq1;将运动目标区域Bq内除运动目标区域Bq1以外的部分作为分割子区域,分别计算每个分割子区域的面积,如果某个分割子区域的面积与运动目标区域Bq1面积的比值小于
Figure FDA0003197245290000025
则滤除此分割子区域,如果某个分割子区域的面积与运动目标区域Bq1面积的比值位于
Figure FDA0003197245290000026
之间,则将此分割子区域与运动目标区域Bq1合并,如果某个分割子区域的面积与运动目标区域Bq1面积的比值大于
Figure FDA0003197245290000027
则将此分割子区域作为分割的运动目标区域;
所述T4的取值范围为2~8,所述T5的取值范围为8~12,所述T6的取值范围为2~6。
6.如权利要求1所述的方法,其特征在于,所述第四步骤包括:
训练样本选取步骤,选取标注人脸图像为正样本图像,选取标注非人脸图像为负样本图像,选取部分人脸样本图像;
一级卷积神经网络训练步骤,采用正样本图像、部分人脸样本图像和负样本图像,对第一级卷积神经网络进行训练,获取训练好的第一级人脸检测模型,并利用第一级人脸检测模型挖掘到难例负样本图像;
二级卷积神经网络训练步骤,采用正样本图像、部分人脸样本图像和一级卷积神经网络训练步骤输出的难例负样本图像,对第二级卷积神经网络进行训练,获取训练好的第二级人脸检测模型,并利用第二级人脸检测模型挖掘到难例负样本图像;
三级卷积神经网络训练步骤,采用正样本图像、部分人脸样本图像和二级卷积神经网络训练步骤输出的难例负样本图像,对第三级卷积神经网络进行训练,获取训练好的第三级人脸检测模型;
其中,所述难例负样本图像为通过人脸检测模型误检的负样本图像。
7.如权利要求1所述的方法,其特征在于,所述第五步骤包括:
待检测区域输入步骤,输入待检测的目标检测区域;
多尺度缩放步骤,对目标检测区域进行多尺度缩放;
第一级人脸检测模型检测步骤,采用第一级人脸检测模型,分别对每个尺度的目标检测区域进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第一人脸候选框,并转入第二级人脸检测模型检测步骤,否则转入人脸检测结果输出步骤;
第二级人脸检测模型检测步骤,采用第二级人脸检测模型,对第一人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第二人脸候选框,并转入第三级人脸检测模型检测步骤,否则转入人脸检测结果输出步骤;
第三级人脸检测模型检测步骤,采用第三级人脸检测模型,对第二人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为人脸框;
人脸检测结果输出步骤,若目标检测区域存在人脸框,则输出人脸框的位置;若目标检测区域不存在人脸框,则输出无人脸。
8.如权利要求1所述的方法,其特征在于,该方法包括:第六步骤,采用光流法对人脸检测结果进行跟踪,输出人脸跟踪结果。
9.一种人脸检测装置,其特征在于,该装置包括:
视频图像输入模块,用于输入待检测的视频图像;
运动目标检测模块,用于对视频图像进行运动目标检测,获取运动目标区域;
blob团块处理模块,用于对运动目标区域进行blob团块处理,获取目标检测区域;
级联卷积神经网络训练模块,用于选取人脸和非人脸样本图像,对级联卷积神经网络进行训练,获取训练好的人脸检测模型;
人脸检测模块,用于采用人脸检测模型对目标检测区域进行人脸检测,输出检测结果;
所述blob团块处理模块包括:
小团块合并模块,用于在当前帧视频图像内,根据任意两个运动目标区域的宽度、高度和间距,判断这两个运动目标区域是否进行合并处理;
孤立小团块滤除模块,用于在当前帧视频图像内,根据运动目标区域的面积、以及与其余运动目标区域的间距,将属于孤立小团块的运动目标区域滤除;
过大团块分割模块,用于在当前帧视频图像内,根据运动目标区域的面积与视频图像面积的比值,将属于过大团块的运动目标区域进行分割处理。
10.如权利要求9所述的装置,其特征在于,所述级联卷积神经网络训练模块包括:
训练样本选取模块,用于选取标注人脸图像为正样本图像,选取标注非人脸图像为负样本图像,选取部分人脸样本图像;
一级卷积神经网络训练模块,用于采用正样本图像、部分人脸样本图像和负样本图像,对第一级卷积神经网络进行训练,获取训练好的第一级人脸检测模型,并利用第一级人脸检测模型挖掘到难例负样本图像;
二级卷积神经网络训练模块,用于采用正样本图像、部分人脸样本图像和一级卷积神经网络训练模块输出的难例负样本图像,对第二级卷积神经网络进行训练,获取训练好的第二级人脸检测模型,并利用第二级人脸检测模型挖掘到难例负样本图像;
三级卷积神经网络训练模块,用于采用正样本图像、部分人脸样本图像和二级卷积神经网络训练模块输出的难例负样本图像,对第三级卷积神经网络进行训练,获取训练好的第三级人脸检测模型;
其中,所述难例负样本图像为通过人脸检测模型误检的负样本图像。
11.如权利要求9所述的装置,其特征在于,所述人脸检测模块包括:
待检测区域输入模块,用于输入待检测的目标检测区域;
多尺度缩放模块,用于对目标检测区域进行多尺度缩放;
第一级人脸检测模型检测模块,用于采用第一级人脸检测模型,分别对每个尺度的目标检测区域进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第一人脸候选框,并转入第二级人脸检测模型检测模块,否则转入人脸检测结果输出模块;
第二级人脸检测模型检测模块,采用第二级人脸检测模型,对第一人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为第二人脸候选框,并转入第三级人脸检测模型检测模块,否则转入人脸检测结果输出模块;
第三级人脸检测模型检测模块,采用第三级人脸检测模型,对第二人脸候选框进行人脸检测,若检测到人脸,则根据检测到的人脸位置获取目标检测区域内的相对位置,标记为人脸框;
人脸检测结果输出模块,若目标检测区域存在人脸框,则输出人脸框的位置;若目标检测区域不存在人脸框,则输出无人脸。
12.如权利要求9所述的装置,其特征在于,该装置包括:人脸跟踪模块,用于采用光流法对人脸检测结果进行跟踪,输出人脸跟踪结果。
CN201810018060.4A 2018-01-09 2018-01-09 一种人脸检测方法及装置 Active CN108171196B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810018060.4A CN108171196B (zh) 2018-01-09 2018-01-09 一种人脸检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810018060.4A CN108171196B (zh) 2018-01-09 2018-01-09 一种人脸检测方法及装置

Publications (2)

Publication Number Publication Date
CN108171196A CN108171196A (zh) 2018-06-15
CN108171196B true CN108171196B (zh) 2021-10-26

Family

ID=62517837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810018060.4A Active CN108171196B (zh) 2018-01-09 2018-01-09 一种人脸检测方法及装置

Country Status (1)

Country Link
CN (1) CN108171196B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109063593A (zh) * 2018-07-13 2018-12-21 北京智芯原动科技有限公司 一种人脸跟踪方法及装置
CN110738079A (zh) * 2018-07-19 2020-01-31 杭州海康威视数字技术股份有限公司 机动车前排人员数量异常的检测方法、装置和计算机设备
CN109271877A (zh) * 2018-08-24 2019-01-25 北京智芯原动科技有限公司 一种人形识别方法及装置
CN109359555A (zh) * 2018-09-21 2019-02-19 江苏安凰领御科技有限公司 一种高精度的人脸快速检测方法
CN109740486B (zh) * 2018-12-27 2021-07-27 北京铁路信号有限公司 一种对图像包含的人类数量进行识别的方法及***
CN111753598A (zh) * 2019-03-29 2020-10-09 中国联合网络通信集团有限公司 人脸检测方法及设备
CN110490073A (zh) * 2019-07-15 2019-11-22 浙江省北大信息技术高等研究院 目标检测方法、装置、设备及存储介质
CN110555867B (zh) * 2019-09-05 2023-07-07 杭州智爱时刻科技有限公司 一种融合物体捕获识别技术的多目标物体跟踪方法
CN111695522B (zh) * 2020-06-15 2022-10-18 重庆邮电大学 一种平面内的旋转不变人脸检测方法、装置及存储介质
CN111931598B (zh) * 2020-07-20 2024-05-17 武汉美和易思数字科技有限公司 一种基于人脸识别的课堂智能实时分析方法及***
CN112580449B (zh) * 2020-12-06 2022-10-21 江苏集萃未来城市应用技术研究所有限公司 智慧工地现场的人员异常行为判别方法
CN113284166A (zh) * 2021-04-15 2021-08-20 阳光暖果(北京)科技发展有限公司 一种基于深度级联神经网络的高速人脸跟踪方法及***
CN113780262A (zh) * 2021-08-28 2021-12-10 特斯联科技集团有限公司 人脸识别智能光照补偿方法、装置、设备及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7903870B1 (en) * 2006-02-24 2011-03-08 Texas Instruments Incorporated Digital camera and method
CN104021570A (zh) * 2014-06-04 2014-09-03 电子科技大学 一种视频中有方向的越界和拌线检测方法
CN104301669A (zh) * 2014-09-12 2015-01-21 重庆大学 基于双摄像头协同的可疑目标检测跟踪与识别方法
CN104573613A (zh) * 2013-10-16 2015-04-29 深圳市捷顺科技实业股份有限公司 一种基于团块跟踪的视频安全防砸方法及装置
CN107239736A (zh) * 2017-04-28 2017-10-10 北京智慧眼科技股份有限公司 基于多任务级联卷积神经网络的人脸检测方法及检测装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8744122B2 (en) * 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7903870B1 (en) * 2006-02-24 2011-03-08 Texas Instruments Incorporated Digital camera and method
CN104573613A (zh) * 2013-10-16 2015-04-29 深圳市捷顺科技实业股份有限公司 一种基于团块跟踪的视频安全防砸方法及装置
CN104021570A (zh) * 2014-06-04 2014-09-03 电子科技大学 一种视频中有方向的越界和拌线检测方法
CN104301669A (zh) * 2014-09-12 2015-01-21 重庆大学 基于双摄像头协同的可疑目标检测跟踪与识别方法
CN107239736A (zh) * 2017-04-28 2017-10-10 北京智慧眼科技股份有限公司 基于多任务级联卷积神经网络的人脸检测方法及检测装置

Also Published As

Publication number Publication date
CN108171196A (zh) 2018-06-15

Similar Documents

Publication Publication Date Title
CN108171196B (zh) 一种人脸检测方法及装置
Rao et al. Selfie video based continuous Indian sign language recognition system
US11062123B2 (en) Method, terminal, and storage medium for tracking facial critical area
CN107563345B (zh) 一种基于时空显著性区域检测的人体行为分析方法
Zhang et al. Learning semantic scene models by object classification and trajectory clustering
Han et al. Density-based multifeature background subtraction with support vector machine
Liu et al. Crowd counting via cross-stage refinement networks
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
WO2009109127A1 (en) Real-time body segmentation system
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
Zhang et al. License plate localization in unconstrained scenes using a two-stage CNN-RNN
Luo et al. Traffic analytics with low-frame-rate videos
Rong et al. Scene text recognition in multiple frames based on text tracking
Vignesh et al. Abnormal event detection on BMTT-PETS 2017 surveillance challenge
Roy et al. Foreground segmentation using adaptive 3 phase background model
Nag et al. A new unified method for detecting text from marathon runners and sports players in video (PR-D-19-01078R2)
Li et al. Object tracking with only background cues
Lin et al. Pedestrian detection by exemplar-guided contrastive learning
Lee et al. License plate detection via information maximization
Silva et al. Online weighted one-class ensemble for feature selection in background/foreground separation
Peng et al. Semi-supervised bolt anomaly detection based on local feature reconstruction
CN112418358A (zh) 一种强化深度融合网络的车辆多属性分类方法
CN113129332A (zh) 执行目标对象跟踪的方法和装置
Dziri et al. Late fusion of multiple convolutional layers for pedestrian detection
JP5241687B2 (ja) 物体検出装置及び物体検出プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant