CN110084258A - 基于视频人脸识别的人脸优选方法、设备及存储介质 - Google Patents
基于视频人脸识别的人脸优选方法、设备及存储介质 Download PDFInfo
- Publication number
- CN110084258A CN110084258A CN201810143918.XA CN201810143918A CN110084258A CN 110084258 A CN110084258 A CN 110084258A CN 201810143918 A CN201810143918 A CN 201810143918A CN 110084258 A CN110084258 A CN 110084258A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- value
- tracking
- preferred method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 239000013598 vector Substances 0.000 claims abstract description 36
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 230000001815 facial effect Effects 0.000 claims description 22
- 238000013210 evaluation model Methods 0.000 claims description 15
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000003786 synthesis reaction Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 description 15
- 230000004927 fusion Effects 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000007500 overflow downdraw method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人脸识别领域,本发明针对现有技术中无法得到较好的多帧人脸特征融合数据的问题,提供一种基于视频人脸识别的人脸优选方法、设备及存储介质。该方法包括以下几个步骤:对视频中人脸目标进行跟踪得到一组人脸跟踪图像序列;从上述人脸跟踪图像序列中分别选取同一人脸的标准跟踪图像与所有人脸的综合跟踪图像;对所述标准跟踪图像的特征向量与所述综合跟踪图像的特征向量进行相似度计算;从所述人脸跟踪图像序列,选取符合条件的相似度对应的图像作为典型帧图像集合,并将此集合作为多帧人脸特征数据。
Description
技术领域
本发明涉及视频人脸识别领域,尤其是一种基于视频人脸识别的人脸优选方法、设备及存储介质。
背景技术
随着计算机视觉技术的快速发展,人脸识别作为一种高效、友好、安全的身份识别方式在众多领域被广泛应用。基于视频的人脸识别技术由于不需要人工干预、自动化程度高而得到人们的广泛认可。
视频人脸识别是基于人的面部特征信息,从视频中实时查找人脸,并与人脸数据库进行实时比对,从而实现快速身份识别的一种技术。由于现有的大部分人脸数据库都是目标图库,如何充分利用双动态视频中的人脸信息更好地进行人脸识别是现阶段迫切需要解决的问题。解决这类问题的传统做法可以分为两类:一类方法是对输入视频中的人脸进行跟踪,从中选择满足一定条件的人脸图像作为该跟踪目标的代表图像进行人脸识别;另一类方法是利用视频中的空间信息进行人脸识别,即采用若干种联合规则(如多数投票、最近距离等)对视频中的人脸序列进行识别验证。然而,对于双动态图像,也就是在双动态环境中采集到的图像,例如,行驶车辆上的摄像头采集路边行人图像,由于高速运动、车辆抖动、距离变化等因素导致采集到的双动态人脸图像出现运动模糊、抖动、遮挡、光线不足以及侧脸等质量问题。采用传统的人脸识别方法及装置识别人脸时,容易因图像质量问题造成人脸身份识别错误,或者需要通过多次识别才能正确识别出视频中的人脸身份,甚至无法识别人脸身份,这造成了视频人脸识别技术的准确率大打折扣。近年来,研究者针对如何有效利用视频的多帧信息有了新的尝试,基于视频的时域连续信息的识别技术得到了迅速发展, zou[1]等人提出基于多帧图像特征信息融合的人脸识别方法来解决此问题。他们通过对视频中的多帧人脸图像进行特征融合以降低人脸角度偏转、运动模糊、逆光等因素对单一人脸图像特征的影响,从而有效地提高人脸识别准确率。然而,如何在众多的图像序列中选取合适典型的识别特征的多帧人脸仍是一个难点。
发明内容
本发明所要解决的技术问题是:针对现有技术中无法得到较好的多帧人脸识别特征数据集问题,提供一种基于视频人脸识别特征的人脸优选方法、设备或存储介质。
为得到合适的多帧人脸特征融合数据的目的,本申请公开了如下技术方案;
一种基于视频人脸识别的人脸优选方法包括步骤:
对视频中人脸目标进行跟踪得到一组人脸跟踪图像序列;
从上述人脸跟踪图像序列中分别选取同一人脸的标准跟踪图像与所有人脸的综合跟踪图像;
对所述标准跟踪图像的特征向量与所述综合跟踪图像的特征向量进行相似度计算;
从所述人脸跟踪图像序列,选取符合条件的相似度对应的图像作为典型帧图像集合。
上述方案有益效果是:现有技术的人脸选取方法主要通过质量评价方法从图像序列中选取质量较好的图像作为典型帧。这种从人眼的主观视觉出发筛选图像的方法难以对人脸识别算法带来最有效地提升,因为人脸的识别算法是从图像中提取抽象的特征向量来表征人脸的身份信息,而这种特征向量与人眼的主观视觉并无严格的一致性。基于此,该方法从人脸识别的角度出发,利用识别算法的特征提取模型寻找人脸跟踪图像序列中特征有效的图像作为典型帧,从而对典型帧进行特征融合后能够更有效地表征跟踪目标的整体信息。
进一步,所述的人脸优选方法还包括:
通过典型帧图像集合(将图像集合的人脸识别特征,进行融合成一帧识别特征,并与目标图库的识别特征进行匹配)与图库中的人脸身份进行匹配,确认视频中所述跟踪的人脸目标的身份。
进一步,所述标准跟踪图像的选取是根据人脸图像质量评价模型进行选取;所述人脸图像质量评价模型是根据清晰度S1、姿态值S2、亮度S3、和/或分辨率S4形成。本方案中标准跟踪图像的选取我们采用的是清晰度、姿态、亮度、以及分辨率等几个指标综合评价得到,得到的标准跟踪图像准确度更高,为后续典型帧选取做了准备。
进一步的,所述人脸图像质量评价模型有以下几种情况:
1)、根据清晰度S1决定;
2)、根据清晰度S1与姿态值S2决定;
3)、根据清晰度S1与亮度S3决定;
4)、根据清晰度S1、姿态值与亮度S3决定;
5)、根据清晰度S1、姿态值、亮度S3与分辨率S4形成的。
有益效果:多帧人脸特征融合方法将人脸特征分为强相关性特征和弱相关性特征,强相关性特征反映了该人脸的最基本特征,它不随人脸的姿态变化、年龄变化、表情变化、环境变化等外在变化而发生明显变化;弱相关性特征则易受到外界环境的干扰而出现大的改变。多帧人脸特征融合方法通过将人脸特征中的强相关性特征增强,弱相关性特征抑制从而提高人脸识别的准确率。该方法虽能有效地利用视频的时域连续信息,但由于跟踪过程中易受到光线、姿态、运动模、遮挡等外部环境的干扰导致获取的人脸序列不仅质量参差不齐,而且可能出现错误的人脸图像。直接将跟踪到的人脸序列进行特征融合显然无法提高识别率,因此,需要对人脸序列进行筛选,本发明技术方案从清晰度S1、姿态值S2、亮度S3、和/或分辨率S4形成的,得到的标准跟踪图像准确度更高,为后续典型帧选取做了准备。
进一步的,所述清晰度值S1是通过人脸图像的高频信息进行衡量;姿态值S2是通过人脸图像的质心与几何中心的距离衡量人脸的姿态偏转程度值进行衡量;亮度值S3是通过根据图像的平均亮度值衡量;分辨率S4是通过图像宽度高度值衡量。有益效果:每个参数都与现有技术评价方法不一样,上述方法不仅速度快,便于视频的实时性要求,而且能够有效地表征人脸多个方面的质量。
进一步的,所述相似度计算是通过对标准跟踪图像的特征向量与所述综合跟踪图像的特征向量进行余弦计算或者欧式计算实现。该相似度计算是基于所述标准跟踪图像的人脸特征与所述综合跟踪图像的人脸特征,相似度的计算采用的是常用的人脸识别算法中的特征比对方法,这种比对方法能够有效地反映人脸间的特征相似度。最终,通过这种比对方法选取的典型帧必定是与标准跟踪图像特征相似度最高的图像。
进一步的,所述符合条件的相似度指的是相似度大于阈值的相似度。通过对相似度阈值的设定,能在有效范围内,得到所有可能以及精准的相似度对应的典型帧图像。本方案选取的相似度阈值是该人脸识别算法识别准确率最高情况下的阈值。特征相似度大于该阈值的两张图像会被识别算法认为是相同的人脸;反之,说明这两张图像的特征差别较大,用于后续的特征识别时,会影响融合特征的有效性。
进一步的,所述符合条件的相似度指的是将相似度值按照从大到小进行排序,取排名靠前的n个相似度值,其中,n范围是3到7。选取典型帧计算通过跟踪人脸序列中的所有人脸与标准跟踪图像的特征相似度,将各特征相似度值按照从大到小进行排序,取排名靠前的n个特征相似度值对应的人脸作为典型帧,n取3,5或7;n最佳取5。
一种存储设备,其中存储有多条指令,所述指令适用于由处理器加载并执行上述任一一项所述的基于视频人脸识别的人脸优选方法的步骤。
一种基于视频人脸识别的人脸优选设备包括处理器,适于实现各指令;以及存储设备,适于存储多条指令,所述指令适于由处理器加载并执行上述任一一项所述的基于视频人脸识别的人脸优选方法的步骤。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
该方法从视频人脸序列中优选出一组最合适的人脸典型帧图像集合进行特征融合,从而有效提高人脸识别特征的鲁棒性。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
本发明技术方案如下:一种基于视频人脸识别的人脸优选方法包括步骤:
S1:对视频中人脸目标进行跟踪得到一组人脸跟踪图像序列;
S2:从上述人脸跟踪图像序列中分别选取同一人脸的标准跟踪图像与所有人脸的综合跟踪图像;
S3:对所述标准跟踪图像的特征向量与所述综合跟踪图像的特征向量进行相似度计算;
S4:从所述人脸跟踪图像序列,选取符合条件的相似度对应的图像作为典型帧图像集合。
其中,
S1中,对视频中人脸目标进行跟踪,得到一组人脸跟踪图像序列,采用KCF 跟踪算法等现有技术算法。
人脸跟踪图像序列是通过对视频中的人脸目标进行检测和跟踪可得到一组人脸跟踪图像序列{It|t=1,2,…k};该人脸跟踪图像序列是只要有人脸的按照时间先后排列的图像序列,该人脸跟踪图像序列可以是连续的图像序列或者不连续帧的图像序列。
S2中,标准跟踪图像的特征向量是通过提取人脸跟踪图像序列中对同一人脸目标特征得到的的特征向量;综合跟踪图像的特征向量是通过提取人脸跟踪图像序列中所有人脸特征得到的特征向量。
S3中,标准跟踪图像的特征向量指的是根据人脸图像质量评价模型得到的图像的特征向量;综合跟踪图像的特征向量是采用SphereFace[2]、DeepID[3]、 FaceNet[4]等方法进行人脸图像的特征提取的。其中人脸图像质量评价模型如实施例一到实施例五。
S4中,所述相似度计算是通过对标准跟踪图像的特征向量与所述综合跟踪图像的特征向量进行余弦计算或者欧式计算实现;如实施例六或实施例七中部分内容。
S4中,典型帧图像集合计算过程如实施例六、实施例七或实施例八。
一、基于人脸图像质量评价模型的标准跟踪图像选取:
标准跟踪图像的选取是根据人脸图像质量评价模型选取的。所述人脸图像质量评价模型有以下几种情况:
情况1)、根据清晰度S1决定;
情况2)、根据清晰度S1与姿态值S2决定;
情况3)、根据清晰度S1与亮度S3决定;
情况4)、根据清晰度S1、姿态值与亮度S3决定;
情况5)、根据清晰度S1、姿态值、亮度S3与分辨率S4形成的。
所述清晰度值S1是通过人脸跟踪图像序列的高频信息衡量的;姿态值S2 是通过人脸跟踪图像序列的质心与几何中心的距离衡量人脸的姿态偏转程度值衡量的;亮度值S3是通过人脸跟踪图像序列的平均亮度值衡量;分辨率S4 是通过人脸跟踪图像序列宽度高度值衡量。具体的,所述清晰度值S1是通过对人脸跟踪图像序列的高频信息进行归一化处理得到;姿态值S2是通过人脸跟踪图像序列的质心与几何中心的距离衡量人脸的姿态偏转程度值归一化得到;亮度值S3是根据人脸跟踪图像序列的平均亮度值归一化处理得到的;分辨率S4是根据人脸跟踪图像序列宽度高度值进行计算得到。
实施例一:根据清晰度S1决定所述人脸图像质量评价模型具体过程是: S=S1。
实施例二:根据清晰度S1与姿态值S2决定所述人脸图像质量评价模型具体过程是:其中wl为清晰度S1与姿态值S2的权值,根据多次试验得到{wl|l=1,2}={1,0.9};或者{wl|l=1,2}={1,1}等其他任意值组合。
实施例三:根据清晰度S1与亮度S3决定所述人脸图像质量评价模型具体过程是:其中wl为清晰度S1与亮度值S3的权值,根据多次试验得到{wl|l=1,3}={1,0.9,0.6};或者{wl|l=1,3}={1,1}等等其他任意值组合。
实施例四;根据清晰度S1、姿态值S2与亮度S3决定所述人脸图像质量评价模型具体过程是:{wl|l=1,2,3}={1,0.9,0.6};或者 {wl|l=1,2,3}={1,1,1}等其他任意值组合。其中wl为清晰度S1、姿态值S3以及亮度值S3的权值实施例五、根据清晰度S1、姿态值S2、亮度值S3与分辨率S4决定所述人脸图像质量评价模型具体过程是:
综合上述几个人脸图像质量评价指标(评价指标指的是清晰度S1、姿态值 S2、亮度值S3与分辨率S4),人脸图像质量评价模型可表征如下:
其中wl为各个评价指标的权值,根据多次试验得到{wl|l=1,2,3,4}= {1,0.9,0.6,0.8};或者{wl|l=1,2,3,4}={1,1,1,1}等其他任意值组合。
S即为各人脸跟踪图像序列的综合质量评价指标,S越大,则人脸跟踪图像序列的质量越好。因此,从人脸跟踪图像序列中选取人脸质量指标S最大的人脸跟踪图像序列作为标准跟踪图像,记为FI。
其中,评价指标1(清晰度S1)评价过程
人脸清晰度是指人脸跟踪图像序列中细节纹理及边界的清晰程度,人脸清晰度越高则人脸跟踪图像序列纹理越清晰。由于人脸跟踪图像序列的纹理信息主要集中在人脸跟踪图像序列的高频信息中,因此,人脸跟踪图像序列的清晰度可通过人脸跟踪图像序列中人脸跟踪图像高频信息的多少来衡量。人脸跟踪图像序列的高频信息表示如下:
其中,It表示人脸跟踪图像序列第t张人脸跟踪图像;Idt是通过对It进行 3x3或5x5的中值滤波、均值滤波或其他低通滤波后得到的低频人脸图像。
对人脸跟踪图像序列的人脸跟踪图像的高频信息进行归一化,可得:
其中,Emax是该人脸跟踪图像序列中高频信息最大的人脸跟踪图像高频信息值。
评价指标2(姿态值S2)评价过程:
传统的姿态评价方法主要是通过对人脸进行标定,找到人眼位置以及垂直对称轴计算人脸的偏转角度,这种方式不仅速度较慢,而且容易受到模糊、遮挡以及外部环境的影响导致标定错误从而影响姿态检测的有效性。本文采用计算人脸跟踪图像序列的每个人脸跟踪图像的质心与几何中心的距离衡量人脸的姿态偏转程度,人脸跟踪图像序列的每个人脸跟踪图像的质心位置计算如下:
其中,βt是由人脸跟踪图像序列的第t张人脸跟踪图像It经过二值化后得到的灰度图像;(xm,ym)即为人脸跟踪图像序列的人脸跟踪图像的质心。人脸跟踪图像序列的每个人脸跟踪图像的几何中心表达方式如下:
其中,(px(0,0),py(0,0))表示人脸跟踪图像序列的人脸跟踪图像左上角的坐标位置;(px(m,n),py(m,n))代表人脸跟踪图像序列的每个人脸跟踪图像右下角坐标位置;(xc,yc)即为人脸图像的几何中心。根据人脸跟踪图像序列的每个人脸跟踪图像的质心以及几何中心可得:
其中,D为人脸跟踪图像序列的每个人脸跟踪图像的几何中心与质心的距离。人脸偏转角度越大,则二者间的距离D越远;人脸偏转角度越小,二者间的距离D越近。因此,可以使用D的大小衡量人脸的偏转程度,将D归一化即可得人脸的姿态评价指标:
其中,Dmin是该人脸跟踪图像序列的所有人脸跟踪图像中人脸姿态偏移最小的人脸跟踪图像的几何中心与质心的距离。
评价指标3(亮度值S3)评价过程:
合适的光照强度是人眼观察图像的基本条件,也是影响图像质量的重要因素,亮度过强或过弱都会影响图像质量。正常情况下,图像的平均亮度分布在图像的最小亮度值Imin与最大亮度值Imax之间。根据大量的实验表明,图像的平均亮度分布在Imin与Imax之间X1到X2的区域较为合适,平均亮度分布小于 X1(X1等于40%)或者大于X2(X2等于60%)的区域都将会影响图像的质量,因此,人脸跟踪图像序列的每个人脸跟踪图像的亮度指标可表示如下:
其中,表示人脸跟踪图像序列的每个人脸跟踪图像的平均亮度;Imax表示人脸跟踪图像序列的每个人脸跟踪图像的最大亮度值;Imin表示人脸跟踪图像序列的每个人脸跟踪图像的最小亮度值;δ表示图像亮度的归一化值;X1*Y=1。
评价指标4(分辨率S4)评价过程:
人脸图像的分辨率反映了人脸图像在视频中的大小。正常情况下,人脸跟踪图像序列的人脸跟踪图像越大则越有利于观看和识别,因此,人脸跟踪图像序列的人脸跟踪图像的分辨率也是图像质量评价的重要指标。人脸跟踪图像序列的人脸跟踪图像的分辨率指标表示如下:
其中,width表示人脸跟踪图像序列的人脸跟踪图像的宽度;height表示人脸跟踪图像序列的人脸跟踪图像的高度;min{·}表示取较小值,即分辨率指标和1比较并取其中较小值。
二、典型帧图像选取:
传统的人脸识别方法往往直接将该人脸图像作为输入图像与目标图库进行对比识别,虽然在一定程度上能提高识别准确度,但是也存在以下不足:1) 无法利用视频的多帧信息优势提高匹配率;2)根据传统的质量评价方法选取的最优图像是从人眼主观视觉出发寻找最满足人眼识别的图像,无法确定能否对人脸识别算法带来最佳帮助。现有的人脸选取方法主要通过质量评价方法从图像序列中选取质量较好的图像作为典型帧。这种从人眼的主观视觉出发筛选图像的方法难以对人脸识别算法带来最有效地提升,因为人脸的识别算法是从图像中提取抽象的特征向量来表征人脸的身份信息,而这种特征向量与人眼的主观视觉并无严格的一致性。基于此,本专利从人脸识别的角度出发,利用识别算法的特征提取模型寻找人脸跟踪图像序列中特征有效的图像作为典型帧,从而对典型帧进行特征融合后能够更有效地表征跟踪目标的整体信息。
典型帧选取原则是:对所述标准跟踪图像的人脸特征与所述综合跟踪图像的人脸特征进行相似度计算后选取:即从人脸跟踪图像序列中选取相似度大于阈值(阈值范围是0.5到1)的图像作为典型帧图像集合。
实施例六(相似度计算):
在人脸识别过程中,特征选取的好坏直接影响到识别结果的有效性。本专利采用目前最具代表性的深度学习算法进行人脸图像的特征提取,优选的,采用SphereFace[2]、DeepID[3]、FaceNet[4]等方法进行人脸图像的特征提取。
在人脸识别中,反映目标图像与待识别图像相似程度的方法是通过比较二者人脸特征的相关性。同理,为从人脸跟踪图像序列中选取合适的人脸图像进行特征融合,本文将跟踪序列中综合跟踪图像的人脸特征向量与标准跟踪图像 FI的人脸特征向量F进行如下的余弦计算(即通过余弦定理计算):
其中,Ft表示第t张人脸图像的特征向量;‖·‖表示对向量求2范数; SIM(Ft,F1表示Ft与标准跟踪图像特征F的相似度,取值范围为[0,1], SIM(Ft,F)越大表示二者越相似。从人脸跟踪图像序列中选取相似度大于阈值(阈值范围是0.5到1)的图像作为典型帧图像集合。
实施例七(相似度计算):在实施例六或7基础上,计算本文将跟踪序列中综合跟踪图像的人脸特征向量与标准跟踪图像FI的人脸特征向量F进行如下的余弦计算相似度;然后将相似度值按照从大到小进行排序,从人脸跟踪图像序列中选取排名靠前的n个相似度值对应的人脸作为典型帧图像集合,n范围是 3到7,n最佳取5。
三:人脸身份识别过程:
所述的人脸优选方法还包括:
通过典型帧图像集合与目标图库中的人脸身份进行匹配,确认视频中所述跟踪的人脸目标的身份。其中,目标图库中人脸都是已知身份的目标;
具体过程是:
人脸图像的典型帧图像集合,通过人脸特征提取算法(采用SphereFace[2]、DeepID[3]、FaceNet[4]等方法进行人脸图像的特征提取)有对应的归一化特征向量{fi|i=1,2,…|t},|t为典型帧图像集合的长度。多特征融合方法是利用视频中抓取的多帧人脸图像特征向量生成一组线性权值{ai|i=1,2,…|t},,满足通过:
通过(12)可将所有的典型帧图像集合的典型帧特征向量{fi|i=1,2,…|t} 融合为一个特征向量r,与目标图库中的人脸特征进行比较,若目标图库中的人脸特征中存在典型帧特征向量,则确定该跟踪人脸身份;否则,说明该跟踪目标是外来人员。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。
Claims (10)
1.一种基于视频识别的人脸跟踪方法,其特征在于,包括步骤:
对视频中人脸目标进行跟踪得到一组人脸跟踪图像序列;
从上述人脸跟踪图像序列中分别选取同一人脸的标准跟踪图像与所有人脸的综合跟踪图像;
对所述标准跟踪图像的识别特征向量与所述综合跟踪图像的识别特征向量进行相似度计算;
从所述人脸跟踪图像序列,选取符合条件的相似度对应的图像作为典型帧图像集合。
2.根据权利要求1所述的人脸优选方法,其特征在于还包括:
通过典型帧图像集合与目标图库中的人脸身份进行匹配,确认视频中所述跟踪的人脸目标的身份。
3.根据权利要求1所述的人脸优选方法,其特征在于所述标准跟踪图像的选取是根据人脸图像质量评价模型选取的。
4.根据权利要求3所述的人脸优选方法,其特征在于所述人脸图像质量评价模型有以下几种情况:
1)、根据清晰度S1决定;
2)、根据清晰度S1与姿态值S2决定;
3)、根据清晰度S1与亮度S3决定;
4)、根据清晰度S1、姿态值与亮度S3决定;
5)、根据清晰度S1、姿态值、亮度S3与分辨率S4形成的。
5.根据权利要求4所述的人脸优选方法,其特征在于所述清晰度值S1是通过人脸图像的高频信息衡量的;姿态值S2是通过人脸图像的质心与几何中心的距离衡量人脸的姿态偏转程度值衡量的;亮度值S3是通过根据图像的平均亮度值衡量;分辨率S4是通过图像宽度高度值衡量。
6.根据权利要求1所述的人脸优选方法,其特征在于所述相似度计算是通过对标准跟踪图像的识别特征向量与所述综合跟踪图像的识别特征向量进行余弦计算或者欧式计算实现。
7.根据权利要求1所述的人脸优选方法,其特征在于所述符合条件的相似度指的是相似度大于阈值的相似度。
8.根据权利要求1所述的人脸优选方法,其特征在于所述符合条件的相似度指的是将相似度值按照从大到小进行排序,取排名靠前的n个相似度值,其中,n范围是3到7。
9.一种存储设备,其中存储有多条指令,所述指令适用于由处理器加载并执行如权利要求1至8任意一项所述的基于视频人脸识别的人脸优选方法的步骤。
10.一种基于视频人脸识别的人脸优选设备,其特征在于包括处理器,适于实现各指令;以及存储设备,适于存储多条指令,所述指令适于由处理器加载并执行上述权利要求1至8任意一项所述的基于视频人脸识别的人脸优选方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810143918.XA CN110084258A (zh) | 2018-02-12 | 2018-02-12 | 基于视频人脸识别的人脸优选方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810143918.XA CN110084258A (zh) | 2018-02-12 | 2018-02-12 | 基于视频人脸识别的人脸优选方法、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110084258A true CN110084258A (zh) | 2019-08-02 |
Family
ID=67412758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810143918.XA Pending CN110084258A (zh) | 2018-02-12 | 2018-02-12 | 基于视频人脸识别的人脸优选方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110084258A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458081A (zh) * | 2019-08-05 | 2019-11-15 | 上海天诚比集科技有限公司 | 基于多姿矫正和局部特征替换的人脸识别预处理方法 |
CN111199197A (zh) * | 2019-12-26 | 2020-05-26 | 深圳市优必选科技股份有限公司 | 一种人脸识别的图像提取方法及处理设备 |
CN111553253A (zh) * | 2020-04-26 | 2020-08-18 | 上海天诚比集科技有限公司 | 基于欧氏距离方差算法的标准人脸图像选取方法 |
CN111652070A (zh) * | 2020-05-07 | 2020-09-11 | 南京航空航天大学 | 一种基于监控视频的人脸序列协同识别方法 |
CN112001883A (zh) * | 2020-07-14 | 2020-11-27 | 浙江大华技术股份有限公司 | 一种车辆目标图像的优选方法、装置和计算机设备 |
CN112784733A (zh) * | 2021-01-21 | 2021-05-11 | 敖客星云(北京)科技发展有限公司 | 一种基于线上教育的情绪识别方法、装置及电子设备 |
CN112906466A (zh) * | 2021-01-15 | 2021-06-04 | 深圳云天励飞技术股份有限公司 | 图像关联方法、***及设备以及图像搜索方法及*** |
CN113283319A (zh) * | 2021-05-13 | 2021-08-20 | Oppo广东移动通信有限公司 | 人脸模糊度的评价方法及装置、介质和电子设备 |
CN113378762A (zh) * | 2021-06-25 | 2021-09-10 | 宁波星巡智能科技有限公司 | 坐姿智能监测方法、装置、设备及存储介质 |
CN113657178A (zh) * | 2021-07-22 | 2021-11-16 | 浙江大华技术股份有限公司 | 人脸识别方法、电子设备和计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309714A (ja) * | 2005-03-31 | 2006-11-09 | Fuji Photo Film Co Ltd | 顔判別方法および装置並びにプログラム |
US20090141940A1 (en) * | 2007-12-03 | 2009-06-04 | Digitalsmiths Corporation | Integrated Systems and Methods For Video-Based Object Modeling, Recognition, and Tracking |
CN104408429A (zh) * | 2014-11-28 | 2015-03-11 | 北京奇艺世纪科技有限公司 | 一种视频代表帧提取方法及装置 |
CN106503687A (zh) * | 2016-11-09 | 2017-03-15 | 合肥工业大学 | 融合人脸多角度特征的监控视频人物身份识别***及其方法 |
CN107492116A (zh) * | 2017-09-01 | 2017-12-19 | 深圳市唯特视科技有限公司 | 一种基于多外观模型进行人脸跟踪的方法 |
-
2018
- 2018-02-12 CN CN201810143918.XA patent/CN110084258A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309714A (ja) * | 2005-03-31 | 2006-11-09 | Fuji Photo Film Co Ltd | 顔判別方法および装置並びにプログラム |
US20090141940A1 (en) * | 2007-12-03 | 2009-06-04 | Digitalsmiths Corporation | Integrated Systems and Methods For Video-Based Object Modeling, Recognition, and Tracking |
CN104408429A (zh) * | 2014-11-28 | 2015-03-11 | 北京奇艺世纪科技有限公司 | 一种视频代表帧提取方法及装置 |
CN106503687A (zh) * | 2016-11-09 | 2017-03-15 | 合肥工业大学 | 融合人脸多角度特征的监控视频人物身份识别***及其方法 |
CN107492116A (zh) * | 2017-09-01 | 2017-12-19 | 深圳市唯特视科技有限公司 | 一种基于多外观模型进行人脸跟踪的方法 |
Non-Patent Citations (2)
Title |
---|
茹志鹃: "基于动态视频的人脸识别技术研究", 《理论与算法》 * |
金勇等: "外国语言传播理论与实践", 中国广播影视出版社 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458081A (zh) * | 2019-08-05 | 2019-11-15 | 上海天诚比集科技有限公司 | 基于多姿矫正和局部特征替换的人脸识别预处理方法 |
CN111199197A (zh) * | 2019-12-26 | 2020-05-26 | 深圳市优必选科技股份有限公司 | 一种人脸识别的图像提取方法及处理设备 |
CN111199197B (zh) * | 2019-12-26 | 2024-01-02 | 深圳市优必选科技股份有限公司 | 一种人脸识别的图像提取方法及处理设备 |
CN111553253A (zh) * | 2020-04-26 | 2020-08-18 | 上海天诚比集科技有限公司 | 基于欧氏距离方差算法的标准人脸图像选取方法 |
CN111652070B (zh) * | 2020-05-07 | 2023-07-28 | 南京航空航天大学 | 一种基于监控视频的人脸序列协同识别方法 |
CN111652070A (zh) * | 2020-05-07 | 2020-09-11 | 南京航空航天大学 | 一种基于监控视频的人脸序列协同识别方法 |
CN112001883A (zh) * | 2020-07-14 | 2020-11-27 | 浙江大华技术股份有限公司 | 一种车辆目标图像的优选方法、装置和计算机设备 |
CN112906466A (zh) * | 2021-01-15 | 2021-06-04 | 深圳云天励飞技术股份有限公司 | 图像关联方法、***及设备以及图像搜索方法及*** |
CN112784733A (zh) * | 2021-01-21 | 2021-05-11 | 敖客星云(北京)科技发展有限公司 | 一种基于线上教育的情绪识别方法、装置及电子设备 |
CN113283319A (zh) * | 2021-05-13 | 2021-08-20 | Oppo广东移动通信有限公司 | 人脸模糊度的评价方法及装置、介质和电子设备 |
CN113378762A (zh) * | 2021-06-25 | 2021-09-10 | 宁波星巡智能科技有限公司 | 坐姿智能监测方法、装置、设备及存储介质 |
CN113378762B (zh) * | 2021-06-25 | 2023-08-08 | 宁波星巡智能科技有限公司 | 坐姿智能监测方法、装置、设备及存储介质 |
CN113657178A (zh) * | 2021-07-22 | 2021-11-16 | 浙江大华技术股份有限公司 | 人脸识别方法、电子设备和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084258A (zh) | 基于视频人脸识别的人脸优选方法、设备及存储介质 | |
CN110427905A (zh) | 行人跟踪方法、装置以及终端 | |
CN106127145B (zh) | 瞳孔定位及跟踪方法 | |
CN104835175B (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN105243374A (zh) | 三维人脸识别方法、***及应用其的数据处理装置 | |
CN105740775A (zh) | 一种三维人脸活体识别方法及其装置 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
WO2009123354A1 (en) | Method, apparatus, and program for detecting object | |
CN104766343A (zh) | 一种基于稀疏表示的视觉目标跟踪方法 | |
CN106155299B (zh) | 一种对智能设备进行手势控制的方法及装置 | |
CN107066969A (zh) | 一种人脸识别方法 | |
CN109145803A (zh) | 手势识别方法及装置、电子设备、计算机可读存储介质 | |
CN110008793A (zh) | 人脸识别方法、装置及设备 | |
CN107480586A (zh) | 基于人脸特征点位移的生物识别照片仿冒攻击检测方法 | |
CN111626152B (zh) | 一种基于Few-shot的时空视线方向估计原型设计方法 | |
CN109816051A (zh) | 一种危化品货物特征点匹配方法及*** | |
Faisal et al. | Depth estimation from video using computer vision and machine learning with hyperparameter optimization | |
Chen et al. | Multiple object tracking using edge multi-channel gradient model with ORB feature | |
CN107564037A (zh) | 一种基于局部特征的多机器人检测与跟踪方法 | |
Li et al. | Foldover features for dynamic object behaviour description in microscopic videos | |
CN112734747B (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
Sun et al. | Martial arts routine difficulty action technology VR image target real-time extraction simulation | |
CN107145820B (zh) | 基于hog特征和fast算法的双眼定位方法 | |
CN117870659A (zh) | 基于点线特征的视觉惯性组合导航算法 | |
CN109146913A (zh) | 一种人脸跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190802 |