CN112883758B - 一种活体检测方法、装置 - Google Patents

一种活体检测方法、装置 Download PDF

Info

Publication number
CN112883758B
CN112883758B CN201911197600.0A CN201911197600A CN112883758B CN 112883758 B CN112883758 B CN 112883758B CN 201911197600 A CN201911197600 A CN 201911197600A CN 112883758 B CN112883758 B CN 112883758B
Authority
CN
China
Prior art keywords
area
effective
rectangular area
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911197600.0A
Other languages
English (en)
Other versions
CN112883758A (zh
Inventor
任志浩
邹保珠
华丛一
王升国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201911197600.0A priority Critical patent/CN112883758B/zh
Publication of CN112883758A publication Critical patent/CN112883758A/zh
Application granted granted Critical
Publication of CN112883758B publication Critical patent/CN112883758B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种活体检测方法,该方法包括,基于待检测目标的红外图像,提取有效区域内的图像数据,将提取的有效区域图像数据输入至训练好的神经网络分类器进行识别,从训练好的神经网络分类器的输出获得检测结果,所述训练好的神经网络分类器根据图像中是否包含有生物特征的静脉分布信息进行分类,将包含有生物特征的静脉分布信息的待检测目标的红外图像识别为活体,将未包含有生物特征的静脉分布信息的待检测目标的红外图像识别为非活体。本发明的检测方法性能稳定,抗攻击能力强,具有非常高的安全性。

Description

一种活体检测方法、装置
技术领域
本申请涉及图像识别检测领域,特别地,涉及一种活体检测方法。
背景技术
活体识别检测主要是通过识别活体上的生物特征信息来进行,它把生物特征信息作为生命特征来区分用照片、硅胶、塑料等非生命物质伪造的生物特征。通俗地讲,就是在识别检测的过程中确定被检测目标确实是个具有生命特征的“活体”,不是照片、视频或其他什么等无生命特征的假体。
以人脸活体的识别检测为例。目前,人脸活体检测技术主要有交互式动作、3D成像(多目成像、结构光、TOF等)、视频流等,其中,
交互式动作其要求用户配合指令完成相应的动作,如眨眼、微笑、朗读等,根据判别得到的动作状态的变化情况来区分照片和活体人脸,需要用户配合,用户体验差,一旦获取所有交互指令可针对性地录制视频,从而难以防备视频攻击;
3D成像识别检测技术基于深成的深度图像进行识别检测,受物体材质和光照影响较小,可以很好的区分真假人脸。但3D成像识别检测对一些3D打印的面具存在极高的误检率;
视频流识别检测技术基于实时的视频流进行识别检测,视频流识别易对播放的视频产生误检。
发明内容
本发明提供了一种活体检测方法,以减少误检。
本发明一方面提供一种活体检测方法,该方法包括,
基于待检测目标的红外图像,提取有效区域内的图像数据,
将提取的有效区域图像数据输入至训练好的神经网络分类器进行识别,
从训练好的神经网络分类器的输出获得检测结果,
其中,所述训练好的神经网络分类器根据图像中是否包含有生物特征的静脉分布信息进行分类,将包含有生物特征的静脉分布信息的待检测目标的红外图像识别为活体,将未包含有生物特征的静脉分布信息的待检测目标的红外图像识别为非活体。
较佳地,该方法还包括,将提取的有效区域图像数据进行如下之一或任意组合的预处理:均衡化、归一化、滤波;
所述待检测目标的红外图像包括有为包括脸部特征的脸部图像;
所述神经网络分类器通过一组正样本和一组负样本交替地进行训练,其中,正样本为包含有生物特征的静脉分布信息的红外图像,负样本为不包含有生物特征的静脉分布信息的任何图像。
较佳地,所述提取有效区域内的图像数据包括,
根据瞳孔之间间距确定一有效矩形区域的宽度,根据额部发际线到下巴的距离确定有效矩形区域的高度,
获取脸部图像中的左眼瞳孔坐标、右眼瞳孔坐标、嘴部左嘴角坐标、以及右嘴角坐标,计算4个坐标的均值,得到脸部中心位置,
按照有效矩形区域的中心与脸部中心位置的距离小于设定的第一距离阈值,确定有效矩形区域的位置,
提取有效矩形区域内的图像数据。
较佳地,所述提取有效区域内的图像数据包括,
根据瞳孔之间间距确定一有效矩形区域的宽度,根据所述宽度确定有效矩形区域的高度,得到至少限定除眼部以上区域之外的有效矩形区域,
获取脸部图像中的左眼瞳孔坐标、右眼瞳孔坐标、嘴部左嘴角坐标、以及右嘴角坐标,计算4个坐标的均值,得到脸部中心位置,
根据脸部中心位置、以及有效矩形区域所限定的范围,按照使得有效矩形区域所限定的图像像素数量增加为目标,确定有效矩形区域的位置,
提取有效矩形区域内的图像数据。
其中,所述根据瞳孔之间间距确定一有效矩形区域的宽度包括,将瞳孔之间间距与第一系数的乘积结果作为有效矩形区域的宽度,
所述根据所述宽度确定有效矩形区域的高度包括,将第二系数与有效矩形区域宽度的乘积结果作为有效矩形区域的高度,
其中,第一系数大于1,第二系数根据眼部下方到部分或整个下巴的高度确定;
所述根据脸部中心位置、以及有效矩形区域所限定的范围,按照使得有效矩形区域所限定的图像像素数量增加为目标,确定有效矩形区域的位置,包括,
按照使得脸部中心纵坐标至下巴的高度占有效矩形区域高度大于第一阈值确定第一位置、使得脸部中心在所述有效矩形区域宽度方向的中心线上或者偏离中心线小于第二阈值确定第二位置,使得有效矩形区域所限定的图像像素包括眼部下方到部分或整个下巴的脸颊区域,确定有效矩形区域的位置。
较佳地,所述提取有效区域内的图像数据包括,
提取脸部图像轮廓、以及眼部下眼睑图像轮廓,
在下眼睑图像轮廓的下方形成与左脸部图像轮廓相交于第一交点、与右脸部图像相交于第二交点的第一曲线段,
将第一交点到第二交点之间、且包括有下颌的第一脸部图像轮廓与所述第一曲线段形成封闭曲线,该封闭曲线所形成的封闭区域作为有效区域;
提取该有效区域内的图像数据。
较佳地,所述提取有效区域内的图像数据包括,
去除脸部图像中眼部以及嘴部的区域,得到剩余的脸部图像,将剩余脸部图像作为有效区域,提取该有效区域内的图像数据;
其中,去除脸部图像中眼部以及嘴部的区域,包括,
去除贯穿眼部的第一横向条形区域或分别贯穿瞳孔部的两矩形区域,以及贯穿嘴部的第二横向条形区域;
所述第一横向条形区域的宽度为左外眼角与右外眼角之间的距离,第一横向条形区域的高度为两眼中上眼睑与下眼睑之间的纵向距离的平均值;第一横向条形区域的中心与两眼中心的距离小于设定的第四距离阈值,所述两眼眼部中心位置为两瞳孔坐标的平均值;
所述第二横向条形区域的宽度为左嘴角与右嘴角之间距离,第二横向条形区域的高度为两唇峰纵坐标的平均值与嘴部下边缘缘谷的纵坐标之间的距离;第二横向条形区域的中心与嘴部中心的距离小于设定的第五距离阈值,所述嘴部中心位置为左嘴角坐标、和右嘴角坐标的平均值;所述缘谷位于嘴部下边缘最低的位置;
所述矩形区域的宽度为瞳间距与第四系数的乘积,高度为该宽度与第五系数的乘积,矩形区域的中心与瞳孔的距离小于设定的第三距离阈值,其中,第四系数和第五系数均小于1。
较佳地,所述提取有效区域内的图像数据进一步包括,
建立用于设置嘴部区域像素值为0的嘴部蒙版区域,所述嘴部蒙版区域为矩形区域,该矩形区域的宽度为左嘴角与右嘴角之间横坐标的距离,矩形区域高度为矩形宽度与第三系数的乘积;矩形区域的中心与嘴部中心的距离小于设定的第二距离阈值,其中,第三系数小于1;
将嘴部蒙版区域内各个像素点的像素值设置为0。
较佳地,所述提取有效区域内的图像数据进一步包括,建立用于设置眼部区域像素值为0的眼部蒙版区域,所述眼部蒙版区域包括两个区域大小相同的矩形区域,该矩形区域的宽度为瞳间距与第四系数的乘积,高度为该宽度与第五系数的乘积,矩形区域的中心与瞳孔的距离小于设定的第三距离阈值,其中,第四系数和第五系数均小于1,
将眼部蒙版区域内各个像素点的像素值设置为0。
本发明另一方面提供一种神经网络分类器的训练方法,该方法包括,
基于样本图像数据,提取有效区域内的图像数据,其中,样本包括正样本和负样本,正样本为包含有生物特征的静脉分布信息的红外图像,负样本为不包含有生物特征的静脉分布信息的任何图像;
按照一组正样本和一组负样本交替地将基于样本所提取的有效区域图像数据输入至神经网络分类器进行训练,
保存训练好的神经网络分类器的网络参数。
本发明又一方面提供一种活体检测设备,包括存储器和处理器,其中,
存储器存储有应用程序,
处理器执行所述应用程序实现上述任一所述活体检测步骤。
本发明再一方面提供一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一所述活体检测方法的步骤。
本发明将待检测目标的红外图像通过训练好的神经网络分类器,通过图像中是否包含静脉分布信息即可检测出待检测目标红外图像是否为活体,该方法能够有效抵御照片、视频、模型等的攻击,提高了检测设备的安全性,并且,由于静脉分布图像稳定、难以伪造的特点,提高了检测的鲁棒性,结合神经网络分类器的深度学习功能,实现简洁,耗时少,识别精度高。
附图说明
图1是人脸部的静脉特征的一种示意图。
图2为有效矩形区域的一种示意图。
图3a和3b为蒙版区域的一种示意图。
图4a~4d示出了有效矩形区域与脸部位置关系的示意图。
图5为不规则有效区域的一种示意图。
图6a和6b为基于脸部图像去除区域后剩余的有效区域的一种示意图。
图7为训练神经网络分类器的一种示意图。
图8为本发明实施例的活体检测的一种流程示意图。
具体实施方式
为了使本申请的目的、技术手段和优点更加清楚明白,以下结合附图对本申请做进一步详细说明。
申请人发现,目前的活体识别技术以及活体检测技术都是基于生物特征的外部表面特征,受到环境光、外部表面特征的变化、以及年龄等因素的影响,识别率和长期稳定性都存在问题。另外,外部表面特征非常容易被采集,例如,人的面部信息,这无形中又增加了被仿冒的风险。为规避生物特征的外部表面特征活体检测时所存在的被仿冒的风险,希望有基于生物特征的内在特征的活体识别检测。
基于静脉的识别检测具有特征不容易获取和不易伪造的天然优势。静脉检测识别是基于人体内部特征,即人体表皮下血管组织的红外反馈,稳定性和私密性更强。参见图1所示,图1为人脸部的静脉特征的一种示意图,在眼内眦处自内眦的静脉,伴随面部动脉下行,至舌骨平面汇入颈内的静脉;静脉中去氧血红蛋白和周围组织对近红外光的吸收不同,因而可以在近红外波段清晰成像。图中,灰色的为静脉血管,黑色的为动脉血管。
鉴于活体识别检测时通过区分待检测目标是否包括有静脉血管组织便可识别出是否为活体,而不必进行复杂的比对过程,本发明结合机器学习来对待检测目标的图像进行识别,从而获得检测结果。
以下将以待检测目标为包括脸部特征的图象识别为例来进行说明,所应理解的是,本申请不限于脸部特征,还可以是指部、掌部等具有静脉血管组织的其他特征。
参见图8所示,图8为本发明实施例的活体检测的一种流程示意图。该检测方法包括,
步骤801,基于待检测图像,提取有效区域内的图像数据。
为了节省计算量和提高最终的判断精度,提取有效区域的图像数据。
实施方式之一,参见图2所示,图2为有效矩形区域的一种示意图。获取脸部图像中的左眼瞳孔坐标、右眼瞳孔坐标、嘴部左嘴角坐标、右嘴角坐标,计算4个坐标的均值,得到脸部中心位置,
用数学式表达为:
fc_x=(eyel_x+eyer_x+mouthl_x+mouthr_x)/4
fc_y=(eyel_y+eyer_y+mouthl_y+mouthr_y)/4
其中,脸部中心位置的坐标为(fc_x,fc_y),左眼瞳孔坐标为(eyel_x,eyel_y),右眼瞳孔坐标(eyer_x,eyer_y),左嘴角坐标(mouthl_x,mouthl_y),右嘴角坐标(mouthr_x,mouthr_y)。
以瞳孔之间间距(瞳间距)的2倍的宽度作为有效矩形区域(图2中虚线)的宽度,将有效矩形区域的宽度的至少70%作为有效矩形区域的高度,形成用于提取图像数据的有效矩形区域,其中,有效矩形区域的宽度的数学式表达为:
facewidth=w*(eyer_x-eyel_x)
faceheight=h*facewidth,
其中,facewidth为有效矩形区域宽度,w为第一系数,faceheight为有效矩形区域高度,h为第二系数;其中,第一系数大于1,较佳地,取值为2,第二系数根据额部发际线到部分或全部下巴的高度确定。
有效矩形区域在脸部的位置(定位)可以结合脸部中心位置、有效矩形区域的高度、宽度按照使得有效矩形区域所限定的图像像素数量增加为目标确定;例如,有效矩形区域的中心与脸部中心位置的距离小于设定的第一距离阈值,较佳地,有效矩形区域的中心与脸部中心位置重合。
按照有效矩形区域提取图像数据,该有效矩形区域包括了眼部和嘴部。由于脸部中眼部、嘴部区域没有静脉血管组织,故可以去除没有静脉血管组织的区域的图像数据,即,设置眼部和嘴部区域的像素值为0。这些多个连续的像素点所形成的区域在图像的呈现黑色,在本申请中称为蒙版区域。
参见图3a和3b所示,图3a和3b为蒙版区域的一种示意图。如图3a中,建立用于设置嘴部区域像素值为0的嘴部蒙版区域,该区域为矩形,矩形的宽度为左嘴角与右嘴角之间横坐标的距离,矩形的高度为矩形宽度的三分之二左右;嘴部蒙版区域的中心与嘴部中心的距离小于设定的第二距离阈值,较佳地,嘴部蒙版区域的中心与嘴部中心位置重合。其中,嘴部中心位置为左嘴角坐标、和右嘴角坐标的平均值,
用数学式表达为:
mouthwidth=mouthr_x-mouthl_x
mouthheight=α×mouthwidth
mc_x=(mouthl_x+mouthr_x)/2
mc_y=(mouthl_y+mouthr_y)/2
其中,嘴部中心位置的坐标为(mc_x,mc_y),左嘴角坐标为(mouthl_x,mouthl_y),右嘴角坐标(mouthr_x,mouthr_y),嘴部蒙版区域的宽度为mouthwidth,嘴部蒙版区域的高度为mouthheight,α为第三系数。
如图3b中,为两眼分别建立用于设置眼部区域像素值为0的眼部蒙版区域,该区域为矩形,矩形的宽度为瞳间距的三分之二左右,矩形的高度为矩形宽度的三分之一左右;眼部蒙版区域的中心与瞳孔的距离小于设定的第三距离阈值,较佳地,眼部蒙版区域的中心与瞳孔位置重合。即,左眼蒙版区域的中心与左眼瞳孔重合,右眼蒙版区域的中心与右眼瞳孔重合,
用数学式表达为:
eyewidth=θ×(eyer_x-eyel_x)
eyeheight=σ×eyewidth
其中,左眼瞳孔坐标为(eyel_x,eyel_y),右眼瞳孔坐标(eyer_x,eyer_y),眼部蒙版区域的宽度为eyewidth,眼部蒙版区域的高度为eyeheight,θ为第四系数,σ为第五系数,第五系数、第四系数分别小于1,较佳地,第四系数取值为2/3,较佳地,第五系数取值为1/3。
实施方式之二,将去除眼部区域的下方到部分或全部下巴的矩形区域作为有效区域,具体地,根据脸部图像中的左眼瞳孔坐标、右眼瞳孔坐标、嘴部左嘴角坐标、右嘴角坐标,计算4个坐标的均值,得到脸部中心位置,
用数学式表达为:
fc_x=(eyel_x+eyer_x+mouthl_x+mouthr_x)/4
fc_y=(eyel_y+eyer_y+mouthl_y+mouthr_y)/4
其中,脸部中心位置的坐标为(fc_x,fc_y),左眼瞳孔坐标为(eyel_x,eyel_y),右眼瞳孔坐标(eyer_x,eyer_y),左嘴角坐标(mouthl_x,mouthl_y),右嘴角坐标(mouthr_x,mouthr_y)。
以瞳孔之间间距(瞳间距)的1.6~2倍的宽度作为有效矩形区域的宽度,将有效矩形区域的宽度的至少70%作为有效矩形区域的高度,形成用于提取图像数据的有效矩形区域,其中,有效矩形区域的宽度的数学式表达为:
facewidth=w*(eyer_x-eyel_x)
faceheight=h*facewidth,
其中,facewidth为有效矩形区域宽度,w为第一系数,faceheight为有效矩形区域高度,h为第二系数;其中,第一系数大于1,第二系数根据眼部下方到部分或整个下巴的高度确定。
由于眼部区域不包括静脉血管组织图像,有效矩形区域内的图像包括除眼部以上区域之外的脸颊区域,按照使得脸部中心纵坐标至下巴的高度占有效矩形区域高度大于第一阈值确定第一位置、使得脸部中心在所述有效矩形区域宽度方向的中心线上或者偏离中心线小于第二阈值确定第二位置,例如,按照使得脸部中心纵坐标至下巴的高度占有效矩形区域高度的至少50%所确定的第一位置、使得脸部中心在所述有效矩形区域宽度方向的中心线上或者偏离中心线附近20%以内所确定的第二位置,提取有效矩形区域内的图像数据,这样,有效矩形区域包括了眼部下方到部分或整个下巴的脸颊区域。
参见图4a~4d所示,图4a~4d示出了有效矩形区域与脸部位置关系的示意图,即有效矩形区域的定位。其中,图4a为脸部中心纵坐标至下巴的高度占有效矩形区域高度小于50%的一种情形,图4b为脸部中心纵坐标至下巴的高度占有效矩形区域高度小于50%的另一种情形,这两种情形中,由于有效矩形区域内高度方向的脸部区域的图像数据有限,所提取的图像数据不能作为有效数据;图4c图为脸部中心偏离有效矩形区域宽度方向的中心线较大的一种情形,在这种情形下,由于有效矩形区域内宽度方向的脸部区域的图像数据有限,所提取的图像数据不能作为有效数据;图4d为有效矩形区域位置相对脸部较为理想的一种情形,有效矩形区域包括了眼部下方到部分下巴的脸颊区域。
实施方式之三,有效区域的形状还可以是由多条曲线段首尾连接而形成的封闭的不规则多边形,以从脸部图像中区分出要提取的图像数据。例如,参见图5所示,图5为不规则有效区域的一种示意图。提取脸部图像轮廓、以及眼部下眼睑图像轮廓,在下眼睑图像轮廓的下方形成与左脸部图像轮廓相交于第一交点、与右脸部图像相交于第二交点的第一曲线段,第一交点到第二交点之间、且包括有下颌的第一脸部图像轮廓与所述第一曲线段形成的封闭曲线,该封闭曲线所形成的区域作为有效区域。
在上述实施方式之二和三中,提取的有效区域图像数据中均包括嘴部区域。由于嘴部区域没有静脉血管组织,故可以去除没有静脉血管组织的区域的图像数据,即,按照图3a所述设置嘴部蒙版区域。
实施方式之四,去除脸部图像中包括眼部、以及嘴部的区域,以提取脸部的有效区域图像,
参见图6a和6b所示,图6a和6b为基于脸部图像去除区域后剩余的有效区域的一种示意图。如图6a,去除区域包括,贯穿眼部的第一横向条形区域,以及贯穿嘴部的第二横向条形区域,其中,第一横向条形区域的宽度为左外眼角与右外眼角之间的距离,第一横向条形区域的高度为两眼中上眼睑与下眼睑之间的纵向距离的平均值;第一横向条形区域的中心与两眼中心的距离小于设定的第四距离阈值,较佳地,第一横向条形区域的中心与眼部中心位置重合,其中,两眼眼部中心位置为两瞳孔坐标的平均值。
第二横向条形区域的宽度为左嘴角与右嘴角之间距离,第二横向条形区域的高度为两唇峰纵坐标的平均值与嘴部下边缘缘谷的纵坐标之间的距离;第二横向条形区域的中心与嘴部中心的距离小于设定的第五距离阈值,较佳地,第二横向条形区域的中心与嘴部中心重合,其中,嘴部中心位置为左嘴角坐标、和右嘴角坐标的平均值。
用数学式表达为:
对于第一横向条形区域,
Hx=|eyelo_x-eyero_x|
Hc_x=(eyel_x+eyer_x)/2
Hc_y=(eyel_y+eyer_y)/2
其中,Hx为第一横向条形区域的宽度,eyelo_x为左外眼角的横坐标,eyero_x为右外眼角的横坐标,
Hy为第一横向条形区域的高度,eyelu_y为左上眼睑的纵坐标,eyeld_y为左下眼睑的纵坐标,eyeru_y为右上眼睑的纵坐标,eyerd_y为右下眼睑的纵坐标;
横向条形区域的中心坐标为(Hc_x,Hc_y),左眼瞳孔坐标为(eyel_x,eyel_y),右眼瞳孔坐标(eyer_x,eyer_y)。
对于第二横向条形区域,
Vx=|mouthl_x-mouthr_x)|
Vc_x=(mouthl_x+mouthr_x)/2
Vc_y=(mouthr_y+mouthl_y)/2
其中,Vx为第二横向条形区域的宽度,mouthl_x为左嘴角的横坐标,mouthr_x为右嘴角的横坐标,
Vy为第二横向条形区域的高度,mouthru_y为右唇峰的纵坐标,mouthlu_y为左唇峰的纵坐标,mouthd_y为嘴部下边缘缘谷的纵坐标。其中,缘谷位于嘴部下边缘最低的位置。
第二横向条形区域的中心坐标为(Vc_x,Vc_y)。
将去除第一横向条形区域和第二横向条形区域剩余的区域作为有效区域,提取有效区域中的图像数据。
如图6b所示,去除区域包括,分别贯穿瞳孔部的矩形区域,该矩形区域的大小与图3b中所述蒙版区域相同,矩形区域的位置与图3b中所述蒙版区域位置相同。
步骤802,对有效区域图像数据进行预处理,以获得较好的图像质量,提高检测的准确性。
图像预处理包括,采用直方图均衡化的方式进行图像均衡;采用双线性插值将图像缩放到N×N像素大小,例如,采用128×128个像素,以进行归一化;对图像进行滤波以降噪,包括且不限于高斯滤波、均值-中值滤波等;以及将包括眼部和嘴部图像的区域通过蒙版区域的方式设置像素值为0。上述均衡处理、归一化、降噪、蒙版区域的处理可以无严格的先后次序,较佳地,对于蒙版区域内的像素值置0的处理可以在图像均衡化之前,以提高图像处理的速度。
步骤803,将预处理后的图像数据输入至训练好的卷积神经网络分类器中,使得训练好的卷积神经网络分类器对输入的图像数据进行分类检测,从卷积神经网络分类器的输出获得检测结果。
由于训练好的卷积神经网络分类器能够将具有静脉血管组织的图像识别为活体,当待检测图像中包括静脉血管组织的图像时,则判定为活体;否则,判定为非活体。
为了获得用于识别静脉特征的机器学习模型,需要对机器学习模型进行训练,以得到训练后的机器学习模型。以神经网络模型为例,神经网络算法的最终效果依赖于样本库的选取,其中,样本包含正样本以及负样本,正样本为真人人脸采集到的图像,负样本包含但不限于用照片、硅胶面具、3D模型、存储于终端中的图像等非活体的脸部图像。
在本实施例中,正样本为近红外光波段(NIR波段)的脸部图像,波段范围为780nm-1100nm,该波段的图像受外部光照影响小,特征稳定,脸部瞳孔等信息明显,可由图像传感器直接以256阶的8位灰度图形式存储。优选地,可以采用850nm、940nm等主要光波段下的脸部图像。正样本图像的分辨率可以为常见的VGA、480P、720P和1080P分辨率图像,包括采用裁剪而不是用插值算法改变图像分辨率的图像,以改善神经网络模型因脸部图像分辨率的差异而导致识别准确度的偏差;采集不同环境下的人脸图像,包括室内、室外、强背景光等不同光照条件,以改善因为场景的不同导致的误判。
无论是正样本还是负样本,可进行有效区域的图像数据的提取和图像预处理。以下将对样本的处理进行说明。
按照步骤801中对待检测图像的有效区域确定的实施方式来确定样本图像的有效区域,例如,如果检测时采取的实施方式一来确定有效区域,则在进行训练时样本也采用实施方式一来确定有效区域。然后,根据确定的有效区域提取图像数据。
按照上述实施方式提取有效区域内的图像数据之后,将提取的有效区域内的图像数据进行均衡化,以增加图像的反差,具体地,可以采用直方图均衡化的方式。然后进行归一化处理,采用双线性插值将图像缩放到N×N像素大小。进一步地,可根据图像质量,在均衡化之后进行滤波处理。样本进行预处理的次序与步骤802中的预处理次序、处理参数等相同。
通过上述处理,由此获得样本,包括正样本和负样本。参见图7所示,图7为训练神经网络分类器的一种示意图,图中的开关表示输入一组正样本和输入一组负样本的交替;按照正样本、负样本交替地输入待训练的神经网络分类器进行训练,生成网络参数,将训练好的神经网络分类其的网络参数予以保存。在本实施例中,神经网络分类器为卷积神经网络(CNN)分类器,其包括若干卷积层、池化层和全连接层。较佳地,可以包含3个卷积层,2个max-pooling层,1个全连接层和1个soft-max层;其中,前2个卷积层各连接一个max-pooling层,输入层为128×128的列向量,soft-max用来输出活度数值。
本发明实施例基于脸部静脉分布信息并通过训练好的神经网络分类器来进行活体检测,借助于包括脸部静脉分布信息的图像与无脸部静脉分布信息的图像的较大差异,使得卷积神经网络分类器便于训练,识别的准确率高,这样,当应用训练好的卷积神经网络分类器对待检测图像进行识别检测时,也能够获得较高的准确率;并且,静脉分布信息非常稳定且难以伪造,能够有效保证活体检测的稳定性和抗攻击能力,提高了安全性;本发明的检测方法无需用户按照特定指令进行配合,用户体验好,检测的效率高。
本发明提供的一种活体检测设备,包括存储器和处理器,其中,存储器存储有计算机程序,处理器被配置实现上述检测方法的步骤。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供了一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
基于待检测目标的红外图像,提取有效区域内的图像数据,
将提取的有效区域图像数据输入至训练好的神经网络分类器进行识别,
从训练好的神经网络分类器的输出获得检测结果,
其中,所述训练好的神经网络分类器根据图像中是否包含有生物特征的静脉分布信息进行分类,将包含有生物特征的静脉分布信息的待检测目标的红外图像识别为活体,将未包含有生物特征的静脉分布信息的待检测目标的红外图像识别为非活体。
对于装置/网络侧设备/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
需要说明的是,本发明所提供的神经网络分类器训练方法的实施例,其中,神经网络分类器可以不限于CNN模型,其他需要进行训练的数据模型均可采用。
在工程应用中,对于有效区域、蒙版区域的具体形状、位置,可结合待检测图像的生物特征的特点设计和调整。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (8)

1.一种活体检测方法,其特征在于,该方法包括,
基于待检测目标的红外图像,提取有效区域内的图像数据,
将提取的有效区域图像数据输入至训练好的神经网络分类器进行识别,
从训练好的神经网络分类器的输出获得检测结果,
其中,
待检测目标的红外图像包括脸部特征的脸部图像,
有效区域的位置以如下方式确定:
根据瞳孔之间间距确定一有效矩形区域的宽度,根据所述宽度确定有效矩形区域的高度,得到至少限定除眼部以上区域之外的有效矩形区域,
获取脸部图像中的左眼瞳孔坐标、右眼瞳孔坐标、嘴部左嘴角坐标、以及右嘴角坐标,计算4个坐标的均值,得到脸部中心位置,
根据脸部中心位置、以及有效矩形区域所限定的范围,按照使得有效矩形区域所限定的图像像素数量增加为目标,确定有效矩形区域的位置,
所述根据脸部中心位置、以及有效矩形区域所限定的范围,按照使得有效矩形区域所限定的图像像素数量增加为目标,确定有效矩形区域的位置,包括,
按照使得脸部中心纵坐标至下巴的高度占有效矩形区域高度大于第一阈值确定第一位置、使得脸部中心在所述有效矩形区域宽度方向的中心线上或者偏离中心线小于第二阈值确定第二位置,使得有效矩形区域所限定的图像像素包括眼部下方到部分或整个下巴的脸颊区域,确定有效矩形区域的位置;
所述训练好的神经网络分类器根据图像中是否包含有生物特征的静脉分布信息进行分类,将包含有生物特征的静脉分布信息的待检测目标的红外图像识别为活体,将未包含有生物特征的静脉分布信息的待检测目标的红外图像识别为非活体。
2.如权利要求1所述的检测方法,其特征在于,该方法还包括,将提取的有效区域图像数据进行如下之一或任意组合的预处理:均衡化、归一化、滤波;
所述神经网络分类器通过一组正样本和一组负样本交替地进行训练,其中,正样本为包含有生物特征的静脉分布信息的红外图像,负样本为不包含有生物特征的静脉分布信息的任何图像。
3.如权利要求1所述的检测方法,其特征在于,所述根据瞳孔之间间距确定一有效矩形区域的宽度包括,将瞳孔之间间距与第一系数的乘积结果作为有效矩形区域的宽度,
所述根据所述宽度确定有效矩形区域的高度包括,将第二系数与有效矩形区域宽度的乘积结果作为有效矩形区域的高度,
其中,第一系数大于1,第二系数根据眼部下方到部分或整个下巴的高度确定。
4.如权利要求1所述的检测方法,其特征在于,所述提取有效区域内的图像数据进一步包括,
建立用于设置嘴部区域像素值为0的嘴部蒙版区域,所述嘴部蒙版区域为矩形区域,该矩形区域的宽度为左嘴角与右嘴角之间横坐标的距离,矩形区域高度为矩形宽度与第三系数的乘积;矩形区域的中心与嘴部中心的距离小于设定的第二距离阈值,其中,第三系数小于1;
将嘴部蒙版区域内各个像素点的像素值设置为0。
5.如权利要求1所述的检测方法,其特征在于,所述提取有效区域内的图像数据进一步包括,建立用于设置眼部区域像素值为0的眼部蒙版区域,所述眼部蒙版区域包括两个区域大小相同的矩形区域,该矩形区域的宽度为瞳间距与第四系数的乘积,高度为该宽度与第五系数的乘积,矩形区域的中心与瞳孔的距离小于设定的第三距离阈值,其中,第四系数和第五系数均小于1,
将眼部蒙版区域内各个像素点的像素值设置为0。
6.一种神经网络分类器的训练方法,其特征在于,该方法包括,
基于样本图像数据,提取有效区域内的图像数据,其中,样本包括正样本和负样本,正样本为包含有生物特征的静脉分布信息的红外图像,负样本为不包含有生物特征的静脉分布信息的任何图像;
按照一组正样本和一组负样本交替地将基于样本所提取的有效区域图像数据输入至神经网络分类器进行训练,
保存训练好的神经网络分类器的网络参数;
其中,
样本图像包括脸部特征的脸部图像,
有效区域的位置以如下方式确定:
根据瞳孔之间间距确定一有效矩形区域的宽度,根据所述宽度确定有效矩形区域的高度,得到至少限定除眼部以上区域之外的有效矩形区域,
获取脸部图像中的左眼瞳孔坐标、右眼瞳孔坐标、嘴部左嘴角坐标、以及右嘴角坐标,计算4个坐标的均值,得到脸部中心位置,
根据脸部中心位置、以及有效矩形区域所限定的范围,按照使得有效矩形区域所限定的图像像素数量增加为目标,确定有效矩形区域的位置,
所述根据脸部中心位置、以及有效矩形区域所限定的范围,按照使得有效矩形区域所限定的图像像素数量增加为目标,确定有效矩形区域的位置,包括,
按照使得脸部中心纵坐标至下巴的高度占有效矩形区域高度大于第一阈值确定第一位置、使得脸部中心在所述有效矩形区域宽度方向的中心线上或者偏离中心线小于第二阈值确定第二位置,使得有效矩形区域所限定的图像像素包括眼部下方到部分或整个下巴的脸颊区域,确定有效矩形区域的位置。
7.一种活体检测设备,其特征在于,包括存储器和处理器,其中,
存储器存储有应用程序,
处理器执行所述应用程序实现如权利要求1至5任一所述活体检测步骤。
8.一种计算机可读存储介质,其特征在于,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5任一所述活体检测方法的步骤。
CN201911197600.0A 2019-11-29 2019-11-29 一种活体检测方法、装置 Active CN112883758B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911197600.0A CN112883758B (zh) 2019-11-29 2019-11-29 一种活体检测方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911197600.0A CN112883758B (zh) 2019-11-29 2019-11-29 一种活体检测方法、装置

Publications (2)

Publication Number Publication Date
CN112883758A CN112883758A (zh) 2021-06-01
CN112883758B true CN112883758B (zh) 2023-08-25

Family

ID=76039394

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911197600.0A Active CN112883758B (zh) 2019-11-29 2019-11-29 一种活体检测方法、装置

Country Status (1)

Country Link
CN (1) CN112883758B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202505A (ja) * 2000-01-21 2001-07-27 Shinichi Komatsu 顔の抽出方法
JP2006099614A (ja) * 2004-09-30 2006-04-13 Toshiba Corp 生体判別装置および生体判別方法
JP2007286923A (ja) * 2006-04-17 2007-11-01 Kao Corp 顔パーツの位置の検出方法及び検出システム
GB0805228D0 (en) * 2007-03-22 2008-04-30 Artnix Inc Apparatus and method for detecting face region
JP2014049863A (ja) * 2012-08-30 2014-03-17 Canon Inc 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
CN107292230A (zh) * 2017-05-09 2017-10-24 华南理工大学 基于卷积神经网络且具备仿冒检测能力的嵌入式指静脉识别方法
CN107766786A (zh) * 2016-08-23 2018-03-06 三星电子株式会社 活性测试方法和活性测试计算设备
CN109255322A (zh) * 2018-09-03 2019-01-22 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置
CN110443102A (zh) * 2018-05-04 2019-11-12 北京眼神科技有限公司 活体人脸检测方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202505A (ja) * 2000-01-21 2001-07-27 Shinichi Komatsu 顔の抽出方法
JP2006099614A (ja) * 2004-09-30 2006-04-13 Toshiba Corp 生体判別装置および生体判別方法
JP2007286923A (ja) * 2006-04-17 2007-11-01 Kao Corp 顔パーツの位置の検出方法及び検出システム
GB0805228D0 (en) * 2007-03-22 2008-04-30 Artnix Inc Apparatus and method for detecting face region
JP2014049863A (ja) * 2012-08-30 2014-03-17 Canon Inc 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
CN107766786A (zh) * 2016-08-23 2018-03-06 三星电子株式会社 活性测试方法和活性测试计算设备
CN107292230A (zh) * 2017-05-09 2017-10-24 华南理工大学 基于卷积神经网络且具备仿冒检测能力的嵌入式指静脉识别方法
CN110443102A (zh) * 2018-05-04 2019-11-12 北京眼神科技有限公司 活体人脸检测方法及装置
CN109255322A (zh) * 2018-09-03 2019-01-22 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于人体手指静脉特征的身份认证***设计;赵建国;《信息通信》;全文 *

Also Published As

Publication number Publication date
CN112883758A (zh) 2021-06-01

Similar Documents

Publication Publication Date Title
CN107491740B (zh) 一种基于面部表情分析的新生儿疼痛识别方法
JP4307496B2 (ja) 顔部位検出装置及びプログラム
CN110569756B (zh) 人脸识别模型构建方法、识别方法、设备和存储介质
CN102542281B (zh) 非接触式生物特征识别方法和***
US10380444B2 (en) 3D mask face anti-spoofing with remote photoplethysmography
Sohail et al. Detection of facial feature points using anthropometric face model
US20070242856A1 (en) Object Recognition Method and Apparatus Therefor
CN108764058A (zh) 一种基于热成像效应的双摄像头人脸活体检测方法
CN108416291B (zh) 人脸检测识别方法、装置和***
Das et al. Multi-angle based lively sclera biometrics at a distance
CN107862298B (zh) 一种基于红外摄像装置下眨眼的活体检测方法
CN110728242A (zh) 基于人像识别的图像匹配方法、装置、存储介质及应用
CN110852305A (zh) 一种人体步态特征提取方法
JP4082203B2 (ja) 開閉眼判定装置
CN116631068B (zh) 一种基于深度学习特征融合的掌静脉活体检测方法
CN112861588B (zh) 一种活体检测的方法、装置
CN112883758B (zh) 一种活体检测方法、装置
Abdullah-Al-Wadud et al. A skin detection approach based on color distance map
CN115171189A (zh) 一种疲劳检测方法、装置、设备和存储介质
Wu et al. Spontaneous versus posed smile recognition via region-specific texture descriptor and geometric facial dynamics
CN116152138A (zh) 身份识别方法、装置、存储介质及设备
CN114639033A (zh) 一种人员识别方法、装置、设备和计算机可读存储介质
CN113128320A (zh) 基于tof相机的人脸活体检测方法、检测装置及电子设备
Tandon et al. An efficient age-invariant face recognition
Patil et al. A review of human facial expression recognition systems applied for wild dataset in last decade

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant