CN105989264B - 生物特征活体检测方法及*** - Google Patents
生物特征活体检测方法及*** Download PDFInfo
- Publication number
- CN105989264B CN105989264B CN201510053281.1A CN201510053281A CN105989264B CN 105989264 B CN105989264 B CN 105989264B CN 201510053281 A CN201510053281 A CN 201510053281A CN 105989264 B CN105989264 B CN 105989264B
- Authority
- CN
- China
- Prior art keywords
- action
- sequence
- response
- voice
- conformity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请提供一种生物特征活体检测方法和***,以拒绝诸如人脸图片、人脸录像和声音录音等方式的假体攻击。首先,生成随机动作和语音序列指令;然后,以视听觉方式将随机动作序列指令呈现给用户,同时采集用户的人脸视频及语音数据并实时反馈给用户;通过分析所采集数据与随机动作序列指令的符合程度,从而判断是否为活体人。本申请的技术方案中动作和语音指令随机生成,很难被事先准备的人脸照片、视频、或语音攻击;随机动作序列指令的视听觉呈现帮助用户理解指令;用户视频及语音的同步反馈呈现,有效地引导用户做出相应动作和发声;从而提高身份验证的安全性,并提升产品的易用性和用户体验。
Description
技术领域
本发明涉及自动图像分析与生物特征识别技术领域,尤其涉及一种生物特征活体检测方法及***。
背景技术
生物特征识别在身份验证和授权领域中有重要应用,例如利用人脸识别手段进行移动支付中的身份验证,可以加强互联网和移动互联网业务中的身份安全性。然而,人脸识别***容易受到伪造人脸的攻击,引发信息与身份安全问题。例如,攻击者可以通过某种手段获取账号拥有者的人脸图像并制成照片、视频或面具等伪造特征,呈现在识别***前,以代替真实人脸获得非法权限。
目前主要的用于区分真人和伪造人脸的技术,主要可分为二大类。第一类是基于纹理的方法,该方法通过获取丰富的人体皮肤细节纹理,分析纹理的高频分量来区分真人和伪造特征。第二类方法基于运动模式的分析,例如,人通常处于一定的背景中,当人运动时,背景也随之变化,对于真人,人体区域的运动和背景的运动相对独立,通过分析人体区域和背景区域的相对运动模式,可以区分真人和伪造特征。
但发明人在产品研制和使用过程中发现:随着照片采集和打印技术的不断提高,目前已能够获取较为高清的人体皮肤照片,包含丰富的纹理细节,致使第一类基于纹理的方法的可靠性大大降低;第二类方法通常无法解决视频播放的攻击方式。目前尚缺乏能够有效识别真实的人、防止伪造特征攻击的人脸识别方法和***。
发明内容
为了克服现有生物特征防伪技术存在的上述问题,本发明提供一种基于人机交互与模式识别相结合的生物特征活体检测方法和***,以拒绝假体攻击如人脸图片、人脸录像和声音录音,提高生物特征识别的安全性。
本申请提供的一种生物特征活体检测方法及***详述如下。
根据本申请实施例的第一方面,提供一种生物特征活体检测方法,包括:
生成随机动作序列指令;
将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
采集用户响应图像序列;
将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现;
分析所述响应图像序列中用户的响应动作序列;
判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,如果符合,则判断所述响应动作序列来自活体人。
其中,所述的生物特征活体检测方法,还可以包括:
生成随机语音序列指令;
将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
采集用户响应语音序列;
分析所述响应语音序列中用户的响应语音;
判断所述响应语音是否符合所述随机语音序列指令对应的语音序列,如果符合,则判断所述响应语音序列来自活体人。
其中,所述的生物特征活体检测方法,在随机动作序列指令中为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间和结束时间,所述时间戳随机生成。
其中,所述分析所述响应图像序列中用户的响应动作序列,包括:
从响应图像序列中检测每张图像中的人脸;
对每张人脸进行关键点定位;
根据定位的人脸关键点计算头部姿态转角;
根据定位的人脸关键点计算人脸表情类型;
根据所述头部姿态转角和所述人脸表情类型得到用户的响应动作序列;
比较所述响应动作序列和所述随机动作序列指令对应的动作序列,计算动作类型符合度;
将所述动作类型符合度与第一预设阈值比较,如果所述动作类型符合度大于第一预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,所述分析所述响应图像序列中用户的响应动作序列,还可以包括:
对所述响应动作序列中的每个动作,计算每个动作的动作时间;
比较所述计算的每个动作的动作时间与每个动作的时间戳,计算动作时间符合度;
计算动作总体符合度=动作类型符合度+w×动作时间符合度,其中w为权值;
将所述动作总体符合度与第二预设阈值比较,如果动作总体符合度大于第二预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,所述的生物特征活体检测方法,还可以包括:
识别所述响应语音序列内容;
计算所述响应语音序列的语音内容符合度;
计算总体符合度=动作类型符合度+w1×动作时间符合度+w2×语音内容符合度,其中w1、w2为权值;
将所述总体符合度与第三预设阈值比较,如果总体符合度大于第三预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,根据安全等级设定随机动作序列指令的复杂度和所述第一预设阈值、第二预设阈值和第三预设阈值的大小。
相应于本申请实施例的第一方面,根据本申请实施例的第二方面,提供一种生物特征活体检测***,包括:
动作序列指令生成单元,用于生成随机动作序列指令;
动作指令呈现单元,包括显示器和扬声器,用于先将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
其中,所述显示器,用于显示所述随机动作序列指令的文本和/或视觉编码的画面,所述扬声器,用于播放所述随机动作序列指令的文本和/或听觉编码声音;
图像采集单元,用于采集用户响应人脸图像序列;
响应动作呈现单元,用于将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现;
动作分析单元,用于分析所述响应人脸图像序列中用户的响应动作序列;
动作符合度判断单元,用于判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,如果符合,则判断所述响应动作序列来自活体人。
其中,所述的生物特征活体检测***,还可以包括:
语音指令生成单元,用于生成随机语音指令;
语音指令呈现单元,包括显示器和扬声器,用于先将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
语音采集单元,用于采集用户响应语音序列;
语音分析单元,用于分析所述响应语音序列中用户的响应语音;
语音符合度判断单元,用于判断所述响应语音是否符合所述随机语音序列指令对应的语音序列,如果符合,则判断所述响应语音序列来自活体人。
其中,所述随机动作序列指令生成单元在随机动作序列指令中为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间和结束时间,所述时间戳随机生成。
其中,所述动作分析单元,包括:
人脸检测子单元,用于从响应动作序列中检测每张图像中的人脸;
关键点定位子单元,用于对每张人脸进行关键点定位;
头部姿态转角计算子单元,用于根据定位的人脸关键点计算头部姿态转角;
人脸表情类型计算子单元,用于根据定位的人脸关键点计算人脸表情类型;
动作序列识别子单元,用于根据所述头部姿态转角和所述人脸表情类型得到所述响应动作序列;
所述动作符合度判断单元,包括:
动作类型符合度计算子单元,比较所述响应动作序列和所述动作序列指令对应的动作序列,计算动作类型符合度;
第一判断子单元,用于将所述动作类型符合度与第一预设阈值比较,如果所述动作类型符合度大于第一预设阈值,则响应动作序列中人的响应动作类型符合所述随机动作序列指令,判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,所述动作分析单元,还可以包括:
动作时间计算子单元,用于对所述响应动作序列中的每个动作,计算每个动作的动作时间;
动作时间符合度计算子单元,用于将所述计算的每个动作的动作时间与每个动作的时间戳比较,计算动作时间符合度;
动作总体符合度计算子单元,用于计算动作总体符合度,动作总体符合度=动作类型符合度+w×动作时间符合度,其中w为权值;
第二判断子单元,用于将所述动作总体符合度与第二预设阈值比较,如果大于第二预设阈值,则响应动作序列中人的响应动作符合所述随机动作序列指令对应的动作序列,判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,所述的生物特征活体检测***,还可以包括:
语音分析单元,用于识别所述响应语音序列内容;
语音符合度计算单元,用于计算所述响应语音序列的所述响应语音内容符合度;
总体符合度计算单元,用于计算总体符合度,计算总体符合度=动作类型符合度+w1×动作时间符合度+w2×语音内容符合度,其中w1、w2为权值;
第三判断单元,用于将所述总体符合度与第三预设阈值比较,如果大于第三预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,根据安全等级设定随机动作序列指令的复杂度和所述第一预设阈值、第二预设阈值和第三预设阈值的大小。
本申请实施例提供的技术方案可以包括以下有益效果:动作和语音指令随机生成,很难使用事先准备的人脸照片、视频、或语音语料进行攻击;将随机动作序列指令进行视听觉呈现,有效帮助用户理解指令;将用户的动作及语音同步反馈呈现,有效地引导用户做出相应动作和发声,从而提高身份验证的安全性,并提升产品的易用性和用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一示例性实施例示出的一种生物特征活体检测方法的流程示意图。
图2为本申请一示例性实施例示出的一种生物特征活体检测***的结构示意图。
图3为生物特征活体检测***的随机动作序列指令可视化视觉呈现和随机语音序列指令可视化视觉呈现的示意图。
图4为显示器为竖屏时一种生物特征活体检测***的随机动作序列指令视觉呈现示意图。
图5为显示器为横屏时一种生物特征活体检测***的随机动作序列指令视觉呈现示意图。
图6为将随机动作序列指令的文本和响应动作序列同时做视觉呈现的示意图。
图7为将随机语音序列指令和随机动作序列指令与所采集的用户响应动作序列一起同步显示的示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
为了全面理解本申请,在以下详细描述中提到了众多具体的细节,但是本领域技术人员应该理解,本申请可以无需这些具体细节而实现。在其他实施例中,不详细描述公知的方法、过程、组件和电路,以免不必要地导致实施例模糊。
图1为本申请一示例性实施例示出的一种生物特征活体检测方法的流程示意图,如图1所示,所述方法包括:
步骤S101,生成随机动作序列指令。
其中,所述随机动作序列指令用于指示用户如何做动作,其由动作类型描述组成,还可以包括每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的开始时间和结束时间。所述时间戳用于标识每个动作的动作时间时为相对时间戳,表征了随机动作序列指令中,每个动作类型的动作时间长度;所述时间戳用于标识每个动作的开始时间和结束时间时为绝对时间戳,根据绝对时间戳可以计算每个动作的动作时间,即每个动作的结束时间减去每个动作的结束时间。所述相对时间戳和绝对时间戳可以随机生成,以使随机动作序列指令的随机程度更高,绝对时间戳随机生成时,后一个动作的绝对时间戳的开始时间大于前一个动作的绝对时间戳的结束时间。所述动作序列指令可以为单个动作指令也可以由多个动作指令组合。所述生成随机动作序列指令,可以包括:
(a1)随机确定动作个数N,例如N=4。
(a2)从候选动作类型集合中,随机选取N个动作类型进行组合,组合中N个动作类型的顺序随机,例如随机生成4个动作类型(头部左转30度→右转10度→左转20度→右转40度),或(头部左转30度→转正成0度→张嘴→闭嘴)。
(a3)随机指定每个动作类型的动作时间和/或动作次数,所述动作时间为每个动作类型的持续时间,其中,动作时间可以以相对时间戳或者绝对时间戳的形式加入动作序列指令,即每个动作类型描述加上标识动作时间的时间戳,以时间戳形式加入动作序列指令,可以方便与每个动作类型对应,分隔每个动作类型,并且一致性好,不易出错。当每个动作类型指定的为绝对时间戳时,后一个动作的开始时间等于前一个动作的结束时间。
对每个动作类型还可以指定动作次数,默认动作次数是1次,用户如果在指定动作时间内做出了多次动作,则在后续识别中只识别指定动作时间内是否做了动作,而不识别做了几次;可以只指定动作次数,不指定动作时间;也可以动作时间和动作次数都指定,每个动作类型的动作时间和动作次数可以相同也可以不同;也可以部分动作类型指定动作时间,部分动作类型不指定动作时间,或者,部分动作类型指定动作次数,部分动作类型不指定动作次数,以此类推。例如动作类型的动作时间和动作次数指定为:从左到右摇头2次,动作时间2秒;从上到下摇头3次,动作时间3秒;张嘴2次,动作时间1秒;闭眼3次,动作时间2秒,相应的动作序列指令为:(从左到右摇头2次,动作时间2秒)→(从上到下摇头3次,动作时间3秒)→(张嘴2次,动作时间1秒)→(闭眼3次,动作时间2秒),其中的动作时间以相对时间戳的方式指定。当动作时间以绝对时间戳的方式指定时,相应的动作序列指令可以为:(从第0秒到第2秒,从左到右摇头2次)→(从第2秒到第5秒,从上到下摇头3次)→(从第5秒到第6秒,张嘴2次)→(从第6秒到第8秒,闭眼3次)
其中,随机动作序列指令可以根据安全等级的不同设定不同的复杂度,例如,安全等级高时,增加动作序列中的动作个数N。
步骤S102,将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现。
其中,把随机动作序列指令的代码转换成文本和/或视觉编码,呈现为“张嘴”、“闭嘴”,“头左转”、“低头”、“眨眼”等动作的文本字样、图像或动画形式,然后将其以视觉的方式通过显示器呈现给用户;或者将随机动作序列指令的代码转换成文本和/或听觉编码,转换成文本,然后通过TTS(Text To Speech)引擎转换成语音,例如通过扬声器语音播报“张嘴”、“闭嘴”,“头左转”、“低头”、“眨眼”等声音;或者以视觉和听觉二者结合的方式呈现给用户。通过视听觉的呈现和提示,帮助用户理解指令,以便及时地根据提示做出相应的动作。
步骤S103,采集用户响应图像序列。
其中,可以利用摄像头或者其他图像视频拍摄设备,拍摄用户的动作,从而采集到响应人脸图像序列,响应人脸图像序列中每一个图像为拍摄得到的视频帧。
步骤S104,将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现;
其中,同步进行视觉呈现是将所拍摄的响应图像序列画面与随机动作序列指令一道同时显示在屏幕上,及时反馈给用户,使用户能够调整自己的动作,使其随机与动作序列指令一致。
步骤S105,分析所述响应图像序列中用户的响应动作序列。
其中,步骤S105包括:
(a1)从响应动作序列中检测每张图像中的人脸;
(a2)对每张人脸进行关键点定位;
(a3)根据定位的人脸关键点计算头部姿态转角;
(a4)根据定位的人脸关键点计算人脸表情类型;
(a5)根据头部姿态和表情类型计算所述响应动作序列;
(a6)比较所述计算所得的响应动作序列和所述随机动作序列指令对应的动作序列,计算动作类型符合度。
其中,对响应动作序列中的每一张图像进行人脸检测,可利用基于局部特征和Adaboost学习的人脸检测器,也可以利用基于神经网络训练得到的人脸检测器,如果检测到人脸,则继续下面的步骤,没有检测到人脸,则跳过该张图像,如果每张图像都没有检测到人脸,则结束整个过程,此时可以向用户通过视觉或听觉的方式提示用户重新开始。
对图像中检测到人脸后,对人脸进行关键点定位,即对每张人脸图像,选取相应的预设的多个关键点,例如选取68个关键点,根据关键点坐标可以勾勒出人脸细节轮廓。在关键点基础上计算人脸的姿态和表情分类。
在另一种可能的实施方式中,可以使用特征估计法获得头部姿态转角和人脸表情类型,所述特征估计法预先采集大量的不同姿态和表情下的人脸图像数据,从人脸图像数据中提取表象特征,采用SVM或者回归等方式训练得到姿态估计分类器,然后使用训练得到在姿态估计分类器对人脸图像进行姿态和表情估计,例如对于人脸图像,可以进行Gabor特征提取或者LBP(Local Binary Patterns,局部二值模式)特征提取,采用SVM(SupportVector Machine,支持向量机)训练得到姿态和表情分类器来进行人脸图像的姿态估计和表情分类。
其中,得到每张人脸图像对应的头部姿态转角和人脸表情类型后,根据所述头部姿态转角和所述人脸表情类型将响应人脸图像序列进行切分,以分离和识别与每个动作指令对应的人体动作,得到响应动作序列。所述切分可以根据动作序列指令的时间戳切分,也可以根据动作序列指令中的动作类型切分。
根据动作序列指令的时间戳切分即将采集的响应人脸图像序列按根据所述时间戳得到的动作时间进行切分,当时间戳为相对时间戳时,所述相对时间戳的大小即动作时间的大小,可以根据相对时间戳进行切分,当时间戳为绝对时间戳时,根据动作起止时间进行切分。例如动作序列指令为(从左到右摇头2次,动作时间2秒)→(从上到下摇头3次,动作时间3秒)→(张嘴2次,动作时间1秒)→(闭眼3次,动作时间2秒),时间戳标识的时间分别为2秒、2秒、1秒和2秒,则将响应人脸图像序列按2秒、2秒、1秒、2秒进行切分。若动作序列指令为(从第0秒到第2秒,从左到右摇头2次)→(从第2秒到第5秒,从上到下摇头3次)→(从第5秒到第6秒,张嘴2次)→(从第6秒到第8秒,闭眼3次),时间戳标识的各个动作的起止时间分别为第0秒到第2秒,第2秒到第5秒,第5秒到第6秒,第6秒到第8秒,则将响应人脸图像序列的按照起止时间进行切分。对切分得到的每段响应人脸图像序列,结合检测到的每张图像的头部姿态转角和人脸表情类型,识别每段响应人脸图像序列对应的人体动作,以摇头动作为例,摇头的过程中得到的每个人脸图像的头部姿态转角都是不同的,将每段的响应人脸图像序列的头部姿态转角数据组合起来,提取每段响应人脸图像序列的动作特征,使用常规的人体动作识别算法,可以得到每段响应人脸图像序列对应的动作,同时也可以识别得到所述动作的次数。每段响应人脸图像序列对应的动作和所述动作的次数按原有的时间先后顺序组合,得到响应动作序列。
根据动作序列指令中的动作类型切分,即根据每个人脸图像的头部姿态转角和人脸表情类型,以及根据动作序列指令中动作类型和对应的动作次数和顺序,依次对全部响应人脸图像序列进行动作识别,例如,动作序列指令中第一个动作类型为摇头,动作次数为2次,则在全部响应人脸图像序列中识别是否存在摇头动作以及摇头的次数,如果能够识别出摇头的动作,则将所有摇头动作对应的响应人脸图像序列从全部响应人脸图像序列中切分出来,并保持切分出响应人脸图像序列在全部人脸图像的位置顺序,例如被切分出的人脸图像是位于全部响应人脸图像序列的前端,同时记录切分出来的响应人脸图像序列对应的动作的次数,例如,识别出的摇头的次数。然后根据动作序列指令中的第二个动作类型,对剩下的响应人脸图像序列进行动作识别,例如动作序列指令中第二个动作类型为点头,点头3次,则在剩下的响应人脸图像序列中识别是否存在点头动作以及点头的次数,如果能够识别出点头的动作,则将所有点头动作对应的响应人脸图像序列从全部响应人脸图像序列中切分出来,并保持切分出的响应人脸图像序列在全部人脸图像中的时间顺序,以及和第一次切分出的响应人脸图像序列之间的时序关系,例如是在全部响应人脸图像序列的前端、中部还是尾部,且在第一次分出的响应人脸图像序列的之前还是之后,同时记录本次切分出来的响应人脸图像序列对应的动作的次数。以此类推,直至根据动作序列指令中的最后一个动作类型切分完毕。切分完毕后,将每段切分出来的响应人脸图像序列对应的人体动作和所述人体动作的次数按原有的时间先后顺序组合,即得到响应动作序列。其中,对于响应人脸图像序列的动作识别,可以根据响应人脸图像序列中每个图像的头部姿态转角和人脸表情类型使用常规的动作识别算法。根据动作类型对响应人脸图像序列进行切分时,切分的过程中同时包含了对动作的识别。可以在切分后再次对每段响应人脸图像序列进行人体动作的识别,以保证所述识别的正确性,也可以不再进行所述识别,根据切分的结果得到响应动作序列。
根据动作序列指令的时间戳或者动作类型对响应人脸图像序列进行切分时,可以在切分得到的每段响应人脸图像序列中添加相对时间戳或者绝对时间戳,用于标识对应的动作的持续时间或者其开始时间和结束时间。根据时间戳切分时,由于每段响应人脸图像序列有明确的时间长度或者起止时间,可以不必再添加时间戳来标识对应的动作的时间长度或者起止时间。根据动作类型进行切分时,对切分到的每段响应人脸图像序列,获取时间顺序上第一张人脸图像和最后一张人脸图像的时间,分别作为该段响应人脸图像序列对应的动作的开始时间和结束时间,根据开始时间和结束时间为响应动作序列中对应的人体动作添加时间戳。在响应动作序列中添加时间戳有利于分隔各个动作类型,也有利于切分时选择进行每个人体动作识别后剩余的响应人脸图像序列,以及有利于计算每个动作类型的动作时间。
对于响应人脸图像序列的切分,根据时间戳进行切分,切分过程简单,但要求用户能严格按照时间要求完成动作,由于人的动作有时候动作时间难以准确把握,只能大致符合时间长度的要求,例如,要求摇头2s,实际摇头可能为2.2s,根据时间戳进行切分,则可能造成切分的每段响应人脸图像序列对应的人体动作不完整或者有其他动作的残余图像,使人体动作的识别出现误差。根据动作类型切分,虽然切分过程较为复杂,但根据切分得到的响应人脸图像序列能够准确地识别出完整的人体动作。
在一种可能的实施方式中,根据动作类型对响应人脸图像序列进行切分时,如果全部的响应人脸图像序列中不能识别出动作序列指令中的第一个动作类型,或者根据全部的响应人脸图像序列识别出与动作序列指令中第一个动作类型相同的动作类型时,该动作类型对应的响应人脸图像序列不在全部响应人脸图像序列的前端(第一部分),则可以确定识别失败,不需再进行后续的步骤。这种方式可以在用户第一个动作即不符合要求,或者是伪造特征不能进行动作时,判定当前用户非活体人,并结束后续流程,由此可以更简洁快速地防止可能的不安全特征的攻击。
其中,比较所述计算所得的响应动作序列和所述动作序列指令对应的动作序列,计算动作类型符合度,即比对响应动作序列中的每段动作与对应的动作指令,比对包括动作的类型和动作的次数,根据比对的结果,为每段动作设置不同的权值,例如,动作序列指令中第一个动作类型为摇头,动作次数为3次,如果响应动作序列中第一个动作类型为摇头,动作次数为3次,则响应动作序列中第一个动作类型的权值S1可以设置为1,如果响应动作序列中第一个动作类型为摇头,但动作次数为2次,则S1可以设置为0.7,以此类推。将每段动作的权值相加,得到动作类型符合度。
其中,在随机动作序列指令为动作类型加相对时间戳的模式下,步骤S105还可以包括:
(b1)对所计算的所述响应动作序列中的每个动作,计算每个动作的动作时间;
(b2)将每个动作的动作时间与每个动作的相对时间戳比较,计算动作时间符合度;
(b3)计算动作总体符合度=动作类型符合度+w×动作时间符合度,其中w为权值;
将得到的响应动作序列中的每段动作对应的动作时间和对应的相对时间戳进行比对。根据比对的结果,为响应动作序列的每段动作设置不同的时间权值,将每段动作的时间权值相加,得到动作时间符合度。每段动作的时间权值可以等于(1-动作时间误差),或者等于(1/动作时间误差)。其中,随机动作序列指令中相对时间戳为t1,而响应动作序列中某段动作的动作时间为t2,则这段动作的
则动作总体符合度=动作类型符合度+w×动作时间符合度,其中w为权值。
其中,在随机动作序列指令为动作类型加绝对时间戳的模式下,步骤S105还可以包括:
(c1)对所计算的所述响应动作序列中的每个动作,计算每个动作的动作时间;
(c2)将每个动作的动作时间与每个动作的绝对时间戳比较,计算动作时间符合度;
(c3)计算动作总体符合度=计算动作总体符合度=动作类型符合度+w×动作时间符合度,其中w为权值;
将得到的响应动作序列中的每段动作对应的动作时间和对应的绝对时间戳进行比对。根据比对的结果,为响应动作序列的每段动作设置不同的时间权值,将每段动作的时间权值相加,得到动作时间符合度。每段动作的时间权值可以等于(1-动作时间误差),或者等于(1/动作时间误差)。其中,随机动作序列指令中绝对时间戳为第t1秒到第t2秒,而响应动作序列中某段动作的动作时间为T,则这段动作的
则动作总体符合度=动作类型符合度+w×动作时间符合性,其中w为权值。
此外,在随机动作序列指令为动作类型加绝对时间戳的模式下,另一种方案还可以包括:
分析用户是否在指定的时间戳上,做了指定的指令动作。例如动作类型指令序列为(第0秒至第2秒,头部左转至30度→第2秒至第4秒,右转至10度→第4秒至第5秒,左转至20度→第5秒至第7秒,右转至40度),绝对时间戳的开始时间分别为第0秒、第2秒、第4秒,第5秒,结束时间分别为第2秒,第4秒,第5秒,第7秒。***检验在第2秒时头部位置是否为左偏30度,在第4秒时头部位置是否右偏10度,在第5秒时,头部位置是否左偏20度,在第7秒时,头部位置是否右偏40度,若都符合,则判定完成4个相应的头部动作判断所述响应动作序列来自活体人,否则不认为来自活体人。
步骤S106,判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,如果符合,则判断所述响应动作序列来自活体人。
其中,将所述动作类型符合度与第一预设阈值比较,如果所述动作类型符合度大于第一预设阈值,则响应动作序列中人的响应动作类型符合所述动作序列指令,判断所述响应动作序列来自活体人,否则不认为来自活体人。在随机动作序列指令为动作类型加时间戳的模式下,也可以将所述动作总体符合度与第二预设阈值比较,如果大于第二预设阈值,则响应动作序列中人的响应动作符合所述动作序列指令对应的动作序列,判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,所述第一预设阈值和第二预设阈值可以根据对安全度的要求来设置,例如,安全度等级高,则将第一预设阈值和第二预设阈值设置为大的值。
下面用本申请在移动支付活体验证应用环境下的一个应用案例进一步说明本申请,以使本领域技术人员更好地理解本申请的原理和应用。
在移动支付过程中,为防止身份验证时伪造特征引发误验证,需识别当前用户是否为真实的人。为使案例简洁清楚,对本申请的主要步骤进行举例描述。设移动支付过程中,活体识别***候选的指令集包括{摇头,张嘴,眨眼}三种常见的动作。
(1a)当***启动活体识别后,***随机生成动作序列指令,例如“从左到右摇头3次,动作时间6秒;张嘴2次,动作时间1秒;眨眼4次,动作时间2秒”,并以动画的形式生成动作指令示意图,呈现给用户。
(2a)用户根据动作指令示意图,面对摄像头,开始拍摄,可以按要求作出相应的动作,此时***采集响应人脸图像序列,用户全部动作完成后,结束摄像,此时***结束采集响应人脸图像序列。
(3a)使用Gabor特征提取和SVM训练得到姿态估计分类器,使用所述姿态估计分类器对采集到的响应人脸图像序列逐帧估计每个图像的姿态,包括头部、眼睛、鼻子和嘴巴的状态。
(4a)将响应人脸图像序列根据动作指令的时间戳切分成时间长度为6秒、1秒、2秒的三段。根据每张人脸图像的姿态,识别每段响应动作序列对应的人体动作,得到响应动作序列。
如果根据第一段响应人脸图像序列识别得到的对应的人体动作为3次从左到右摇头,则设置响应动作序列中对应的第一个动作(动作类型描述为从左到右摇头,动作次数为3)的权值如果响应动作序列中对应的动作为2次从左到右摇头,则设置如果响应动作序列中对应的动作为1次从左到右摇头,则设置如果根据第一段响应动作序列未识别得到从左到右摇头,则设置
如果根据第二段响应人脸图像序列识别得到的对应的人体动作为张嘴2次,则设置响应动作序列中对应的第二个动作的权值如果张嘴次数为1次,则设置如果张嘴次数为0(未根据第二段响应动作序列识别得到张嘴动作),则设置
如果根据第三段响应动作序列识别得到的对应的人体动作为眨眼次数4次,则设置响应动作序列中对应的第三个动作的权值记如果眨眼次数为3次,则设置如果眨眼次数为2次;则设置如果眨眼次数为1次,则设置如果未根据第二段响应动作序列识别得到眨眼动作,则设置
(5a)计算得到响应动作序列和随机动作序列指令的动作类型符合度为并与第一预设阈值进行比较,如果则动作
类型符合度Sa=1.75,预设的阈值为2,则由于动作类型符合度小于第一预设阈值,识别失
败,判断当前的用户非活体,相应地,身份验证不能通过。
如果根据动作类型对响应动作序列进行切分,则步骤(4a)可以替换为:
(4b)对全部响应人脸图像序列进行从左到右摇头动作的识别,如果在全部响应动作序列识别出了从左到右摇头的动作,所述动作对应的响应人脸图像序列位于全部响应人脸图像序列的前端,但动作次数未满三次,则设置响应动作序列中第一个动作的权值如果动作次数达到三次,则记并记录响应人脸图像序列采集开始时间t0和最后一次从左到右摇头对应的响应动作序列的最后一张人脸图像的采集时间t1,计算得到响应动作序列中第一个动作的动作时间t1-t0。也可以设置为其他的值,也可以根据不同的动作次数设置不同的值。
对t1时刻之后的响应人脸图像序列进行张嘴动作的识别,如果识别出的张嘴次数未满2次,则设置响应动作序列中第二个动作的权值如果张嘴次数达到2次,则设置并记录最后一次张嘴对应的响应人脸图像序列的最后一张人脸图像的采集时间t2,将t2-t1作为响应人脸图像序列中第二个动作的动作时间。
对t2时刻之后的响应人脸图像序列进行眨眼动作的识别,如果识别出的眨眼动作未满4次,则设置响应人脸图像序列中第三个动作的权值如果眨眼动作达到4次,则记并记录最后一次眨眼对应的响应人脸图像序列的最后一张人脸图像的采集时间t3,将t3-t2作为响应人脸图像序列中第三个动作的动作时间。
同时步骤(5a)可以替换为:
(5b)计算响应动作序列和随机动作序列指令的总体符合度:
根据经验和安全等级要求设置第二预设阈值θ,当总体符合度大于第二预设阈值θ时,则判定为活体人,否则判定为非活体人。
在一种可能的实施方式中,本申请实施例提供的生物特征活体检测方法,还包括:
(d1)生成随机语音序列指令;
(d2)将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;;
(d3)采集用户响应语音序列;
(d4)分析所述响应语音序列中用户的响应语音;
(d5)判断所述响应语音是否符合所述随机语音序列指令对应的语音序列,如果符合,则判断所述响应语音序列来自活体人。
其中,所述随机语音序列指令可以为一串文字或者一串语音片段,其内容随机生成,或者在语音模板库中随机抽取若干语音模板组合为语音指令序列。生成后的语音指令序列可以以文字、图像的形式在显示器显示以指示用户,或者以语音播放的方式通过扬声器指示用户,也可以以文本、图像和语音播放结合的方式同时以显示器和扬声器指示用户。用户在接收到指示后,根据指示语音,即发出响应语音。通过录音设备采集用户响应语音序列。当语音指令序列为一串文字时,或者由语音模板组成时,可以对采集到的用户响应语音序列进行音频分析和识别,所述音频分析可以为常规的音频内容分析和识别,将识别的结果和语音指令序列进行对比,如果相同的部分所占的百分比超过一个预设的阈值,例如超过90%,则判断所述用户响应语音序列来自活体人;当随机语音指令为一串文字时,可以将所述识别的结果转换为文字,将所述语音内容转换为文字后和语音指令序列进行对比,如果所述语音内容转换得到的文字和语音指令序列相符合的文字超过一个预设的阈值,例如超过90%,则判断所述用户响应语音序列来自活体人。当随机语音指令序列为一串语音片段时,可以对采集到的用户响应语音序列和语音指令序列进行波形匹配分析,如果响应语音序列和随机语音指令序列的波形匹配度超过一个预设的阈值,则判断所述用户响应语音序列来自活人。
在一种可能的实施方式中,在结合图像分析和语音分析,同时对人的动作和语音进行识别分析来判断用户是否为活体,则所述的生物特征活体检测方法,可以包括:
(e1)生成随机动作序列指令;
(e2)将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
(e3)采集用户响应图像序列;
(e4)分析所述响应图像序列中用户的响应动作序列;
(e5)判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,计算动作总体符合度;
(e6)生成随机语音指令;
(e7)将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
(e8)采集用户响应语音序列;
(e9)分析所述响应语音序列中用户的响应语音;
(e10)计算所述响应语音序列的语音内容符合度,即将响应语音序列内容和随机语音指令序列对比,根据对比的情况,为响应语音序列的每个语音设置不同的权值,将每个语音的权值相加,得到语音内容符合度;
(e11)计算总体符合度=动作总体符合度+w2×语音内容符合度=动作类型符合度+w1×动作时间符合度+w2×语音内容符合度,其中w1、w2为权值;
(e12)将所述总体符合度与第三预设阈值比较,如果大于第三预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
通过以上的方法实施例的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,并存储在一个存储介质中,包括若干指令用以使得一台智能设备执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可以存储数据和程序代码的介质。
图2为本申请一示例性实施例示出的一种生物特征活体检测***的结构示意图。如图2所示,所述***包括:
动作序列指令生成单元U201,用于生成随机动作序列指令;
动作指令呈现单元U202,包括显示器和扬声器,用于先将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,然后将其做视觉画面、听觉声音或二者结合的方式呈现;
图像采集单元U203,用于采集用户响应人脸图像序列;
响应动作呈现单元U204,用于将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现;
动作分析单元U205,用于分析所述响应人脸图像序列中用户的响应动作序列;
动作符合度判断单元U206,用于判断所述响应动作序列是否符合所述随机动作序列指令对应的动作序列,如果符合,则判断所述响应动作序列来自活体人。
其中,所述的生物特征活体检测***,还可以包括:
语音指令生成单元,用于生成随机语音指令;
语音指令呈现单元,包括显示器和扬声器,用于先将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,然后将其做视觉画面、听觉声音或二者结合的方式呈现;
语音采集单元,用于采集用户响应语音序列;
语音分析单元,用于分析所述响应语音序列中用户的响应语音;
语音符合度判断单元,用于判断所述响应语音序列是否符合所述语音指令对应的语音序列,如果符合,则判断所述响应语音序列来自活体人。
其中,在一种可能的实施方式中,所述动作序列指令生成单元在随机动作序列指令中为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间和结束时间,所述时间戳随机生成。
其中,所述动作指令呈现单元把随机动作序列指令的代码转换成文本和/或视觉编码,例如“张嘴”、“闭嘴”,“头左转”、“低头”、“眨眼”等动作的文本字样、图像、动画形式,然后将其以视觉的方式通过显示器呈现给用户;随机动作序列指令的代码转换成文本和/或听觉编码,转换成文本,然后通过TTS(Text To Speech)引擎转换成语音,例如通过扬声器语音播报“张嘴”、“闭嘴”,“头左转”、“低头”、“眨眼”等声音;或者视觉和听觉二者结合的方式呈现给用户。通过视听觉呈现提示,帮助用户理解指令,以便及时地根据指示做出相应的动作。
其中,所述图像采集单元,摄像头或者其他图像视频拍摄设备,拍摄用户的动作,从而采集到响应人脸图像序列,响应人脸图像序列中每一个图像为拍摄得到的视频帧。
其中,响应动作呈现单元,用于将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现,显示在屏幕上,及时反馈给用户,使用户能够调整自己的动作,使其与随机动作序列指令一致。
其中,所述动作分析单元,可以包括:
人脸检测子单元,用于从响应动作序列中检测每张图像中的人脸;
关键点定位子单元,用于对每张人脸进行关键点定位;
头部姿态转角计算子单元,用于根据定位的人脸关键点计算头部姿态转角;
人脸表情类型计算子单元,用于根据定位的人脸关键点计算人脸表情类型;
动作序列识别子单元,用于根据所述头部姿态转角和所述人脸表情类型计算所述响应动作序列。
所述动作符合度判断单元,可以包括:
动作类型符合度计算子单元,比较所述计算所得的响应动作序列和所述随机动作序列指令对应的动作序列,计算动作类型符合度;
第一判断子单元,用于将所述动作类型符合度与第一预设阈值比较,如果所述动作类型符合度大于第一预设阈值,则响应动作序列中人的响应动作类型符合所述随机动作序列指令,判断所述响应动作序列来自活体人,否则不认为来自活体人。
其中,所述动作分析单元,还包括:
动作时间计算子单元,用于对所计算的所述响应动作序列中的每个动作,计算每个动作的动作时间;
动作时间符合度计算子单元,用于将每个动作的动作时间与随机生成的时间戳比较,计算动作时间符合度;
动作总体符合度计算子单元,用于计算动作总体符合度,动作总体符合度=动作类型符合度+w×动作时间符合度,其中w为权值;
第二判断子单元,用于将所述动作总体符合度与第二预设阈值比较,如果大于第二预设阈值,则响应动作序列中人的响应动作符合所述动作序列指令对应的动作序列,判断所述响应动作序列来自活体人,否则不认为来自活体人。
本申请实施例提供的生物特征活体检测***,在一种可能的实施方式中,还可以包括:
语音分析单元,用于识别所述响应语音序列内容;
语音符合度计算单元,用于计算所述响应语音序列的所述响应语音内容符合度;
总体符合度计算单元,用于计算总体符合度,计算总体符合度=动作类型符合度+w1×动作时间符合度+w2×语音内容符合度,其中w1、w2为权值;
第三判断单元,用于将所述总体符合度与第三预设阈值比较,如果大于第三预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
根据安全等级设定随机动作序列指令的复杂度和所述第一预设阈值、第二预设阈值和第三预设阈值的大小。
图3为生物特征活体检测***的随机动作序列指令可视化视觉呈现和随机语音序列指令可视化视觉呈现的示意图。其中,(1),(2),(3)表示随机动作序列指令(左转45度→正面→右转45度),同时用文字和图像进行呈现,(4)表示随机语音序列指令,用文字形式呈现,其中示例为读出一句话,还可以读出一串随机数字。
图4为显示器为竖屏时一种生物特征活体检测***的随机动作序列指令和用户响应图像序列同步视觉呈现的示意图。为了更好地引导被采集对象作出符合随机动作序列指令的动作序列,将随机动作序列指令和采集的响应图像序列以视觉的方式同时呈现在显示器上。对竖屏,将随机动作序列指令呈现在采集的响应图像序列的右上角,实时引导用户做出相应的响应动作序列。其中图4中(1)至(4)表示正脸→侧脸→正脸→张嘴的随机动作序列指令及相应的响应图像序列的呈现示意图。
图5为显示器为横屏时一种生物特征活体检测***的随机动作序列指令和用户响应图像序列同步视觉呈现的示意图。其中图5中(1)至(4)表示正脸→侧脸→正脸→张嘴的随机动作序列指令及相应的响应图像序列的呈现示意图。
图6为随机动作序列指令的文本和响应图像序列同时视觉呈现的示意图,其中上端逐条显示每条随机动作序列指令,下部分显示所采集的用户响应图像序列。
图7为随机语音序列指令和随机动作序列指令与所采集的用户响应图像序列一起同步显示的示意图。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或***实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及***实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者逆序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、***或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、***或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (6)
1.一种生物特征活体检测方法,其特征在于,包括:
生成随机动作序列指令;
将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
采集用户响应图像序列;
将所述响应图像序列与所述随机动作序列指令同步进行视觉呈现;
分析所述响应图像序列中用户的响应动作序列;
所述分析所述响应图像序列中用户的响应动作序列,包括:
从响应图像序列中检测每张图像中的人脸;
对每张人脸进行关键点定位;
根据定位的人脸关键点计算头部姿态转角;
根据定位的人脸关键点计算人脸表情类型;
根据所述头部姿态转角和所述人脸表情类型得到用户的响应动作序列;
比较所述响应动作序列和所述随机动作序列指令对应的动作序列,计算动作类型符合度;
所述分析所述响应图像序列中用户的响应动作序列,还包括:
对所述响应动作序列中的每个动作,计算每个动作的动作时间;
比较所述计算的每个动作的动作时间与每个动作的时间戳,计算动作时间符合度;生成随机语音序列指令;
将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
采集用户响应语音序列;
分析所述响应语音序列中用户的响应语音;
识别所述响应语音序列内容;
计算所述响应语音序列的语音内容符合度;
计算总体符合度=动作类型符合度+w1×动作时间符合度+w2×语音内容符合度,其中w1、w2为权值;
将所述总体符合度与第三预设阈值比较,如果总体符合度大于第三预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
2.如权利要求1所述的生物特征活体检测方法,其特征在于,在随机动作序列指令中为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间和结束时间,所述时间戳随机生成。
3.如权利要求1所述的生物特征活体检测方法,其特征在于,根据安全等级设定随机动作序列指令的复杂度和所述第三预设阈值的大小。
4.一种生物特征活体检测***,其特征在于,包括:
动作序列指令生成单元,用于生成随机动作序列指令;
动作指令呈现单元,包括显示器和扬声器,用于先将所述随机动作序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
图像采集单元,用于采集用户响应人脸图像序列;
响应动作呈现单元,用于将所述响应人脸图像序列与所述随机动作序列指令同步进行视觉呈现;
动作分析单元,用于分析所述响应人脸图像序列中用户的响应动作序列;
所述动作分析单元,包括:
人脸检测子单元,用于从响应动作序列中检测每张图像中的人脸;
关键点定位子单元,用于对每张人脸进行关键点定位;
头部姿态转角计算子单元,用于根据定位的人脸关键点计算头部姿态转角;
人脸表情类型计算子单元,用于根据定位的人脸关键点计算人脸表情类型;
动作序列识别子单元,用于根据所述头部姿态转角和所述人脸表情类型得到用户的响应动作序列;
动作符合度判断单元,包括:
动作类型符合度计算子单元,比较所述响应动作序列和所述随机动作序列指令对应的动作序列,计算动作类型符合度;
所述动作分析单元,还包括:
动作时间计算子单元,用于对所述响应动作序列中的每个动作,计算每个动作的动作时间;
动作时间符合度计算子单元,用于将所述计算的每个动作的动作时间与每个动作的时间戳比较,计算动作时间符合度;
语音指令生成单元,用于生成随机语音指令;
语音指令呈现单元,包括显示器和扬声器,用于先将所述随机语音序列指令的代码转换成文本、视觉和/或听觉编码,并以视觉画面、听觉声音或二者结合的方式呈现;
语音采集单元,用于采集用户响应语音序列;
语音分析单元,用于分析所述响应语音序列中用户的响应语音,还用于识别所述响应语音序列内容;
语音符合度计算单元,用于计算所述响应语音序列的所述响应语音内容符合度;
总体符合度计算单元,用于计算总体符合度,计算总体符合度=动作类型符合度+w1×动作时间符合度+w2×语音内容符合度,其中w1、w2为权值;
第三判断单元,用于将所述总体符合度与第三预设阈值比较,如果大于第三预设阈值,则判断所述响应动作序列来自活体人,否则不认为来自活体人。
5.如权利要求4所述的生物特征活体检测***,其特征在于,在随机动作序列指令中为每个动作指定时间戳,所述时间戳用于标识每个动作的动作时间或每个动作的起始时间和结束时间,所述时间戳随机生成。
6.如权利要求4所述的生物特征活体检测***,其特征在于,根据安全等级设定随机动作序列指令的复杂度和所述第三预设阈值的大小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510053281.1A CN105989264B (zh) | 2015-02-02 | 2015-02-02 | 生物特征活体检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510053281.1A CN105989264B (zh) | 2015-02-02 | 2015-02-02 | 生物特征活体检测方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105989264A CN105989264A (zh) | 2016-10-05 |
CN105989264B true CN105989264B (zh) | 2020-04-07 |
Family
ID=57036969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510053281.1A Active CN105989264B (zh) | 2015-02-02 | 2015-02-02 | 生物特征活体检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105989264B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066983B (zh) * | 2017-04-20 | 2022-08-09 | 腾讯科技(上海)有限公司 | 一种身份验证方法及装置 |
CN107273794A (zh) * | 2017-04-28 | 2017-10-20 | 北京建筑大学 | 一种人脸识别过程中的活体鉴别方法及装置 |
CN107358152B (zh) * | 2017-06-02 | 2020-09-08 | 广州视源电子科技股份有限公司 | 一种活体识别方法和*** |
CN109784124A (zh) * | 2017-11-10 | 2019-05-21 | 北京嘀嘀无限科技发展有限公司 | 一种活体识别的判定方法、判定***及计算机装置 |
CN111033508B (zh) * | 2018-04-25 | 2020-11-20 | 北京嘀嘀无限科技发展有限公司 | 一种识别身体运动的***和方法 |
CN110473311B (zh) * | 2018-05-09 | 2021-07-23 | 杭州海康威视数字技术股份有限公司 | 防范非法攻击方法、装置及电子设备 |
CN109325330A (zh) * | 2018-08-01 | 2019-02-12 | 平安科技(深圳)有限公司 | 微表情锁生成及解锁方法、装置、终端设备及存储介质 |
CN110866418B (zh) * | 2018-08-27 | 2023-05-09 | 阿里巴巴集团控股有限公司 | 图像底库生成方法、装置、设备、***及存储介质 |
CN109815810A (zh) * | 2018-12-20 | 2019-05-28 | 北京以萨技术股份有限公司 | 一种基于单摄像头的活体检测方法 |
CN109947238B (zh) * | 2019-01-17 | 2020-07-14 | 电子科技大学 | 一种基于wifi的非合作式手势识别的方法 |
CN110263691A (zh) * | 2019-06-12 | 2019-09-20 | 合肥中科奔巴科技有限公司 | 基于安卓***的头部运动检测方法 |
CN110309743A (zh) * | 2019-06-21 | 2019-10-08 | 新疆铁道职业技术学院 | 基于行业标准动作的人体姿态判断方法及装置 |
CN112287909B (zh) * | 2020-12-24 | 2021-09-07 | 四川新网银行股份有限公司 | 一种随机生成检测点和交互要素的双随机活体检测方法 |
CN112836627B (zh) * | 2021-01-29 | 2022-07-19 | 支付宝(杭州)信息技术有限公司 | 活体检测方法和装置 |
CN112990113A (zh) * | 2021-04-20 | 2021-06-18 | 北京远鉴信息技术有限公司 | 一种基于人脸面部表情的活体检测方法、装置及电子设备 |
CN113743196A (zh) * | 2021-07-23 | 2021-12-03 | 北京眼神智能科技有限公司 | 活体检测方法、装置及存储介质 |
CN114676409A (zh) * | 2022-02-28 | 2022-06-28 | 广西柳钢东信科技有限公司 | 一种基于手机屏幕录像与ai语音合成的在线电子签署方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100514353C (zh) * | 2007-11-26 | 2009-07-15 | 清华大学 | 一种基于人脸生理性运动的活体检测方法及*** |
CN101694691A (zh) * | 2009-07-07 | 2010-04-14 | 北京中星微电子有限公司 | 一种人脸图像合成方法及装置 |
KR101184097B1 (ko) * | 2009-12-07 | 2012-09-18 | 삼성전자주식회사 | 얼굴 정면포즈 판단 방법 |
CN103778360A (zh) * | 2012-10-26 | 2014-05-07 | 华为技术有限公司 | 一种基于动作分析的人脸解锁的方法和装置 |
CN103440479B (zh) * | 2013-08-29 | 2016-12-28 | 湖北微模式科技发展有限公司 | 一种活体人脸检测方法与*** |
-
2015
- 2015-02-02 CN CN201510053281.1A patent/CN105989264B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105989264A (zh) | 2016-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105989264B (zh) | 生物特征活体检测方法及*** | |
WO2019127262A1 (zh) | 基于云端的人脸活体检测方法、电子设备和程序产品 | |
CN105518708B (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证***及其方法 | |
Ashraf et al. | The painful face: Pain expression recognition using active appearance models | |
WO2019127365A1 (zh) | 人脸活体检测方法、电子设备和计算机程序产品 | |
CN112328999B (zh) | 双录质检方法、装置、服务器及存储介质 | |
CN105612533B (zh) | 活体检测方法、活体检测***以及计算机程序产品 | |
WO2020134527A1 (zh) | 人脸识别的方法及装置 | |
WO2017101267A1 (zh) | 人脸活体的鉴别方法、终端、服务器和存储介质 | |
CN103324918B (zh) | 一种人脸识别与唇形识别相配合的身份认证方法 | |
Chetty et al. | Multi-level liveness verification for face-voice biometric authentication | |
CN111339806B (zh) | 唇语识别模型的训练方法、活体识别方法及装置 | |
CN106503691B (zh) | 一种人脸图片的身份标注方法和装置 | |
CN106874830B (zh) | 一种基于rgb-d相机和人脸识别的视障人士辅助方法 | |
CN106709402A (zh) | 基于音型像特征的真人活体身份验证方法 | |
JP2016009453A (ja) | 顔認証装置および顔認証方法 | |
CN104376250A (zh) | 基于音型像特征的真人活体身份验证方法 | |
EP3555799B1 (en) | A method for selecting frames used in face processing | |
JP2008123521A (ja) | 拡張されたガボールウェーブレット特徴を利用したフェース認識方法及び装置 | |
US20190138794A1 (en) | Face recognition system and method thereof | |
CN102385703A (zh) | 一种基于人脸的身份认证方法及*** | |
CN113627256B (zh) | 基于眨眼同步及双目移动检测的伪造视频检验方法及*** | |
CN111684459A (zh) | 一种身份验证方法、终端设备、存储介质 | |
CN111598051A (zh) | 一种脸部验证方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |