CN107545241B - 神经网络模型训练及活体检测方法、装置及存储介质 - Google Patents

神经网络模型训练及活体检测方法、装置及存储介质 Download PDF

Info

Publication number
CN107545241B
CN107545241B CN201710589276.1A CN201710589276A CN107545241B CN 107545241 B CN107545241 B CN 107545241B CN 201710589276 A CN201710589276 A CN 201710589276A CN 107545241 B CN107545241 B CN 107545241B
Authority
CN
China
Prior art keywords
picture
sample
detected
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710589276.1A
Other languages
English (en)
Other versions
CN107545241A (zh
Inventor
洪智滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Priority to CN201710589276.1A priority Critical patent/CN107545241B/zh
Publication of CN107545241A publication Critical patent/CN107545241A/zh
Priority to US16/028,830 priority patent/US11610394B2/en
Application granted granted Critical
Publication of CN107545241B publication Critical patent/CN107545241B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了神经网络模型训练及活体检测方法、装置及存储介质,可针对不同的场景,分别获取该场景下的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景等,根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量,这样,在进行活体检测时,可根据神经网络模型确定出待检测图片的特征向量,进而可根据待检测图片的特征向量确定出与待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为待检测图片的标签,从而得到待检测图片的检测结果。应用本发明所述方案,能够提高检测结果的准确性等。

Description

神经网络模型训练及活体检测方法、装置及存储介质
【技术领域】
本发明涉及计算机应用技术,特别涉及神经网络模型训练及活体检测方法、装置及存储介质。
【背景技术】
人脸识别技术与其它生物特征识别技术相比,在实际应用中具有天然独到的优势:可通过摄像头直接获取,可以非接触的方式完成识别过程,方便快捷。
目前已应用在金融、教育、景区、旅运、社保等各个领域,但方便的同时也带来了一些问题,如易获取,使得人脸容易被一些人用照片、视频等方式进行复制,从而达到窃取盗用信息的目的。尤其是在新兴的金融行业,人脸识别技术已逐渐应用于远程开户、取款、支付等,涉及用户的切身利益。
为此,现有技术中又提出了活体检测技术,所谓活体检测,通俗地讲,就是在人脸识别的过程中证明这张人脸对应的是个“活人”。
非活体的来源比较广泛,包括手机和Pad等上显示的照片和视频、各种打印的不同材质的照片(包含各种情形的弯曲、折叠、剪裁、挖洞等)等。
活体检测在社保、网上开户等重要场合都有其应用,比如,通过验证确定老年用户身份真实且健在后才能进行养老金的领取,网上开户时,以此来保证用户信息的真实、有效和安全等。
现有的活体检测方式中,可利用摄像头来采集用户图片,并按照预定的统一方式对用户图片进行特征提取,进而根据提取出的特征确定用户是否为活体。
但上述方式中,不会对场景进行区分,不同的场景可包括不同的采集端,如高、中、低端手机摄像头等,而对于不同的场景来说,需要注意的特征是不同的,比如,对于拍照效果很好的采集端来说,由于拍摄到的图片比较清晰,因此可利用纹理特征来进行是否活体的区分,而对于拍照效果不佳的采集端来说,则不能依据纹理特征,而需要查看是否有边框、是否有摩尔纹等特征。
由于存在上述问题,采用现有的活体检测方式,得到的检测结果的准确性会比较低。
【发明内容】
有鉴于此,本发明提供了神经网络模型训练及活体检测方法、装置及存储介质,能够提高检测结果的准确性。
具体技术方案如下:
一种神经网络模型训练方法,包括:
针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;
根据获取到的各图片样本,训练得到神经网络模型,所述神经网络模型的输出为对不同场景具有区分度的特征向量,以便在进行活体检测时,根据所述神经网络模型确定出待检测图片的特征向量,并根据所述待检测图片的特征向量确定出与所述待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为所述待检测图片的标签。
根据本发明一优选实施例,所述分别获取所述场景下的图片样本包括:
分别获取所述场景下的图片正样本和图片负样本。
一种活体检测方法,包括:
获取待检测图片,根据预先训练得到的神经网络模型,确定出所述待检测图片的特征向量,所述特征向量为对不同场景具有区分度的特征向量;
根据所述待检测图片的特征向量,从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;
将相匹配的图片样本的标签作为所述待检测图片的标签。
根据本发明一优选实施例,所述获取待检测图片之前,进一步包括:
针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有所述标签;
根据获取到的各图片样本,训练得到所述神经网络模型,所述神经网络模型的输出为对不同场景具有区分度的特征向量。
根据本发明一优选实施例,所述分别获取所述场景下的图片样本包括:
分别获取所述场景下的图片正样本和图片负样本;
所述从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本包括:
通过聚类的方式,分别从每个场景下的图片样本中选出有代表性的图片正样本和图片负样本;
利用选出的图片样本组成样本集,并根据所述神经网络模型,分别确定出所述样本集中的各图片样本的特征向量;
根据特征向量,对所述样本集中的各图片样本进行搜索,确定出与所述待检测图片相匹配的图片样本。
根据本发明一优选实施例,所述对所述样本集中的各图片样本进行搜索,确定出与所述待检测图片相匹配的图片样本包括:
分别计算所述待检测图片的特征向量与所述样本集中的各图片样本的特征向量之间的距离;
选出距离最小的图片样本,将选出的图片样本作为与所述待检测图片相匹配的图片样本。
根据本发明一优选实施例,该方法进一步包括:
当出现新的场景时,获取所述新的场景下的图片样本,加入到所述样本集中。
一种神经网络模型训练装置,包括:样本获取单元以及模型训练单元;
所述样本获取单元,用于针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;
所述模型训练单元,用于根据获取到的各图片样本,训练得到神经网络模型,所述神经网络模型的输出为对不同场景具有区分度的特征向量,以便在进行活体检测时,根据所述神经网络模型确定出待检测图片的特征向量,并根据所述待检测图片的特征向量确定出与所述待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为所述待检测图片的标签。
根据本发明一优选实施例,所述样本获取单元针对不同的场景,分别获取所述场景下的图片正样本和图片负样本。
一种活体检测装置,包括:获取单元以及检测单元;
所述获取单元,用于获取待检测图片,根据预先训练得到的神经网络模型,确定出所述待检测图片的特征向量,所述特征向量为对不同场景具有区分度的特征向量;
所述检测单元,用于根据所述待检测图片的特征向量,从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;将相匹配的图片样本的标签作为所述待检测图片的标签。
根据本发明一优选实施例,所述装置中进一步包括:第一预处理单元;
所述第一预处理单元,用于针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有所述标签;根据获取到的各图片样本,训练得到所述神经网络模型,所述神经网络模型的输出为对不同场景具有区分度的特征向量。
根据本发明一优选实施例,所述第一预处理单元针对不同的场景,分别获取所述场景下的图片正样本和图片负样本;
所述装置中进一步包括:第二预处理单元;
所述第二预处理单元,用于通过聚类的方式,分别从每个场景下的图片样本中选出有代表性的图片正样本和图片负样本;利用选出的图片样本组成样本集,并根据所述神经网络模型,分别确定出所述样本集中的各图片样本的特征向量;
所述检测单元根据特征向量对所述样本集中的各图片样本进行搜索,确定出与所述待检测图片相匹配的图片样本。
根据本发明一优选实施例,所述检测单元分别计算所述待检测图片的特征向量与所述样本集中的各图片样本的特征向量之间的距离;选出距离最小的图片样本,将选出的图片样本作为与所述待检测图片相匹配的图片样本。
根据本发明一优选实施例,所述第二预处理单元进一步用于,
当出现新的场景时,获取所述新的场景下的图片样本,加入到所述样本集中。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的神经网络模型训练方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的神经网络模型训练方法。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的活体检测方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的活体检测方法。
基于上述介绍可知,采用本发明所述方案,可针对不同的场景,分别获取该场景下的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景等,并可根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量,这样,在进行活体检测时,可根据神经网络模型确定出待检测图片的特征向量,进而可根据待检测图片的特征向量确定出与待检测图片相匹配的图片样本,并将相匹配的图片样本的标签作为待检测图片的标签,从而得到待检测图片的检测结果,可以看出,本发明所述方案中基于对不同场景具有区分度的特征向量来区分是否活体,从而相比于现有技术提高了检测结果的准确性,而且,得到的检测结果中除了包括是否活体之外,还会进一步包括对应的场景信息,从而丰富了检测结果的内容。
【附图说明】
图1为本发明所述神经网络模型训练方法实施例的流程图。
图2为本发明所述活体检测方法第一实施例的流程图。
图3为本发明所述活体检测方法第二实施例的流程图。
图4为本发明所述神经网络模型训练装置实施例的组成结构示意图。
图5为本发明所述活体检测装置实施例的组成结构示意图。
图6示出了适于用来实现本发明实施方式的示例性计算机***/服务器12的框图。
【具体实施方式】
针对现有技术中存在的问题,本发明中提出一种神经网络模型训练及活体检测方式,活体检测可依赖于训练得到的神经网络模型。
为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案进行进一步说明。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1为本发明所述神经网络模型训练方法实施例的流程图,如图1所示,包括以下具体实现方式。
在101中,针对不同的场景,分别获取该场景下的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景。
为训练得到神经网络模型,需要首先获取训练样本。
具体地,可针对不同的场景,分别获取该场景下的图片正样本和图片负样本。其中,图片正样本是指活体图片样本,图片负样本是指非活体图片样本即攻击图片样本,比如,用户利用手机拍摄一张自己的人脸图片,那么该人脸图片则可作为图片正样本,如果用户利用手机拍摄一张别人的照片的人脸图片,该人脸图片则可作为图片负样本。
不同的场景可包括不同的采集端,如高、中、低端手机摄像头、webcam摄像头等,以及不同场景下的不同攻击方式,如打印照片攻击、手机照片攻击、手机视频攻击、剪纸攻击等。
针对获取到的每个场景下的每个图片样本,还需要分别获取该图片样本的标签,标签中可包括是否活体以及对应的场景等。
在102中,根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量。
在获取到足够数量的图片样本之后,即可根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为一个固定维度的特征向量,比如,可以为一个128维的特征向量。
如前所述,对于不同的场景来说,需要注意的特征是不同的,比如,对于拍照效果很好的采集端来说,由于拍摄到的图片比较清晰,因此可利用纹理特征来进行是否活体的区分,而对于拍照效果不佳的采集端来说,则不能依据纹理特征,而需要查看是否有边框、是否有摩尔纹等特征。
通过训练神经网络模型,使其学习到一种特征,这种特征除了能够体现是否活体之外,还需要让它在场景里面可区分,即对不同的场景具有区分度,使得不同场景在特征空间上的距离比较远,而相同场景在特征空间上的距离比较近。
基于上述介绍,如何训练得到神经网络模型为现有技术。
后续,可基于训练得到的神经网络模型,来进行实际的活体检测。
图2为本发明所述活体检测方法第一实施例的流程图,如图2所示,包括以下具体实现方式。
在201中,获取待检测图片,根据预先训练得到的神经网络模型,确定出待检测图片的特征向量,该特征向量为对不同场景具有区分度的特征向量。
在按照图1所示方式训练得到神经网络模型之后,即可根据神经网络模型来进行实际的活体检测。
为此,在获取到待检测图片之后,可首先根据神经网络模型,确定出待检测图片的特征向量,即将待检测图片输入给神经网络模型,从而得到输出的特征向量。
在202中,根据待检测图片的特征向量,从预先获取的各图片样本中确定出与待检测图片相匹配的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景。
如图1中所述,为训练得到神经网络模型,需要针对不同的场景,分别获取该场景下的图片样本,包括图片正样本和图片负样本。
在此基础上,可通过聚类的方式,分别从每个场景下的图片样本中选出有代表性的图片正样本和图片负样本,利用选出的图片样本组成样本集,每个场景下选出的图片样本数可根据实际需要而定。
比如,可通过聚类的方式确定出若干个类中心,将与类中心比较近的图片样本抽取出来,作为代表性的样本,利用代表性的样本组成样本集。
针对样本集中的每个图片样本,还需要分别根据神经网络模型,确定出该图片样本的特征向量。
这样,在获取到待检测图片的特征向量之后,可根据待检测图片的特征向量,对样本集中的各图片样本进行搜索,从而确定出与待检测图片相匹配的图片样本。
比如,可分别计算待检测图片的特征向量与样本集中的各图片样本的特征向量之间的距离,之后选出距离最小的图片样本,将选出的图片样本作为与待检测图片相匹配的图片样本。
如何计算特征向量之间的距离为现有技术。
假设样本集中共包括30个图片样本,那么可分别计算待检测图片的特征向量与这30个图片样本的特征向量之间的距离,从而共得到30个计算结果,进而可从这30个计算结果中选出取值最小的一个,将选出的计算结果对应的图片样本作为与待检测图片相匹配的图片样本。
在203中,将相匹配的图片样本的标签作为待检测图片的标签。
在确定出相匹配的图片样本之后,可直接将相匹配的图片样本的标签作为待检测图片的标签,标签中包括是否为活体以及对应的场景等,从而得到待检测图片的检测结果。
综合前述介绍,图3为本发明所述活体检测方法第二实施例的流程图,如图3所示,包括以下具体实现方式。
在301中,针对不同的场景,分别获取该场景下的图片正样本和图片负样本,每个图片样本分别具有标签,标签中包括是否为活体以及对应的场景。
在302中,根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量。
通过训练神经网络模型,使其学习到一种特征,这种特征除了能够体现是否活体之外,还需要让它在场景里面可区分,即对不同的场景具有区分度,使得不同场景在特征空间上的距离比较远,而相同场景在特征空间上的距离比较近。
在303中,通过聚类的方式,分别从每个场景下的图片样本中选出有代表性的图片正样本和图片负样本。
在304中,利用选出的图片样本组成样本集,并根据神经网络模型,分别确定出样本集中的各图片样本的特征向量。
在305中,获取待检测图片,根据神经网络模型,确定出待检测图片的特征向量。
在306中,分别计算待检测图片的特征向量与样本集中的各图片样本的特征向量之间的距离。
在307中,选出距离最小的图片样本,将选出的图片样本作为与待检测图片相匹配的图片样本。
在308中,将相匹配的图片样本的标签作为待检测图片的标签,得到待检测图片的检测结果。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
总之,采用上述各方法实施例所述方案,可针对不同的场景,分别获取该场景下的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景等,并可根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量,这样,在进行活体检测时,可根据神经网络模型确定出待检测图片的特征向量,进而可根据待检测图片的特征向量确定出与待检测图片相匹配的图片样本,并将相匹配的图片样本的标签作为待检测图片的标签,从而得到待检测图片的检测结果,可以看出,上述各方法实施例中基于对不同场景具有区分度的特征向量来区分是否活体,从而相比于现有技术提高了检测结果的准确性,而且,得到的检测结果中除了包括是否活体之外,还会进一步包括对应的场景等信息,从而丰富了检测结果的内容。
另外,在实际应用中,可能会出现新的场景,为了适用新的场景,防止出现检测错误等,可在出现新的场景时,获取新的场景下的图片样本,并加入到样本集中,同样地,可分别获取新的场景下的图片正样本和图片负样本。
比如,原来的样本集中共包括30个图片样本,对应于4个不同的场景,分别为场景1~场景4,可将新的场景5对应的图片样本加入到样本集中,假设扩展后的样本集中共包括36个图片样本,那么后续在进行活体检测时,则需要分别计算待检测图片的特征向量与这36个图片样本的特征向量之间的距离,从而共得到36个计算结果,进而可从这36个计算结果中选出取值最小的一个,将选出的计算结果对应的图片样本的标签作为待检测图片的标签。
当然,如果需要,也可以结合获取到的新的场景下的图片样本,重新训练神经网络模型。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图4为本发明所述神经网络模型训练装置实施例的组成结构示意图,如图4所示,包括:样本获取单元401以及模型训练单元402。
样本获取单元401,用于针对不同的场景,分别获取该场景下的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景。
模型训练单元402,用于根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量,以便在进行活体检测时,根据神经网络模型确定出待检测图片的特征向量,并根据待检测图片的特征向量确定出与待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为待检测图片的标签。
为训练得到神经网络模型,需要首先获取训练样本。
样本获取单元401可针对不同的场景,分别获取该场景下的图片正样本和图片负样本。针对获取到的每个场景下的每个图片样本,还需要分别获取该图片样本的标签,标签中可包括是否活体以及对应的场景等。
模型训练单元402可根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为一个固定维度的特征向量,比如,可以为一个128维的特征向量。
对于不同的场景来说,需要注意的特征是不同的,通过训练神经网络模型,使其学习到一种特征,这种特征除了能够体现是否活体之外,还需要让它在场景里面可区分,即对不同的场景具有区分度,使得不同场景在特征空间上的距离比较远,而相同场景在特征空间上的距离比较近。
图5为本发明所述活体检测装置实施例的组成结构示意图,如图5所示,包括:获取单元501以及检测单元502。
获取单元501,用于获取待检测图片,根据预先训练得到的神经网络模型,确定出待检测图片的特征向量,该特征向量为对不同场景具有区分度的特征向量。
检测单元502,用于根据待检测图片的特征向量,从预先获取的各图片样本中确定出与待检测图片相匹配的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景;将相匹配的图片样本的标签作为待检测图片的标签。
可以看出,为实现针对待检测图片的活体检测,需要首先训练得到神经网络模型,为此,图5所示装置中可进一步包括:第一预处理单元503。
第一预处理单元503,用于针对不同的场景,分别获取该场景下的图片样本,每个图片样本分别具有标签;根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量。
第一预处理单元503对应于图4所示装置,也就是说,神经网络模型训练装置可作为一个装置单独存在,也可以作为活体检测装置的一个组成部分,视实际需要而定。
第一预处理单元503可针对不同的场景,分别获取该场景下的图片正样本和图片负样本,进而根据获取到的各图片样本,训练得到神经网络模型。
另外,图5所示装置中还可进一步包括:第二预处理单元504。
第二预处理单元504,用于通过聚类的方式,分别从每个场景下的图片样本中选出有代表性的图片正样本和图片负样本;利用选出的图片样本组成样本集,并根据神经网络模型,分别确定出样本集中的各图片样本的特征向量。
比如,可通过聚类的方式确定出若干个类中心,将与类中心比较近的图片样本抽取出来,作为代表性的样本,利用代表性的样本组成样本集。
针对样本集中的每个图片样本,还需要分别根据神经网络模型,确定出该图片样本的特征向量。
这样,检测单元502在获取到待检测图片的特征向量之后,可根据待检测图片的特征向量,对样本集中的各图片样本进行搜索,从而确定出与待检测图片相匹配的图片样本。
比如,检测单元502可分别计算待检测图片的特征向量与样本集中的各图片样本的特征向量之间的距离,选出距离最小的图片样本,将选出的图片样本作为与待检测图片相匹配的图片样本。
在确定出相匹配的图片样本之后,检测单元502可直接将相匹配的图片样本的标签作为待检测图片的标签,从而得到待检测图片的检测结果。
另外,第二预处理单元504可进一步用于,当出现新的场景时,获取新的场景下的图片样本,加入到样本集中。
图4和图5所示装置实施例的具体工作流程请参照前述各方法实施例中的相关说明,不再赘述。
图6示出了适于用来实现本发明实施方式的示例性计算机***/服务器12的框图。图6显示的计算机***/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机***/服务器12以通用计算设备的形式表现。计算机***/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同***组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机***/服务器12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机***/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机***/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机***/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器等)通信,还可与一个或者多个使得用户能与该计算机***/服务器12交互的设备通信,和/或与使得该计算机***/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机***/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图6所示,网络适配器20通过总线18与计算机***/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机***/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图1、2或3所示实施例中的方法,即针对不同的场景,分别获取该场景下的图片样本,每个图片样本分别具有标签,标签中包括是否活体以及对应的场景,根据获取到的各图片样本,训练得到神经网络模型,神经网络模型的输出为对不同场景具有区分度的特征向量,这样,在进行活体检测时,可根据神经网络模型确定出待检测图片的特征向量,并根据待检测图片的特征向量确定出与待检测图片相匹配的图片样本,进而将相匹配的图片样本的标签作为待检测图片的标签。
具体实现请参照前述各实施例中的相关说明,不再赘述。
本发明同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图1、2或3所示实施例中的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (18)

1.一种神经网络模型训练方法,其特征在于,包括:
针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;其中,所述不同的场景包括不同的采集端,包括高、中、低端手机摄像头、网络webcam摄像头,以及不同场景下的不同攻击方式,包括打印照片攻击、手机照片攻击、手机视频攻击、剪纸攻击;
根据获取到的各图片样本,训练得到神经网络模型,所述神经网络模型的输出为能够体现是否活体以及对不同场景具有区分度的特征向量,不同场景在特征空间中彼此距离较远,相同场景在特征空间中彼此距离较近,以便在进行活体检测时,根据所述神经网络模型确定出待检测图片的特征向量,并根据所述待检测图片的特征向量确定出与所述待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为所述待检测图片的标签。
2.根据权利要求1所述的神经网络模型训练方法,其特征在于,
所述分别获取所述场景下的图片样本包括:
分别获取所述场景下的图片正样本和图片负样本。
3.一种活体检测方法,其特征在于,包括:
获取待检测图片,根据预先训练得到的神经网络模型,确定出所述待检测图片的特征向量,所述特征向量为能够体现是否为活体以及对不同场景具有区分度的特征向量,不同场景在特征空间中彼此距离较远,相同场景在特征空间中彼此距离较近;其中,所述不同场景包括不同的采集端,包括高、中、低端手机摄像头、网络webcam摄像头,以及不同场景下的不同攻击方式,包括打印照片攻击、手机照片攻击、手机视频攻击、剪纸攻击;
根据所述待检测图片的特征向量,从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;
将相匹配的图片样本的标签作为所述待检测图片的标签。
4.根据权利要求3所述的活体检测方法,其特征在于,
所述获取待检测图片之前,进一步包括:
针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有所述标签;
根据获取到的各图片样本,训练得到所述神经网络模型,所述神经网络模型的输出为对不同场景具有区分度的特征向量。
5.根据权利要求4所述的活体检测方法,其特征在于,
所述分别获取所述场景下的图片样本包括:
分别获取所述场景下的图片正样本和图片负样本;
所述从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本包括:
通过聚类的方式,分别从每个场景下的图片样本中选出有代表性的图片正样本和图片负样本;
利用选出的图片样本组成样本集,并根据所述神经网络模型,分别确定出所述样本集中的各图片样本的特征向量;
根据特征向量,对所述样本集中的各图片样本进行搜索,确定出与所述待检测图片相匹配的图片样本。
6.根据权利要求5所述的活体检测方法,其特征在于,
所述对所述样本集中的各图片样本进行搜索,确定出与所述待检测图片相匹配的图片样本包括:
分别计算所述待检测图片的特征向量与所述样本集中的各图片样本的特征向量之间的距离;
选出距离最小的图片样本,将选出的图片样本作为与所述待检测图片相匹配的图片样本。
7.根据权利要求5所述的活体检测方法,其特征在于,
该方法进一步包括:
当出现新的场景时,获取所述新的场景下的图片样本,加入到所述样本集中。
8.一种神经网络模型训练装置,其特征在于,包括:样本获取单元以及模型训练单元;
所述样本获取单元,用于针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;其中,所述不同的场景包括不同的采集端,包括高、中、低端手机摄像头、网络webcam摄像头,以及不同场景下的不同攻击方式,包括打印照片攻击、手机照片攻击、手机视频攻击、剪纸攻击;
所述模型训练单元,用于根据获取到的各图片样本,训练得到神经网络模型,所述神经网络模型的输出为能够体现是否活体以及对不同场景具有区分度的特征向量,不同场景在特征空间中彼此距离较远,相同场景在特征空间中彼此距离较近,以便在进行活体检测时,根据所述神经网络模型确定出待检测图片的特征向量,并根据所述待检测图片的特征向量确定出与所述待检测图片相匹配的图片样本,将相匹配的图片样本的标签作为所述待检测图片的标签。
9.根据权利要求8所述的神经网络模型训练装置,其特征在于,
所述样本获取单元针对不同的场景,分别获取所述场景下的图片正样本和图片负样本。
10.一种活体检测装置,其特征在于,包括:获取单元以及检测单元;
所述获取单元,用于获取待检测图片,根据预先训练得到的神经网络模型,确定出所述待检测图片的特征向量,所述特征向量为能够体现是否活体以及对不同场景具有区分度的特征向量,不同场景在特征空间中彼此距离较远,相同场景在特征空间中彼此距离较近;其中,所述不同场景包括不同的采集端,包括高、中、低端手机摄像头、网络webcam摄像头,以及不同场景下的不同攻击方式,包括打印照片攻击、手机照片攻击、手机视频攻击、剪纸攻击;
所述检测单元,用于根据所述待检测图片的特征向量,从预先获取的各图片样本中确定出与所述待检测图片相匹配的图片样本,每个图片样本分别具有标签,所述标签中包括是否活体以及对应的场景;将相匹配的图片样本的标签作为所述待检测图片的标签。
11.根据权利要求10所述的活体检测装置,其特征在于,
所述装置中进一步包括:第一预处理单元;
所述第一预处理单元,用于针对不同的场景,分别获取所述场景下的图片样本,每个图片样本分别具有所述标签;根据获取到的各图片样本,训练得到所述神经网络模型,所述神经网络模型的输出为对不同场景具有区分度的特征向量。
12.根据权利要求11所述的活体检测装置,其特征在于,
所述第一预处理单元针对不同的场景,分别获取所述场景下的图片正样本和图片负样本;
所述装置中进一步包括:第二预处理单元;
所述第二预处理单元,用于通过聚类的方式,分别从每个场景下的图片样本中选出有代表性的图片正样本和图片负样本;利用选出的图片样本组成样本集,并根据所述神经网络模型,分别确定出所述样本集中的各图片样本的特征向量;
所述检测单元根据特征向量对所述样本集中的各图片样本进行搜索,确定出与所述待检测图片相匹配的图片样本。
13.根据权利要求12所述的活体检测装置,其特征在于,
所述检测单元分别计算所述待检测图片的特征向量与所述样本集中的各图片样本的特征向量之间的距离;选出距离最小的图片样本,将选出的图片样本作为与所述待检测图片相匹配的图片样本。
14.根据权利要求12所述的活体检测装置,其特征在于,
所述第二预处理单元进一步用于,
当出现新的场景时,获取所述新的场景下的图片样本,加入到所述样本集中。
15.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~2中任一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~2中任一项所述的方法。
17.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求3~7中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求3~7中任一项所述的方法。
CN201710589276.1A 2017-07-19 2017-07-19 神经网络模型训练及活体检测方法、装置及存储介质 Active CN107545241B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710589276.1A CN107545241B (zh) 2017-07-19 2017-07-19 神经网络模型训练及活体检测方法、装置及存储介质
US16/028,830 US11610394B2 (en) 2017-07-19 2018-07-06 Neural network model training method and apparatus, living body detecting method and apparatus, device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710589276.1A CN107545241B (zh) 2017-07-19 2017-07-19 神经网络模型训练及活体检测方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN107545241A CN107545241A (zh) 2018-01-05
CN107545241B true CN107545241B (zh) 2022-05-27

Family

ID=60970337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710589276.1A Active CN107545241B (zh) 2017-07-19 2017-07-19 神经网络模型训练及活体检测方法、装置及存储介质

Country Status (2)

Country Link
US (1) US11610394B2 (zh)
CN (1) CN107545241B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108417224B (zh) * 2018-01-19 2020-09-01 苏州思必驰信息科技有限公司 双向神经网络模型的训练和识别方法及***
CN110181503B (zh) * 2018-02-22 2021-09-10 北京猎户星空科技有限公司 异常检测方法、装置、智能设备和存储介质
CN110188783A (zh) * 2018-02-22 2019-08-30 北京猎户星空科技有限公司 一种图像分类方法、装置及电子设备
CN110198471A (zh) * 2018-02-27 2019-09-03 北京猎户星空科技有限公司 异常识别方法、装置、智能设备及存储介质
CN108399401B (zh) * 2018-03-27 2022-05-03 百度在线网络技术(北京)有限公司 用于检测人脸图像的方法和装置
CN110633197B (zh) * 2018-06-22 2024-04-12 北京京东尚科信息技术有限公司 一种过度绘制的检测方法和装置
CN109063558A (zh) * 2018-06-27 2018-12-21 努比亚技术有限公司 一种图像分类处理方法、移动终端及计算机可读存储介质
CN110956056A (zh) * 2018-09-26 2020-04-03 北京中科虹星科技有限公司 一种人脸活体检测方法及***
CN109359689B (zh) * 2018-10-19 2021-06-04 科大讯飞股份有限公司 一种数据识别方法及装置
CN109740632B (zh) * 2018-12-07 2023-11-10 阿波罗智能技术(北京)有限公司 基于多传感器多被测对象的相似度模型训练方法和装置
CN109858381A (zh) * 2019-01-04 2019-06-07 深圳壹账通智能科技有限公司 活体检测方法、装置、计算机设备和存储介质
CN109740965A (zh) * 2019-01-22 2019-05-10 北京市天元网络技术股份有限公司 一种工程验证分析方法及装置
CN111488756B (zh) 2019-01-25 2023-10-03 杭州海康威视数字技术股份有限公司 基于面部识别的活体检测的方法、电子设备和存储介质
CN110210290A (zh) * 2019-04-22 2019-09-06 平安科技(深圳)有限公司 人脸图片采集方法、装置和计算机设备
CN110427828B (zh) * 2019-07-05 2024-02-09 中国平安人寿保险股份有限公司 人脸活体检测方法、装置及计算机可读存储介质
CN110298836A (zh) * 2019-07-05 2019-10-01 张文华 通过人工智能判断肠道准备质量的方法、装置和***
US11537880B2 (en) * 2019-08-12 2022-12-27 Bank Of America Corporation System and methods for generation of synthetic data cluster vectors and refinement of machine learning models
US11531883B2 (en) 2019-08-12 2022-12-20 Bank Of America Corporation System and methods for iterative synthetic data generation and refinement of machine learning models
CN110633647A (zh) * 2019-08-21 2019-12-31 阿里巴巴集团控股有限公司 活体检测方法及装置
CN110720105A (zh) * 2019-09-11 2020-01-21 深圳市汇顶科技股份有限公司 人脸防伪检测方法、装置、芯片、电子设备和计算机可读介质
KR20210041856A (ko) 2019-10-08 2021-04-16 한국전자통신연구원 딥 러닝 기반으로 애니메이션 캐릭터를 학습하는 데 필요한 학습 데이터 생성 방법 및 장치
CN111553202B (zh) * 2020-04-08 2023-05-16 浙江大华技术股份有限公司 进行活体检测的神经网络的训练方法、检测方法及装置
CN111767900B (zh) * 2020-07-28 2024-01-26 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、计算机设备及存储介质
CN112464864A (zh) * 2020-12-08 2021-03-09 上海交通大学 基于树形神经网络结构的人脸活体检测方法
CN113157956B (zh) * 2021-04-23 2022-08-05 雅马哈发动机(厦门)信息***有限公司 图片搜索方法、***、移动终端及存储介质
CN113033807B (zh) * 2021-05-26 2021-10-08 新东方教育科技集团有限公司 线上数据收集方法和神经网络训练方法及相关装置、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599772A (zh) * 2016-10-31 2017-04-26 北京旷视科技有限公司 活体验证方法和装置及身份认证方法和装置
CN106682187A (zh) * 2016-12-29 2017-05-17 北京旷视科技有限公司 用于建立图像底库的方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007058950A2 (en) * 2005-11-10 2007-05-24 Cyberkinetics Neurotechnology Systems, Inc. Biological interface system with neural signal classification systems and methods
US20190147218A1 (en) * 2016-05-03 2019-05-16 Precise Biometrics Ab User specific classifiers for biometric liveness detection
US10289822B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Liveness detection for antispoof face recognition
CN106778607A (zh) * 2016-12-15 2017-05-31 国政通科技股份有限公司 一种基于人脸识别的人与身份证同一性认证装置及方法
CN106650670A (zh) * 2016-12-27 2017-05-10 北京邮电大学 活体人脸视频的检测方法及装置
CN106845549B (zh) * 2017-01-22 2020-08-21 珠海习悦信息技术有限公司 一种基于多任务学习的场景与目标识别的方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599772A (zh) * 2016-10-31 2017-04-26 北京旷视科技有限公司 活体验证方法和装置及身份认证方法和装置
CN106682187A (zh) * 2016-12-29 2017-05-17 北京旷视科技有限公司 用于建立图像底库的方法及装置

Also Published As

Publication number Publication date
US11610394B2 (en) 2023-03-21
US20190026605A1 (en) 2019-01-24
CN107545241A (zh) 2018-01-05

Similar Documents

Publication Publication Date Title
CN107545241B (zh) 神经网络模型训练及活体检测方法、装置及存储介质
US10699103B2 (en) Living body detecting method and apparatus, device and storage medium
CN109086691B (zh) 一种三维脸部活体检测方法、脸部认证识别方法及装置
CN107563283B (zh) 生成攻击样本的方法、装置、设备及存储介质
CN107609463B (zh) 活体检测方法、装置、设备及存储介质
US8942420B2 (en) Detecting embossed characters on form factor
US20190026606A1 (en) To-be-detected information generating method and apparatus, living body detecting method and apparatus, device and storage medium
WO2019033574A1 (zh) 电子装置、动态视频人脸识别的方法、***及存储介质
CN105590097A (zh) 暗视觉条件下双摄像头协同实时人脸识别安防***及方法
CN111914775B (zh) 活体检测方法、装置、电子设备及存储介质
JP6969663B2 (ja) ユーザの撮影装置を識別する装置及び方法
US10423817B2 (en) Latent fingerprint ridge flow map improvement
CN109710705A (zh) 地图兴趣点处理方法和装置
CN108229375B (zh) 用于检测人脸图像的方法和装置
CN113255516A (zh) 活体检测方法、装置和电子设备
CN111027400A (zh) 一种活体检测方法及装置
CN109829383B (zh) 掌纹识别方法、装置和计算机设备
CN108875553A (zh) 人证核验的方法、装置、***及计算机存储介质
CN111985400A (zh) 一种人脸活体识别方法、装置、设备及存储介质
CN110688878B (zh) 活体识别检测方法、装置、介质及电子设备
CN112395450B (zh) 图片文字检测方法、装置、计算机设备及存储介质
CN109087439A (zh) 票据校验方法、终端设备、存储介质及电子设备
JP2018137639A (ja) 動画像処理システム、並びに、符号化装置及びプログラム、並びに、復号装置及びプログラム
US11087121B2 (en) High accuracy and volume facial recognition on mobile platforms
CN110609877B (zh) 一种图片采集的方法、装置、设备和计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant