CN111324874B - 一种证件真伪识别方法及装置 - Google Patents

一种证件真伪识别方法及装置 Download PDF

Info

Publication number
CN111324874B
CN111324874B CN202010069702.0A CN202010069702A CN111324874B CN 111324874 B CN111324874 B CN 111324874B CN 202010069702 A CN202010069702 A CN 202010069702A CN 111324874 B CN111324874 B CN 111324874B
Authority
CN
China
Prior art keywords
certificate
frame
sample
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010069702.0A
Other languages
English (en)
Other versions
CN111324874A (zh
Inventor
陈志军
徐崴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Labs Singapore Pte Ltd
Original Assignee
Alipay Labs Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Labs Singapore Pte Ltd filed Critical Alipay Labs Singapore Pte Ltd
Priority to CN202010069702.0A priority Critical patent/CN111324874B/zh
Publication of CN111324874A publication Critical patent/CN111324874A/zh
Application granted granted Critical
Publication of CN111324874B publication Critical patent/CN111324874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Security & Cryptography (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)

Abstract

本说明书一个或多个实施例提供了一种证件真伪识别方法及装置,其中,该方法包括:获取目标证件的多帧证件图像信息,该目标证件包括:至少一个证件防伪标识。利用预先训练好的证件真伪识别模型,基于获取到的多帧证件图像信息中的证件防伪标识,对目标证件的真伪进行识别,得到模型输出结果;其中,证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的。根据得到的模型输出结果,确定针对目标证件的真伪识别结果。

Description

一种证件真伪识别方法及装置
技术领域
本文件涉及互联网技术领域,尤其涉及一种证件真伪识别方法及装置。
背景技术
目前,随着互联网时代的到来,同时随着移动互联网技术的快速发展,互联网在人们日常的学习、工作和生活中得到广泛的应用。人们日常的各种事务都可以使用智能手机通过互联网来处理和呈现。其中,用户可以根据各自的实际需求在智能手机中安装相应的应用程序,例如,支付类应用、理财类应用、即时通讯应用、购物应用等等。
当前,如果用户需要在某一应用程序下开通某项业务的情况下,需要用户上传目标证件的证件图像信息,以便基于该证件图像信息进行身份核验,并在身份核验通过后为用户开通相应的互联网业务(例如,为用户开通电子钱包业务)。然而,可能存在用户所上传的证件图像信息为针对恶意伪造的假冒证件进行拍摄得到的,从而达到以假乱真的目的,因此,需要对目标证件的真伪进行识别,以便及时针对目标证件为伪造证件的业务开通请求进行拦截处理。
由此可知,需要提供一种识别准确度高、更加可靠的证件真伪识别的技术方案。
发明内容
本说明书一个或多个实施例的目的是提供一种证件真伪识别方法。该证件真伪识别方法包括:
获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识。利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的。根据所述模型输出结果,确定针对所述目标证件的真伪识别结果。
本说明书一个或多个实施例的目的是提供一种证件真伪识别装置。该证件真伪识别装置包括:
证件图像获取模块,其获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识。证件真伪识别模块,其利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的。真伪结果确定模块,其根据所述模型输出结果,确定针对所述目标证件的真伪识别结果。
本说明书一个或多个实施例的目的是提供一种证件真伪识别设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器。
所述计算机可执行指令在被执行时使所述处理器获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识。利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的。根据所述模型输出结果,确定针对所述目标证件的真伪识别结果。
本说明书一个或多个实施例的目的是提供一种存储介质,用于存储计算机可执行指令。所述可执行指令在被处理器执行时获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识。利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的。根据所述模型输出结果,确定针对所述目标证件的真伪识别结果。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一个或多个实施例提供的证件真伪识别方法的第一种流程示意图;
图2为本说明书一个或多个实施例提供的证件真伪识别方法的第二种流程示意图;
图3为本说明书一个或多个实施例提供的证件真伪识别方法的第三种流程示意图;
图4为本说明书一个或多个实施例提供的证件真伪识别方法的第四种流程示意图;
图5为本说明书一个或多个实施例提供的证件真伪识别方法的第五种流程示意图;
图6为本说明书一个或多个实施例提供的证件真伪识别方法的具体实现原理示意图;
图7为本说明书一个或多个实施例提供的证件真伪识别装置的第一种模块组成示意图;
图8为本说明书一个或多个实施例提供的证件真伪识别装置的第二种模块组成示意图;
图9为本说明书一个或多个实施例提供的证件真伪识别设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书一个或多个中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一个或多个一部分实施例,而不是全部的实施例。基于本说明书一个或多个中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本本文件的保护范围。
需要说明的是,在不冲突的情况下,本说明书中的一个或多个实施例以及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本说明书一个或多个实施例。
本说明书一个或多个实施例提供了一种证件真伪识别方法及装置,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
图1为本说明书一个或多个实施例提供的证件真伪识别方法的第一种流程示意图,图1中的方法能够由客户端执行,也可以由服务器执行,其中,该客户端可以是智能手机等移动终端,也可以是物联网设备等终端设备,具体的,该客户端可以用于采集并获取目标证件的多帧证件图像信息,以及基于该多帧证件图像信息对目标证件的真伪进行识别,在确定目标证件为真实证件时,基于该证件图像信息识别是否执行相应的控制操作,或者将该证件图像信息上传至服务器,以使服务器继续对该证件图像信息中的有效信息进行验证;其中,该服务器可以是后台服务器或云端服务器,具体的,该服务器端用于接收客户端所上传的多帧证件图像信息,并基于该多帧证件图像信息对目标证件的真伪进行识别,在确定目标证件为真实证件时,再对该证件图像信息中的有效信息进行验证,以及在有效信息验证通过时为用户提供某项业务服务,例如,为用户开通支付应用的账户或权项。
其中,针对由客户端或服务器对目标证件的真伪进行识别的过程,如图1所示,上述证件真伪识别方法至少包括以下步骤:
S102,获取目标证件的多帧证件图像信息,其中,该目标证件包括:至少一个证件防伪标识;
其中,上述目标证件可以是身份证、护照、社保卡、或医保卡等实体证件,上述证件防伪标识可以是在目标证件位于不同姿态时属性信息存在变化的具有防伪作用的标识,其中,对于真实证件而言,目标证件位于不同姿态时,该目标证件上的防伪标识将发生一定变化,且防伪标识的变化符合预设变化规律,例如,证件防伪标识的颜色、清晰度、纹理或形状等属性信息发生变化;而对于伪造证件而言,目标证件位于不同姿态时,该目标证件上的防伪标识将不会发生变化,或者防伪标识的变化不符合预设变化规律,因此,可以通过采用多帧图像融合的方式,对多帧证件图像信息中的证件防伪标识的变化信息进行识别,来确定目标证件的证件真伪识别结果;
具体的,客户端在检测到证件图像采集请求后,利用摄像装置采集目标证件的证件视频流,可以从证件视频流中随机提取多帧证件图像信息,也可以按照预设证件选取规则提取多帧证件图像信息;
优选地,为了进一步提高证件真伪的识别准确度,上述证件视频流可以是目标证件存在姿态变化状态下所采集的,上述多帧证件图像信息之间的证件姿态差异大于预设姿态差异阈值。
S104,利用预先训练好的证件真伪识别模型,基于获取到的多帧证件图像信息中的证件防伪标识,对目标证件的真伪进行识别,得到模型输出结果;其中,该证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
具体的,在获取到目标证件的多帧证件图像信息后,将该多帧证件图像信息输入至预先训练好的证件真伪识别模型,利用证件真伪识别模型对多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,该图像融合特征向量包括:用于表征至少一个证件防伪标识的变化信息的特征数据,再利用证件真伪识别模型并基于该图像融合特征向量,对目标证件的真伪进行识别,得到模型输出结果,该证件真伪识别模型的输出是目标证件为真实证件的第一概率和/或目标证件为伪造证件的第二概率;
其中,针对证件真伪识别模型的训练过程,上述样本证件图像集合包括:多个模型训练样本,每个模型训练样本包括:样本证件的多帧样本证件图像与证件真伪结果之间的对应关系;其中,该样本证件包括:至少一个证件防伪标识,该多帧样本证件图像是样本证件位于不同姿态下采集到的,该多帧样本证件图像包含至少一个证件防伪标识的变化信息;
具体的,在证件真伪识别模型的训练过程中,选取的样本证件包括:真实证件和伪造证件两种证件;利用深度学习方法并采用图像融合的方式,对每个模型训练样本中的多帧样本证件图像中的证件防伪标识的变化信息与证件真伪之间的对应关系进行深度学习,以对预设深度学习网络模型中模型参数进行优化训练,得到证件真伪识别模型。
S106,根据得到的模型输出结果,确定针对目标证件的真伪识别结果;
其中,上述模型输出结果可以包括:目标证件为真实证件的第一概率和/或目标证件为伪造证件的第二概率,具体的,若第一概率大于第一预设阈值,则确定目标证件为真实证件,或者,若第二概率大于第二预设阈值,则确定目标证件为伪造证件。
其中,在利用训练好的证件真伪识别模型,对目标证件的真伪进行识别的过程,并不是针对每帧目标证件的证件图像信息进行单帧识别,得到证件防伪标识的属性信息,再将多帧证件图像对应的证件防伪标识的属性信息进行比对,来识别目标证件的真伪;而是直接将多帧证件图像进行融合处理,得到图像融合特征向量,再基于该图像融合特征向量,对目标证件的真伪进行识别,这样能够避免因单帧证件图像的防伪标识的识别误差而增大证件真伪的误判率的问题,从而进一步提高证件真伪的识别准确度。
本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
具体的,针对由客户端对目标证件的真伪进行识别的情况,客户端采集目标证件的证件视频流,并基于该证件视频流以及上述步骤S102至S106确定针对目标证件的真伪识别结果;在确定目标证件为真实证件时,基于该证件图像信息中的有效信息识别是否执行相应的控制操作,或者将证件图像信息上传至服务器,以使该服务器对该证件图像信息中的有效信息进行验证;另外,还可以预先在服务器基于样本证件图像集合训练得到证件真伪识别模型,并将训练好的证件真伪识别模型存储至客户端本地。
对应的,针对由服务器对目标证件的真伪进行识的情况,客户端采集目标证件的证件视频流,客户端直接将该证件视频流上传至服务器,由服务器从该证件视频流中提取多帧证件图像信息,或者由客户端从该证件视频流中提取多帧证件图像信息,并将该多帧证件图像信息上传至服务器,以使该服务器基于上述步骤S102至S106确定针对目标证件的真伪识别结果;以及在确定目标证件为真实证件时,对该证件图像信息中的有效信息进行验证;其中,针对从摄像装置采集到的证件视频流中,按照预设证件选取规则提取多帧证件图像信息的过程,可以由客户端执行,也可以由服务器执行,针对由服务器执行的情况,客户端直接将采集到的证件视频流上传至服务器即可。
其中,需要预先基于样本证件图像集合并采用图像融合的方式,对预设深度学习网络模型进行参数训练,得到训练好的证件真伪识别模型,该证件真伪识别模型包括:深度学习网络模型;对应的,如图2所示,上述利S104,利用预先训练好的证件真伪识别模型,基于获取到的多帧证件图像信息中的证件防伪标识,对目标证件的真伪进行识别,得到模型输出结果,具体包括:
S1041,利用预先训练好的深度学习网络模型,对多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,该图像融合特征向量包括:用于表征上述至少一个证件防伪标识的变化信息的特征数据;
具体的,在获取到目标证件的多帧证件图像信息后,将该多帧证件图像信息输入至预先训练好的深度学习网络模型,该深度学习网络模型对多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,用于图像融合的网络层可以是深度学习网络模型中某一预设特征层,例如,以深度学习网络模型为卷积神经网络模型为例,用于图像融合的网络层可以是输入层、卷积层、池化层或全连接层中任一特征层。
S1042,基于得到的图像融合特征向量,对目标证件的真伪进行识别,得到模型输出结果;
具体的,在得到目标证件的图像融合特征向量后,基于该图像融合特征向量,得到最终的模型输出结果,其中,该模型输出结果包括:目标证件为真实证件的第一概率和/或目标证件为伪造证件的第二概率。
其中,以深度学习网络模型的最后一个网络层为全连接层为例,利用全连接层对图像融合特征向量进行全连接运算,全连接网络的输出为2维输出(即0的位置和1的位置),即证件二分类识别结果,其中,0的位置对应的概率值表示目标证件为伪造证件的第二概率;对应的,1的位置对应的概率值表示目标证件为真实证件的第一概率。
在具体实施时,上述深度学习网络模型包括:卷积神经网络模型,其中,该卷积神经网络模型可以是CNN模型,该卷积神经网络模型包括:输入层、卷积层、池化层、全连接层中至少一个;
其中,根据实际需求可以选用不同的网络层进行图像融合处理,基于此,针对对多帧证件图像信息进行融合的过程,可以采用如下三种图像融合方式,具体为:
第一种图像融合方式,上述S1041,利用预先训练好的深度学习网络模型,对多帧证件图像信息进行图像融合处理,得到图像融合特征向量,具体包括:
步骤一,利用预先训练好的卷积神经网络模型中的输入层,对多帧证件图像信息进行图像融合处理,得到证件图像融合数据;
步骤二,利用预先训练好的卷积神经网络模型中的卷积层,对得到的证件图像融合数据进行卷积处理,得到融合数据卷积特征;
步骤三,利用预先训练好的卷积神经网络模型中的池化层,对得到的融合数据卷积特征进行池化处理,得到图像融合特征向量。
本说明书一个或多个实施例中,可以将卷积神经网络模型中的输入层作为用于图像融合的网络层,即在输入层对多帧证件图像信息进行图像融合处理,得到证件图像融合数据,如对多帧证件图像信息进行叠加处理,再将得到的证件图像融合数据依次输入至卷积层和池化层,以对该证件图像融合数据进行卷积和池化处理,得到最终的图像融合特征向量;
然后,针对卷积神经网络模型的最后一个网络层为全连接层的情况,将得到的图像融合特征向量输入至全连接层,该全连接层对图像融合特征向量进行全连接运算,得到最终的模型输出结果;
其中,为了进一步提高证件真伪的识别准确度,还可以引入时序神经网络模型,将得到的图像融合特征向量输入至时序神经网络模型,利用该时序神经网络模型对多个时刻对应的图像融合特征向量进行相应的处理,得到综合时序特征向量,该时序神经网络模型的最后一个网络层为全连接层,该全连接层对综合时序特征向量进行全连接运算,得到最终的模型输出结果。
第二种融合方式,上述S1041,利用预先训练好的深度学习网络模型,对多帧证件图像信息进行图像融合处理,得到图像融合特征向量,具体包括:
步骤一,利用预先训练好的卷积神经网络模型中的输入层,将多帧证件图像信息输入至卷积层;
步骤二,利用上述卷积层,对多帧证件图像信息进行卷积处理以及图像融合处理,得到证件图像融合数据;
其中,为了能够从多帧证件图像信息中提取更加能够表征防伪标识的属性信息变化的特征数据,卷积神经网络模型可以包括多个卷积层;
在具体实施时,可以将首个卷积层作为用于图像融合的网络层,具体的,利用首个卷积层对多帧证件图像信息进行图像融合处理,得到初始的证件图像融合数据,再将该初始的证件图像融合数据输入至下一个卷积层,以对该初始的证件图像融合数据进行卷积处理,直到尾个卷积层,得到最终的证件图像融合数据,并将该最终的证件图像融合数据输入至池化层;
对应的,也可以将中间的卷积层作为用于图像融合的网络层,具体的,先利用在前的卷积层分别对多帧证件图像信息进行卷积处理,得到各帧证件图像信息分别对应的证件图像卷积特征,再利用该中间的卷积层对得到的多个证件图像卷积特征进行特征融合处理,得到初始的证件图像融合数据,再将该初始的证件图像融合数据输入至下一个卷积层,以对该初始的证件图像融合数据进行卷积处理,直到尾个卷积层,得到最终的证件图像融合数据,并将该最终的证件图像融合数据输入至池化层;
对应的,还可以将尾个卷积层作为用于图像融合的网络层,具体的,先利用在前的卷积层分别对多帧证件图像信息进行卷积处理,得到各帧证件图像信息分别对应的证件图像卷积特征,再利用该尾个卷积层对得到的多个证件图像卷积特征进行特征融合处理,得到证件图像融合数据,并将该证件图像融合数据输入至池化层。
步骤三,利用预先训练好的卷积神经网络模型中的池化层,对得到的证件图像融合数据进行池化处理,得到图像融合特征向量。
本说明书一个或多个实施例中,不仅可以将输入层作为用于图像融合的网络层,还可以将卷积神经网络模型中的卷积层作为用于图像融合的网络层,即在卷积层对多帧证件图像信息进行图像融合及卷积处理,得到证件图像融合数据,再将得到的证件图像融合数据输入至池化层,以对该证件图像融合数据进行池化处理,得到最终的图像融合特征向量;
然后,针对卷积神经网络模型的最后一个网络层为全连接层的情况,将得到的图像融合特征向量输入至全连接层,该全连接层对图像融合特征向量进行全连接运算,得到最终的模型输出结果;
其中,为了进一步提高证件真伪的识别准确度,还可以引入时序神经网络模型,将得到的图像融合特征向量输入至时序神经网络模型,利用该时序神经网络模型对多个时刻对应的图像融合特征向量进行相应的处理,得到综合时序特征向量,该时序神经网络模型的最后一个网络层为全连接层,该全连接层对综合时序特征向量进行全连接运算,得到最终的模型输出结果。
第三种融合方式,上述S1041,利用预先训练好的深度学习网络模型,对多帧证件图像信息进行图像融合处理,得到图像融合特征向量,具体包括:
步骤一,利用预先训练好的卷积神经网络模型中的输入层,将多帧证件图像信息输入至卷积层;
步骤二,利用上述卷积层,对多帧证件图像信息分别进行卷积处理,得到各帧上述证件图像信息的证件图像卷积特征;
步骤三,利用预先训练好的卷积神经网络模型中的池化层,对得到的证件图像卷积特征进行池化处理,得到各帧证件图像信息的证件图像池化特征;
步骤四,利用预先训练好的卷积神经网络模型中的全连接层,对多个证件图像池化特征进行融合处理,得到图像融合特征向量。
本说明书一个或多个实施例中,不仅可以将输入层或卷积层作为用于图像融合的网络层,还可以将卷积神经网络模型中的全连接层作为用于图像融合的网络层,即先将多帧证件图像信息依次输入至卷积层和池化层,以对该多帧证件图像信息进行卷积和池化处理,得到各帧证件图像信息分别对应的证件图像池化特征,再利用全连接层对多个证件图像池化特征进行特征融合处理,得到图像融合特征向量;
然后,针对卷积神经网络模型的最后一个网络层为全连接层的情况,该全连接层还用于对图像融合特征向量进行全连接运算,得到最终的模型输出结果;
其中,为了进一步提高证件真伪的识别准确度,还可以引入时序神经网络模型,将得到的图像融合特征向量输入至时序神经网络模型,利用该时序神经网络模型对多个时刻对应的图像融合特征向量进行相应的处理,得到综合时序特征向量,该时序神经网络模型的最后一个网络层为全连接层,该全连接层对综合时序特征向量进行全连接运算,得到最终的模型输出结果。
另外,在具体实施时,还可以将卷积神经网络模型中的池化层作为用于图像融合的网络层,即先将多帧证件图像信息输入至卷积层,以对该多帧证件图像信息进行卷积处理,得到各帧证件图像信息分别对应的证件图像卷积特征;再利用池化层对多个证件图像卷积特征进行特征融合及池化处理,得到图像融合特征向量。
其中,为了进一步提高证件真伪识别结果的准确度,可以引入时序神经网络模型,在利用卷积神经网络模型得到图像融合特征向量之后,并不是直接利用全连接层对该图像融合特征向量进行全连接运算,得到证件二分类识别结果,而是将该图像融合特征向量输入至时序神经网络模型中,得到综合时序特征向量,再基于该综合时序特征向量,得到证件二分类识别结果,基于此,上述证件真伪识别模型还包括:时序神经网络模型;
对应的,如图3所示,上述S1042,基于得到的图像融合特征向量,对目标证件的真伪进行识别,得到模型输出结果,具体包括:
S10421,将预设时间段内多个目标时刻下的图像融合特征向量输入至预先训练好的时序神经网络模型;
具体的,在利用卷积神经网络模型并基于多帧证件图像信息,得到图像融合特征向量之后,将该图像融合特征向量作为时序神经网络模型的输入数据。
S10422,利用上述时序神经网络模型,对多个目标时刻下的图像融合特征向量进行时序响应,得到综合时序特征向量;
其中,上述时序神经网络模型可以是LTSM模型,具体的,将利用卷积神经网络模型得到的多个目标时刻下的图像融合特征向量依次输入至时序神经网络模型中,将该时序神经网络模型的输出确定为综合时序特征向量;然后将该综合时序特征向量输入至预设的全连接层;
具体的,上述综合时序特征向量是根据利用时序神经网络模型对多个目标时刻下的图像融合特征向量进行序列特征提取得到的多个时序隐向量所确定的,例如,可以将得到的多个时序隐向量中选取的任一项确定为综合序列特征向量、或者对得到的多个时序隐向量的加权运算得到综合时序特征向量。
S10423,利用预设的全连接层,对得到的综合时序特征向量进行全连接运算,得到模型输出结果;
具体的,将利用时序神经网络模型得到的综合时序特征向量输入至预设的全连接层,利用该全连接层对综合时序特征向量进行全连接运算,全连接网络的输出为2维输出(即0的位置和1的位置),即证件二分类识别结果,其中,0的位置对应的概率值表示目标证件为伪造证件的第二概率;对应的,1的位置对应的概率值表示目标证件为真实证件的第一概率。
进一步的,考虑到利用预先训练好的深度学习网络模型对证件真伪进行识别的过程中,主要是依据采用图像融合方式对多帧证件图像信息进行相应的处理,得到图像融合特征向量,该图像融合特征向量用于表征多帧证件图像信息中证件防伪标识的信息变化情况,再基于该图像融合特征向量来识别目标证件的真伪;又考虑到由于多帧证件图像信息中姿态差异越大,真实证件中防伪标识的属性信息变化越明显,因此,为了进一步提高证件真伪的识别准确度,针对用于证件真伪识别的多帧证件图像的获取过程,基于此,如图4所述,上述S102,获取目标证件的多帧证件图像信息,具体包括:
S1021,从目标证件的视频流信息中,提取多个视频关键帧,其中,该视频流信息包括:目标证件在多个姿态下的证件图像帧;
具体的,客户端在检测到证件图像采集请求后,利用摄像装置采集目标证件的视频流信息,然后,从该视频流信息中提取多个视频关键帧,其中,为了确保视频流信息中证件图像帧之间的姿态差异性,可以向用户展示用于表征晃动证件的提示信息,即在目标证件处于晃动状态下,利用摄像装置采集目标证件的视频流信息。
S1022,针对每个视频关键帧,利用预设的证件姿态识别算法,确定该视频关键帧对应的证件姿态信息;
具体的,在提取出多个视频关键帧后,将该多个视频关键帧作为预设的证件姿态识别算法的输入数据,利用该预设的证件姿态识别算法,对多个视频关键帧进行图像预处理,并对预处理后的多个视频关键帧进行姿态识别,得到各视频关键帧对应的证件姿态信息;其中,该图像预处理包括:证件角点定位、图像对齐、尺寸调整中至少一项。
S1023,根据各视频关键帧对应的证件姿态信息,选取预设数量的视频关键帧,其中,该预设数量的视频关键帧之间的证件姿态差异大于预设姿态差异阈值;
具体的,在确定出各视频关键帧对应的证件姿态信息后,将多个证件姿态信息进行比对,选取符合预设姿态差异要求的多个视频关键帧,例如,从M个视频关键帧中,选取姿态差异大的N个视频关键帧,其中,M>N;
其中,针对N个视频关键帧的选取过程,可以先基于各视频关键帧对应的证件姿态信息,按照姿态类型将多个视频关键帧进行分类,得到多个视频关键帧集合,其中,该姿态类型可以包括:正面、左斜、上斜等姿态分类,然后,分别从不同姿态类型对应的视频关键帧集合中分别选取一定数量的视频关键帧,得到姿态差异大的N个视频关键帧。
S1024,将选取的预设数量的视频关键帧确定为目标证件的多帧证件图像信息;
具体的,在基于证件姿态信息选取出姿态差异大的N帧证件图像信息后,将该N帧证件图像信息一同输入至预先训练好的证件真伪识别模型,以使该证件真伪识别模型采用图像融合处理的方式,基于该N帧证件图像信息,对目标证件的真伪进行识别。
需要说明的是,针对由服务器端对目标证件的真伪进行识别的情况,客户端利用摄像装置采集到目标证件的视频流信息后,可以由客户端利用上述步骤S1021至S1024来选取姿态差异符合预设要求的多帧证件图像信息,具体的,客户端将该多帧证件图像信息上传至服务器,以使服务器基于该多帧证件图像信息,利用上述步骤S104至S106对目标证件的真伪进行识别;
对应的,也可以由服务器利用上述步骤S1021至S1024来选取姿态差异符合预设要求的多帧证件图像信息,具体的,客户端将采集到的目标证件的视频流信息上传至服务器,以使服务器先基于该视频流信息,利用上述步骤S1021至S1024来选取姿态差异符合预设要求的多帧证件图像信息;再基于该多帧证件图像信息,利用上述步骤S104至S106对目标证件的真伪进行识别。
其中,针对证件真伪识别模型的训练过程,如图5所示,在上述S102,获取目标证件的多帧证件图像信息之前,还包括:
S108,获取多个样本证件分别对应的样本视频流,其中,每个样本视频流包括:样本证件在多个姿态下的证件图像帧;
其中,针对每个样本证件可以采集至少一个样本视频流,该样本视频流可以是在样本证件处于晃动状态下利用摄像装置采集到的。
S110,针对每个样本证件,从该样本证件的样本视频流中,提取多个样本关键帧;
具体的,每个样本证件对应于至少一个样本视频流,对每个样本视频流分别进行关键帧提取,得到各样本视频流对应的多个样本关键帧,即每个样本视频流对应于多个样本关键帧,再基于该多个样本关键帧,确定该样本视频流对应的多个模型训练样本。
S112,基于各样本证件对应的多个样本关键帧,确定样本证件图像集合,其中,该样本证件图像集合包括:多个模型训练样本,每个模型训练样本包括:多帧样本证件图像;
具体的,基于各样本视频流分别对应的多个样本关键帧,选取至少一组预设数量的样本证件图像;将每一组预设数量的样本证件图像确定为一个模型训练样本;将各样本证件对应的多个模型训练样本的组合,确定为样本证件图像集合;
其中,每个模型训练样本可以包括:姿态差异满足预设差异要求的多帧样本证件图像,在证件真伪识别模型的训练过程中,将选取出的姿态差异满足预设差异要求的N帧样本证件图像作为一个整体,对该N帧样本证件图像进行融合处理,来对预设的深度学习网络模型的参数进行优化训练。
S114,利用深度学习方法并基于上述多个模型训练样本,对多帧样本证件图像进行融合训练,得到证件真伪识别模型。
其中,选取的样本证件包括:真实证件和伪造证件两种证件;利用深度学习方法并采用图像融合的方式,对每个模型训练样本中的多帧样本证件图像中的证件防伪标识的变化信息与证件真伪之间的对应关系进行深度学习,从而对预设深度学习网络模型中模型参数进行优化训练,得到证件真伪识别模型;
具体的,针对基于多个模型训练样本训练得到证件真伪识别模型的过程,可以参见上述三种图像融合方式,其中,证件真伪识别模型的使用过程所采用的融合方式与证件真伪识别模型的训练过程所采用的融合方式相同;例如,在证件真伪识别模型的训练过程,将卷积神经网络模型中的卷积层作为用于图像融合的网络层,则在利用证件真伪识别模型对目标证件的真伪进行识别的过程,也将卷积神经网络模型中的卷积层作为用于图像融合的网络层,即采用第二种融合方式,利用预先训练好的深度学习网络模型,对多帧证件图像信息进行图像融合处理,得到图像融合特征向量。
其中,为了进一步提高训练得到的证件真伪识别模型的识别精度,在选用模型训练样本时,考虑每个模型训练样本中多帧样本证件图像之间的姿态差异,从每个样本视频流对应的多个样本关键帧中,选取姿态差异大的多帧样本证件图像作为一个模型训练样本,再由多个模型训练样本得到用于识别模型训练的样本证件图像集合,基于此,上述S112,基于各样本证件对应的多个样本关键帧,确定样本证件图像集合,具体包括:
步骤一,针对每个样本证件,利用预设的证件姿态识别算法,确定该样本证件的多个样本关键帧对应的证件姿态信息;
具体的,在针对每个样本视频流提取出多个样本关键帧后,将该多个样本关键帧作为预设的证件姿态识别算法的输入数据,利用该预设的证件姿态识别算法,对多个样本关键帧进行图像预处理,并对预处理后的多个样本关键帧进行姿态识别,得到各样本关键帧对应的证件姿态信息;其中,该图像预处理包括:证件角点定位、图像对齐、尺寸调整中至少一项。
步骤二,根据各样本关键帧对应的证件姿态信息,选取多组预设数量的样本证件图像,其中,每组预设数量的样本证件图像之间的证件姿态差异大于预设姿态差异阈值;
其中,在每个样本视频流对应的多个样本关键帧中,基于各样本关键帧的证件姿态信息,选取姿态差异符合预设姿态差异要求的多个样本关键帧,将该多个样本关键帧作为一组预设数量的样本证件图像;
例如,从每个样本视频流对应的M个样本关键帧中,选取姿态差异大的N个样本关键帧作为一组预设数量的样本证件图像,M>N;其中,从每个样本视频流对应的M个样本关键帧中,多次选取姿态差异大的不同的N个样本关键帧,即可得到该样本视频流对应的多个模型训练样本,其中,每个模型训练样本包括:姿态差异满足预设差异要求的N帧样本证件图像。
具体的,针对N个样本关键帧的选取过程,可以先基于各样本关键帧对应的证件姿态信息,按照姿态类型将多个样本关键帧进行分类,得到多个样本关键帧集合,其中,该姿态类型可以包括:正面、左斜、上斜等姿态分类,然后,分别从不同姿态类型对应的样本关键帧集合中分别选取一定数量的样本关键帧,得到姿态差异大的N个样本关键帧,将该N个样本关键帧作为一组预设数量的样本证件图像。
步骤三,根据各样本证件对应的多组预设数量的样本证件图像,确定样本证件图像集合;
其中,由每个样本证件的一个样本视频流即可得到多组预设数量的样本证件图像,将每组预设数量的样本证件图像确定为一个模型训练样本,从而由多个模型训练样本组成的样本证件图像集合;其中,样本证件的数量越多、或者每个样本证件的样本视频流的数量越多,得到的模型训练样本也就越多。
在一个具体的实施例中,如图6所示,给出了证件真伪识别的具体实现原理示意图,具体为:
A、针对基于样本证件图像集合,训练得到证件真伪识别模型的过程,具体包括:
A1、获取多个样本证件分别对应的样本视频流,其中,每个样本视频流是在样本证件处于晃动状态下利用摄像装置采集到的,该样本证件包括:真实样本证件和伪造样本证件;
需要说明的是,为了便于说明,在图6中以每个样本证件对应于一个样本视频流为例,在具体实施时,还可以针对每个样本证件获取多个样本视频流;
A2、针对每个样本证件,从该样本证件对应的样本视频流中,提取多个样本关键帧;
A3、针对每个样本证件,利用预设的证件姿态识别算法,确定提取出的多个样本关键帧对应的证件姿态信息;
A4、针对每个样本证件,根据提取出的多个样本关键帧分别对应的证件姿态信息,执行多次模型训练样本的选取,得到多个包含N个样本关键帧的模型训练样本,其中,每个模型训练样本中的N个样本关键帧的模型之间的证件姿态差异大于预设姿态差异阈值,且已知N个样本关键帧与证件真伪之间的对应关系;
例如,在图6中,针对样本证件1对应的样本视频流1,选取出的m个模型训练样本分别为:模型训练样本11、模型训练样本12、…模型训练样本1m,其中,每个模型训练样本均包含N个样本关键帧;针对样本证件n对应的样本视频流n,选取出的m个模型训练样本分别为:模型训练样本n1、模型训练样本n2、…模型训练样本nm,其中,每个模型训练样本均包含N个样本关键帧;
A5、利用深度学习方法并基于得到的多个模型训练样本,对每个模型训练样本中的N个样本关键帧进行融合训练,得到证件真伪识别模型,其中,该证件真伪识别模型可以包括:CNN模型和LSTM模型,其中,该LSTM模型的最后一个网络层为预设的全连接层;
具体的,在证件真伪识别模型的训练过程中,选取的样本证件包括:真实证件和伪造证件两种证件;利用深度学习方法并采用图像融合的方式,对每个模型训练样本中的多帧样本证件图像中的证件防伪标识的变化信息与证件真伪之间的对应关系进行深度学习,以对预设深度学习网络模型中模型参数进行优化训练,得到证件真伪识别模型。
B、针对利用训练好的证件真伪识别模型,并基于目标证件的多帧证件图像信息,对目标证件真伪进行识别的过程,具体包括:
B1、获取目标证件的多帧证件图像信息,其中,该目标证件包括:至少一个证件防伪标识,该多帧证件图像信息;
具体的,客户端在检测到证件图像采集请求后,利用摄像装置采集目标证件的的证件视频流,并从该证件视频流中选取证件姿态差异大于预设姿态差异阈值的N帧证件图像信息;
B2、将选取的N帧证件图像信息输入至预先训练好的CNN模型,利用该CNN模型对多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,该图像融合特征向量包括:用于表征上述至少一个证件防伪标识的变化信息的特征数据;
其中,CNN模型的输入为w*h*(3*N),其中,w和h表示证件图像的尺寸大小,3表示图像RGB的通道数,N表示证件图像的数量。
B3、将预设时间段内多个目标时刻下的图像融合特征向量依次输入至预先训练好的LSTM模型,利用该LSTM模型对图像融合特征向量进行时序特征提取,得到综合时序特征向量;
B4、利用预设的全连接层,对得到的综合时序特征向量进行全连接运算,得到二分类识别结果;其中,该二分类识别结果包括:目标证件为真实证件的第一概率和/或目标证件为伪造证件的第二概率;
B5、判断第一概率是否大于第一预设阈值,若是,则确定目标证件为真实证件,若否,则确定目标证件为伪造证件。
需要说明的是,上述A1至A5的过程优选地由服务器端来执行,上述B1至B5的过程可以由客户端来执行,尤其是客户端中的信息处理模块,还可以有服务器端来执行。
本说明书一个或多个实施例中的证件真伪识别方法,首先,获取目标证件的多帧证件图像信息,该目标证件包括:至少一个证件防伪标识;然后,利用预先训练好的证件真伪识别模型,基于获取到的多帧证件图像信息中的证件防伪标识,对目标证件的真伪进行识别,得到模型输出结果;最后,根据得到的模型输出结果,确定针对目标证件的真伪识别结果。本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
对应上述图1至图6描述的证件真伪识别方法,基于相同的技术构思,本说明书一个或多个实施例还提供了一种证件真伪识别装置,图7为本说明书一个或多个实施例提供的证件真伪识别装置的第一种模块组成示意图,该装置用于执行图1至图6描述的证件真伪识别方法,如图7所示,该装置包括:
证件图像获取模块701,其获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识;
证件真伪识别模块702,其利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
真伪结果确定模块703,其根据所述模型输出结果,确定针对所述目标证件的真伪识别结果。
本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
可选地,所述证件真伪识别模型包括:深度学习网络模型;
所述证件真伪识别模块702,其:
利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,所述图像融合特征向量包括:用于表征所述至少一个证件防伪标识的变化信息的特征数据;
基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果。
可选地,所述深度学习网络模型包括:卷积神经网络模型;
所述证件真伪识别模块702,其:
利用所述卷积神经网络模型中的输入层,对所述多帧证件图像信息进行图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的卷积层,对所述证件图像融合数据进行卷积处理,得到融合数据卷积特征;
利用所述卷积神经网络模型中的池化层,对所述融合数据卷积特征进行池化处理,得到图像融合特征向量。
可选地,所述深度学习网络模型包括:卷积神经网络模型;
所述证件真伪识别模块702,其:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息进行卷积处理以及图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的池化层,对所述证件图像融合数据进行池化处理,得到图像融合特征向量。
可选地,所述深度学习网络模型包括:卷积神经网络模型;
所述证件真伪识别模块702,其:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息分别进行卷积处理,得到各帧所述证件图像信息的证件图像卷积特征;
利用所述卷积神经网络模型中的池化层,对所述证件图像卷积特征进行池化处理,得到各帧所述证件图像信息的证件图像池化特征;
利用所述卷积神经网络模型中的全连接层,对多个所述证件图像池化特征进行融合处理,得到图像融合特征向量。
可选地,所述证件真伪识别模型还包括:时序神经网络模型;
所述证件真伪识别模块702,其:
将预设时间段内多个目标时刻下的所述图像融合特征向量输入至所述时序神经网络模型;
利用所述时序神经网络模型,对多个所述目标时刻下的所述图像融合特征向量进行时序响应,得到综合时序特征向量;
利用预设的全连接层,对所述综合时序特征向量进行全连接运算,得到模型输出结果。
可选地,所述证件图像获取模块701,其:
从目标证件的视频流信息中,提取多个视频关键帧,其中,所述视频流信息包括:目标证件在多个姿态下的证件图像帧;
针对每个所述视频关键帧,利用预设的证件姿态识别算法,确定该视频关键帧对应的证件姿态信息;
根据各所述视频关键帧的所述证件姿态信息,选取预设数量的视频关键帧,其中,所述预设数量的视频关键帧之间的证件姿态差异大于预设姿态差异阈值;
将选取的所述预设数量的视频关键帧确定为目标证件的多帧证件图像信息。
可选地,如图8所示,所述装置还包括:证件识别模型训练模块704,其:
获取多个样本证件分别对应的样本视频流,其中,每个所述样本视频流包括:样本证件在多个姿态下的证件图像帧;
针对每个所述样本证件,从该样本证件的所述样本视频流中,提取多个样本关键帧;
基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,其中,所述样本证件图像集合包括:多个模型训练样本,每个所述模型训练样本包括:多帧样本证件图像;
利用深度学习方法并基于所述多个模型训练样本,对所述多帧样本证件图像进行融合训练,得到证件真伪识别模型。
可选地,所述证件识别模型训练模块704,其:
针对每个所述样本证件,利用预设的证件姿态识别算法,确定该样本证件的所述多个样本关键帧对应的证件姿态信息;
根据各所述样本关键帧的所述证件姿态信息,选取多组预设数量的样本证件图像,其中,每组所述预设数量的样本证件图像之间的证件姿态差异大于预设姿态差异阈值;
根据各所述样本证件对应的所述多组预设数量的样本证件图像,确定样本证件图像集合。
本说明书一个或多个实施例中的证件真伪识别装置,首先,获取目标证件的多帧证件图像信息,该目标证件包括:至少一个证件防伪标识;然后,利用预先训练好的证件真伪识别模型,基于获取到的多帧证件图像信息中的证件防伪标识,对目标证件的真伪进行识别,得到模型输出结果;最后,根据得到的模型输出结果,确定针对目标证件的真伪识别结果。本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
需要说明的是,本说明书中关于证件真伪识别装置的实施例与本说明书中关于证件真伪识别方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的证件真伪识别方法的实施,重复之处不再赘述。
进一步地,对应上述图1至图6所示的方法,基于相同的技术构思,本说明书一个或多个实施例还提供了一种证件真伪识别设备,该设备用于执行上述的证件真伪识别方法,如图9所示。
证件真伪识别设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器901和存储器902,存储器902中可以存储有一个或一个以上存储应用程序或数据。其中,存储器902可以是短暂存储或持久存储。存储在存储器902的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对证件真伪识别设备中的一系列计算机可执行指令。更进一步地,处理器901可以设置为与存储器902通信,在证件真伪识别设备上执行存储器902中的一系列计算机可执行指令。证件真伪识别设备还可以包括一个或一个以上电源903,一个或一个以上有线或无线网络接口904,一个或一个以上输入输出接口905,一个或一个以上键盘906等。
在一个具体的实施例中,证件真伪识别设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对证件真伪识别设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识;
利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
根据所述模型输出结果,确定针对所述目标证件的真伪识别结果。
本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
可选地,计算机可执行指令在被执行时,所述证件真伪识别模型包括:深度学习网络模型;
所述利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,所述图像融合特征向量包括:用于表征所述至少一个证件防伪标识的变化信息的特征数据;
基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果。
可选地,计算机可执行指令在被执行时,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,对所述多帧证件图像信息进行图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的卷积层,对所述证件图像融合数据进行卷积处理,得到融合数据卷积特征;
利用所述卷积神经网络模型中的池化层,对所述融合数据卷积特征进行池化处理,得到图像融合特征向量。
可选地,计算机可执行指令在被执行时,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息进行卷积处理以及图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的池化层,对所述证件图像融合数据进行池化处理,得到图像融合特征向量。
可选地,计算机可执行指令在被执行时,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息分别进行卷积处理,得到各帧所述证件图像信息的证件图像卷积特征;
利用所述卷积神经网络模型中的池化层,对所述证件图像卷积特征进行池化处理,得到各帧所述证件图像信息的证件图像池化特征;
利用所述卷积神经网络模型中的全连接层,对多个所述证件图像池化特征进行融合处理,得到图像融合特征向量。
可选地,计算机可执行指令在被执行时,所述证件真伪识别模型还包括:时序神经网络模型;
所述基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
将预设时间段内多个目标时刻下的所述图像融合特征向量输入至所述时序神经网络模型;
利用所述时序神经网络模型,对多个所述目标时刻下的所述图像融合特征向量进行时序响应,得到综合时序特征向量;
利用预设的全连接层,对所述综合时序特征向量进行全连接运算,得到模型输出结果。
可选地,计算机可执行指令在被执行时,所述获取目标证件的多帧证件图像信息,包括:
从目标证件的视频流信息中,提取多个视频关键帧,其中,所述视频流信息包括:目标证件在多个姿态下的证件图像帧;
针对每个所述视频关键帧,利用预设的证件姿态识别算法,确定该视频关键帧对应的证件姿态信息;
根据各所述视频关键帧的所述证件姿态信息,选取预设数量的视频关键帧,其中,所述预设数量的视频关键帧之间的证件姿态差异大于预设姿态差异阈值;
将选取的所述预设数量的视频关键帧确定为目标证件的多帧证件图像信息。
可选地,计算机可执行指令在被执行时,所述证件真伪识别模型是通过如下方式训练得到的:
获取多个样本证件分别对应的样本视频流,其中,每个所述样本视频流包括:样本证件在多个姿态下的证件图像帧;
针对每个所述样本证件,从该样本证件的所述样本视频流中,提取多个样本关键帧;
基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,其中,所述样本证件图像集合包括:多个模型训练样本,每个所述模型训练样本包括:多帧样本证件图像;
利用深度学习方法并基于所述多个模型训练样本,对所述多帧样本证件图像进行融合训练,得到证件真伪识别模型。
可选地,计算机可执行指令在被执行时,所述基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,包括:
针对每个所述样本证件,利用预设的证件姿态识别算法,确定该样本证件的所述多个样本关键帧对应的证件姿态信息;
根据各所述样本关键帧的所述证件姿态信息,选取多组预设数量的样本证件图像,其中,每组所述预设数量的样本证件图像之间的证件姿态差异大于预设姿态差异阈值;
根据各所述样本证件对应的所述多组预设数量的样本证件图像,确定样本证件图像集合。
本说明书一个或多个实施例中的证件真伪识别设备,首先,获取目标证件的多帧证件图像信息,该目标证件包括:至少一个证件防伪标识;然后,利用预先训练好的证件真伪识别模型,基于获取到的多帧证件图像信息中的证件防伪标识,对目标证件的真伪进行识别,得到模型输出结果;最后,根据得到的模型输出结果,确定针对目标证件的真伪识别结果。本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
需要说明的是,本说明书中关于证件真伪识别设备的实施例与本说明书中关于证件真伪识别方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的证件真伪识别方法的实施,重复之处不再赘述。
进一步地,对应上述图1至图6所示的方法,基于相同的技术构思,本说明书一个或多个实施例还提供了一种存储介质,用于存储计算机可执行指令,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令在被处理器执行时,能实现以下流程:
获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识;
利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
根据所述模型输出结果,确定针对所述目标证件的真伪识别结果。
本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述证件真伪识别模型包括:深度学习网络模型;
所述利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,所述图像融合特征向量包括:用于表征所述至少一个证件防伪标识的变化信息的特征数据;
基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,对所述多帧证件图像信息进行图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的卷积层,对所述证件图像融合数据进行卷积处理,得到融合数据卷积特征;
利用所述卷积神经网络模型中的池化层,对所述融合数据卷积特征进行池化处理,得到图像融合特征向量。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息进行卷积处理以及图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的池化层,对所述证件图像融合数据进行池化处理,得到图像融合特征向量。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息分别进行卷积处理,得到各帧所述证件图像信息的证件图像卷积特征;
利用所述卷积神经网络模型中的池化层,对所述证件图像卷积特征进行池化处理,得到各帧所述证件图像信息的证件图像池化特征;
利用所述卷积神经网络模型中的全连接层,对多个所述证件图像池化特征进行融合处理,得到图像融合特征向量。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述证件真伪识别模型还包括:时序神经网络模型;
所述基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
将预设时间段内多个目标时刻下的所述图像融合特征向量输入至所述时序神经网络模型;
利用所述时序神经网络模型,对多个所述目标时刻下的所述图像融合特征向量进行时序响应,得到综合时序特征向量;
利用预设的全连接层,对所述综合时序特征向量进行全连接运算,得到模型输出结果。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述获取目标证件的多帧证件图像信息,包括:
从目标证件的视频流信息中,提取多个视频关键帧,其中,所述视频流信息包括:目标证件在多个姿态下的证件图像帧;
针对每个所述视频关键帧,利用预设的证件姿态识别算法,确定该视频关键帧对应的证件姿态信息;
根据各所述视频关键帧的所述证件姿态信息,选取预设数量的视频关键帧,其中,所述预设数量的视频关键帧之间的证件姿态差异大于预设姿态差异阈值;
将选取的所述预设数量的视频关键帧确定为目标证件的多帧证件图像信息。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述证件真伪识别模型是通过如下方式训练得到的:
获取多个样本证件分别对应的样本视频流,其中,每个所述样本视频流包括:样本证件在多个姿态下的证件图像帧;
针对每个所述样本证件,从该样本证件的所述样本视频流中,提取多个样本关键帧;
基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,其中,所述样本证件图像集合包括:多个模型训练样本,每个所述模型训练样本包括:多帧样本证件图像;
利用深度学习方法并基于所述多个模型训练样本,对所述多帧样本证件图像进行融合训练,得到证件真伪识别模型。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,包括:
针对每个所述样本证件,利用预设的证件姿态识别算法,确定该样本证件的所述多个样本关键帧对应的证件姿态信息;
根据各所述样本关键帧的所述证件姿态信息,选取多组预设数量的样本证件图像,其中,每组所述预设数量的样本证件图像之间的证件姿态差异大于预设姿态差异阈值;
根据各所述样本证件对应的所述多组预设数量的样本证件图像,确定样本证件图像集合。
本说明书一个或多个实施例中的存储介质存储的计算机可执行指令在被处理器执行时,首先,获取目标证件的多帧证件图像信息,该目标证件包括:至少一个证件防伪标识;然后,利用预先训练好的证件真伪识别模型,基于获取到的多帧证件图像信息中的证件防伪标识,对目标证件的真伪进行识别,得到模型输出结果;最后,根据得到的模型输出结果,确定针对目标证件的真伪识别结果。本说明书一个或多个实施例中,在获取到目标证件的多帧证件图像信息后,通过利用预先训练好的证件真伪识别模型采用多帧图像融合的方式,对目标证件的多帧证件图像进行融合识别,得到针对该目标证件的真伪识别结果,这样能够自动基于多帧证件图像,准确地识别多帧证件图像中的证件防伪标识的信息变化情况,从而提高证件真伪识别的准确度,以便及时对目标证件为伪造证件的情况进行拦截处理,进而提高后续业务响应的准确度。
需要说明的是,本说明书中关于存储介质的实施例与本说明书中关于证件真伪识别方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的证件真伪识别方法的实施,重复之处不再赘述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HD Cal、JHDL(Java Hardware Description Language)、Lava、Lola、My HDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个的实施例可提供为方法、***、或计算机程序产品。因此,本说明书一个或多个可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个是参照根据本说明书一个或多个实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书一个或多个的实施例可提供为方法、***或计算机程序产品。因此,本说明书一个或多个可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书一个或多个的实施例而已,并不用于限制本说明书一个或多个。对于本领域技术人员来说,本说明书一个或多个可以有各种更改和变化。凡在本说明书一个或多个的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个的权利要求范围之内。

Claims (18)

1.一种证件真伪识别方法,包括:
获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识,所述多帧证件图像信息包括所述目标证件在多个姿态下的多帧证件图像信息,所述多帧证件图像信息之间的证件姿态差异大于预设姿态差异阈值;
利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
根据所述模型输出结果,确定针对所述目标证件的真伪识别结果;
其中,所述证件真伪识别模型包括:深度学习网络模型;
所述利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,所述图像融合特征向量包括:用于表征所述至少一个证件防伪标识的变化信息的特征数据,用于图像融合的网络层是所述深度学习网络模型中的预设特征层;
基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果。
2.根据权利要求1所述的方法,其中,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,对所述多帧证件图像信息进行图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的卷积层,对所述证件图像融合数据进行卷积处理,得到融合数据卷积特征;
利用所述卷积神经网络模型中的池化层,对所述融合数据卷积特征进行池化处理,得到图像融合特征向量。
3.根据权利要求1所述的方法,其中,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息进行卷积处理以及图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的池化层,对所述证件图像融合数据进行池化处理,得到图像融合特征向量。
4.根据权利要求1所述的方法,其中,所述深度学习网络模型包括:卷积神经网络模型;
所述利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,包括:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息分别进行卷积处理,得到各帧所述证件图像信息的证件图像卷积特征;
利用所述卷积神经网络模型中的池化层,对所述证件图像卷积特征进行池化处理,得到各帧所述证件图像信息的证件图像池化特征;
利用所述卷积神经网络模型中的全连接层,对多个所述证件图像池化特征进行融合处理,得到图像融合特征向量。
5.根据权利要求1所述的方法,其中,所述证件真伪识别模型还包括:时序神经网络模型;
所述基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
将预设时间段内多个目标时刻下的所述图像融合特征向量输入至所述时序神经网络模型;
利用所述时序神经网络模型,对多个所述目标时刻下的所述图像融合特征向量进行时序响应,得到综合时序特征向量;
利用预设的全连接层,对所述综合时序特征向量进行全连接运算,得到模型输出结果。
6.根据权利要求1所述的方法,其中,所述获取目标证件的多帧证件图像信息,包括:
从目标证件的视频流信息中,提取多个视频关键帧,其中,所述视频流信息包括:目标证件在多个姿态下的证件图像帧;
针对每个所述视频关键帧,利用预设的证件姿态识别算法,确定该视频关键帧对应的证件姿态信息;
根据各所述视频关键帧的所述证件姿态信息,选取预设数量的视频关键帧,其中,所述预设数量的视频关键帧之间的证件姿态差异大于预设姿态差异阈值;
将选取的所述预设数量的视频关键帧确定为目标证件的多帧证件图像信息。
7.根据权利要求1所述的方法,其中,所述证件真伪识别模型是通过如下方式训练得到的:
获取多个样本证件分别对应的样本视频流,其中,每个所述样本视频流包括:样本证件在多个姿态下的证件图像帧;
针对每个所述样本证件,从该样本证件的所述样本视频流中,提取多个样本关键帧;
基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,其中,所述样本证件图像集合包括:多个模型训练样本,每个所述模型训练样本包括:多帧样本证件图像;
利用深度学习方法并基于所述多个模型训练样本,对所述多帧样本证件图像进行融合训练,得到证件真伪识别模型。
8.根据权利要求7所述的方法,其中,所述基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,包括:
针对每个所述样本证件,利用预设的证件姿态识别算法,确定该样本证件的所述多个样本关键帧对应的证件姿态信息;
根据各所述样本关键帧的所述证件姿态信息,选取多组预设数量的样本证件图像,其中,每组所述预设数量的样本证件图像之间的证件姿态差异大于预设姿态差异阈值;
根据各所述样本证件对应的所述多组预设数量的样本证件图像,确定样本证件图像集合。
9.一种证件真伪识别装置,包括:
证件图像获取模块,其获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识,所述多帧证件图像信息包括所述目标证件在多个姿态下的多帧证件图像信息,所述多帧证件图像信息之间的证件姿态差异大于预设姿态差异阈值;
证件真伪识别模块,其利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
真伪结果确定模块,其根据所述模型输出结果,确定针对所述目标证件的真伪识别结果;
其中,所述证件真伪识别模型包括:深度学习网络模型;
所述证件真伪识别模块,其:
利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,所述图像融合特征向量包括:用于表征所述至少一个证件防伪标识的变化信息的特征数据,用于图像融合的网络层是所述深度学习网络模型中的预设特征层;
基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果。
10.根据权利要求9所述的装置,其中,所述深度学习网络模型包括:卷积神经网络模型;
所述证件真伪识别模块,其:
利用所述卷积神经网络模型中的输入层,对所述多帧证件图像信息进行图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的卷积层,对所述证件图像融合数据进行卷积处理,得到融合数据卷积特征;
利用所述卷积神经网络模型中的池化层,对所述融合数据卷积特征进行池化处理,得到图像融合特征向量。
11.根据权利要求9所述的装置,其中,所述深度学习网络模型包括:卷积神经网络模型;
所述证件真伪识别模块,其:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息进行卷积处理以及图像融合处理,得到证件图像融合数据;
利用所述卷积神经网络模型中的池化层,对所述证件图像融合数据进行池化处理,得到图像融合特征向量。
12.根据权利要求9所述的装置,其中,所述深度学习网络模型包括:卷积神经网络模型;
所述证件真伪识别模块,其:
利用所述卷积神经网络模型中的输入层,将所述多帧证件图像信息输入至卷积层;
利用所述卷积层,对所述多帧证件图像信息分别进行卷积处理,得到各帧所述证件图像信息的证件图像卷积特征;
利用所述卷积神经网络模型中的池化层,对所述证件图像卷积特征进行池化处理,得到各帧所述证件图像信息的证件图像池化特征;
利用所述卷积神经网络模型中的全连接层,对多个所述证件图像池化特征进行融合处理,得到图像融合特征向量。
13.根据权利要求9所述的装置,其中,所述证件真伪识别模型还包括:时序神经网络模型;
所述证件真伪识别模块,其:
将预设时间段内多个目标时刻下的所述图像融合特征向量输入至所述时序神经网络模型;
利用所述时序神经网络模型,对多个所述目标时刻下的所述图像融合特征向量进行时序响应,得到综合时序特征向量;
利用预设的全连接层,对所述综合时序特征向量进行全连接运算,得到模型输出结果。
14.根据权利要求9所述的装置,其中,所述证件图像获取模块,其:
从目标证件的视频流信息中,提取多个视频关键帧,其中,所述视频流信息包括:目标证件在多个姿态下的证件图像帧;
针对每个所述视频关键帧,利用预设的证件姿态识别算法,确定该视频关键帧对应的证件姿态信息;
根据各所述视频关键帧的所述证件姿态信息,选取预设数量的视频关键帧,其中,所述预设数量的视频关键帧之间的证件姿态差异大于预设姿态差异阈值;
将选取的所述预设数量的视频关键帧确定为目标证件的多帧证件图像信息。
15.根据权利要求9所述的装置,其中,所述装置还包括:证件识别模型训练模块,其:
获取多个样本证件分别对应的样本视频流,其中,每个所述样本视频流包括:样本证件在多个姿态下的证件图像帧;
针对每个所述样本证件,从该样本证件的所述样本视频流中,提取多个样本关键帧;
基于各所述样本证件对应的所述多个样本关键帧,确定样本证件图像集合,其中,所述样本证件图像集合包括:多个模型训练样本,每个所述模型训练样本包括:多帧样本证件图像;
利用深度学习方法并基于所述多个模型训练样本,对所述多帧样本证件图像进行融合训练,得到证件真伪识别模型。
16.根据权利要求15所述的装置,其中,所述证件识别模型训练模块,其:
针对每个所述样本证件,利用预设的证件姿态识别算法,确定该样本证件的所述多个样本关键帧对应的证件姿态信息;
根据各所述样本关键帧的所述证件姿态信息,选取多组预设数量的样本证件图像,其中,每组所述预设数量的样本证件图像之间的证件姿态差异大于预设姿态差异阈值;
根据各所述样本证件对应的所述多组预设数量的样本证件图像,确定样本证件图像集合。
17.一种证件真伪识别设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识,所述多帧证件图像信息包括所述目标证件在多个姿态下的多帧证件图像信息,所述多帧证件图像信息之间的证件姿态差异大于预设姿态差异阈值;
利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
根据所述模型输出结果,确定针对所述目标证件的真伪识别结果;
其中,所述证件真伪识别模型包括:深度学习网络模型;
所述利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,所述图像融合特征向量包括:用于表征所述至少一个证件防伪标识的变化信息的特征数据,用于图像融合的网络层是所述深度学习网络模型中的预设特征层;
基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果。
18.一种存储介质,用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现以下方法:
获取目标证件的多帧证件图像信息,其中,所述目标证件包括:至少一个证件防伪标识,所述多帧证件图像信息包括所述目标证件在多个姿态下的多帧证件图像信息,所述多帧证件图像信息之间的证件姿态差异大于预设姿态差异阈值;
利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果;其中,所述证件真伪识别模型是利用深度学习方法并基于预设的样本证件图像集合进行多帧图像融合训练得到的;
根据所述模型输出结果,确定针对所述目标证件的真伪识别结果;
其中,所述证件真伪识别模型包括:深度学习网络模型;
所述利用预先训练好的证件真伪识别模型,基于所述多帧证件图像信息中的所述证件防伪标识,对所述目标证件的真伪进行识别,得到模型输出结果,包括:
利用所述深度学习网络模型,对所述多帧证件图像信息进行图像融合处理,得到图像融合特征向量,其中,所述图像融合特征向量包括:用于表征所述至少一个证件防伪标识的变化信息的特征数据,用于图像融合的网络层是所述深度学习网络模型中的预设特征层;
基于所述图像融合特征向量,对所述目标证件的真伪进行识别,得到模型输出结果。
CN202010069702.0A 2020-01-21 2020-01-21 一种证件真伪识别方法及装置 Active CN111324874B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010069702.0A CN111324874B (zh) 2020-01-21 2020-01-21 一种证件真伪识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010069702.0A CN111324874B (zh) 2020-01-21 2020-01-21 一种证件真伪识别方法及装置

Publications (2)

Publication Number Publication Date
CN111324874A CN111324874A (zh) 2020-06-23
CN111324874B true CN111324874B (zh) 2023-06-20

Family

ID=71166981

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010069702.0A Active CN111324874B (zh) 2020-01-21 2020-01-21 一种证件真伪识别方法及装置

Country Status (1)

Country Link
CN (1) CN111324874B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898538B (zh) * 2020-07-30 2024-04-12 平安科技(深圳)有限公司 证件鉴伪方法、装置、电子设备及存储介质
CN112053343A (zh) * 2020-09-02 2020-12-08 平安科技(深圳)有限公司 用户图片数据的处理方法、装置、计算机设备及存储介质
CN112016629B (zh) * 2020-09-04 2023-07-28 平安科技(深圳)有限公司 鉴别证件的方法、装置、计算机设备和存储介质
CN113034433B (zh) * 2021-01-14 2024-01-02 腾讯科技(深圳)有限公司 数据鉴伪方法、装置、设备以及介质
CN113591603A (zh) * 2021-07-09 2021-11-02 北京旷视科技有限公司 证件的验证方法、装置、电子设备及存储介质
CN114494765B (zh) * 2021-12-21 2023-08-18 北京瑞莱智慧科技有限公司 真假烟鉴别点的识别方法、装置、电子设备及存储介质
CN115115822B (zh) * 2022-06-30 2023-10-31 小米汽车科技有限公司 车端图像处理方法、装置、车辆、存储介质及芯片

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490200A (zh) * 2019-08-27 2019-11-22 阿里巴巴集团控股有限公司 一种证件扫描方法、装置及设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934408A (zh) * 2015-12-29 2017-07-07 北京大唐高鸿数据网络技术有限公司 基于卷积神经网络的身份证照片分类方法
US10217179B2 (en) * 2016-10-17 2019-02-26 Facebook, Inc. System and method for classification and authentication of identification documents using a machine learning based convolutional neural network
CN107729847B (zh) * 2017-10-20 2020-08-04 阿里巴巴集团控股有限公司 一种证件验证、身份验证方法和装置
CN108229499A (zh) * 2017-10-30 2018-06-29 北京市商汤科技开发有限公司 证件识别方法及装置、电子设备和存储介质
CN111652223B (zh) * 2019-08-21 2023-04-18 创新先进技术有限公司 证件识别方法及装置
CN110516739B (zh) * 2019-08-27 2022-12-27 创新先进技术有限公司 一种证件识别方法、装置及设备
CN115439851A (zh) * 2019-09-25 2022-12-06 支付宝(杭州)信息技术有限公司 一种验证待识别证件图像的方法、***及设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490200A (zh) * 2019-08-27 2019-11-22 阿里巴巴集团控股有限公司 一种证件扫描方法、装置及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小样本条件下基于随机森林和Haar特征的多姿态人脸识别;周致富;吴怀宇;张志芬;陈洋;;计算机应用与软件(第12期);全文 *

Also Published As

Publication number Publication date
CN111324874A (zh) 2020-06-23

Similar Documents

Publication Publication Date Title
CN111324874B (zh) 一种证件真伪识别方法及装置
Rao et al. Deep learning local descriptor for image splicing detection and localization
KR20190072563A (ko) 얼굴 라이브니스 검출 방법 및 장치, 그리고 전자 디바이스
CN111242124B (zh) 一种证件分类方法、装置及设备
CN111382666A (zh) 具有用户验证的设备和方法
WO2019196626A1 (zh) 媒体处理方法及相关装置
CN111160251B (zh) 一种活体识别方法及装置
Wang et al. Fingerprint pore extraction using U-Net based fully convolutional network
JP7141518B2 (ja) 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体
CN116824339A (zh) 图像处理方法及装置
CN116152933A (zh) 一种异常检测模型的训练方法、装置、设备及存储介质
Elisha Raju et al. A two-level security system based on multimodal biometrics and modified fusion technique
Yee et al. Face recognition using Laplacian completed local ternary pattern (LapCLTP)
CN117078962B (zh) 基于纹理采集的数据上链方法及装置
CN111199231B (zh) 一种图像识别方法及装置
CN110598555B (zh) 一种图像的处理方法、装置及设备
Younis et al. IFRS: An indexed face recognition system based on face recognition and RFID technologies
CN116012612A (zh) 内容检测方法和***
CN113569873B (zh) 一种图像的处理方法、装置及设备
US11087121B2 (en) High accuracy and volume facial recognition on mobile platforms
CN117496296A (zh) 一种彩打检测模型训练方法、装置、存储介质及电子设备
KR102513075B1 (ko) 신경망을 이용한 신분증 도용 탐지 서버 및 방법
CN117612269A (zh) 一种生物攻击检测方法、装置及设备
CN116152479A (zh) 防伪区域提取方法、装置、计算机存储介质及计算设备
Jayakala et al. An Efficient Deep Learning Model FVNet for Fingerprint Verification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant