CN106295547A - 一种图像比对方法及图像比对装置 - Google Patents
一种图像比对方法及图像比对装置 Download PDFInfo
- Publication number
- CN106295547A CN106295547A CN201610638207.0A CN201610638207A CN106295547A CN 106295547 A CN106295547 A CN 106295547A CN 201610638207 A CN201610638207 A CN 201610638207A CN 106295547 A CN106295547 A CN 106295547A
- Authority
- CN
- China
- Prior art keywords
- biometric identity
- value
- identity feature
- parameter
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Collating Specific Patterns (AREA)
Abstract
本公开涉及一种图像比对方法及图像比对装置,所述方法包括利用深度卷积神经网络模型提取每张待比对图像的生物身份特征、根据任意两个生物身份特征之间的相似程度,将所述任意两个生物身份特征对应的待比对图像进行比对等步骤。所述方法通过一种身份表征来有效地提高人脸识别的准确性,而使用训练好的深度卷积神经网络模型具有强大且准确的生物身份特征提取能力。
Description
技术领域
本公开涉及视频监控,具体地讲,涉及一种图像比对方法及图像比对装置。
背景技术
图侦即视频图像侦查,指的是根据案件的需要,通过对现场及周边监控图像的调取、观看、分析和研判,从中发现侦查线索,将现代科技手段与传统侦查措施结合使用,形成一种多方参与、整体作战以实现打击和防控刑事犯罪目的的方法体系,是公安机关侦查办案过程中获取证据、线索的重要组成部分。
对于监控图像,导致人眼或传统的分析设备难以准确识别的原因有多种。其中,最重要的影响因素为比对图像的质量。由于比对图像通常是从监控视频中截取的,容易受到监控现场光线明暗度、拍摄角度、拍摄距离、天气干扰、前端及存储设备清晰度等情况的影响,使人难以看清图像中的人物特征。其次,由于比对图像中目标人员的差异信息的因素,比如目标人员的发型、胖瘦、年纪等,以及目标人员戴帽子、戴眼镜、戴假发、围巾遮挡等,使人难以判断图像中的人物与目标人物是否为同一人。
因此,在图侦的实际应用中,很多市公安局,专门从事人脸图像搜索的图侦人员就超过400人,希望通过人海战术来进行有效的人脸图像搜索。但这种方式人力物力投入巨大,而且效率不高,无法满足刑侦部门的及时要求。其次,是通过以图搜图方式使用设备进行图像检索分析,但由于传统算法的图像特征提取能力低,尤其对于模糊图像、暗光、噪声、多角度、遮挡等适应性差,图像检索结果并不理想。
发明内容
基于上述问题,本公开提供了一种图像比对方法及图像比对装置。一种图像比对方法,所述方法包括下述步骤:
S100、利用深度卷积神经网络模型提取每张待比对图像的生物身份特征;
S200、根据任意两个生物身份特征之间的相似程度,将所述任意两个生物身份特征对应的待比对图像进行比对。
进一步地,S300、基于比对结果,将已比对图像按生物身份特征是否属于同一人进行分类。
优选地,所述生物身份特征包括以下特征或其组合:人脸特征、人耳特征、虹膜特征、指纹特征、手掌特征、视网膜特征。
进一步地,所述深度卷积神经网络模型通过下述步骤确定:
S101、获取深度卷积神经网络模型的卷积层参数和全连接层参数的取值;
S102、将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,训练深度卷积神经网络模型,并更新卷积层参数和全连接层参数取值;
S103、当卷积层参数和全连接层参数的取值均满足预定条件时,保留当前卷积层参数和全连接层参数的取值;否则,返回步骤S102。
进一步地,所述预定条件包括:
所述卷积层参数的取值收敛于设定的卷积层阈值;
所述全连接层参数的取值收敛于设定的全连接层阈值。
进一步地,所述步骤S102包括下述步骤:
S1021、在保持全连接层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到卷积层参数的一组值,用其更新卷积层参数的取值;
S1022、在保持卷积层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到全连接层参数的一组值,用其更新全连接层参数的取值。
优选地,所述待比对图像经过预处理;所述预处理包括下述步骤:
S111、对待比对图像进行生物身份特征检测;
S112、在检测到生物身份特征的情况下,对具有生物身份特征的图像部分进行剪切缩放处理。
进一步地,在步骤S112之前还包括下述步骤:
步骤S1121:在检测到生物身份特征的情况下,对构成生物身份特征的特征点进行定位、对齐。
更进一步地,所述步骤S1121中的对齐包括下述步骤:
使用预置的生物身份特征模型对构成生物身份特征的特征点进行定位调整。
所述方法通过使用训练好的深度卷积神经网络模型具有强大且准确的生物身份特征提取能力,为准确比对提供数据支持。所述方法可应用于图像检索,适用于身份识别、相似脸查询等应用场景。
根据所述方法,实现了一种图像比对装置,所述装置包括下述单元:
提取单元,被配置用于:利用深度卷积神经网络模型提取每张待比对图像的生物身份特征;
比对单元,被配置用于:根据任意两个生物身份特征之间的相似程度,将所述任意两个生物身份特征对应的待比对图像进行比对。
进一步地,所述装置还包括:
判断单元,被配置用于:基于比对结果,将已比对图像按生物身份特征是否属于同一人进行分类。
优选地,所述生物身份特征包括以下特征或其组合:人脸特征、人耳特征、虹膜特征、指纹特征、手掌特征、视网膜特征。
进一步地,所述深度卷积神经网络模型包括下述模块:
获取模块,被配置用于:获取深度卷积神经网络模型的卷积层参数和全连接层参数的取值;
更新模块,被配置用于:将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,训练深度卷积神经网络模型,并更新卷积层参数和全连接层参数取值;
判断模块,被配置用于:判断卷积层参数和全连接层参数的取值均满足预定条件时;若满足预定条件,则调用存储模块;否则,继续使用更新模块训练深度卷积神经网络模型中的参数取值;
存储模块,被配置用于:存储当前卷积层参数和全连接层参数的取值。
进一步地,所述预定条件包括:
所述卷积层参数的取值收敛于设定的卷积层阈值;
所述全连接层参数的取值收敛于设定的全连接层阈值。
进一步地,所述更新模块包括下述子模块:
卷积层更新子模块,被配置用于:在保持全连接层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到卷积层参数的一组值,用其更新卷积层参数的取值;
全连接层更新子模块,被配置用于:在保持卷积层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到全连接层参数的一组值,用其更新全连接层参数的取值。
优选地,所述装置还包括预处理单元;
所述预处理单元,被配置用于:对待比对图像进行生物身份特征检测;并在检测到生物身份特征的情况下,对具有生物身份特征的图像部分进行剪切缩放处理。
优选地,所述预处理单元在对具有生物身份特征的图像部分进行剪切缩放处理之前,还包括:
在检测到生物身份特征的情况下,对构成生物身份特征的特征点进行定位、对齐。
更进一步地,所述预处理单元在对齐时:
使用预置的生物身份特征模型对构成生物身份特征的特征点进行定位调整。
所述图像比对装置,可以根据需要安装在不同的地方,在实时使用的情况下,配合其它提示设备,对检测匹配到的对象进行在线提示,非常适合应用于安检、门迎等场合。
附图说明
图1本公开一个实施例中的图像比对方法的一种示意图;
图2本公开一个实施例中的图像比对方法的一种示意图;
图3本公开一个实施例中的深度卷积神经网络训练方法的一种示意图;
图4本公开一个实施例中的深度卷积神经网络训练方法的一种示意图;
图5本公开一个实施例中的图像比对方法应用示意图;
图6本公开一个实施例中的图像比对装置结构示意图;
图7本公开一个实施例中的深度卷积神经网络模型的结构示意图;
图8本公开一个实施例中的图像比对装置结构示意图。
具体实施方式
在一个实施例中,揭示了一种图像比对方法,如图1所示,所述方法包括下述步骤:
S100、利用深度卷积神经网络模型提取每张待比对图像的生物身份特征;
S200、根据任意两个生物身份特征之间的相似程度,将所述任意两个生物身份特征对应的待比对图像进行比对。
本实施例中,所述方法通过使用深度卷积神经网络模型来有效地提取图像中的生物身份特征,有利于提高身份识别的准确性,与传统的图像比对方法相比通过深度卷积神经网络在大型通用人脸数据库学习出来的生物身份特征有更强的身份表征能力和鉴别力,可以非常明显地提高身份识别性能。所述深度卷积神经网络模型还可以使用SIFT、LBP等方法来代替。优选地,所述生物身份特征包括以下特征或其组合:人脸特征、人耳特征、虹膜特征、指纹特征、手掌特征、视网膜特征。所述相似程度可以通过计算两个生物身份特征之间的相似度度量,所述相似度度量方式包括余弦距离、马氏距离和欧式距离。所述比对可以应用于图像搜索、获取图像差异、图像分类等等。
进一步地,所述比对方法应用于图像分类,如图2所示,所述方法还包括:
S300、基于比对结果,将已比对图像按生物身份特征是否属于同一人进行分类。
在一个实施例中,所述生物身份特征为人脸特征,根据相似度度量值对人脸图像进行分类,将属于同一个人的不同人脸图像归到一类中。在分类时,可以使用分类器进行分类,其中,所述分类器可以是最近邻分类器,还可以线性分类器。
在实际应用中,也可以不局限于上述相似度度量值和分类器的具体实现。在一个实施例中,使用余弦距离表达任两个生物身份特征之间的相似程度,通过最邻近分类器对余弦距离进行判断,这种比对方法简单易实现。
进一步地,所述深度卷积神经网络模型中参数的确定包括下述步骤,如图3所示:
S101、获取深度卷积神经网络模型的卷积层参数和全连接层参数的取值;
S102、将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,训练深度卷积神经网络模型,并更新卷积层参数和全连接层参数取值;
S103、当卷积层参数和全连接层参数的取值均满足预定条件时,保留当前卷积层参数和全连接层参数的取值;否则,返回步骤S102。
在这个实施例中,训练使用的人脸图像样本优选为千万级大规模人脸数据库中的数据。每训练完一次,均需将卷积层参数和全连接层参数的取值和预定条件进行判断,以确定卷积层参数和全连接层参数的取值是否同时满足预定条件,只有当卷积层参数和全连接层参数的取值都满足预定条件的情况下才能停止训练。此时,卷积层参数和全连接层参数的取值可以直接用于提取待比对图像的生物身份特征。
具体地,所述预定条件包括:
(1)所述卷积层参数的取值收敛于设定的卷积层阈值;
(2)所述全连接层参数的取值收敛于设定的全连接层阈值。
在实际应用中,针对深度卷积神经网络模型,在不同的模型参量下,初始卷积层参数和初始全连接层参数均满足的预定条件也可以根据实际需要配置,此处不做限定。
在一个实施例中,步骤S102进一步包括下述步骤,如图4所示:
S1021、在保持全连接层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到卷积层参数的一组值,用其更新卷积层参数的取值;
S1022、在保持卷积层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到全连接层参数的一组值,用其更新全连接层参数的取值。
其中,步骤S1021可以使用随机梯度下降算法更新卷积层参数,不限定的是,在另一个实施例中,还可以采用批量梯度下降方法来更新初始卷积层参数。以卷积特征提取利用随机梯度下降法来更新参数为例进行举例说明,卷积特征提取包括一次前向传播和一次反向传播。其中首先通过深度卷积神经网络模型的前向计算来预测标签信息,与已知的监督信息比较并计算误差。然后将误差在深度卷积神经网络模型中进行反向传播,把误差分配到每一层的各个卷积层参数中,再根据误差对卷积层参数进行更新。
优选地,所述待比对图像经过预处理;所述预处理包括下述步骤:
S111、对待比对图像进行生物身份特征检测;
S112、在检测到生物身份特征的情况下,对具有生物身份特征的图像部分进行剪切缩放处理。例如当所述生物身份特征为人脸时,采用基于Haar-Like特征的Adaboost人脸检测算法进行人脸关键点检测,将人脸图像按统一模式剪切出来,并缩放到统一大小。再比如,当所述生物身份特征为虹膜时,根据虹膜特征,将人的眼睛按照统一模式剪切出来,并缩放到统一大小。
进一步地,在对每个人进行剪切缩放之前,还包括:
S1121、在检测到生物身份特征的情况下,对构成生物身份特征的特征点进行定位、对齐。
在一个实施例中,所述生物身份特征为人脸特征,需要对人脸特征点进行定位、对齐。早期的面部特征点定位主要集中在几个关键点的定位上,比如说眼睛和嘴巴的中心。在本实施例中的人脸特征点定位的目的是在人脸检测的基础上,进一步确定脸部特征点的位置,所述脸部特征点所属部位包括眼睛、眉毛、鼻子、嘴巴、脸部外轮廓等。因而所述定位是一种结合人脸的纹理特征和各个特征点之间的位置约束所进行的操作,以有利于对人脸图像中的人脸特征进行提取。另外,在人脸关键点对齐时还可以使用预置的人脸模型进行关键点的定位调整。优选地,采用landmark方法来进行人脸对齐。
在一个实施例中,如图5所示,揭示了一种基于深度卷积神经网络模型的图像比对方法的应用,所述应用包括至少两幅人脸图像在跨年龄上的人脸识别,提取的生物身份特征为人脸特征。
首先,使用深度卷积神经网络模型从每幅人脸图像中提取出对应的人脸特征。
以两幅人脸图像在人脸识别上的应用为例,针对这两幅人脸图像可以根据深度卷积神经网络模型中的卷积层参数和全连接层参数分别提取到第一人脸特征和第二人脸特征,其中,第一人脸图像对应第一人脸特征,第二人脸图像对应第二人脸特征。
其次,根据每两幅人脸图像对应人脸特征之间的相似程度确定至这两幅人脸图像是否属于的同一个人脸。
在其它一些实施例中,这步根据至少两幅人脸图像分别提取到的人脸特征之间的相似程度确定至少两幅人脸图像是否属于跨年龄的同一个人脸,具体可以包括如下步骤:
确定至少两幅人脸图像分别提取到的人脸特征之间的相似度度量值;
使用分类器对相似度度量值进行判断,根据分类器输出的分类结果确定至少两幅人脸图像是否属于的同一个人脸。
其中,在判断至少两幅人脸图像是否属于同一个人脸时,可以根据至少两幅人脸图像分别提取到的人脸特征之间的相似度度量值进行判断,在实际应用中,该相似度度量值可以有多种实现方式,例如相似度度量值包括:余弦距离、马氏距离和欧式距离。接下来可以使用分类器对相似度度量值进行判断,根据分类器输出的分类结果确定至少两幅人脸图像是否属于同一个身份,即进行身份识别确认,判断图像中的人是否为同一人。所述分类器具体可以包括:最邻近分类器和线性分类器。在实际应用中,也可以不局限于上述相似度度量值和分类器。
在另一个实施例的应用中,所述方法用于图像检索过程中,使用所述方法实现1∶1或者1∶N的人脸相似度比对,来进行身份识别、相似脸查询等。在这个过程中,是通过采用深度学习方法对大量数据进行特征提取,利用特征匹配程度来区分不同的人脸。
在一个实施例中,根据所述方法,实现了一种图像比对装置,其结构组成如图6所示,所述装置包括下述单元:
提取单元,被配置用于:利用深度卷积神经网络模型提取每张待比对图像的生物身份特征;
比对单元,被配置用于:根据任意两个生物身份特征之间的相似程度,将所述任意两个生物身份特征对应的待比对图像进行比对。
进一步地,所述装置还包括:
判断单元,被配置用于:基于比对结果,将已比对图像按生物身份特征是否属于同一人进行分类。
优选地,所述生物身份特征包括以下特征或其组合:人脸特征、人耳特征、虹膜特征、指纹特征、手掌特征、视网膜特征。
进一步地,所述深度卷积神经网络模型包括下述模块,其结构示意图如图7所示:
获取模块,被配置用于:获取深度卷积神经网络模型的卷积层参数和全连接层参数的取值;
更新模块,被配置用于:将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,训练深度卷积神经网络模型,并更新卷积层参数和全连接层参数取值;
判断模块,被配置用于:判断卷积层参数和全连接层参数的取值均满足预定条件时;若满足预定条件,则调用存储模块;否则,继续使用更新模块训练深度卷积神经网络模型中的参数取值;
存储模块,被配置用于:存储当前卷积层参数和全连接层参数的取值。
进一步地,所述预定条件包括:
所述卷积层参数的取值收敛于设定的卷积层阈值;
所述全连接层参数的取值收敛于设定的全连接层阈值。
进一步地,所述更新模块包括下述子模块:
卷积层更新子模块,被配置用于:在保持全连接层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到卷积层参数的一组值,用其更新卷积层参数的取值;
全连接层更新子模块,被配置用于:在保持卷积层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到全连接层参数的一组值,用其更新全连接层参数的取值。
优选地,所述装置还包括预处理单元,该图像比对装置的结构示意图如图8所示:
所述预处理单元,被配置用于:对待比对图像进行生物身份特征检测;并在检测到生物身份特征的情况下,对具有生物身份特征的图像部分进行剪切缩放处理。
优选地,所述预处理单元在对具有生物身份特征的图像部分进行剪切缩放处理之前,还包括:
在检测到生物身份特征的情况下,对构成生物身份特征的特征点进行定位、对齐。
更进一步地,所述预处理单元在对齐时:
使用预置的生物身份特征模型对构成生物身份特征的特征点进行定位调整。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
另外,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本公开提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本公开可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本公开而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘,U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述的方法。
以上对本公开进行了详细介绍,本文中应用了具体个例对本公开的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本公开的方法及其核心思想;同时,对于本领域技术人员,依据本公开的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本公开的限制。
Claims (18)
1.一种图像比对方法,其特征在于,所述方法包括下述步骤:
S100、利用深度卷积神经网络模型提取每张待比对图像的生物身份特征;
S200、根据任意两个生物身份特征之间的相似程度,将所述任意两个生物身份特征对应的待比对图像进行比对。
2.根据权利要求1所述的方法,其特征在于,优选的,所述方法还包括:
S300、基于比对结果,将已比对图像按生物身份特征是否属于同一人进行分类。
3.根据权利要求1所述的方法,其特征在于,所述生物身份特征包括以下特征或其组合:人脸特征、人耳特征、虹膜特征、指纹特征、手掌特征、视网膜特征。
4.根据权利要求3所述的方法,其特征在于,所述深度卷积神经网络模型通过下述步骤确定:
S101、获取深度卷积神经网络模型的卷积层参数和全连接层参数的取值;
S102、将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,训练深度卷积神经网络模型,并更新卷积层参数和全连接层参数取值;
S103、当卷积层参数和全连接层参数的取值均满足预定条件时,保留当前卷积层参数和全连接层参数的取值;否则,返回步骤S102。
5.根据权利要求4所述的方法,其特征在于,所述预定条件包括:
所述卷积层参数的取值收敛于设定的卷积层阈值;
所述全连接层参数的取值收敛于设定的全连接层阈值。
6.根据权利要求4所述的方法,其特征在于,所述步骤S102包括下述步骤:
S1021、在保持全连接层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到卷积层参数的一组值,用其更新卷积层参数的取值;
S1022、在保持卷积层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到全连接层参数的一组值,用其更新全连接层参数的取值。
7.根据权利要求1所述的方法,其特征在于:
所述待比对图像经过预处理;所述预处理包括下述步骤:
S111、对待比对图像进行生物身份特征检测;
S112、在检测到生物身份特征的情况下,对具有生物身份特征的图像部分进行剪切、缩放处理。
8.根据权利要求7所述的方法,其特征在于,在步骤S112之前还包括下述步骤:
步骤S1121、在检测到生物身份特征的情况下,对构成生物身份特征的特征点进行定位、对齐。
9.根据权利要求8所述的方法,其特征在于,所述步骤S1121中的对齐包括下述步骤:
使用预置的生物身份特征模型对构成生物身份特征的特征点进行定位调整。
10.一种图像比对装置,其特征在于,所述装置包括下述单元:
提取单元,被配置用于:利用深度卷积神经网络模型提取每张待比对图像的生物身份特征;
比对单元,被配置用于:根据任意两个生物身份特征之间的相似程度,将所述任意两个生物身份特征对应的待比对图像进行比对。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
判断单元,被配置用于:基于比对结果,将已比对图像按生物身份特征是否属于同一人进行分类。
12.根据权利要求10所述的装置,其特征在于,所述生物身份特征包括以下特征或其组合:
人脸特征、人耳特征、虹膜特征、指纹特征、手掌特征、视网膜特征。
13.根据权利要求12所述的装置,其特征在于,所述深度卷积神经网络模型包括下述模块:
获取模块,被配置用于:获取深度卷积神经网络模型的卷积层参数和全连接层参数的取值;
更新模块,被配置用于:将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,训练深度卷积神经网络模型,并更新卷积层参数和全连接层参数取值;
判断模块,被配置用于:判断卷积层参数和全连接层参数的取值均满足预定条件时;若满足预定条件,则调用存储模块;否则,继续使用更新模块训练深度卷积神经网络模型中的参数取值;
存储模块,被配置用于:存储当前卷积层参数和全连接层参数的取值。
14.根据权利要求13所述的装置,其特征在于,所述预定条件包括:
所述卷积层参数的取值收敛于设定的卷积层阈值;
所述全连接层参数的取值收敛于设定的全连接层阈值。
15.根据权利要求13所述的装置,其特征在于,所述更新模块包括下述子模块:
卷积层更新子模块,被配置用于:在保持全连接层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到卷积层参数的一组值,用其更新卷积层参数的取值;
全连接层更新子模块,被配置用于:在保持卷积层参数的取值不变的情况下,将具有生物身份特征的图像样本作为输入、将图像样本对应的生物身份特征作为输出,以训练深度卷积神经网络模型,得到全连接层参数的一组值,用其更新全连接层参数的取值。
16.根据权利要求10所述的装置,其特征在于:
所述装置还包括预处理单元;
所述预处理单元,被配置用于:对待比对图像进行生物身份特征检测;并在检测到生物身份特征的情况下,对具有生物身份特征的图像部分进行剪切缩放处理。
17.根据权利要求16所述的装置,其特征在于,所述预处理单元在对具有生物身份特征的图像部分进行剪切缩放处理之前,还包括:
在检测到生物身份特征的情况下,对构成生物身份特征的特征点进行定位、对齐。
18.根据权利要求17所述的装置,其特征在于,所述预处理单元在对齐时:
使用预置的生物身份特征模型对构成生物身份特征的特征点进行定位调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610638207.0A CN106295547A (zh) | 2016-08-05 | 2016-08-05 | 一种图像比对方法及图像比对装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610638207.0A CN106295547A (zh) | 2016-08-05 | 2016-08-05 | 一种图像比对方法及图像比对装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106295547A true CN106295547A (zh) | 2017-01-04 |
Family
ID=57665966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610638207.0A Pending CN106295547A (zh) | 2016-08-05 | 2016-08-05 | 一种图像比对方法及图像比对装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106295547A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107203778A (zh) * | 2017-05-05 | 2017-09-26 | 平安科技(深圳)有限公司 | 视网膜病变程度等级检测***及方法 |
CN107341447A (zh) * | 2017-06-13 | 2017-11-10 | 华南理工大学 | 一种基于深度卷积神经网络和证据k近邻的人脸核实方法 |
CN108376215A (zh) * | 2018-01-12 | 2018-08-07 | 上海大学 | 一种身份认证方法 |
WO2018153322A1 (zh) * | 2017-02-23 | 2018-08-30 | 北京市商汤科技开发有限公司 | 关键点检测方法、神经网络训练方法、装置和电子设备 |
CN108509961A (zh) * | 2017-02-27 | 2018-09-07 | 北京旷视科技有限公司 | 图像处理方法和装置 |
CN109300121A (zh) * | 2018-09-13 | 2019-02-01 | 华南理工大学 | 一种心血管疾病诊断模型的构建方法、***及该诊断模型 |
CN110197099A (zh) * | 2018-02-26 | 2019-09-03 | 腾讯科技(深圳)有限公司 | 跨年龄人脸识别及其模型训练的方法和装置 |
CN111971688A (zh) * | 2018-04-09 | 2020-11-20 | 皇家飞利浦有限公司 | 具有用于检索复发患者的成像参数设置的人工神经网络的超声*** |
CN113267828A (zh) * | 2021-06-09 | 2021-08-17 | 杭州海康威视数字技术股份有限公司 | 一种信息关联方法、装置、安检设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200224A (zh) * | 2014-08-28 | 2014-12-10 | 西北工业大学 | 基于深度卷积神经网络的无价值图像去除方法 |
CN105550658A (zh) * | 2015-12-24 | 2016-05-04 | 蔡叶荷 | 一种基于高维lbp与卷积神经网络特征融合的人脸比对方法 |
CN105631479A (zh) * | 2015-12-30 | 2016-06-01 | 中国科学院自动化研究所 | 基于非平衡学习的深度卷积网络图像标注方法及装置 |
US9400919B2 (en) * | 2014-05-27 | 2016-07-26 | Beijing Kuangshi Technology Co., Ltd. | Learning deep face representation |
-
2016
- 2016-08-05 CN CN201610638207.0A patent/CN106295547A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400919B2 (en) * | 2014-05-27 | 2016-07-26 | Beijing Kuangshi Technology Co., Ltd. | Learning deep face representation |
CN104200224A (zh) * | 2014-08-28 | 2014-12-10 | 西北工业大学 | 基于深度卷积神经网络的无价值图像去除方法 |
CN105550658A (zh) * | 2015-12-24 | 2016-05-04 | 蔡叶荷 | 一种基于高维lbp与卷积神经网络特征融合的人脸比对方法 |
CN105631479A (zh) * | 2015-12-30 | 2016-06-01 | 中国科学院自动化研究所 | 基于非平衡学习的深度卷积网络图像标注方法及装置 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018153322A1 (zh) * | 2017-02-23 | 2018-08-30 | 北京市商汤科技开发有限公司 | 关键点检测方法、神经网络训练方法、装置和电子设备 |
CN108509961A (zh) * | 2017-02-27 | 2018-09-07 | 北京旷视科技有限公司 | 图像处理方法和装置 |
CN107203778A (zh) * | 2017-05-05 | 2017-09-26 | 平安科技(深圳)有限公司 | 视网膜病变程度等级检测***及方法 |
CN107341447A (zh) * | 2017-06-13 | 2017-11-10 | 华南理工大学 | 一种基于深度卷积神经网络和证据k近邻的人脸核实方法 |
CN108376215A (zh) * | 2018-01-12 | 2018-08-07 | 上海大学 | 一种身份认证方法 |
CN110197099A (zh) * | 2018-02-26 | 2019-09-03 | 腾讯科技(深圳)有限公司 | 跨年龄人脸识别及其模型训练的方法和装置 |
CN110197099B (zh) * | 2018-02-26 | 2022-10-11 | 腾讯科技(深圳)有限公司 | 跨年龄人脸识别及其模型训练的方法和装置 |
CN111971688A (zh) * | 2018-04-09 | 2020-11-20 | 皇家飞利浦有限公司 | 具有用于检索复发患者的成像参数设置的人工神经网络的超声*** |
CN109300121A (zh) * | 2018-09-13 | 2019-02-01 | 华南理工大学 | 一种心血管疾病诊断模型的构建方法、***及该诊断模型 |
CN109300121B (zh) * | 2018-09-13 | 2019-11-01 | 华南理工大学 | 一种心血管疾病诊断模型的构建方法、***及该诊断装置 |
CN113267828A (zh) * | 2021-06-09 | 2021-08-17 | 杭州海康威视数字技术股份有限公司 | 一种信息关联方法、装置、安检设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106295547A (zh) | 一种图像比对方法及图像比对装置 | |
CN108733819B (zh) | 一种人员档案建立方法和装置 | |
CN111914256B (zh) | 一种机器学习训练数据受投毒攻击的防御方法 | |
WO2019119505A1 (zh) | 人脸识别的方法和装置、计算机装置及存储介质 | |
US9665766B2 (en) | Facial recognition with biometric pre-filters | |
US9514332B2 (en) | Notification and privacy management of online photos and videos | |
US20170243058A1 (en) | Gait recognition method based on deep learning | |
CN112801057B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN111626123A (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
US11048956B2 (en) | Intelligent gallery management for biometrics | |
US20190147218A1 (en) | User specific classifiers for biometric liveness detection | |
US11126827B2 (en) | Method and system for image identification | |
CN110503099B (zh) | 基于深度学习的信息识别方法及相关设备 | |
CN111160275B (zh) | 行人重识别模型训练方法、装置、计算机设备和存储介质 | |
Da Costa-Abreu et al. | Exploring gender prediction from iris biometrics | |
Erbilek et al. | Age prediction from iris biometrics | |
CN109831677B (zh) | 视频脱敏方法、装置、计算机设备和存储介质 | |
KR20180038169A (ko) | 딥 러닝 기반의 데이터특징을 이용한 도시영상의 안전도 분류방법 | |
US9378406B2 (en) | System for estimating gender from fingerprints | |
Haji et al. | Real time face recognition system (RTFRS) | |
CN105868693A (zh) | 身份认证方法及*** | |
CN112528022A (zh) | 主题类别对应的特征词提取和文本主题类别识别方法 | |
KR101016758B1 (ko) | 인물 식별 방법 및 그 시스템 | |
RU2005100267A (ru) | Способ и система автоматической проверки присутствия живого лица человека в биометрических системах безопасности | |
Al Qudah et al. | Using Artificial Intelligence applications for E-Government services as iris recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170104 |