CN116092134A - 一种基于深度学习和特征融合的指纹活体检测方法 - Google Patents

一种基于深度学习和特征融合的指纹活体检测方法 Download PDF

Info

Publication number
CN116092134A
CN116092134A CN202310147726.7A CN202310147726A CN116092134A CN 116092134 A CN116092134 A CN 116092134A CN 202310147726 A CN202310147726 A CN 202310147726A CN 116092134 A CN116092134 A CN 116092134A
Authority
CN
China
Prior art keywords
fingerprint
neural network
network model
deep neural
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310147726.7A
Other languages
English (en)
Inventor
孟凡清
李宗军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin Institute of Chemical Technology
Original Assignee
Jilin Institute of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin Institute of Chemical Technology filed Critical Jilin Institute of Chemical Technology
Priority to CN202310147726.7A priority Critical patent/CN116092134A/zh
Publication of CN116092134A publication Critical patent/CN116092134A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1394Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

一种基于深度学习和特征融合的指纹活体检测方法,包括以下步骤:1)建立基本数据集:建立大量的指纹图像数据集,其中包括活体指纹图像和虚假指纹图像。2)构建深度神经网络模型:以MobileNetV2模型为基础网络,对其结构进行微调,设计一个适用于指纹活体检测的轻量化深度神经网络模型。3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用深度神经网络模型分别进行特征提取。4)特征融合:对步骤3)中提取的特征,对不同的特征层进行融合计算。5)完成深度神经网络模型训练:利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终获得指纹活体检测的精确结果。本发明可以提供一种基于深度学习和特征融合的指纹活体检测方法,在不额外增加产品硬件成本基础上,采用深度学习算法设计特征融合的卷积神经网络,即在卷积层利用级联融合函数将不同的特征图进行融合,充分利用互补信息对指纹图像的多层信息特征进行提取,以确保身份的准确性和安全性,可以快速准确地检测人体活体指纹。

Description

一种基于深度学习和特征融合的指纹活体检测方法
技术领域
本发明涉及图像处理、指纹识别技术等领域,具体涉及一种基于深度学习和特征融合的指纹活体检测方法。
背景技术
目前,指纹识别技术在金融、电信、信息安全、电子政务等领域正在加速推广,涉及信息安全、以及身份鉴定等许多应用场景。不过,随着技术的进步,仅仅依赖指纹的认证方案不够安全,缺乏“活体检测”等先进技术。一方面,指纹活体检测技术可以有效避免普通指纹认证技术的安全风险,有效防止撞库攻击,减少指纹信息泄露的几率;另一方面,使用指纹活体检测技术,还可以实现身份检测、识别非法入侵行为、抗碰撞,满足安全管理的质量要求。指纹活体检测是一项重要的技术,它为用户提供了更为准确可靠的安全验证,有助于保障信息安全和个人隐私的完整性,因此它的重要性是不容忽视的。
指纹活体检测方法目前可分为硬件检测法和软件检测法。硬件检测法是通过增加额外硬件来检测手指的特征,这将导致产品成本增加,同时操作不方便,不利于推广。相比于硬件检测手段而言,软件检测方法是一种更加低廉的基于图像处理的手段,更易于实现,且可以通过更新软件提升能力。目前软件层面的算法大部分基于浅层手工特征设计SVM(支持向量机)的解决方案,提取的特征数量偏少且特征类型单一,导致活体指纹检测准确率低、检测速度慢。也有提出卷积神经网络与SVM(支持向量机)相结合的算法,但该算法将特征提取与分类识别分成两个部分,使得算法对指纹活体检测的性能无法达到最优。
发明内容
为了克服目前活体指纹检测技术存在的提取特征数量少、特征类型单一、准确率低、检测速度慢、性能低等问题。本发明旨在提供一种基于深度学习和特征融合的指纹活体检测方法,在不额外增加产品硬件成本基础上,采用深度学习算法设计特征融合的卷积神经网络,即在卷积层利用级联融合函数将不同的特征图进行融合,充分利用互补信息对指纹图像的多层信息特征进行提取,以确保身份的准确性和安全性,可以快速准确地检测人体活体指纹。
本发明提出了以下技术方案:一种基于深度学习和特征融合的指纹活体检测方法,包括以下步骤:
1)建立基本数据集:建立大量的指纹图像数据集,其中包括活体指纹图像和虚假指纹图像。
2)构建深度神经网络模型:以MobileNetV2模型为基础网络,对其结构进行微调,设计一个适用于指纹活体检测的轻量化深度神经网络模型。
3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用深度神经网络模型分别进行特征提取。
4)特征融合:对步骤3)中提取的特征,对不同的特征层进行融合计算。
5)完成深度神经网络模型训练:利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终获得指纹活体检测的精确结果。
进一步,所述步骤1)中,所述的建立基本数据集:本文使用的指纹数据集来自LivDet2013和LivDet2015,这两个数据集是全球指纹活体检测竞赛的官方数据集。其中,LivDet2013包含4个子数据集:Biometrika、CrossMatch、Italdata和Swipe。LivDet2015包含4个子数据集:CrossMatch、Digital_Persona、GreenBit、Hi_Scan。LivDet数据集有训练集和测试集两部分。
所述步骤2)中,所述的构建深度神经网络模型方法为:对于指纹活体检测的准确性、实时性和泛化能力,网络结构的确定是重中之重。首先需要确定单路卷积网络的输入尺寸和卷积层数量,本发明基于MobileNetV2的结构,对其结构进行微调,并加入特征融合思想,设计一个适用于指纹活体检测的轻量化网络模型。模型包括卷积层1(Convolution1)、倒残差块1(bottleneck1)、倒残差块2(bottleneck2)、倒残差块3(bottleneck3)、倒残差块4(bottleneck4)、全局均值池化层(Pooling AVE)、卷积层2(Convolution2)和输出层(Softmax)。
所述步骤3)中,所述的特征提取方法为:利用倒残差块1(bottleneck1)和倒残差块2(bottleneck2)分别从指纹的灰度值图、方向场图和局部二值模式(LBP)图中提取特征。其中,
灰度值图:指纹的灰度信息对指纹识别非常重要,本发明灰度值图采用对原始指纹图像直接作像素平铺,抽取成列向量,作为提取的指纹特征。
方向场图:指纹图像有比较清晰的方向场,方向场描述了指纹脊、骨线的方向模式信息。作为指纹全局、可靠的特征,方向场是现有主流指纹识别技术中非常重要的一环。很多方法被用来估计指纹方向场,本发明采用一种基于梯度的方法估计方向场,具体算法过程为:
a)将指纹图像I分割为一系列互不重叠的大小为W×W的块。
b)计算块内每点分别沿X,Y方向的梯度向量[Gx(x,y),Gy(x,y)]T,计算方法见式(1)。
Figure BDA0004089703680000031
c)根据式(2)计算每个块的块梯度向量[GBx,GBy]T,并依据式(3)将其转换为块方向θ(0≤θ<π)。
Figure BDA0004089703680000032
Figure BDA0004089703680000033
局部二值模式(LBP)图:用来描述图像局部纹理特征,LBP算法计算复杂度低且具有灰度不变性和旋转不变性,因而得到了广泛的应用。具体过程可以用公式表示为:
Figure BDA0004089703680000034
其中:(xc,yc)表示中心;pc表示中心点的像素;pi表示周围点的像素;P表示周围像素点的个数;
Figure BDA0004089703680000035
所述步骤4)中,所述的特征融合方法为:将步骤3)中的不同特征层进行特征融合,然后利用倒残差块3(bottleneck3)和倒残差块4(bottleneck4)从融合后的特征图中进一步提取具有区分性的信息,定位到具有特定特征的位置,作为指纹活体检测的参考,以确保身份准确性。通过特征层的融合,可以充分利用多种信息,克服单一信息的不足,而且有助于提高模型的准确率和泛化能力。
所述步骤5)中,所述的完成深度神经网络模型训练方法为:对步骤4)中融合后特征向量采用全局均值池化,将最后一个卷积层的特征图量化,然后将该卷积层与全连接层连接,之后接一个Softmax逻辑回归分类层实现分类。这种网络结构使得卷积层和传统的神经网络层连接在一起,可以把卷积层看成是特征提取器,得到的特征再用传统的神经网络层进行分类,最终获得指纹活体检测的精确结果。利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
本发明的有益效果在于,首先,本发明利用卷积技术,有效地降低计算量和提高检测速度;其次,本发明以MobileNetV2模型为基础网络,由于MobileNetV2属于轻量级网络,在保证其性能的同时,对其结构进行微调,并加入特征融合思想,较少的运算量使其能够实时在嵌入式平台运行,提升了指纹活体检测的准确性、实时性和泛化能力;最后,本发明可以同时实现特征提取与分类识别,并且通过深度学习模型直接提取特征,以数据驱动方式学习到的特征更具一般性,从而可以适用于各种欺骗攻击,能大大提高本发明的鲁棒性和泛化能力,使其对指纹活体检测的性能达到最优。
附图说明
图1为LivDet2013的参数表;
图2为LivDet2015的参数表;
图3为本发明的深度神经网络结构图;
图4为整个算法的实施流程图。
具体实施方式
实施例1
为了便于更好的理解,下面结合附图对本发明做进一步说明。
参照图1~图4,一种基于深度学习和特征融合的指纹活体检测方法,包括以下步骤:
1)建立基本数据集:本文使用的指纹数据集来自LivDet2013和LivDet2015,这两个数据集是全球指纹活体检测竞赛的官方数据集。其中,LivDet2013包含4个子数据集:Biometrika、CrossMatch、Italdata和Swipe。LivDet2015包含4个子数据集:CrossMatch、Digital_Persona、GreenBit、Hi_Scan。LivDet数据集有训练集和测试集两部分。图1和图2分别给出了LivDet2013和LivDet2015的参数,包括指纹的图像大小、真样本数量、假样本数量及制备假指纹的材料个数。
2)构建深度神经网络模型:对于指纹活体检测的准确性、实时性和泛化能力,网络结构的确定是重中之重。首先需要确定单路卷积网络的输入尺寸和卷积层数量,本发明基于MobileNetV2的结构,对其结构进行微调,并加入特征融合思想,设计一个适用于指纹活体检测的轻量化网络模型。模型包括卷积层1(Convolution1)、倒残差块1(bottleneck1)、倒残差块2(bottleneck2)、倒残差块3(bottleneck3)、倒残差块4(bottleneck4)、全局均值池化层(Pooling AVE)、卷积层2(Convolution2)和输出层(Softmax)。图3为本发明的深度神经网络结构图。
3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用倒残差块1(bottleneck1)和倒残差块2(bottleneck2)分别从指纹的灰度值图、方向场图和局部二值模式(LBP)图中提取特征。其中,
灰度值图:指纹的灰度信息对指纹识别非常重要,本发明灰度值图采用对原始指纹图像直接作像素平铺,抽取成列向量,作为提取的指纹特征。
方向场图:指纹图像有比较清晰的方向场,方向场描述了指纹脊、骨线的方向模式信息。作为指纹全局、可靠的特征,方向场是现有主流指纹识别技术中非常重要的一环。很多方法被用来估计指纹方向场,本发明采用一种基于梯度的方法估计方向场,具体算法过程为:
a)将指纹图像I分割为一系列互不重叠的大小为W×W的块。
b)计算块内每点分别沿X,Y方向的梯度向量[Gx(x,y),Gy(x,y)]T,计算方法见式(1)。
Figure BDA0004089703680000051
c)根据式(2)计算每个块的块梯度向量[GBx,GBy]T,并依据式(3)将其转换为块方向θ(0≤θ<π)。
Figure BDA0004089703680000052
Figure BDA0004089703680000053
局部二值模式(LBP)图:用来描述图像局部纹理特征,LBP算法计算复杂度低且具有灰度不变性和旋转不变性,因而得到了广泛的应用。具体过程可以用公式表示为:
Figure BDA0004089703680000061
其中:(xc,yc)表示中心;pc表示中心点的像素;pi表示周围点的像素;P表示周围像素点的个数;
Figure BDA0004089703680000062
4)特征融合:将步骤3)中的不同特征层进行特征融合,然后利用倒残差块3(bottleneck3)和倒残差块4(bottleneck4)从融合后的特征图中进一步提取具有区分性的信息,定位到具有特定特征的位置,作为指纹活体检测的参考,以确保身份准确性。通过特征层的融合,可以充分利用多种信息,克服单一信息的不足,而且有助于提高模型的准确率和泛化能力。
5)完成深度神经网络模型训练:对步骤4)中融合后特征向量采用全局均值池化,将最后一个卷积层的特征图量化,然后将该卷积层与全连接层连接,之后接一个Softmax逻辑回归分类层实现分类。这种网络结构使得卷积层和传统的神经网络层连接在一起,可以把卷积层看成是特征提取器,得到的特征再用传统的神经网络层进行分类,最终获得指纹活体检测的精确结果。利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终测试的准确率达到较好的效果。

Claims (5)

1.一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,包括以下步骤:
1)建立基本数据集:建立大量的指纹图像数据集,其中包括活体指纹图像和虚假指纹图像。
2)构建深度神经网络模型:以MobileNetV2模型为基础网络,对其结构进行微调,设计一个适用于指纹活体检测的轻量化深度神经网络模型。
3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用深度神经网络模型分别进行特征提取。
4)特征融合:对步骤3)中提取的特征,对不同的特征层进行融合计算。
5)完成深度神经网络模型训练:利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终获得指纹活体检测的精确结果。
2.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤2)中,所述的构建深度神经网络模型方法为:对于指纹活体检测的准确性、实时性和泛化能力,网络结构的确定是重中之重。首先需要确定单路卷积网络的输入尺寸和卷积层数量,本发明基于MobileNetV2的结构,对其结构进行微调,并加入特征融合思想,设计一个适用于指纹活体检测的轻量化网络模型。模型包括卷积层1(Convolution1)、倒残差块1(bottleneck1)、倒残差块2(bottleneck2)、倒残差块3(bottleneck3)、倒残差块4(bottleneck4)、全局均值池化层(Pooling AVE)、卷积层2(Convolution2)和输出层(Softmax)。
3.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤3)中,所述的特征提取方法为:利用倒残差块1(bottleneck1)和倒残差块2(bottleneck2)分别从指纹的灰度值图、方向场图和局部二值模式(LBP)图中提取特征。
4.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤4)中,所述的特征融合方法为:将步骤3)中的不同特征层进行特征融合,然后利用倒残差块3(bottleneck3)和倒残差块4(bottleneck4)从融合后的特征图中进一步提取具有区分性的信息,定位到具有特定特征的位置,作为指纹活体检测的参考,以确保身份准确性。通过特征层的融合,可以充分利用多种信息,克服单一信息的不足,而且有助于提高模型的准确率和泛化能力。
5.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤5)中,所述的完成深度神经网络模型训练方法为:对步骤4)中融合后特征向量采用全局均值池化,将最后一个卷积层的特征图量化,然后将该卷积层与全连接层连接,之后接一个Softmax逻辑回归分类层实现分类。这种网络结构使得卷积层和传统的神经网络层连接在一起,可以把卷积层看成是特征提取器,得到的特征再用传统的神经网络层进行分类,最终获得指纹活体检测的精确结果。利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
CN202310147726.7A 2023-02-22 2023-02-22 一种基于深度学习和特征融合的指纹活体检测方法 Pending CN116092134A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310147726.7A CN116092134A (zh) 2023-02-22 2023-02-22 一种基于深度学习和特征融合的指纹活体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310147726.7A CN116092134A (zh) 2023-02-22 2023-02-22 一种基于深度学习和特征融合的指纹活体检测方法

Publications (1)

Publication Number Publication Date
CN116092134A true CN116092134A (zh) 2023-05-09

Family

ID=86188005

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310147726.7A Pending CN116092134A (zh) 2023-02-22 2023-02-22 一种基于深度学习和特征融合的指纹活体检测方法

Country Status (1)

Country Link
CN (1) CN116092134A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721441A (zh) * 2023-08-03 2023-09-08 厦门瞳景智能科技有限公司 基于区块链的门禁安全管理方法与***
CN117037221A (zh) * 2023-10-08 2023-11-10 腾讯科技(深圳)有限公司 活体检测方法、装置、计算机设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721441A (zh) * 2023-08-03 2023-09-08 厦门瞳景智能科技有限公司 基于区块链的门禁安全管理方法与***
CN116721441B (zh) * 2023-08-03 2024-01-19 厦门瞳景智能科技有限公司 基于区块链的门禁安全管理方法与***
CN117037221A (zh) * 2023-10-08 2023-11-10 腾讯科技(深圳)有限公司 活体检测方法、装置、计算机设备及存储介质
CN117037221B (zh) * 2023-10-08 2023-12-29 腾讯科技(深圳)有限公司 活体检测方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
Zhu et al. AR-Net: Adaptive attention and residual refinement network for copy-move forgery detection
CN109558832B (zh) 一种人体姿态检测方法、装置、设备及存储介质
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN110059589B (zh) 一种基于Mask R-CNN神经网络的虹膜图像中虹膜区域的分割方法
CN111274916B (zh) 人脸识别方法和人脸识别装置
CN116092134A (zh) 一种基于深度学习和特征融合的指纹活体检测方法
US20230021661A1 (en) Forgery detection of face image
CN110222572B (zh) 跟踪方法、装置、电子设备及存储介质
US11430255B2 (en) Fast and robust friction ridge impression minutiae extraction using feed-forward convolutional neural network
CN111079514A (zh) 一种基于clbp和卷积神经网络的人脸识别方法
AU2021101613A4 (en) Multi-modal feature fusion–based fingerprint liveness detection method
CN112052830A (zh) 人脸检测的方法、装置和计算机存储介质
CN111767879A (zh) 一种活体检测方法
Manjunatha et al. Deep learning-based technique for image tamper detection
KR20230169104A (ko) 기계 학습 및 등록 데이터를 사용한 개인화된 생체인식 안티-스푸핑 보호
CN115830531A (zh) 一种基于残差多通道注意力多特征融合的行人重识别方法
CN110263726B (zh) 一种基于深度相关性特征学习的指静脉识别方法及装置
Liu et al. Iris recognition in visible spectrum based on multi-layer analogous convolution and collaborative representation
Li et al. Real-time tracking algorithm for aerial vehicles using improved convolutional neural network and transfer learning
CN113033305B (zh) 活体检测方法、装置、终端设备和存储介质
Yu et al. An identity authentication method for ubiquitous electric power Internet of Things based on dynamic gesture recognition
CN113763274A (zh) 一种联合局部相位锐度定向描述的多源图像匹配方法
CN113139544A (zh) 一种基于多尺度特征动态融合的显著性目标检测方法
Park et al. Patch-based fake fingerprint detection using a fully convolutional neural network with a small number of parameters and an optimal threshold
Stojanović et al. Deep learning‐based approach to latent overlapped fingerprints mask segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination