CN116092134A - 一种基于深度学习和特征融合的指纹活体检测方法 - Google Patents
一种基于深度学习和特征融合的指纹活体检测方法 Download PDFInfo
- Publication number
- CN116092134A CN116092134A CN202310147726.7A CN202310147726A CN116092134A CN 116092134 A CN116092134 A CN 116092134A CN 202310147726 A CN202310147726 A CN 202310147726A CN 116092134 A CN116092134 A CN 116092134A
- Authority
- CN
- China
- Prior art keywords
- fingerprint
- neural network
- network model
- deep neural
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1382—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
- G06V40/1388—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1382—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
- G06V40/1394—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度学习和特征融合的指纹活体检测方法,包括以下步骤:1)建立基本数据集:建立大量的指纹图像数据集,其中包括活体指纹图像和虚假指纹图像。2)构建深度神经网络模型:以MobileNetV2模型为基础网络,对其结构进行微调,设计一个适用于指纹活体检测的轻量化深度神经网络模型。3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用深度神经网络模型分别进行特征提取。4)特征融合:对步骤3)中提取的特征,对不同的特征层进行融合计算。5)完成深度神经网络模型训练:利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终获得指纹活体检测的精确结果。本发明可以提供一种基于深度学习和特征融合的指纹活体检测方法,在不额外增加产品硬件成本基础上,采用深度学习算法设计特征融合的卷积神经网络,即在卷积层利用级联融合函数将不同的特征图进行融合,充分利用互补信息对指纹图像的多层信息特征进行提取,以确保身份的准确性和安全性,可以快速准确地检测人体活体指纹。
Description
技术领域
本发明涉及图像处理、指纹识别技术等领域,具体涉及一种基于深度学习和特征融合的指纹活体检测方法。
背景技术
目前,指纹识别技术在金融、电信、信息安全、电子政务等领域正在加速推广,涉及信息安全、以及身份鉴定等许多应用场景。不过,随着技术的进步,仅仅依赖指纹的认证方案不够安全,缺乏“活体检测”等先进技术。一方面,指纹活体检测技术可以有效避免普通指纹认证技术的安全风险,有效防止撞库攻击,减少指纹信息泄露的几率;另一方面,使用指纹活体检测技术,还可以实现身份检测、识别非法入侵行为、抗碰撞,满足安全管理的质量要求。指纹活体检测是一项重要的技术,它为用户提供了更为准确可靠的安全验证,有助于保障信息安全和个人隐私的完整性,因此它的重要性是不容忽视的。
指纹活体检测方法目前可分为硬件检测法和软件检测法。硬件检测法是通过增加额外硬件来检测手指的特征,这将导致产品成本增加,同时操作不方便,不利于推广。相比于硬件检测手段而言,软件检测方法是一种更加低廉的基于图像处理的手段,更易于实现,且可以通过更新软件提升能力。目前软件层面的算法大部分基于浅层手工特征设计SVM(支持向量机)的解决方案,提取的特征数量偏少且特征类型单一,导致活体指纹检测准确率低、检测速度慢。也有提出卷积神经网络与SVM(支持向量机)相结合的算法,但该算法将特征提取与分类识别分成两个部分,使得算法对指纹活体检测的性能无法达到最优。
发明内容
为了克服目前活体指纹检测技术存在的提取特征数量少、特征类型单一、准确率低、检测速度慢、性能低等问题。本发明旨在提供一种基于深度学习和特征融合的指纹活体检测方法,在不额外增加产品硬件成本基础上,采用深度学习算法设计特征融合的卷积神经网络,即在卷积层利用级联融合函数将不同的特征图进行融合,充分利用互补信息对指纹图像的多层信息特征进行提取,以确保身份的准确性和安全性,可以快速准确地检测人体活体指纹。
本发明提出了以下技术方案:一种基于深度学习和特征融合的指纹活体检测方法,包括以下步骤:
1)建立基本数据集:建立大量的指纹图像数据集,其中包括活体指纹图像和虚假指纹图像。
2)构建深度神经网络模型:以MobileNetV2模型为基础网络,对其结构进行微调,设计一个适用于指纹活体检测的轻量化深度神经网络模型。
3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用深度神经网络模型分别进行特征提取。
4)特征融合:对步骤3)中提取的特征,对不同的特征层进行融合计算。
5)完成深度神经网络模型训练:利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终获得指纹活体检测的精确结果。
进一步,所述步骤1)中,所述的建立基本数据集:本文使用的指纹数据集来自LivDet2013和LivDet2015,这两个数据集是全球指纹活体检测竞赛的官方数据集。其中,LivDet2013包含4个子数据集:Biometrika、CrossMatch、Italdata和Swipe。LivDet2015包含4个子数据集:CrossMatch、Digital_Persona、GreenBit、Hi_Scan。LivDet数据集有训练集和测试集两部分。
所述步骤2)中,所述的构建深度神经网络模型方法为:对于指纹活体检测的准确性、实时性和泛化能力,网络结构的确定是重中之重。首先需要确定单路卷积网络的输入尺寸和卷积层数量,本发明基于MobileNetV2的结构,对其结构进行微调,并加入特征融合思想,设计一个适用于指纹活体检测的轻量化网络模型。模型包括卷积层1(Convolution1)、倒残差块1(bottleneck1)、倒残差块2(bottleneck2)、倒残差块3(bottleneck3)、倒残差块4(bottleneck4)、全局均值池化层(Pooling AVE)、卷积层2(Convolution2)和输出层(Softmax)。
所述步骤3)中,所述的特征提取方法为:利用倒残差块1(bottleneck1)和倒残差块2(bottleneck2)分别从指纹的灰度值图、方向场图和局部二值模式(LBP)图中提取特征。其中,
灰度值图:指纹的灰度信息对指纹识别非常重要,本发明灰度值图采用对原始指纹图像直接作像素平铺,抽取成列向量,作为提取的指纹特征。
方向场图:指纹图像有比较清晰的方向场,方向场描述了指纹脊、骨线的方向模式信息。作为指纹全局、可靠的特征,方向场是现有主流指纹识别技术中非常重要的一环。很多方法被用来估计指纹方向场,本发明采用一种基于梯度的方法估计方向场,具体算法过程为:
a)将指纹图像I分割为一系列互不重叠的大小为W×W的块。
b)计算块内每点分别沿X,Y方向的梯度向量[Gx(x,y),Gy(x,y)]T,计算方法见式(1)。
c)根据式(2)计算每个块的块梯度向量[GBx,GBy]T,并依据式(3)将其转换为块方向θ(0≤θ<π)。
局部二值模式(LBP)图:用来描述图像局部纹理特征,LBP算法计算复杂度低且具有灰度不变性和旋转不变性,因而得到了广泛的应用。具体过程可以用公式表示为:
所述步骤4)中,所述的特征融合方法为:将步骤3)中的不同特征层进行特征融合,然后利用倒残差块3(bottleneck3)和倒残差块4(bottleneck4)从融合后的特征图中进一步提取具有区分性的信息,定位到具有特定特征的位置,作为指纹活体检测的参考,以确保身份准确性。通过特征层的融合,可以充分利用多种信息,克服单一信息的不足,而且有助于提高模型的准确率和泛化能力。
所述步骤5)中,所述的完成深度神经网络模型训练方法为:对步骤4)中融合后特征向量采用全局均值池化,将最后一个卷积层的特征图量化,然后将该卷积层与全连接层连接,之后接一个Softmax逻辑回归分类层实现分类。这种网络结构使得卷积层和传统的神经网络层连接在一起,可以把卷积层看成是特征提取器,得到的特征再用传统的神经网络层进行分类,最终获得指纹活体检测的精确结果。利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
本发明的有益效果在于,首先,本发明利用卷积技术,有效地降低计算量和提高检测速度;其次,本发明以MobileNetV2模型为基础网络,由于MobileNetV2属于轻量级网络,在保证其性能的同时,对其结构进行微调,并加入特征融合思想,较少的运算量使其能够实时在嵌入式平台运行,提升了指纹活体检测的准确性、实时性和泛化能力;最后,本发明可以同时实现特征提取与分类识别,并且通过深度学习模型直接提取特征,以数据驱动方式学习到的特征更具一般性,从而可以适用于各种欺骗攻击,能大大提高本发明的鲁棒性和泛化能力,使其对指纹活体检测的性能达到最优。
附图说明
图1为LivDet2013的参数表;
图2为LivDet2015的参数表;
图3为本发明的深度神经网络结构图;
图4为整个算法的实施流程图。
具体实施方式
实施例1
为了便于更好的理解,下面结合附图对本发明做进一步说明。
参照图1~图4,一种基于深度学习和特征融合的指纹活体检测方法,包括以下步骤:
1)建立基本数据集:本文使用的指纹数据集来自LivDet2013和LivDet2015,这两个数据集是全球指纹活体检测竞赛的官方数据集。其中,LivDet2013包含4个子数据集:Biometrika、CrossMatch、Italdata和Swipe。LivDet2015包含4个子数据集:CrossMatch、Digital_Persona、GreenBit、Hi_Scan。LivDet数据集有训练集和测试集两部分。图1和图2分别给出了LivDet2013和LivDet2015的参数,包括指纹的图像大小、真样本数量、假样本数量及制备假指纹的材料个数。
2)构建深度神经网络模型:对于指纹活体检测的准确性、实时性和泛化能力,网络结构的确定是重中之重。首先需要确定单路卷积网络的输入尺寸和卷积层数量,本发明基于MobileNetV2的结构,对其结构进行微调,并加入特征融合思想,设计一个适用于指纹活体检测的轻量化网络模型。模型包括卷积层1(Convolution1)、倒残差块1(bottleneck1)、倒残差块2(bottleneck2)、倒残差块3(bottleneck3)、倒残差块4(bottleneck4)、全局均值池化层(Pooling AVE)、卷积层2(Convolution2)和输出层(Softmax)。图3为本发明的深度神经网络结构图。
3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用倒残差块1(bottleneck1)和倒残差块2(bottleneck2)分别从指纹的灰度值图、方向场图和局部二值模式(LBP)图中提取特征。其中,
灰度值图:指纹的灰度信息对指纹识别非常重要,本发明灰度值图采用对原始指纹图像直接作像素平铺,抽取成列向量,作为提取的指纹特征。
方向场图:指纹图像有比较清晰的方向场,方向场描述了指纹脊、骨线的方向模式信息。作为指纹全局、可靠的特征,方向场是现有主流指纹识别技术中非常重要的一环。很多方法被用来估计指纹方向场,本发明采用一种基于梯度的方法估计方向场,具体算法过程为:
a)将指纹图像I分割为一系列互不重叠的大小为W×W的块。
b)计算块内每点分别沿X,Y方向的梯度向量[Gx(x,y),Gy(x,y)]T,计算方法见式(1)。
c)根据式(2)计算每个块的块梯度向量[GBx,GBy]T,并依据式(3)将其转换为块方向θ(0≤θ<π)。
局部二值模式(LBP)图:用来描述图像局部纹理特征,LBP算法计算复杂度低且具有灰度不变性和旋转不变性,因而得到了广泛的应用。具体过程可以用公式表示为:
4)特征融合:将步骤3)中的不同特征层进行特征融合,然后利用倒残差块3(bottleneck3)和倒残差块4(bottleneck4)从融合后的特征图中进一步提取具有区分性的信息,定位到具有特定特征的位置,作为指纹活体检测的参考,以确保身份准确性。通过特征层的融合,可以充分利用多种信息,克服单一信息的不足,而且有助于提高模型的准确率和泛化能力。
5)完成深度神经网络模型训练:对步骤4)中融合后特征向量采用全局均值池化,将最后一个卷积层的特征图量化,然后将该卷积层与全连接层连接,之后接一个Softmax逻辑回归分类层实现分类。这种网络结构使得卷积层和传统的神经网络层连接在一起,可以把卷积层看成是特征提取器,得到的特征再用传统的神经网络层进行分类,最终获得指纹活体检测的精确结果。利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终测试的准确率达到较好的效果。
Claims (5)
1.一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,包括以下步骤:
1)建立基本数据集:建立大量的指纹图像数据集,其中包括活体指纹图像和虚假指纹图像。
2)构建深度神经网络模型:以MobileNetV2模型为基础网络,对其结构进行微调,设计一个适用于指纹活体检测的轻量化深度神经网络模型。
3)特征提取:分别准备指纹的灰度值图、方向场图和局部二值模式(LBP)图,将三种图输入到深度神经网络模型,利用深度神经网络模型分别进行特征提取。
4)特征融合:对步骤3)中提取的特征,对不同的特征层进行融合计算。
5)完成深度神经网络模型训练:利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
6)对真假指纹进行分类:利用步骤1)中基本数据集的测试集,使用步骤5)中训练最优的深度神经网络模型进行分类,最终获得指纹活体检测的精确结果。
2.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤2)中,所述的构建深度神经网络模型方法为:对于指纹活体检测的准确性、实时性和泛化能力,网络结构的确定是重中之重。首先需要确定单路卷积网络的输入尺寸和卷积层数量,本发明基于MobileNetV2的结构,对其结构进行微调,并加入特征融合思想,设计一个适用于指纹活体检测的轻量化网络模型。模型包括卷积层1(Convolution1)、倒残差块1(bottleneck1)、倒残差块2(bottleneck2)、倒残差块3(bottleneck3)、倒残差块4(bottleneck4)、全局均值池化层(Pooling AVE)、卷积层2(Convolution2)和输出层(Softmax)。
3.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤3)中,所述的特征提取方法为:利用倒残差块1(bottleneck1)和倒残差块2(bottleneck2)分别从指纹的灰度值图、方向场图和局部二值模式(LBP)图中提取特征。
4.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤4)中,所述的特征融合方法为:将步骤3)中的不同特征层进行特征融合,然后利用倒残差块3(bottleneck3)和倒残差块4(bottleneck4)从融合后的特征图中进一步提取具有区分性的信息,定位到具有特定特征的位置,作为指纹活体检测的参考,以确保身份准确性。通过特征层的融合,可以充分利用多种信息,克服单一信息的不足,而且有助于提高模型的准确率和泛化能力。
5.根据权利要求1所述的一种基于深度学习和特征融合的指纹活体检测方法,其特征在于,步骤5)中,所述的完成深度神经网络模型训练方法为:对步骤4)中融合后特征向量采用全局均值池化,将最后一个卷积层的特征图量化,然后将该卷积层与全连接层连接,之后接一个Softmax逻辑回归分类层实现分类。这种网络结构使得卷积层和传统的神经网络层连接在一起,可以把卷积层看成是特征提取器,得到的特征再用传统的神经网络层进行分类,最终获得指纹活体检测的精确结果。利用步骤1)中基本数据集的训练集对深度神经网络模型进行训练,使其性能达到最优。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310147726.7A CN116092134A (zh) | 2023-02-22 | 2023-02-22 | 一种基于深度学习和特征融合的指纹活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310147726.7A CN116092134A (zh) | 2023-02-22 | 2023-02-22 | 一种基于深度学习和特征融合的指纹活体检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116092134A true CN116092134A (zh) | 2023-05-09 |
Family
ID=86188005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310147726.7A Pending CN116092134A (zh) | 2023-02-22 | 2023-02-22 | 一种基于深度学习和特征融合的指纹活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116092134A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116721441A (zh) * | 2023-08-03 | 2023-09-08 | 厦门瞳景智能科技有限公司 | 基于区块链的门禁安全管理方法与*** |
CN117037221A (zh) * | 2023-10-08 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
-
2023
- 2023-02-22 CN CN202310147726.7A patent/CN116092134A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116721441A (zh) * | 2023-08-03 | 2023-09-08 | 厦门瞳景智能科技有限公司 | 基于区块链的门禁安全管理方法与*** |
CN116721441B (zh) * | 2023-08-03 | 2024-01-19 | 厦门瞳景智能科技有限公司 | 基于区块链的门禁安全管理方法与*** |
CN117037221A (zh) * | 2023-10-08 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
CN117037221B (zh) * | 2023-10-08 | 2023-12-29 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhu et al. | AR-Net: Adaptive attention and residual refinement network for copy-move forgery detection | |
CN109558832B (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
US11830230B2 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
CN110059589B (zh) | 一种基于Mask R-CNN神经网络的虹膜图像中虹膜区域的分割方法 | |
CN111274916B (zh) | 人脸识别方法和人脸识别装置 | |
CN116092134A (zh) | 一种基于深度学习和特征融合的指纹活体检测方法 | |
US20230021661A1 (en) | Forgery detection of face image | |
CN110222572B (zh) | 跟踪方法、装置、电子设备及存储介质 | |
US11430255B2 (en) | Fast and robust friction ridge impression minutiae extraction using feed-forward convolutional neural network | |
CN111079514A (zh) | 一种基于clbp和卷积神经网络的人脸识别方法 | |
AU2021101613A4 (en) | Multi-modal feature fusion–based fingerprint liveness detection method | |
CN112052830A (zh) | 人脸检测的方法、装置和计算机存储介质 | |
CN111767879A (zh) | 一种活体检测方法 | |
Manjunatha et al. | Deep learning-based technique for image tamper detection | |
KR20230169104A (ko) | 기계 학습 및 등록 데이터를 사용한 개인화된 생체인식 안티-스푸핑 보호 | |
CN115830531A (zh) | 一种基于残差多通道注意力多特征融合的行人重识别方法 | |
CN110263726B (zh) | 一种基于深度相关性特征学习的指静脉识别方法及装置 | |
Liu et al. | Iris recognition in visible spectrum based on multi-layer analogous convolution and collaborative representation | |
Li et al. | Real-time tracking algorithm for aerial vehicles using improved convolutional neural network and transfer learning | |
CN113033305B (zh) | 活体检测方法、装置、终端设备和存储介质 | |
Yu et al. | An identity authentication method for ubiquitous electric power Internet of Things based on dynamic gesture recognition | |
CN113763274A (zh) | 一种联合局部相位锐度定向描述的多源图像匹配方法 | |
CN113139544A (zh) | 一种基于多尺度特征动态融合的显著性目标检测方法 | |
Park et al. | Patch-based fake fingerprint detection using a fully convolutional neural network with a small number of parameters and an optimal threshold | |
Stojanović et al. | Deep learning‐based approach to latent overlapped fingerprints mask segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |