CN116631068B - 一种基于深度学习特征融合的掌静脉活体检测方法 - Google Patents
一种基于深度学习特征融合的掌静脉活体检测方法 Download PDFInfo
- Publication number
- CN116631068B CN116631068B CN202310914788.6A CN202310914788A CN116631068B CN 116631068 B CN116631068 B CN 116631068B CN 202310914788 A CN202310914788 A CN 202310914788A CN 116631068 B CN116631068 B CN 116631068B
- Authority
- CN
- China
- Prior art keywords
- feature
- palm vein
- palm
- living body
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000003462 vein Anatomy 0.000 title claims abstract description 108
- 238000001514 detection method Methods 0.000 title claims abstract description 48
- 230000004927 fusion Effects 0.000 title claims abstract description 18
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000000605 extraction Methods 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000010606 normalization Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 16
- 238000000034 method Methods 0.000 claims description 14
- 238000001574 biopsy Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种基于深度学习特征融合的掌静脉活体检测方法,属于生物识别技术领域,包括以下步骤:采集用户的掌静脉图像,对其进行归一化处理,获得目标训练图像;构建掌静脉活体检测模型,掌静脉活体检测模型包括特征提取分类分支和特征边界监督分支;将目标训练图像输入掌静脉活体检测模型,分别计算特征提取分类分支和特征边界监督分支损失,并根据所述损失训练所述掌静脉活体检测模型;将待检测的掌静脉图像输入训练完成的掌静脉活体检测模型中,得到待检测的掌静脉图像的活体分类结果。本发明通过设计特征边界监督分支,让活体模型同时兼顾局部与全局特征,提升其鲁棒性。
Description
技术领域
本发明涉及生物识别技术领域,特别是涉及一种基于深度学习特征融合的掌静脉活体检测方法。
背景技术
静脉识别技术是一种利用人体静脉灰度图像对个人身份进行识别的生物特征识别技术。静脉隐藏在人体内部,在日常活动下不会像指纹、人脸等留下痕迹,而且每个人手掌的静脉纹路均不相同,因此可以作为身份识别的生物特征,并具有高安全、不易盗取等优势。
随着掌静脉识别技术的快速发展,掌静脉识别技术被广泛应用到各种验证个人身份的***,例如安保***、门禁***、地铁***和签到***等。相比于指纹和瞳孔等生物识别技术,掌静脉识别技术不仅可以做到非接触式识别,而且掌静脉识别采用的特征来自于由红外摄像头反射的手掌皮肤下的血管,这样的特征更加难以模仿,能够很好地应对伪造掌静脉的攻击,安全等级更高。随着静脉识别技术广泛的推广应用,其安全性接受着更加严峻的考验。在其应用过程中,难以避免入侵者会利用自制设备采集原始掌静脉静脉灰度图像,然后再打印到假体上进行攻击。由此可见,对于本领域内的技术人员而言,如何有效避免假体攻击,提高掌静脉的使用安全性能是亟需解决的问题。
中国专利CN116229528A公开了一种活体掌静脉检测方法、装置、设备及存储介质,包括: 获取待检测的手掌图像,对所述手掌图像进行归一化预处理以调整所述手掌图像的尺寸;对预处理后的手掌图像进行高斯滤波处理,并根据高斯滤波后的手掌图像确定手掌描述图像;将所述手掌描述图像输入预先训练的活体检测模型,通过所述活体检测模型确定所述手掌图像为攻击图像或真实图像,所述活体检测模型为VIT模型。该专利在识别过程中未实现活体模型关注局部纹理特征,同时兼顾全局特征,也并未降低模型复杂度。
发明内容
本发明的主要目的是提供一种基于深度学习特征融合的掌静脉活体检测方法,通过获取目标信息进一步生成活体检测网络,以解决现在有技术中存在的有效避免假体攻击,提高掌静脉的使用安全性能。
为实现上述目的,本发明提供了如下方案:
本发明涉及一种基于深度学习特征融合的掌静脉活体检测方法,其包括以下步骤:
1)采集用户的掌静脉图像,对其进行归一化处理,获得目标训练图像;
2)构建掌静脉活体检测模型,掌静脉活体检测模型包括特征提取分类分支和特征边界监督分支;
3)将目标训练图像输入掌静脉活体检测模型,分别计算特征提取分类分支和特征边界监督分支损失,并根据所述损失训练所述掌静脉活体检测模型;
4)将待检测的掌静脉图像输入训练完成的掌静脉活体检测模型中,得到待检测的掌静脉图像的活体分类结果。
优选地,所述步骤1)中,对掌静脉图像进行归一化处理包括:
1.1)将掌静脉图像输入手掌检测模型,得到手掌框;
1.2)根据掌静脉图像和手掌框的大小将手掌框向外扩展,得到手掌裁剪框;
1.3)根据手掌裁剪框裁剪掌静脉图像;
1.4)对裁剪后的掌静脉图像进行尺寸归一化处理,获得目标训练图像,所述目标训练图像的尺寸为112*112像素。
优选地,所述步骤1.2)中,根据掌静脉图像和手掌框的大小将所述手掌框向外扩展的具体步骤包括:根据掌静脉图像和手掌框的大小计算外扩比例,根据外扩比例将手掌框向外扩展得到手掌裁剪框,所述外扩比例的计算公式为:
scale = Min((src_h-1)/box_h,(src_w-1)/box_w,s)
其中scale表示外扩比例,src_h和src_w分别表示掌静脉图像的高和宽,box_w和box_h分别表示手掌框的高和宽,s表示预设扩展比例。
优选地,所述特征提取分类分支为在原始的特征提取网络MobileOne network中加入PAN结构后获得的特征提取网络。
优选地,所述步骤3)将目标训练图像输入掌静脉活体检测模型是指:先将目标训练图像输入到特征提取分类分支,得到不同尺度的多个特征图,对多个特征图进行反卷积操作,得到融合多尺度特征的目标特征图,所述目标特征图的尺寸为14*14像素;再将目标特征图输入到特征边界监督分支,计算其特征mask子图;所述特征边界监督分支损失是基于特征mask子图计算的。
优选地,所述步骤3)将目标特征图输入到特征边界监督分支,计算其特征mask子图,包括:
3.1)将目标特征图上的每个像素点分别映射到对应的目标训练图像的上一个8*8像素的block,获得目标训练图像上14*14个block的坐标信息,并将坐标信息存入二维数组M;
3.2) 在目标训练图像上标注关键点,根据关键点计算所述关键点的最大外接矩形框,并将最大外接矩形框的坐标信息存入数组N;
3.3)分别计算数组N 和数组M中每个数组元素的交并比,若交并比大于预设阈值,则将数组M的数组元素赋值为1,反之,将数组M的数组元素赋值为0,获得特征mask子图。
优选地,所述步骤3)中,分别计算特征提取分类分支和特征边界监督分支损失,并根据所述损失训练所述掌静脉活体检测模型,包括:
3.4)选择交叉熵作为特征提取分类分支损失函数,计算特征提取分类分支损失LCeloss;
3.5)依据目标特征图和其特征mask子图计算特征边界监督分支损失Lboundray_loss;
3.6)基于特征提取分类分支损失LCEloss、特征边界监督分支损失Lboundray_loss计算掌静脉活体检测模型的总损失函数Loss;
3.7)以掌静脉活体检测模型的总损失函数Loss为基础,引导掌静脉活体检测模型进行训练。
优选地,所述的总损失函数Loss的计算公式为:
Loss=a*Lboundray_loss+b*LCEloss
其中Loss表示总损失函数,Lboundray_loss表示特征边界监督分支损失,a表示特征边界监督分支损失的比例,LCEloss表示特征提取分类分支损失,b表示特征提取分类分支损失的比例。
优选地,所述特征边界监督分支损失的比例为0.3,所述特征提取分类分支损失的比例为0.7。
本发明具有以下技术效果:
1、本发明涉及的基于深度学习特征融合的掌静脉活体检测方法构建的掌静脉活体检测模型包括特征提取分类分支和特征边界监督分支,特征提取分类分支用于提取多尺度特征和进行特征融合处理;特征边界监督分支根据网络感受野和手掌关键点位置信息,计算有效特征区域,获得归一化后的特征mask子图;然后结合上述特征提取分类分支中同尺度的特征图,计算特征边界监督分支损失函数BoundaryLoss;受神经网络的感受野原理启发,独创性地设计了特征边界监督分支,让掌静脉活体模型既能关注全局特征,同时兼顾局部纹理特征,提升活体模型的鲁棒性;
2、本发明中的特征提取分类分支为在原始的特征提取网络MobileOne network中加入PAN结构后获得的特征提取网络,在提取不同尺度的特征时高效获取视觉骨架,可以降低模型复杂度,同时可以提高活体检测模型的泛化能力。
附图说明
图1为本发明涉及的一种基于深度学习特征融合的掌静脉活体检测方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例和附图对本发明进行具体阐述,但本发明的保护范围并不限于此。
参照图1所示,本发明涉及一种基于深度学习特征融合的掌静脉活体检测方法,其包括以下步骤:
1)采集用户的掌静脉图像,对其进行归一化处理,获得目标训练图像,归一化处理包括:
1.1)将掌静脉图像输入手掌检测模型,得到手掌框,手掌框为包含手掌区域的一个矩形框;
1.2)根据掌静脉图像和手掌框的大小将手掌框向外扩展,根据掌静脉图像和手掌框的大小计算外扩比例,根据外扩比例将手掌框向外扩展,进而得到手掌裁剪框,所述外扩比例的计算公式为:
scale = Min((src_h-1)/box_h,(src_w-1)/box_w,s)
其中scale表示外扩比例,src_h和src_w分别表示掌静脉图像的高和宽,box_w和box_h分别表示手掌框的高和宽,s表示预设扩展比例,加入预设扩展比例,避免手掌裁剪框超出掌静脉图像的边界;
1.3)根据手掌裁剪框裁剪掌静脉图像;
1.4)对裁剪后的掌静脉图像进行尺寸归一化处理,获得目标训练图像,所述目标训练图像的尺寸为112*112像素;
因掌静脉图像采集时是非接触采集,手掌的活动区域较大,因此采集的手掌有远有近,进而导致采集的掌静脉图像手掌有大有小,本发明通过将手掌框向外扩展得到包含手掌的较大矩形区域的手掌裁剪框,然后依据手掌裁剪框进行掌静脉的图像裁剪,可以获得不同尺度下的掌静脉信息,且一定程度上可以截取到比较明显的背景特征,包括一些常见攻击体的边缘特征,提高掌静脉活体检测模型的性能。
2)构建掌静脉活体检测模型,掌静脉活体检测模型包括特征提取分类分支和特征边界监督分支;所述特征提取分类分支为在原始的特征提取网络MobileOne network中加入PAN结构后获得的特征提取网络;同时引入空间感知注意力机制SpatialAttention,使得网络具有空间感知能力,不仅关注手掌掌心区域的局部特征,也能感知手掌与背景的全局特征,性能更优。
3)将目标训练图像输入掌静脉活体检测模型,具体是先将目标训练图像输入到特征提取分类分支,得到不同尺度的多个特征图,本发明中共得到4个尺度的特征图,尺度分别为28*28像素、14*14像素、7*7像素、3*3像素,对多个特征图进行反卷积操作,本发明中对7*7像素、3*3像素两个尺度特征图进行反卷积操作,得到14*14像素尺寸目标特征图;再将目标特征图输入到特征边界监督分支,计算其特征mask子图,计算特征mask子图的具体步骤包括:
3.1)将目标特征图上的每个像素点分别映射到对应的目标训练图像的上一个8*8像素的block,获得目标训练图像上14*14像素个block的坐标信息,并将坐标信息存入二维数组M;
3.2) 在目标训练图像上标注关键点,关键点一般为人工打标或者用关键点检测模型的方式,关键点一般为指根凹点、大拇指根部点、手掌腕部连接中心点,具体的关键点一般根据需要自行定义,根据关键点计算所述关键点的最大外接矩形框,并将最大外接矩形框的坐标信息存入数组N;
3.3)分别计算数组N 和数组M中每个数组元素的交并比,若交并比大于预设阈值,则将数组M的数组元素赋值为1,反之,将数组M的数组元素赋值为0,获得特征mask子图;
本发明通过目标特征图和关键点的最大外接矩形框计算特征mask子图,并依据特征mask子图计算特征边界监督分支损失,使得模型更加关注局部纹理特征,提升活体模型的鲁棒性。
分别计算特征提取分类分支和特征边界监督分支损失,并根据所述损失训练所述掌静脉活体检测模型,具体步骤为:
3.4)选择交叉熵作为特征提取分类分支损失函数,计算特征提取分类分支损失LCeloss;
3.5)依据目标特征图和其特征mask子图计算特征边界监督分支损失Lboundray_loss;
3.6)基于特征提取分类分支损失LCEloss、特征边界监督分支损失Lboundray_loss计算掌静脉活体检测模型的总损失函数Loss,总损失函数Loss的计算公式为:
Loss=a*Lboundray_loss+b*LCEloss
其中Loss表示总损失函数,Lboundray_loss表示特征边界监督分支损失,a表示特征边界监督分支损失的比例,本实施例中a=0.3,LCEloss表示特征提取分类分支损失,b表示特征提取分类分支损失的比例,本实施例中,b=0.7;
3.7)以掌静脉活体检测模型的总损失函数Loss为基础,引导掌静脉活体检测模型进行训练;
4)将待检测的掌静脉图像输入训练完成的掌静脉活体检测模型中,得到待检测的掌静脉图像的活体分类结果。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (8)
1.一种基于深度学习特征融合的掌静脉活体检测方法,其特征在于:其包括以下步骤:
1)采集用户的掌静脉图像,对其进行归一化处理,获得目标训练图像;
2)构建掌静脉活体检测模型,掌静脉活体检测模型包括特征提取分类分支和特征边界监督分支;
3)将目标训练图像输入掌静脉活体检测模型,具体是指:先将目标训练图像输入到特征提取分类分支,得到不同尺度的多个特征图,对多个特征图进行反卷积操作,得到融合多尺度特征的目标特征图,所述目标特征图的尺寸为14*14像素;再将目标特征图输入到特征边界监督分支,计算其特征mask子图;分别计算特征提取分类分支和特征边界监督分支损失,所述特征边界监督分支损失是基于特征mask子图计算的,并根据所述损失训练所述掌静脉活体检测模型;
4)将待检测的掌静脉图像输入训练完成的掌静脉活体检测模型中,得到待检测的掌静脉图像的活体分类结果。
2.根据权利要求1所述的基于深度学习特征融合的掌静脉活体检测方法,其特征在于:所述步骤1)中,对掌静脉图像进行归一化处理包括:
1.1)将掌静脉图像输入手掌检测模型,得到手掌框;
1.2)根据掌静脉图像和手掌框的大小将手掌框向外扩展,得到手掌裁剪框;
1.3)根据手掌裁剪框裁剪掌静脉图像;
1.4)对裁剪后的掌静脉图像进行尺寸归一化处理,获得目标训练图像,所述目标训练图像的尺寸为112*112像素。
3.根据权利要求2所述的基于深度学习特征融合的掌静脉活体检测方法,其特征在于:所述步骤1.2)中,根据掌静脉图像和手掌框的大小将所述手掌框向外扩展的具体步骤包括:根据掌静脉图像和手掌框的大小计算外扩比例,根据外扩比例将手掌框向外扩展得到手掌裁剪框,所述外扩比例的计算公式为:
scale = Min((src_h-1)/box_h,(src_w-1)/box_w,s)
其中scale表示外扩比例,src_h和src_w分别表示掌静脉图像的高和宽,box_w和box_h分别表示手掌框的高和宽,s表示预设扩展比例。
4.根据权利要求1所述的基于深度学习特征融合的掌静脉活体检测方法,其特征在于:所述特征提取分类分支为在原始的特征提取网络MobileOne network中加入PAN结构后获得的特征提取网络。
5.根据权利要求1所述的基于深度学习特征融合的掌静脉活体检测方法,其特征在于:所述步骤3)将目标特征图输入到特征边界监督分支,计算其特征mask子图,包括:
3.1)将目标特征图上的每个像素点分别映射到对应的目标训练图像的上一个8*8的block,获得目标训练图像上14*14个block的坐标信息,并将坐标信息存入二维数组M;
3.2) 在目标训练图像上标注关键点,根据关键点计算所述关键点的最大外接矩形框,并将最大外接矩形框的坐标信息存入数组N;
3.3)分别计算数组N 和数组M中每个数组元素的交并比,若交并比大于预设阈值,则将数组M的数组元素赋值为1,反之,将数组M的数组元素赋值为0,获得特征mask子图。
6.根据权利要求5所述的基于深度学习特征融合的掌静脉活体检测方法,其特征在于:所述步骤3)中,分别计算特征提取分类分支和特征边界监督分支损失,并根据所述损失训练所述掌静脉活体检测模型,包括:
3.4)选择交叉熵作为特征提取分类分支损失函数,计算特征提取分类分支损失LCeloss;
3.5)依据目标特征图和其特征mask子图计算特征边界监督分支损失Lboundray_loss;
3.6)基于特征提取分类分支损失LCEloss、特征边界监督分支损失Lboundray_loss计算掌静脉活体检测模型的总损失函数Loss;
3.7)以掌静脉活体检测模型的总损失函数Loss为基础,引导掌静脉活体检测模型进行训练。
7.根据权利要求6所述的基于深度学习特征融合的掌静脉活体检测方法,其特征在于:所述的总损失函数Loss的计算公式为:
Loss=a*Lboundray_loss+b*LCEloss
其中Loss表示总损失函数,Lboundray_loss表示特征边界监督分支损失,a表示特征边界监督分支损失的比例,LCEloss表示特征提取分类分支损失,b表示特征提取分类分支损失的比例。
8.根据权利要求7所述的基于深度学习特征融合的掌静脉活体检测方法,其特征在于,所述特征边界监督分支损失的比例为0.3,所述特征提取分类分支损失的比例为0.7。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310914788.6A CN116631068B (zh) | 2023-07-25 | 2023-07-25 | 一种基于深度学习特征融合的掌静脉活体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310914788.6A CN116631068B (zh) | 2023-07-25 | 2023-07-25 | 一种基于深度学习特征融合的掌静脉活体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116631068A CN116631068A (zh) | 2023-08-22 |
CN116631068B true CN116631068B (zh) | 2023-10-20 |
Family
ID=87603124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310914788.6A Active CN116631068B (zh) | 2023-07-25 | 2023-07-25 | 一种基于深度学习特征融合的掌静脉活体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116631068B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315833B (zh) * | 2023-09-28 | 2024-06-04 | 杭州名光微电子科技有限公司 | 一种用于智能门锁的掌静脉识别模组及其方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329696A (zh) * | 2020-11-18 | 2021-02-05 | 携程计算机技术(上海)有限公司 | 人脸活体检测方法、***、设备及存储介质 |
CN112861743A (zh) * | 2021-02-20 | 2021-05-28 | 厦门熵基科技有限公司 | 一种掌静脉图像防伪方法、装置和设备 |
CN116229528A (zh) * | 2022-12-30 | 2023-06-06 | 佳都科技集团股份有限公司 | 一种活体掌静脉检测方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086691B (zh) * | 2018-07-16 | 2020-02-21 | 阿里巴巴集团控股有限公司 | 一种三维脸部活体检测方法、脸部认证识别方法及装置 |
-
2023
- 2023-07-25 CN CN202310914788.6A patent/CN116631068B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329696A (zh) * | 2020-11-18 | 2021-02-05 | 携程计算机技术(上海)有限公司 | 人脸活体检测方法、***、设备及存储介质 |
CN112861743A (zh) * | 2021-02-20 | 2021-05-28 | 厦门熵基科技有限公司 | 一种掌静脉图像防伪方法、装置和设备 |
CN116229528A (zh) * | 2022-12-30 | 2023-06-06 | 佳都科技集团股份有限公司 | 一种活体掌静脉检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116631068A (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yuan et al. | Fingerprint liveness detection using an improved CNN with image scale equalization | |
CN102542281B (zh) | 非接触式生物特征识别方法和*** | |
CN102163283B (zh) | 一种基于局部三值模式的人脸特征提取方法 | |
Wang et al. | A thermal hand vein pattern verification system | |
CN103443804B (zh) | 面部标志检测方法 | |
CN107392187B (zh) | 一种基于梯度方向直方图的人脸活体检测方法 | |
CN104809451B (zh) | 一种基于笔画曲率检测的笔迹鉴伪*** | |
CN101201893A (zh) | 一种基于灰度信息的虹膜识别预处理方法 | |
CN109376604B (zh) | 一种基于人体姿态的年龄识别方法和装置 | |
CN102844766A (zh) | 基于人眼图像的多特征融合身份识别方法 | |
Rao et al. | Sign Language Recognition System Simulated for Video Captured with Smart Phone Front Camera. | |
CN108960076B (zh) | 基于卷积神经网络的耳朵识别与跟踪方法 | |
CN111178130A (zh) | 一种基于深度学习的人脸识别方法、***和可读存储介质 | |
CN116631068B (zh) | 一种基于深度学习特征融合的掌静脉活体检测方法 | |
CN101131728A (zh) | 一种基于Shape Context的人脸形状匹配方法 | |
Vishwakarma et al. | Simple and intelligent system to recognize the expression of speech-disabled person | |
Monwar et al. | Pain recognition using artificial neural network | |
CN107862298A (zh) | 一种基于红外摄像装置下眨眼的活体检测方法 | |
Pang et al. | Dance video motion recognition based on computer vision and image processing | |
CN105354468A (zh) | 一种基于多轴力平台步态分析的用户身份识别方法 | |
Boukhris Trabelsi et al. | A novel biometric system based hand vein recognition | |
CN108108648A (zh) | 一种新型的手势识别***装置及方法 | |
CN112861588A (zh) | 一种活体检测的方法、装置 | |
CN110135362A (zh) | 一种基于红外摄像头下的人脸快速识别方法 | |
Kalangi et al. | Deployment of Haar Cascade algorithm to detect real-time faces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |