CN112149521B - 一种基于多任务卷积神经网络的掌纹roi提取与增强的方法 - Google Patents

一种基于多任务卷积神经网络的掌纹roi提取与增强的方法 Download PDF

Info

Publication number
CN112149521B
CN112149521B CN202010916060.3A CN202010916060A CN112149521B CN 112149521 B CN112149521 B CN 112149521B CN 202010916060 A CN202010916060 A CN 202010916060A CN 112149521 B CN112149521 B CN 112149521B
Authority
CN
China
Prior art keywords
palm print
neural network
image
convolutional neural
palmprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010916060.3A
Other languages
English (en)
Other versions
CN112149521A (zh
Inventor
王海霞
苏立循
蒋莉
陈朋
梁荣华
张仪龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010916060.3A priority Critical patent/CN112149521B/zh
Publication of CN112149521A publication Critical patent/CN112149521A/zh
Application granted granted Critical
Publication of CN112149521B publication Critical patent/CN112149521B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于多任务卷积神经网络的掌纹ROI提取与增强的方法,包括如下步骤:1)对样本进行训练前的准备工作,先将样本复制成两份,分别为A和B,对样本A进行BM3D去噪和Gabor小波滤波,以此来对样本进行图像增强处理;对样本B进行标记,分别标记训练样本的两个指间谷点和掌纹ROI区域;最后对标记后的训练样本进行数据扩充;2)用步骤1)生成的训练样本来训练多任务卷积神经网络,得到用于掌纹ROI提取与增强的网络模型;3)通过验证集验证训练好的多任务卷积神经网络模型并输出结果,并对结果进行矫正。本发明能够以更高的准确性和鲁棒性实现从一般掌纹中提取到具备图像增强的掌纹感兴趣区域。

Description

一种基于多任务卷积神经网络的掌纹ROI提取与增强的方法
技术领域
本发明涉及掌纹增强分割领域,特别涉及一种基于多任务卷积神经网络的掌纹ROI(Region Of Interest)提取与增强的方法。
背景技术
现有的生物特征识别技术,主要包括指纹识别,人脸识别,虹膜识别和掌纹识别等。由于掌纹的形状是由每个人的基因所决定的,即使后天因为受损,后续生长出来的纹路也是会保持和原来一样的形状,因此是一种具备相当大潜力的生物识别方法。掌纹主要由三种纹路所组成,分别是:乳突纹、皱纹和屈肌线。这三条主纹路是人与生俱来的,具有很好的稳定性。虽然乳突纹和皱纹在幼年生长期间会产生轻微的变化,但在成年之后,掌纹的变化将不会明显,并且这些变化也不是在短时间内产生的,需要经过漫长的时间才行。香港理工大学曾对人体掌纹进行过长达四年的研究,研究得出的结论是掌纹的特征是具备稳定性的。掌纹的特征同时也具备唯一性,即使同卵双胞胎,他们的掌纹也是不一样的,即使是同一个人的左右手掌纹也是不相同的。从基因遗传的角度上来说,掌纹属于多基因遗传,同指纹一样,具备着唯一性,但是掌纹比指纹的面积更大,能更好的展现出细节特征。
与此同时,神经网络有着强大的自学能力和快速寻找最优解的功能,在近几年得到了快速的发展。神经网络的灵感来源于人脑的脑神经细胞,人的大脑运作并不是直接从视网膜获得信息,而是通过感官器官接收到刺激信号通过一个大脑的一个复杂层状的结构获得事物的规则,这种明确的层状分级结构降低了数据量,也优化了处理的效率,深度学习在受到大脑结构的启发下所产生了。这就给了通过神经网络对掌纹进行增强和提取提供了可能。
发明内容
为了克服现有掌纹增强与ROI提取的时间复杂性与鲁棒性差的不足,本发明提出了一种基于多任务卷积神经网络的掌纹ROI提取与增强的方法,通过神经网络的自学习与快速寻找最优解功能,从而实现掌纹ROI提取与增强有更高的鲁棒性和减少时间周期。多任务学习是基于共享表示,把多个相关的任务一起学习的一种机器学习方法,多个任务之间相互泛化,提高了学习效果。
为了实现上述目的,本发明采用的技术方案为:
一种基于多任务卷积神经网络的掌纹ROI提取与增强的方法,所述方法包括如下步骤:
1)对样本进行训练前的准备工作,先将样本复制成两份,分别为A和B;对样本A进行BM3D去噪和Gabor小波滤波,以此来对样本进行图像增强处理;对样本B进行标记,分别标记训练样本的两个指间谷点和掌纹ROI区域;最后对标记后的训练样本进行数据扩充;
2)用步骤1)生成的训练样本来训练多任务卷积神经网络,得到用于掌纹ROI提取与增强的网络模型;
3)通过验证集验证训练好的多任务卷积神经网络模型并输出结果,并对结果进行矫正。
进一步,所述步骤1)包括如下步骤:
(11)所挑选的掌纹图像存在多种噪声,对这些图像进行去噪的目的是为了给后续的神经网络训练提供去噪的训练样本,用BM3D去噪算法对掌纹图像进行去噪操作;
(12)用Gabor小波对去噪后的掌纹图像进行滤波增强操作,Gabor小波变换是小波变换中的一种,是Gabor变换的正交化,通过Gabor小波对掌纹图像进行分解,然后在进行逆变换,在这个过程中通过改变相应参数来筛选重要的分量,以达到图像增强的目的;
(13)对训练样本的掌纹标记,标记位置为中指与其它两只手指间的谷点,标记大小为x像素*x像素;
(14)对训练样本的掌纹标记,标记位置为掌纹感兴趣区域,标记大小为y像素*z像素,如y=144,z=128;
(15)对上述操作后的m张掌纹图像进行数据扩充,扩充方式为对图像进行随机旋转和左右翻转,筛选仍保留掌纹主要信息的图像,以此作为神经网络训练的训练样本。
再进一步,所述步骤2)包括如下步骤:
(21)构建一个多任务卷积神经网络模型,使其能够同时实现对掌纹图像的增强与分割,该网络将其分为三个部分,第一部分为共享部分,共享部分对掌纹图像进行下采样操作,将图像输入,进行2个卷积模块的操作,其中卷积核的大小为3*3,特征层为64,并经过最后一个卷积模块的输出保存;对其结果进行最大池化操作,再进行2个卷积模块的卷积操作,其中卷积核的大小为3*3,特征层为128,并经过最后一个卷积模块的输出保存;后续处理与上述相同,进行两次先池化后卷积,其对应的卷积模块的卷积核为3*3,特征层为256和卷积核为3*3,特征层为512;
(22)第二部分为独立部分,是掌纹图像分割部分,在第一部分输出的基础上对其进行上采样,上采样过程为3次反卷积和3次2个卷积模块的交叉操作,最终输出与原图相同大小的掌纹分割图,该部分的卷积层的卷积核为3*3,特征层大小依次为256、28、64,最后一次的卷积操作的卷积核为1*1,特征层为1;
(23)第三部分为独立部分,是掌纹图像增强部分,在第一部分输出的基础上对其进行上采样,上采样过程为3次反卷积模块和3次2个卷积模块的交叉操作,最终输出与原图相同大小的掌纹分割图,该部分的卷积层的卷积核为3*3,特征层大小依次为256、28、64,最后一次的卷积操作的卷积核为1*1,特征层为1;
(24)在上述构建的多任务卷积神经网络中,两个共享的卷积层的激活函数均为ReLU,在两个任务的独立卷积层中,掌纹ROI提取网络结构的最后一层激活函数为sigmoid,而掌纹图像增强网络结构的激活函数为ReLU;
(25)在上述训练过程中,多任务卷积神经网络总损失函数为:
Loss1+2=α*loss1+β*loss2
Loss1+2是多任务神经网络的总损失函数,α、β分别是对应每个任务预设的权重系数,loss1、loss2分别为多任务卷积神经网络中的掌纹ROI提取损失函数和掌纹图像损失函数,过程如下:
(251)掌纹ROI提取的损失函数loss1定义为:
(252)掌纹图像增强的损失函数loss2定义为:
其中fi表示预测值;yi表示真实值。
更进一步,所述步骤3)包括如下步骤:
(31)将需要处理的图像输入到训练好的多任务卷积神经网络中,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行网络反向传播,直至损失函数保持稳定,输出结果图:掌纹标定图和掌纹增强图;
(32)对掌纹感兴趣区域标定图进行矫正处理,矫正步骤如下:
(321)连接两个谷点,可以画得直线和相对应垂线,将以此两条直线建立新的坐标轴,以两条直线交点为原点,先将掌纹图像以原点O为中心旋转角度θ,θ表示为:当θ为正值时,逆时针旋转掌纹图像;反之,则顺时针旋转掌纹图像,以此两个谷点为参照物,判断神经网络自动标定的掌纹感兴趣区域与谷点之间的距离;
(322)根据经验判断,可以确定掌纹感兴趣区域左侧边界距离谷点连接线的距离为两谷点距离的四分之一,右侧边界距离为两谷点距离的1.5倍,如果满足该条件,则标定结果不需要矫正,否则需要进行矫正处理;
(323)若不满足该结果,将对掌纹标定结果进行自动矫正,对掌纹感兴趣区域缺少部分进行填充,对多余部分进行还原。
与现有技术相比,本发明的有益效果在于:即能实现对掌纹感兴趣区域的提取,且存在自动矫正的功能,适应不同大小的手掌,也能同时实现对掌纹图像的增强。减少了两者分别操作的时间成本,也具有更好的鲁棒性与普适性。
附图说明
图1是本发明中掌纹谷点和ROI标定示意图。
图2是本发明中多任务卷积神经网络结构示意图。
图3是本发明的多任务卷积神经网络训练步骤流程图。
具体实施方式
下面结合附图和实施方式对本发明作进一步说明:
参照图1、图2、图3,一种基于多任务卷积神经网络的掌纹ROI提取与增强的方法,包括如下步骤:
1)对样本进行训练前的准备工作,先将样本复制成两份,分别为A和B;对样本A进行BM3D去噪和Gabor小波滤波,以此来对样本进行图像增强处理;对样本B进行标记,分别标记训练样本的两个指间谷点和掌纹ROI区域;最后对标记后的训练样本进行数据扩充,包括如下步骤:
(11)所挑选的掌纹图像存在多种噪声,对这些图像进行去噪的目的是为了给后续的神经网络训练提供去噪的训练样本,用BM3D去噪算法对掌纹图像进行去噪操作;
(12)用Gabor小波对去噪后的掌纹图像进行滤波增强操作,Gabor小波变换是小波变换中的一种,是Gabor变换的正交化,通过Gabor小波对掌纹图像进行分解,然后在进行逆变换,在这个过程中通过改变相应参数来筛选重要的分量,以达到图像增强的目的;
(13)对训练样本的掌纹标记,标记位置为中指与其它两只手指间的谷点,标记大小为x像素*x像素,如x=5,如图1所示;
(14)对训练样本的掌纹标记,标记位置为掌纹感兴趣区域,标记大小为y像素*z像素,如y=144,z=128,如图1所示;
(15)对上述操作后的m张掌纹图像进行数据扩充,扩充方式为对图像进行随机旋转和左右翻转,筛选仍保留掌纹主要信息的图像,以此作为神经网络训练的训练样本;
2)用步骤1)生成的训练样本来训练多任务卷积神经网络,得到用于掌纹ROI提取与增强的网络模型;包括如下步骤:
(21)构建一个多任务卷积神经网络模型,使其能够同时实现对掌纹图像的增强与分割,该网络将其分为三个部分,第一部分为共享部分,共享部分对掌纹图像进行下采样操作,将图像输入,进行2个卷积模块的操作,其中卷积核的大小为3*3,特征层为64,并经过最后一个卷积模块的输出保存;对其结果进行最大池化操作,再进行2个卷积模块的卷积操作,其中卷积核的大小为3*3,特征层为128,并经过最后一个卷积模块的输出保存;后续处理与上述相同,进行两次先池化后卷积,其对应的卷积模块的卷积核为3*3,特征层为256和卷积核为3*3,特征层为512,如图2所示;
(22)第二部分为独立部分,是掌纹图像分割部分,在第一部分输出的基础上对其进行上采样,上采样过程为3次反卷积和3次2个卷积模块的交叉操作,最终输出与原图相同大小的掌纹分割图,该部分的卷积层的卷积核为3*3,特征层大小依次为256、28、64。最后一次的卷积操作的卷积核为1*1,特征层为1,如图2所示;
(23)第三部分为独立部分,是掌纹图像增强部分。在第一部分输出的基础上对其进行上采样,上采样过程为3次反卷积模块和3次2个卷积模块的交叉操作,最终输出与原图相同大小的掌纹分割图,该部分的卷积层的卷积核为3*3,特征层大小依次为256、28、64。最后一次的卷积操作的卷积核为1*1,特征层为1,如图2所示;
(24)在上述构建的多任务卷积神经网络中,两个共享的卷积层的激活函数均为ReLU,在两个任务的独立卷积层中,掌纹ROI提取网络结构的最后一层激活函数为sigmoid,而掌纹图像增强网络结构的激活函数为ReLU;
(25)在上述训练过程中,多任务卷积神经网络总损失函数为:
Loss1+2=α*loss1+β*loss2
loss1+2是多任务神经网络的总损失函数,α、β分别是对应每个任务预设的权重系数,loss1、loss2分别为多任务卷积神经网络中的掌纹ROI提取损失函数和掌纹图像损失函数,过程如下:
(251)掌纹ROI提取的损失函数loss1定义为:
(252)掌纹图像增强的损失函数loss2定义为:
其中fi表示预测值;yi表示真实值;
3)通过验证集验证训练好的多任务卷积神经网络模型并输出结果,并对结果进行矫正,包括如下步骤:
(31)将需要处理的图像输入到训练好的多任务卷积神经网络中,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行网络反向传播,直至损失函数保持稳定,输出结果图:掌纹标定图和掌纹增强图;
(32)对掌纹感兴趣区域标定图进行矫正处理,矫正步骤如下:
(321)连接两个谷点,可以画得直线和相对应垂线。将以此两条直线建立新的坐标轴。以两条直线交点为原点,先将掌纹图像以原点O为中心旋转角度θ,θ表示为:当θ为正值时,逆时针旋转掌纹图像;反之,则顺时针旋转掌纹图像,以此两个谷点为参照物,判断神经网络自动标定的掌纹感兴趣区域与谷点之间的距离;
(322)根据经验判断,可以确定掌纹感兴趣区域左侧边界距离谷点连接线的距离为两谷点距离的四分之一,右侧边界距离为两谷点距离的1.5倍,如果满足该条件,则标定结果不需要矫正,否则需要进行矫正处理;
(323)若不满足该结果,将对掌纹标定结果进行自动矫正,对掌纹感兴趣区域缺少部分进行填充,对多余部分进行还原。

Claims (3)

1.一种基于多任务卷积神经网络的掌纹ROI提取与增强的方法,其特征在于,所述方法包括如下步骤:
1)对样本进行训练前的准备工作,先将样本复制成两份,分别为A和B;对样本A进行BM3D去噪和Gabor小波滤波,以此来对样本进行图像增强处理;对样本B进行标记,分别标记训练样本的两个指间谷点和掌纹ROI区域;最后对标记后的训练样本进行数据扩充;
2)用步骤1)生成的训练样本来训练多任务卷积神经网络,得到用于掌纹ROI提取与增强的网络模型;
步骤2)包括如下步骤:
(21)构建一个多任务卷积神经网络模型,使其能够同时实现对掌纹图像的增强与分割,该网络将其分为三个部分,第一部分为共享部分,共享部分对掌纹图像进行下采样操作,将图像输入,进行2个卷积模块的操作,其中卷积核的大小为3*3,特征层为64,并经过最后一个卷积模块的输出保存;对其结果进行最大池化操作,再进行2个卷积模块的卷积操作,其中卷积核的大小为3*3,特征层为128,并经过最后一个卷积模块的输出保存;后续处理与上述相同,进行两次先池化后卷积,其对应的卷积模块的卷积核为3*3,特征层为256和卷积核为3*3,特征层为512;
(22)第二部分为独立部分,是掌纹图像分割部分,在第一部分输出的基础上对其进行上采样,上采样过程为3次反卷积和3次2个卷积模块的交叉操作,最终输出与原图相同大小的掌纹分割图,该部分的卷积层的卷积核为3*3,特征层大小依次为256、28、64,最后一次的卷积操作的卷积核为1*1,特征层为1;
(23)第三部分为独立部分,是掌纹图像增强部分,在第一部分输出的基础上对其进行上采样,上采样过程为3次反卷积模块和3次2个卷积模块的交叉操作,最终输出与原图相同大小的掌纹分割图,该部分的卷积层的卷积核为3*3,特征层大小依次为256、28、64,最后一次的卷积操作的卷积核为1*1,特征层为1;
(24)在上述构建的多任务卷积神经网络中,两个共享的卷积层的激活函数均为ReLU,在两个任务的独立卷积层中,掌纹ROI提取网络结构的最后一层激活函数为sigmoid,而掌纹图像增强网络结构的激活函数为ReLU;
(25)在训练过程中,多任务卷积神经网络总损失函数为:
Loss1+2=α*loss1+β*loss2
Loss1+2是多任务神经网络的总损失函数,α、β分别是对应每个任务预设的权重系数,loss1、loss2分别为多任务卷积神经网络中的掌纹ROI提取损失函数和掌纹图像损失函数,过程如下:
(251)掌纹ROI提取的损失函数loss1定义为:
(252)掌纹图像增强的损失函数loss2定义为:
其中fi表示预测值;yi表示真实值;
3)通过验证集验证训练好的多任务卷积神经网络模型并输出结果,并对结果进行矫正。
2.根据权利要求1所述的基于多任务卷积神经网络的掌纹ROI提取与增强的方法,其特征在于,所述步骤1)包括如下步骤:
(11)所挑选的掌纹图像存在多种噪声,对这些图像进行去噪的目的是为了给后续的神经网络训练提供去噪的训练样本,用BM3D去噪算法对掌纹图像进行去噪操作;
(12)用Gabor小波对去噪后的掌纹图像进行滤波增强操作,Gabor小波变换是小波变换中的一种,是Gabor变换的正交化,通过Gabor小波对掌纹图像进行分解,然后在进行逆变换,在这个过程中通过改变相应参数来筛选重要的分量,以达到图像增强的目的;
(13)对训练样本的掌纹标记,标记位置为中指与其它两只手指间的谷点,标记大小为x像素*x像素;
(14)对训练样本的掌纹标记,标记位置为掌纹感兴趣区域,标记大小为y像素*z像素,如y=144,z=128;
(15)对上述操作后的m张掌纹图像进行数据扩充,扩充方式为对图像进行随机旋转和左右翻转,筛选仍保留掌纹主要信息的图像,以此作为神经网络训练的训练样本。
3.根据权利要求1或2所述的基于多任务卷积神经网络的掌纹ROI提取与增强的方法,其特征在于,步骤3)包括如下步骤:
(31)将需要处理的图像输入到训练好的多任务卷积神经网络中,比较网络的输出结果和测试集中的原始图像,计算损失函数,进行网络反向传播,直至损失函数保持稳定,输出结果图:掌纹标定图和掌纹增强图;
(32)对掌纹感兴趣区域标定图进行矫正处理,矫正步骤如下:
(321)连接两个谷点,画得直线和相对应垂线,将以此两条直线建立新的坐标轴,以两条直线交点为原点,先将掌纹图像以原点O为中心旋转角度θ,θ表示为:当θ为正值时,逆时针旋转掌纹图像;反之,则顺时针旋转掌纹图像,以此两个谷点为参照物,判断神经网络自动标定的掌纹感兴趣区域与谷点之间的距离;
(322)根据经验判断,确定掌纹感兴趣区域左侧边界距离谷点连接线的距离为两谷点距离的四分之一,右侧边界距离为两谷点距离的1.5倍,如果满足该条件,则标定结果不需要矫正,否则需要进行矫正处理;
(323)若不满足该条件,将对掌纹标定结果进行自动矫正,对掌纹感兴趣区域缺少部分进行填充,对多余部分进行还原。
CN202010916060.3A 2020-09-03 2020-09-03 一种基于多任务卷积神经网络的掌纹roi提取与增强的方法 Active CN112149521B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010916060.3A CN112149521B (zh) 2020-09-03 2020-09-03 一种基于多任务卷积神经网络的掌纹roi提取与增强的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010916060.3A CN112149521B (zh) 2020-09-03 2020-09-03 一种基于多任务卷积神经网络的掌纹roi提取与增强的方法

Publications (2)

Publication Number Publication Date
CN112149521A CN112149521A (zh) 2020-12-29
CN112149521B true CN112149521B (zh) 2024-05-07

Family

ID=73889268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010916060.3A Active CN112149521B (zh) 2020-09-03 2020-09-03 一种基于多任务卷积神经网络的掌纹roi提取与增强的方法

Country Status (1)

Country Link
CN (1) CN112149521B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191987A (zh) * 2021-05-31 2021-07-30 齐鲁工业大学 一种基于PCNN和Otsu的掌纹图像增强方法
CN114140424B (zh) * 2021-11-29 2023-07-18 佳都科技集团股份有限公司 掌静脉数据增强方法、装置、电子设备和介质
CN115527079B (zh) * 2022-02-28 2023-07-14 腾讯科技(深圳)有限公司 掌纹样本的生成方法、装置、设备、介质及程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701513A (zh) * 2016-01-14 2016-06-22 深圳市未来媒体技术研究院 快速提取掌纹感兴趣区域的方法
CN107977671A (zh) * 2017-10-27 2018-05-01 浙江工业大学 一种基于多任务卷积神经网络的舌象分类方法
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
KR20200046169A (ko) * 2018-10-17 2020-05-07 엔에이치엔 주식회사 손금 검출 뉴럴 네트워크 시스템 및 손금 기반 운세 예측 서비스 제공방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701513A (zh) * 2016-01-14 2016-06-22 深圳市未来媒体技术研究院 快速提取掌纹感兴趣区域的方法
CN107977671A (zh) * 2017-10-27 2018-05-01 浙江工业大学 一种基于多任务卷积神经网络的舌象分类方法
CN108564097A (zh) * 2017-12-05 2018-09-21 华南理工大学 一种基于深度卷积神经网络的多尺度目标检测方法
KR20200046169A (ko) * 2018-10-17 2020-05-07 엔에이치엔 주식회사 손금 검출 뉴럴 네트워크 시스템 및 손금 기반 운세 예측 서비스 제공방법

Also Published As

Publication number Publication date
CN112149521A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
CN112149521B (zh) 一种基于多任务卷积神经网络的掌纹roi提取与增强的方法
Li et al. Residual u-net for retinal vessel segmentation
Rao et al. A deep learning approach to detection of splicing and copy-move forgeries in images
CN110543822A (zh) 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法
CN106709450A (zh) 一种指纹图像识别方法及***
CN112132817A (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
KR20130084654A (ko) 기하학적 이미지 중의 중파 정보에 기반한 삼차원 얼굴 식별방법
CN110245621B (zh) 人脸识别装置及图像处理方法、特征提取模型、存储介质
CN110543906B (zh) 基于Mask R-CNN模型的肤质自动识别方法
CN106991380A (zh) 一种基于掌静脉图像的预处理方法
CN112288645B (zh) 一种颅骨面貌复原模型构建方法及复原方法与***
CN113658040A (zh) 一种基于先验信息和注意力融合机制的人脸超分辨方法
CN104091145A (zh) 人体掌脉特征图像采集方法
CN108021908A (zh) 人脸年龄段识别方法及装置、计算机装置及可读存储介质
CN110232390A (zh) 一种变化光照下图像特征提取方法
CN113095156A (zh) 一种基于逆灰度方式的双流网络签名鉴定方法及装置
Guo et al. Multifeature extracting CNN with concatenation for image denoising
CN117409030B (zh) 基于动态管状卷积的octa图像血管分割方法及其***
CN109559296B (zh) 基于全卷积神经网络和互信息的医学图像配准方法及***
Shen et al. CNN-based high-resolution fingerprint image enhancement for pore detection and matching
Chen et al. A finger vein recognition algorithm based on deep learning
CN112435179B (zh) 模糊花粉颗粒图片处理方法、装置和电子设备
CN111612083B (zh) 一种手指静脉识别方法、装置及设备
CN105389573B (zh) 一种基于局部三值模式分层重构的人脸识别方法
CN117196963A (zh) 一种基于降噪自编码器的点云去噪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant