CN115439894A - 训练指纹配对模型的方法、电子设备、程序产品及介质 - Google Patents
训练指纹配对模型的方法、电子设备、程序产品及介质 Download PDFInfo
- Publication number
- CN115439894A CN115439894A CN202211391045.7A CN202211391045A CN115439894A CN 115439894 A CN115439894 A CN 115439894A CN 202211391045 A CN202211391045 A CN 202211391045A CN 115439894 A CN115439894 A CN 115439894A
- Authority
- CN
- China
- Prior art keywords
- fingerprint image
- fingerprint
- loss
- image set
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请实施例提供一种训练指纹配对模型的方法、电子设备、程序产品及计算机可读存储介质,能够提高指纹配对模型输出指纹的质量。该方法包括:根据第一指纹图像集合、第三指纹图像集合和生成网络获取四个模拟指纹图像集合,根据四个模拟指纹图像集合计算第一几何结构损失及第二几何结构损失;根据第一模拟指纹图像集合、第二模拟指纹图像集合、第二指纹图像集合、第四指纹图像集合和判别网络获取目标判别损失、第一生成损失和第二生成损失;根据目标判别损失对判别网络进行训练;根据第一生成损失、第二生成损失、第一几何结构损失与第二几何结构损失的加权和对生成网络进行训练,以建立指纹配对模型。
Description
技术领域
本申请涉及通信技术领域,尤其涉及一种训练指纹配对模型的方法、电子设备、程序产品及计算机可读存储介质。
背景技术
生成对抗网络(generative adversarial networks,GAN)包括生成网络和判别网络,生成网络可以根据随机样本生成模拟样本,判别网络可以判断模拟样本是否真实。
目前有一种训练指纹配对模型的方法大致如下:获取随机指纹图像和真实指纹图像,将随机指纹图像输入生成网络,通过生成网络生成模拟指纹图像,将模拟指纹图像与真实指纹图像输入判别网络,根据模拟指纹图像的判别结果和真实指纹图像的判别结果训练判别网络,根据模拟指纹图像的判别结果训练生成网络,根据训练后的生成网络和训练后的判别网络建立指纹配对模型。
在实际应用中,该指纹配对模型容易生成质量差的指纹。
发明内容
本申请提供了一种训练指纹配对模型的方法、电子设备、程序产品及计算机可读存储介质,目的在于解决由指纹配对模型生成差指纹的问题。
为了实现上述目的,本申请提供了以下技术方案:
第一方面提供了一种训练指纹配对模型的方法,该方法包括:获取第一指纹图像集合和第二指纹图像集合,将第一指纹图像集合进行第一几何变换,以得到第三指纹图像集合;将第二指纹图像集合进行第一几何变换,得到第四指纹图像集合;将第一指纹图像集合输入生成网络,通过生成网络输出第一模拟指纹图像集合;将第三指纹图像集合输入生成网络,通过生成网络输出第二模拟指纹图像集合;将第一模拟指纹图像集合进行第一几何变换,以得到第三模拟指纹图像集合;将第二模拟指纹图像集合进行第二几何变换,以得到第四模拟指纹图像集合;计算第一模拟指纹图像集合与第四模拟指纹图像集合之间的第一几何结构损失,以及第二模拟指纹图像集合与第三模拟指纹图像集合之间的第二几何结构损失;将第一模拟指纹图像集合和第二指纹图像集合输入判别网络,通过判别网络输出第一判别损失和第一生成损失;将第二模拟指纹图像集合和第四指纹图像集合输入判别网络,通过判别网络输出第二判别损失和第二生成损失;将第一判别损失与第二判别损失的加权和作为目标判别损失,根据目标判别损失对判别网络进行训练;将第一生成损失、第二生成损失、第一几何结构损失与第二几何结构损失的加权和作为目标生成损失,根据目标生成损失对生成网络进行训练;根据训练后的生成网络与训练后的判别网络建立指纹配对模型。
其中,第一指纹图像集合中每张指纹图像的质量分低于预设质量分,第二指纹图像集合中每张指纹图像的质量分高于预设质量分,第二几何变换为第一几何变换的逆变换。
依此实施,第四模拟指纹图像集合与第一模拟指纹图像集合对应于第一指纹图像集合,它们可以认为是具有几何约束的指纹图像集合,根据第一模拟指纹图像集合与第四模拟指纹图像集合计算得到的第一几何结构损失可以表示它们的几何结构差异。第二模拟指纹图像集合与第三模拟指纹图像集合对应于第三指纹图像集合,它们可以认为是具有几何约束的指纹图像集合,根据第二模拟指纹图像集合与第三模拟指纹图像集合计算得到的第二几何结构损失可以表示它们的几何结构差异。根据第一生成损失、第二生成损失、第一几何结构损失与第二几何结构损失的加权和训练得到的生成网络与几何变换指纹具有相关性,因此能够更好地保留指纹的几何结构,使指纹配对模型输出指纹具有更清晰的几何结构。
在一种可能的实现方式中,第一几何结构损失为第一模拟指纹图像集合与第四模拟指纹图像集合的灰度均方根误差,第二几何结构损失为第二模拟指纹图像集合与第三模拟指纹图像集合的灰度均方根误差。
在另一种可能的实现方式中,第一几何结构损失为第一模拟指纹图像集合与第四模拟指纹图像集合的灰度平均绝对误差,第二几何结构损失为第二模拟指纹图像集合与第三模拟指纹图像集合的灰度平均绝对误差。
在另一种可能的实现方式中,第一几何变换为垂直翻转、旋转90度或旋转180度。
在另一种可能的实现方式中,获取第一指纹图像集合和第二指纹图像集合包括:
根据指纹质量参数计算在指纹图像库中每张指纹图像的质量分;
根据指纹质量分从指纹图像库中选取第一指纹图像集合和第二指纹图像集合。
结合前一种可能的实现方式,在另一种可能的实现方式中,指纹质量参数包括指纹图像的灰度平均值和指纹图像的灰度方差;
根据指纹质量参数计算在指纹图像库中每张指纹图像的指纹图像质量分包括:获取每张指纹图像的灰度平均值和灰度方差;对于任一指纹图像,确定指纹图像的质量分为指纹图像的灰度平均值和灰度方差的加权和。
在另一种可能的实现方式中,上述方法还包括:获取待处理指纹;将待处理指纹输入指纹配对模型的生成网络,通过指纹配对模型的生成网络生成待处理指纹的配对指纹。
第三方面提供一种电子设备,该电子设备包括获取单元和处理单元;
获取单元用于获取第一指纹图像集合和第二指纹图像集合,第一指纹图像集合中每张指纹图像的质量分低于预设质量分,第二指纹图像集合中每张指纹图像的质量分高于预设质量分;
处理单元用于将第一指纹图像集合进行第一几何变换,以得到第三指纹图像集合;将第二指纹图像集合进行第一几何变换,得到第四指纹图像集合;将第一指纹图像集合输入生成网络,通过生成网络输出第一模拟指纹图像集合;将第三指纹图像集合输入生成网络,通过生成网络输出第二模拟指纹图像集合;将第一模拟指纹图像集合进行第一几何变换,以得到第三模拟指纹图像集合;将第二模拟指纹图像集合进行第二几何变换,以得到第四模拟指纹图像集合,第二几何变换为第一几何变换的逆变换;计算第一模拟指纹图像集合与第四模拟指纹图像集合之间的第一几何结构损失,以及第二模拟指纹图像集合与第三模拟指纹图像集合之间的第二几何结构损失;将第一模拟指纹图像集合和第二指纹图像集合输入判别网络,通过判别网络输出第一判别损失和第一生成损失;将第二模拟指纹图像集合和第四指纹图像集合输入判别网络,通过判别网络输出第二判别损失和第二生成损失;将第一判别损失与第二判别损失的加权和作为目标判别损失,根据目标判别损失对判别网络进行训练;将第一生成损失、第二生成损失、第一几何结构损失与第二几何结构损失的加权和作为目标生成损失,根据目标生成损失对生成网络进行训练;根据训练后的生成网络与训练后的判别网络建立指纹配对模型。
在一种可能的实现方式中,第一几何结构损失为第一模拟指纹图像集合与第四模拟指纹图像集合的灰度均方根误差,第二几何结构损失为第二模拟指纹图像集合与第三模拟指纹图像集合的灰度均方根误差。
在另一种可能的实现方式中,第一几何结构损失为第一模拟指纹图像集合与第四模拟指纹图像集合的灰度平均绝对误差,第二几何结构损失为第二模拟指纹图像集合与第三模拟指纹图像集合的灰度平均绝对误差。
在另一种可能的实现方式中,第一几何变换为垂直翻转、旋转90度或旋转180度。
在另一种可能的实现方式中,获取单元具体用于根据指纹质量参数计算在指纹图像库中每张指纹图像的质量分;根据指纹质量分从指纹图像库中选取第一指纹图像集合和第二指纹图像集合。
在另一种可能的实现方式中,获取单元具体用于在指纹质量参数包括指纹图像的灰度平均值和指纹图像的灰度方差的情况下,获取每张指纹图像的灰度平均值和灰度方差;对于任一指纹图像,确定指纹图像的质量分为指纹图像的灰度平均值和灰度方差的加权和。
在另一种可能的实现方式中,获取单元还用于获取待处理指纹;处理单元还用于将待处理指纹输入指纹配对模型的生成网络,通过指纹配对模型的生成网络生成待处理指纹的配对指纹。
第三方面提供一种电子设备,其包括处理器和存储器,存储器用于存储程序;处理器通过执行程序用于实现第一方面的方法。
第四方面提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行第一方面的方法。
第五方面提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行第一方面的方法。
附图说明
图1a和图1b为本申请实施例提供的生成配对指纹的示意图;
图2为本申请提供的训练指纹配对模型的一个流程图;
图3为本申请提供的训练指纹配对模型的一个时序图;
图4为本申请提供的生成配对指纹的一个示意图;
图5为本申请提供的电子设备的一个结构图;
图6为本申请提供的电子设备的硬件结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括例如“一个或多个”这种表达形式,除非其上下文中明确地有相反指示。还应当理解,在本申请实施例中,“一个或多个”是指一个、两个或两个以上;“和/或”,描述关联对象的关联关系,表示可以存在三种关系;例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
在本说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例涉及的多个,是指大于或等于两个。需要说明的是,在本申请实施例的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。
本申请训练指纹配对模型的方法可应用于电子设备,电子设备可以是手机,平板电脑,台式电脑,车载电脑,可穿戴设备,虚拟现实设备,增强现实设备,混合现实设备等终端,或者是服务器,例如是中心服务器、边缘服务器,或者是本地数据中心的本地服务器。
下面以一个应用场景对本申请生成配对指纹的过程进行介绍,参阅图1a和图1b,在一个示例中,手机部署有指纹配对模型。用户甲在手机屏幕上点击“输入指纹”的虚拟按钮后,输入用户甲的指纹101,然后点击“生成配对指纹”的虚拟按钮,指纹101经过指纹配对模型生成指纹102,指纹102的几何结构比指纹101的几何结构更加清晰,从而得到配对的指纹101和指纹102,如图1b所示。
下面对本申请训练指纹配对模型的过程进行介绍,参阅图2,在一个实施例中,本申请训练指纹配对模型的方法包括:
步骤201、获取第一指纹图像集合和第二指纹图像集合。
其中,第一指纹图像集合中每张指纹图像的质量分低于预设质量分。第二指纹图像集合中每张指纹图像的质量分高于预设质量分。
步骤202、将第一指纹图像集合进行第一几何变换,以得到第三指纹图像集合。
步骤203、将第二指纹图像集合进行第一几何变换,以得到第四指纹图像集合。
将第一指纹图像集合和第二指纹图像集合中的每张指纹图像进行第一几何变换,分别得到第三指纹图像集合和第四指纹图像集合。
步骤204、将第一指纹图像集合输入生成网络,通过生成网络输出第一模拟指纹图像集合。
步骤205、将第三指纹图像集合输入生成网络,通过生成网络输出第二模拟指纹图像集合。
步骤206、将第一模拟指纹图像集合进行第一几何变换,以得到第三模拟指纹图像集合。
步骤207、将第二模拟指纹图像集合进行第二几何变换,以得到第四模拟指纹图像集合。
本申请中,第一几何变换为垂直翻转、旋转90度或旋转180度,第二几何变换为第一几何变换的逆变换。具体的,当第一几何变换为顺时针旋转90度时,第二几何变换为逆时针旋转90度。当第一几何变换为逆时针旋转90度时,第二几何变换为顺时针旋转90度。当第一几何变换为从上往下垂直翻转时,第二几何变换为从下往上垂直翻转。
每个指纹图像集合可以包括一张或多张指纹图像。本申请中的指纹图像集合可以理解为指纹序列。应理解,第一模拟指纹图像集合的第i张指纹图像与第四模拟指纹图像集合的第i张指纹图像是对应的,它们具有相同的图像方向,也具有相似的指纹几何结构。同理,第二模拟指纹图像集合的第i张指纹图像与第三模拟指纹图像集合的第i张指纹图像是对应的,它们具有相同的图像方向,也具有相似的指纹几何结构。
步骤208、计算第一模拟指纹图像集合与第四模拟指纹图像集合之间的第一几何结构损失,以及第二模拟指纹图像集合与第三模拟指纹图像集合之间的第二几何结构损失。
可选的,第一几何结构损失为第一模拟指纹图像集合与第四模拟指纹图像集合的灰度均方根误差,第二几何结构损失为第二模拟指纹图像集合与第三模拟指纹图像集合的灰度均方根误差。均方根误差也称为L2范数。
可选的,第一几何结构损失为第一模拟指纹图像集合与第四模拟指纹图像集合的灰度平均绝对误差,第二几何结构损失为第二模拟指纹图像集合与第三模拟指纹图像集合的灰度平均绝对误差。平均绝对误差也称为L1范数。
例如,第一几何结构损失、第一模拟指纹图像集合与第四模拟指纹图像集合满足以下公式:
例如,第二几何结构损失、第二模拟指纹图像集合与第三模拟指纹图像集合满足以下公式:
步骤209、将第一模拟指纹图像集合和第二指纹图像集合输入判别网络,通过判别网络输出第一判别损失和第一生成损失。
具体的,将第一模拟指纹图像集合输入判别网络,通过判别网络输出第一判别结果;将第二指纹图像集合输入判别网络,通过判别网络输出第二判别结果;根据第一判别结果、第二判别结果以及判别损失函数计算第一判别损失;根据第一判别结果以及生成损失函数计算第一生成损失。
可选的,计算第一判别损失的函数为:
可选的,生成损失函数为:
步骤210、将第二模拟指纹图像集合和第四指纹图像集合输入判别网络,通过判别网络输出第二判别损失和第二生成损失。
具体的,将第二模拟指纹图像输入判别网络,通过判别网络输出第三判别结果;将第四指纹图像集合输入判别网络,通过判别网络输出第四判别结果。根据第三判别结果、第四判别结果以及判别损失函数计算第二判别损失;根据第三判别结果以及生成损失函数计算第二生成损失。
可选的,计算第二判别损失的函数为:
步骤211、根据目标判别损失对判别网络进行训练,目标判别损失为第一判别损失与第二判别损失的加权和。
步骤212、根据目标生成损失对生成网络进行训练,目标生成损失为第一生成损失、第二生成损失、第一几何结构损失与第二几何结构损失的加权和。
步骤201至步骤212为一次训练判别网络和生成网络的过程,迭代执行步骤201至步骤212能够对判别网络和生成网络进行多次训练。将判别网络和生成网络训练N次后,可以重新获取两个指纹图像集合,将两个指纹图像集合按照步骤201至步骤212所示的训练流程对当前判别网络和当前生成网络继续训练,直至达到训练结束条件为止。可选的,训练结束条件是预设训练次数。另一可选的,训练结束条件包括目标判别损失小于或等于预设判别损失阈值以及目标生成损失小于或等于预设生成损失阈值。
步骤213、根据训练后的生成网络与训练后的判别网络建立指纹配对模型。指纹配对模型包括训练后的生成网络与训练后的判别网络。
本实施例中,第四模拟指纹图像集合与第一模拟指纹图像集合对应于第一指纹图像集合,根据第一模拟指纹图像集合与第四模拟指纹图像集合计算得到的第一几何结构损失可以表示它们的几何结构差异。第二模拟指纹图像集合与第三模拟指纹图像集合对应于第三指纹图像集合,根据第二模拟指纹图像集合与第三模拟指纹图像集合计算得到的第二几何结构损失可以表示它们的几何结构差异。根据所述第一生成损失、所述第二生成损失、所述第一几何结构损失与所述第二几何结构损失计算得到目标生成损失,该目标生成损失能够更加准确地反映出生成网络的生成损失,基于目标生成损失训练生成网络能够更好地生成指纹的几何结构,从而提高生成指纹的质量,还能够提高生成网络的收敛速度,降低模型坍塌的可能性。
为便于理解,下面以一个时序图对本申请中训练指纹配对模型的方法进行介绍,参阅图3,在一个示例中,几何变换为顺时针旋转90度。通过生成网络将第一指纹图像集合处理为第一模拟指纹图像集合,将第一模拟指纹图像集合的全部图像顺时针旋转90度,从而得到第三模拟指纹图像集合。将第一指纹图像集合的全部图像顺时针旋转90度,从而得到第三指纹图像集合。通过生成网络将第三指纹图像集合处理为第二模拟指纹图像集合,将第二模拟指纹图像集合的全部图像逆时针旋转90度,从而得到第四模拟指纹图像集合。
计算第一模拟指纹图像集合的第1张指纹图像与第四模拟指纹图像集合的第1张指纹图像的灰度差值,依此类推,计算出第一模拟指纹图像集合和第四模拟指纹图像集合中的全部灰度差值,根据全部灰度差值计算出第一模拟指纹图像集合和第四模拟指纹图像集合的灰度均方根误差(即第一几何结构损失)。同理计算出第二模拟指纹图像集合和第三模拟指纹图像集合的灰度均方根误差(即第二几何结构损失)。
通过判别网络将第一模拟指纹图像集合处理为第一判别结果,以及通过判别网络将第二指纹图像集合处理为第二判别结果,根据第一判别结果和第二判别结果计算出第一判别损失。通过判别网络将第二模拟指纹图像集合处理为第三判别结果,以及通过判别网络将第四指纹图像集合处理为第四判别结果,根据第三判别结果和第四判别结果计算出第二判别损失。将第一判别损失与第二判别损失的加权和作为目标判别损失,根据目标判别损失更新判别网络的权重,这样对判别网络进行了一次训练。
根据第一判别结果计算出第一生成损失,根据第三判别结果计算出第二生成损失,将第一生成损失、第二生成损失、第一几何结构损失和第二几何结构损失的加权和作为目标生成损失,根据目标生成损失更新生成网络的权重,这样对生成网络进行了一次训练。
本申请可以迭代执行上述流程,从而对判别网络和生成网络进行多次训练。本申请还可以获取其他指纹图像集合,将其他指纹图像集合按照上述训练过程对判别网络和生成网络进行多次训练,直至目标判别损失接近或等于0以及目标生成损失接近或等于0。训练完成后得到的生成网络和判别网络就构成了指纹配对模型。
本申请中获取第一指纹图像集合和第二指纹图像集合可以是预先配置的,也可以是电子设备自动从指纹图像库中选取的。下面对自动获取第一指纹图像集合和第二指纹图像集合的方法进行介绍,在一个可选实施例中,步骤201包括:根据指纹质量参数计算在指纹图像库中每张指纹图像的质量分;根据指纹质量分从指纹图像库中选取第一指纹图像集合和第二指纹图像集合。
指纹质量参数可以包括指纹图像的灰度平均值、指纹图像的灰度方差和指纹图像的标准差中的一项或多项。可选的,根据指纹质量参数计算在指纹图像库中每张指纹图像的指纹图像质量分包括:当指纹质量参数包括指纹图像的灰度平均值和指纹图像的灰度方差时,获取每张指纹图像的灰度平均值和灰度方差;对于任一指纹图像,确定指纹图像的质量分为指纹图像的灰度平均值和灰度方差的加权和。
本实施例可以根据指纹质量参数计算出每张指纹图像的质量分,然后根据质量分和质量分阈值选出差的指纹图像集合(即第一指纹图像集合)以及好的指纹图像集合(即第二指纹图像集合)。应理解,可以根据一项或多项指纹质量参数计算质量分,根据指纹质量参数计算质量分的方法不限于以上举例。
在另一个可选实施例中,本申请中训练指纹配对模型的方法还包括:获取待处理指纹后,将待处理指纹输入指纹配对模型的生成网络,通过指纹配对模型的生成网络生成待处理指纹的配对指纹。
参阅图4,在一个示例中,指纹配对模型40包括生成网络401和判别网络402,将待处理指纹经过生成网络401的处理,得到配对指纹。这样能够端到端生成配对指纹,能够低成本获取配对指纹。
本申请提供一种电子设备500能够实现本申请训练指纹配对模型的方法。参阅图5,在一个实施例中,电子设备500包括获取单元501和处理单元502。
获取单元501用于获取第一指纹图像集合和第二指纹图像集合,第一指纹图像集合中每张指纹图像的质量分低于预设质量分,第二指纹图像集合中每张指纹图像的质量分高于预设质量分;
处理单元502用于将第一指纹图像集合进行第一几何变换,以得到第三指纹图像集合;将第二指纹图像集合进行第一几何变换,得到第四指纹图像集合;将第一指纹图像集合输入生成网络,通过生成网络输出第一模拟指纹图像集合;将第三指纹图像集合输入生成网络,通过生成网络输出第二模拟指纹图像集合;将第一模拟指纹图像集合进行第一几何变换,以得到第三模拟指纹图像集合;将第二模拟指纹图像集合进行第二几何变换,以得到第四模拟指纹图像集合,第二几何变换为第一几何变换的逆变换;计算第一模拟指纹图像集合与第四模拟指纹图像集合之间的第一几何结构损失,以及第二模拟指纹图像集合与第三模拟指纹图像集合之间的第二几何结构损失;将第一模拟指纹图像集合和第二指纹图像集合输入判别网络,通过判别网络输出第一判别损失和第一生成损失;将第二模拟指纹图像集合和第四指纹图像集合输入判别网络,通过判别网络输出第二判别损失和第二生成损失;根据目标判别损失对判别网络进行训练,目标判别损失为第一判别损失与第二判别损失的加权和;根据目标生成损失对生成网络进行训练,目标生成损失为第一生成损失、第二生成损失、第一几何结构损失与第二几何结构损失的加权和;根据训练后的生成网络与训练后的判别网络建立指纹配对模型。
如图6所示,在一个实施例中,本申请提供的一种电子设备600包括:总线602、处理器604、存储器606和通信接口608。处理器604、存储器606和通信接口608之间通过总线602通信。应理解,本申请不限定电子设备600中的处理器、存储器和通信接口的个数。
总线602可以是外设部件互连标准(peripheral component interconnect,PCI)总线或扩展工业标准结构(extended industry standard architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一条线表示,但并不表示仅有一根总线或一种类型的总线。总线602可包括在电子设备600各个部件(例如,存储器606、处理器604、通信接口608)之间传送信息的通路。
处理器604可以包括中央处理器(central processing unit,CPU)、图形处理器(graphics processing unit,GPU)、神经网络处理单元(neural-network processingunits,NPU)微处理器(micro processor,MP)或者数字信号处理器(digital signalprocessor,DSP)等处理器中的任意一种或多种。
存储器606可以包括易失性存储器(volatile memory),例如随机存取存储器(random access memory,RAM)。处理器604还可以包括非易失性存储器(non-volatilememory),例如只读存储器(read-only memory,ROM),快闪存储器,机械硬盘(hard diskdrive,HDD)或固态硬盘(solid state drive,SSD)。
存储器606中存储有可执行的程序代码,处理器604执行该可执行的程序代码以分别实现前述获取单元501和处理单元502的功能,从而实现训练指纹配对模型的方法。也即,存储器606上存有用于执行训练指纹配对模型的方法的指令。
通信接口608使用例如但不限于网络接口卡、收发器一类的收发模块,来实现电子设备600与其他设备或通信网络之间的通信。
本申请实施例还提供了一种包含指令的计算机程序产品。计算机程序产品可以是包含指令的,能够运行在计算机上或被储存在任何可用介质中的软件或程序产品。当计算机程序产品在计算机上运行时,使得计算机执行训练指纹配对模型的方法。
本申请实施例还提供了一种计算机可读存储介质。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质的数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘)等。该计算机可读存储介质包括指令,所述指令指示计算机执行训练指纹配对模型的方法。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例的技术方案的范围。
Claims (13)
1.一种训练指纹配对模型的方法,其特征在于,包括:
获取第一指纹图像集合和第二指纹图像集合,所述第一指纹图像集合中每张指纹图像的质量分低于预设质量分,所述第二指纹图像集合中每张指纹图像的质量分高于预设质量分;
将所述第一指纹图像集合进行第一几何变换,以得到第三指纹图像集合;
将所述第二指纹图像集合进行第一几何变换,得到第四指纹图像集合;
将所述第一指纹图像集合输入生成网络,通过所述生成网络输出第一模拟指纹图像集合;
将所述第三指纹图像集合输入生成网络,通过所述生成网络输出第二模拟指纹图像集合;
将所述第一模拟指纹图像集合进行第一几何变换,以得到第三模拟指纹图像集合;
将所述第二模拟指纹图像集合进行第二几何变换,以得到第四模拟指纹图像集合,所述第二几何变换为所述第一几何变换的逆变换;
计算所述第一模拟指纹图像集合与所述第四模拟指纹图像集合之间的第一几何结构损失,以及所述第二模拟指纹图像集合与第三模拟指纹图像集合之间的第二几何结构损失;
将所述第一模拟指纹图像集合和所述第二指纹图像集合输入判别网络,通过所述判别网络输出第一判别损失和第一生成损失;
将所述第二模拟指纹图像集合和所述第四指纹图像集合输入判别网络,通过所述判别网络输出第二判别损失和第二生成损失;
根据目标判别损失对所述判别网络进行训练,所述目标判别损失为所述第一判别损失与所述第二判别损失的加权和;
根据目标生成损失对所述生成网络进行训练,所述目标生成损失为所述第一生成损失、所述第二生成损失、所述第一几何结构损失与所述第二几何结构损失的加权和;
根据训练后的生成网络与训练后的判别网络建立指纹配对模型。
2.根据权利要求1所述的方法,其特征在于,所述第一几何结构损失为第一模拟指纹图像集合与第四模拟指纹图像集合的灰度均方根误差,所述第二几何结构损失为第二模拟指纹图像集合与第三模拟指纹图像集合的灰度均方根误差。
3.根据权利要求1所述的方法,其特征在于,所述第一几何变换为垂直翻转、旋转90度或旋转180度。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述获取第一指纹图像集合和第二指纹图像集合包括:
根据指纹质量参数计算在指纹图像库中每张指纹图像的质量分;
根据指纹质量分从所述指纹图像库中选取第一指纹图像集合和第二指纹图像集合。
5.根据权利要求4所述的方法,其特征在于,所述指纹质量参数包括指纹图像的灰度平均值和指纹图像的灰度方差;
所述根据指纹质量参数计算在指纹图像库中每张指纹图像的指纹图像质量分包括:获取每张指纹图像的灰度平均值和灰度方差;对于任一指纹图像,确定所述指纹图像的质量分为所述指纹图像的灰度平均值和灰度方差的加权和。
6.根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
获取待处理指纹;
将所述待处理指纹输入所述指纹配对模型的生成网络,通过所述指纹配对模型的生成网络生成所述待处理指纹的配对指纹。
7.一种电子设备,其特征在于,包括:
获取单元,用于获取第一指纹图像集合和第二指纹图像集合,所述第一指纹图像集合中每张指纹图像的质量分低于预设质量分,所述第二指纹图像集合中每张指纹图像的质量分高于预设质量分;
处理单元,用于将所述第一指纹图像集合进行第一几何变换,以得到第三指纹图像集合;将所述第二指纹图像集合进行第一几何变换,得到第四指纹图像集合;将所述第一指纹图像集合输入生成网络,通过所述生成网络输出第一模拟指纹图像集合;将所述第三指纹图像集合输入生成网络,通过所述生成网络输出第二模拟指纹图像集合;将所述第一模拟指纹图像集合进行第一几何变换,以得到第三模拟指纹图像集合;将所述第二模拟指纹图像集合进行第二几何变换,以得到第四模拟指纹图像集合,所述第二几何变换为所述第一几何变换的逆变换;计算所述第一模拟指纹图像集合与所述第四模拟指纹图像集合之间的第一几何结构损失,以及所述第二模拟指纹图像集合与第三模拟指纹图像集合之间的第二几何结构损失;将所述第一模拟指纹图像集合和所述第二指纹图像集合输入判别网络,通过所述判别网络输出第一判别损失和第一生成损失;将所述第二模拟指纹图像集合和所述第四指纹图像集合输入判别网络,通过所述判别网络输出第二判别损失和第二生成损失;根据目标判别损失对所述判别网络进行训练,所述目标判别损失为所述第一判别损失与所述第二判别损失的加权和;根据目标生成损失对所述生成网络进行训练,所述目标生成损失为所述第一生成损失、所述第二生成损失、所述第一几何结构损失与所述第二几何结构损失的加权和;根据训练后的生成网络与训练后的判别网络建立指纹配对模型。
8.根据权利要求7所述的电子设备,其特征在于,所述获取单元具体用于根据指纹质量参数计算在指纹图像库中每张指纹图像的质量分;根据指纹质量分从所述指纹图像库中选取第一指纹图像集合和第二指纹图像集合。
9.根据权利要求8所述的电子设备,其特征在于,所述获取单元具体用于在所述指纹质量参数包括指纹图像的灰度平均值和指纹图像的灰度方差的情况下,获取每张指纹图像的灰度平均值和灰度方差;对于任一指纹图像,确定所述指纹图像的质量分为所述指纹图像的灰度平均值和灰度方差的加权和。
10.根据权利要求7至9中任一项所述的电子设备,其特征在于,
所述获取单元还用于获取待处理指纹;
所述处理单元还用于将所述待处理指纹输入所述指纹配对模型的生成网络,通过所述指纹配对模型的生成网络生成所述待处理指纹的配对指纹。
11.一种电子设备,其特征在于,包括处理器和存储器,所述存储器用于存储指令,所述处理器用于执行所述指令,使得所述电子设备执行权利要求1至6中任一项的方法。
12.一种存储有指令的计算机可读存储介质,其特征在于,当所述指令在计算机上运行时,使得计算机执行权利要求1至6中任一项的方法。
13.一种包含指令的计算机程序产品,其特征在于,当所述指令在计算机上运行时,使得计算机执行权利要求1至6中任一项的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211391045.7A CN115439894B (zh) | 2022-11-08 | 2022-11-08 | 训练指纹配对模型的方法、电子设备、程序产品及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211391045.7A CN115439894B (zh) | 2022-11-08 | 2022-11-08 | 训练指纹配对模型的方法、电子设备、程序产品及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115439894A true CN115439894A (zh) | 2022-12-06 |
CN115439894B CN115439894B (zh) | 2023-04-11 |
Family
ID=84252166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211391045.7A Active CN115439894B (zh) | 2022-11-08 | 2022-11-08 | 训练指纹配对模型的方法、电子设备、程序产品及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115439894B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325668A (zh) * | 2020-02-06 | 2020-06-23 | 北京字节跳动网络技术有限公司 | 图像处理深度学习模型的训练方法、装置及电子设备 |
CN111445007A (zh) * | 2020-03-03 | 2020-07-24 | 平安科技(深圳)有限公司 | 对抗生成神经网络的训练方法及*** |
CN111489290A (zh) * | 2019-04-02 | 2020-08-04 | 同观科技(深圳)有限公司 | 一种人脸图像超分辨重建方法、装置及终端设备 |
CN112967174A (zh) * | 2021-01-21 | 2021-06-15 | 北京达佳互联信息技术有限公司 | 图像生成模型训练、图像生成方法、装置及存储介质 |
CN113469897A (zh) * | 2021-05-24 | 2021-10-01 | 苏州市科远软件技术开发有限公司 | 图像增强模型的训练、图像增强方法、装置及电子设备 |
CN115131218A (zh) * | 2021-03-25 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN115170388A (zh) * | 2022-07-28 | 2022-10-11 | 西南大学 | 人物线稿生成方法、装置、设备及介质 |
-
2022
- 2022-11-08 CN CN202211391045.7A patent/CN115439894B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111489290A (zh) * | 2019-04-02 | 2020-08-04 | 同观科技(深圳)有限公司 | 一种人脸图像超分辨重建方法、装置及终端设备 |
CN111325668A (zh) * | 2020-02-06 | 2020-06-23 | 北京字节跳动网络技术有限公司 | 图像处理深度学习模型的训练方法、装置及电子设备 |
CN111445007A (zh) * | 2020-03-03 | 2020-07-24 | 平安科技(深圳)有限公司 | 对抗生成神经网络的训练方法及*** |
CN112967174A (zh) * | 2021-01-21 | 2021-06-15 | 北京达佳互联信息技术有限公司 | 图像生成模型训练、图像生成方法、装置及存储介质 |
CN115131218A (zh) * | 2021-03-25 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN113469897A (zh) * | 2021-05-24 | 2021-10-01 | 苏州市科远软件技术开发有限公司 | 图像增强模型的训练、图像增强方法、装置及电子设备 |
CN115170388A (zh) * | 2022-07-28 | 2022-10-11 | 西南大学 | 人物线稿生成方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115439894B (zh) | 2023-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108898186B (zh) | 用于提取图像的方法和装置 | |
JP7009614B2 (ja) | ディープニューラルネットワークの正規化方法および装置、機器、ならびに記憶媒体 | |
US11232286B2 (en) | Method and apparatus for generating face rotation image | |
CN108229296B (zh) | 人脸皮肤属性识别方法和装置、电子设备、存储介质 | |
US20220261968A1 (en) | Image optimization method and apparatus, computer storage medium, and electronic device | |
CN108427927B (zh) | 目标再识别方法和装置、电子设备、程序和存储介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN109859305B (zh) | 基于多角度二维人脸的三维人脸建模、识别方法及装置 | |
CN109345553B (zh) | 一种手掌及其关键点检测方法、装置和终端设备 | |
US10719693B2 (en) | Method and apparatus for outputting information of object relationship | |
CN107507153B (zh) | 图像去噪方法和装置 | |
CN114186632B (zh) | 关键点检测模型的训练方法、装置、设备、存储介质 | |
CN109919971B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN114925748B (zh) | 模型训练及模态信息的预测方法、相关装置、设备、介质 | |
WO2019146057A1 (ja) | 学習装置、実写画像分類装置の生成システム、実写画像分類装置の生成装置、学習方法及びプログラム | |
CN113705362B (zh) | 图像检测模型的训练方法、装置、电子设备及存储介质 | |
WO2021043023A1 (zh) | 图像处理方法及装置、分类器训练方法以及可读存储介质 | |
CN111932451A (zh) | 重定位效果的评价方法、装置、电子设备和存储介质 | |
CN115063847A (zh) | 一种面部图像获取模型的训练方法及装置 | |
CN113469091B (zh) | 人脸识别方法、训练方法、电子设备及存储介质 | |
CN111382791A (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
WO2022126917A1 (zh) | 基于深度学习的人脸图像评估方法、装置、设备及介质 | |
CN115439894B (zh) | 训练指纹配对模型的方法、电子设备、程序产品及介质 | |
US20230401670A1 (en) | Multi-scale autoencoder generation method, electronic device and readable storage medium | |
CN114882273B (zh) | 应用于狭小空间的视觉识别方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |