CN115393914A - 多任务模型训练方法、装置、设备及存储介质 - Google Patents

多任务模型训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115393914A
CN115393914A CN202110500779.3A CN202110500779A CN115393914A CN 115393914 A CN115393914 A CN 115393914A CN 202110500779 A CN202110500779 A CN 202110500779A CN 115393914 A CN115393914 A CN 115393914A
Authority
CN
China
Prior art keywords
task
training
model
loss
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110500779.3A
Other languages
English (en)
Inventor
降小龙
刘聪
杨浩杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Soyoung Technology Beijing Co Ltd
Original Assignee
Soyoung Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Soyoung Technology Beijing Co Ltd filed Critical Soyoung Technology Beijing Co Ltd
Priority to CN202110500779.3A priority Critical patent/CN115393914A/zh
Publication of CN115393914A publication Critical patent/CN115393914A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种多任务模型训练方法及装置、人脸属性识别方法及装置、设备及存储介质,训练方法包括:在进行每轮训练时,通过从训练集中预留出一部分训练数据作为评估数据,从而在利用剩余的训练数据进行正向传播之后,利用正向传播得到的损失和评估数据计算出模型中每个任务的增益值,再通过增益值动态调整每个任务的损失权重,以动态调整每个任务在训练过程中的重要性占比,进而利用由调整后的损失权重获得的损失优化模型中的参数,以确保模型中每个任务得到充分训练,让每个任务都能表项优秀。

Description

多任务模型训练方法、装置、设备及存储介质
技术领域
本发明涉及计算机技术领域,具体涉及一种多任务模型训练方法及装置、人脸属性识别方法及装置、设备及存储介质。
背景技术
人脸属性识别旨在基于给定的人脸图像,准确识别出丰富的细节描述,人脸属性多种多样,包括年龄、性别、种族以及各种体貌特征等。人脸属性识别在监控安防、娱乐、刑侦、金融等各方各面都有着广泛的用途。
目前,随着神经网络的加深,面对一个模型进行多个属性预测的问题,是在特征提取模块后面加上N(任务数量)个全连接层的分支,每一分支负责一个预测任务,将每个任务的损失函数加权相加,得到总体的损失函数。但是这种方式难以在全局表现优秀的情况下,保证每个任务都得到充分训练,甚至难以达到全局表现优秀的效果。
发明内容
本发明的目的是针对上述现有技术的不足提出的一种多任务模型训练方法及装置、人脸属性识别方法及装置、设备及存储介质,该目的是通过以下技术方案实现的。
本发明的第一方面提出了一种多任务模型训练方法,所述方法包括:
在进行每轮训练时,从训练集中划分出训练数据和评估数据,并将所述训练数据输入多任务模型进行正向传播,以得到第一总损失,所述第一总损失基于上一轮训练过程中的每个任务的损失权重得到;
利用所述第一总损失和所述评估数据确定每个任务的增益;
根据每个任务的增益调整每个任务的的损失权重,并基于调整后的损失权重得到第二总损失;
根据所述第二总损失优化所述多任务模型中的网络参数。
本发明的第二方面提出了一种多任务模型训练装置,所述装置包括:
划分模块,用于在进行每轮训练时,从训练集中划分出训练数据和评估数据;
正向传播模块,用于将所述训练数据输入多任务模型进行正向传播,以得到第一总损失,所述第一总损失基于上一轮训练过程中的每个任务的损失权重得到;
增益确定模块,用于利用所述第一总损失和所述评估数据确定每个任务的增益;
权重更新模块,用于根据每个任务的增益调整每个任务的的损失权重,并基于调整后的损失权重得到第二总损失;
参数优化模块,用于根据所述第二总损失优化所述多任务模型中的网络参数。
本发明的第三方面提出了一种人脸属性识别方法,所述方法包括:
将待识别的人脸图像输入采用上述第一方面所述方法训练得到的多任务模型;
通过所述多任务模型识别所述人脸图像具有的各种属性信息;
获取所述多任务模型输出的每种属性信息。
本发明的第四方面提出了一种人脸属性识别装置,所述装置包括:
模型识别模块,用于将待识别的人脸图像输入采用上述第一方面所述方法训练得到的多任务模型,通过所述多任务模型识别所述人脸图像具有的各种属性信息;
获取模块,用于获取所述多任务模型输出的每种属性信息。
本发明的第五方面提出了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述第一方面或第三方面所述方法的步骤。
本发明的第六方面提出了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述第一方面或第三方面所述方法的步骤。
基于上述第一方面所述的多任务模型训练方法,本发明至少具有如下有益效果或优点:
在进行每轮训练时,通过从训练集中预留出一部分训练数据作为评估数据,从而在利用剩余的训练数据进行正向传播之后,利用正向传播得到的损失和评估数据计算出模型中每个任务的增益值,再通过增益值动态调整每个任务的损失权重,以动态调整每个任务在训练过程中的重要性占比,进而利用由调整后的损失权重获得的损失优化模型中的参数,以确保模型中每个任务得到充分训练,让每个任务都能表项优秀。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明根据一示例性实施例示出的一种多任务模型训练方法的实施例流程图;
图2为本发明根据一示例性实施例示出的一种多任务模型训练的具体流程图;
图3为本发明根据一示例性实施例示出的人脸属性识别方法的实施例流程图;
图4为本发明根据一示例性实施例示出的一种多任务模型训练装置的结构示意图;
图5为本发明根据一示例性实施例示出的一种人脸属性识别装置的结构示意图;
图6为本发明根据一示例性实施例示出的一种电子设备的硬件结构示意图图;
图7为本发明根据一示例性实施例示出的一种存储介质的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
随着互联网技术的迅速发展,从互联网上可以很方便获取到各种人脸相关的图像或视频数据,人的面部图像包含着丰富的人脸属性,例如性别、种族、年龄、表情等,这些人脸属性在监控安防、娱乐、刑侦、金融等各方各面都有着广泛的用途。目前通过采用多个基于深度学习的属性识别方法,随着神经网络的加深,属性识别效果逐步提升,但同时也带来了应用部署时计算资源要求高,以及难以实时识别处理的问题,限制了模型在资源有限的嵌入式和便携式设备上的应用。
为了降低计算资源要求,面对多个属性预测的问题,通过采用多任务模型实现人脸属性预测,即在特征提取模块后面加上多个全连接层的分支,每一分支负责一个预测任务,将每个任务的损失函数加权相加,得到总体的损失函数。虽然这个方式可以减少参数量,降低计算资源要求,但是难以在全局表现优秀的情况下保证每个任务都得到充分训练,甚至难以达到全局表现优秀的效果。
为解决上述技术问题,本发明提出一种改进的多任务模型训练方法,在进行每轮训练时,通过从训练集中预留出一部分训练数据作为评估数据,从而在利用剩余的训练数据进行正向传播之后,利用正向传播得到的损失和评估数据计算出模型中每个任务的增益值,再通过增益值动态调整每个任务的损失权重,以动态调整每个任务在训练过程中的重要性占比,进而利用由调整后的损失权重获得的损失优化模型中的参数,以确保模型中每个任务得到充分训练,让每个任务都能表项优秀。
下面以具体实施例对本发明提出的多任务模型训练方法进行详细阐述。
实施例一:
图1为本发明根据一示例性实施例示出的一种多任务模型训练方法的实施例流程图,所述多任务模型可以用于人脸属性识别应用场景中,应当理解的是,还可以用于其他应用场景中,例如自然语言处理、语音识别等场景,不同的应用场景,训练所使用的样本不同。在本实施例中,以多任务模型用于人脸属性识别场景为例进行说明。
如图1所示,所述多任务模型训练方法包括如下步骤:
步骤101:在进行每轮训练时,从训练集中划分出训练数据和评估数据,并将训练数据输入多任务模型进行正向传播,以得到第一总损失。
在执行步骤101之前,需要先获取训练集,如果多任务模型是用于进行人脸属性识别的模型,那么训练集中的样本均为人脸图像。
针对训练集的获取过程可以包括:收集多帧人脸图像和一帧标准人脸图像,然后对每帧人脸图像和标准人脸图像均进行人脸关键点检测,并针对每帧人脸图像,将该帧人脸图像的人脸关键点与标准人脸图像的人脸关键点进行对齐处理,以得到处理后的人脸图像,进而将每帧处理后的人脸图像和标准人脸图像均缩放至预设大小后标注相应的属性标签并添加到训练集中。
其中,人脸关键点可以包括左眼、右眼、鼻尖、左嘴角、右嘴角等的像素点坐标。对于人脸关键点检测过程可以采用相关技术实现,本发明对此不进行具体限定,例如可以通过调用dlib数据库,识别人脸图像中的人脸关键点。
在本实施例中,通过将收集的人脸图像按照标准人脸图像进行标准化处理,并将所有人脸图像均统一设置为预设大小,使得训练集中的所有样本的尺寸均一致,可以提升模型训练效果。
其中,为人脸图像标注的属性标签数量与多任务模型中包括的预测任务数量一致。假设,多任务模型包括性别预测任务、年龄预测任务、种族预测任务以及表情预测任务,那么需要在人脸图像中标注的属性标签包括性别标签、年龄标签、种族标签、表情标签。
在一些实施例中,针对每轮训练前,从训练集中划分出训练数据和评估数据的过程,可以按照预设比例将训练集划分为两部分,并将其中一部分作为训练数据,另一部分作为评估数据。
值得注意的是,由于训练数据是参与多任务模型的实际训练,需要大量的数据量,而评估数据是用于评估模型在每个任务上的表现效果如何,因此训练数据的数量要大于评估数据的数量。
在本实施例中,训练数据是用于本轮训练模型时使用,评估数据是用于在本轮训练过程中评估模型在每个任务上的表现效果。由于每轮训练前都会对训练集按照预设比例进行一次随机划分,因此每轮训练过程中使用的评估数据都不相同,从而可以确保每轮训练的评估准确性。
具体地,在划分训练集时,可以基于K折交叉思想,按照预设比例进行划分。例如,预设比例为1:99时,由于要保证训练数据的数量要大于评估数据的数量,因此是将训练集中1%的样本作为评估数据,这1%的样本是不参与训练的,将训练集中99%的样本作为训练数据,这99%的样本是要参与训练的。
在一具体实施方式中,针对将训练数据输入多任务模型进行正向传播,以得到第一总损失的过程,可以将训练数据中的每一样本依次输入多任务模型,以获得多任务模型中每个任务的输出数据,然后将这些样本的输出数据和为样本标注的属性标签输入每个任务的损失函数,以得到每个任务的损失值,最后将每个任务的损失值与相应的损失权重进行加权求和,得到第一总损失。
其中,在加权求和时,各个任务的损失值所采用的损失权重为上一轮训练过程中调整后的损失权重。需要说明的是,在进行第一轮训练时,每个任务的损失权重初始化为同一个值,即1/N(N表示任务数量),表示所有任务在训练过程中的重要性占比同等。
在一些实施例中,对于一个多任务模型,包括特征提取模块和多个任务分支模块。
其中,特征提取模块由卷积层、池化层组成。具体地,特征提取模块可以采用Resnet50实现。每个任务分支模块包括一个全连接层和输出层,对于不同的任务分支模块,由于任务目的不同,其输出层设置的神经元数量不同。
如果任务分支模块属于回归类型的任务(例如年龄预测),只需一个神经元输出回归值,如果属于k分类的任务,需要k个神经元输出。
在一可选的具体实施方式中,每个任务分支模块的任务目的不同,因此选用的损失函数也不同,当属于回归任务时,损失函数可以定义为MSE(mean-square error,均方误差),公式如下:
Figure BDA0003056415780000071
其中,n表示样本数量,yi表示第i个样本经过模型后的预测值,
Figure BDA0003056415780000072
表示第i个样本的属性标签。
本领域技术人员可以理解的是,对于回归类型的任务,上述给出的均方误差函数仅为一种示例性说明,其可以选择的损失函数形式多种多样,除了上述给出的均方误差函数之外,还可以选择均方根误差函数、平均绝对值误差函数、Log-Cosh函数等,本发明对此不进行具体限定。
当属于k分类任务时,损失函数可以定义为交叉熵,公式如下:
Figure BDA0003056415780000073
其中,k表示任务输出的类别数量,yi表示第i个样本的属性标签,pi表示第i个样本经过模型后的预测值。
本领域技术人员可以理解的是,对于多分类的任务,上述给出的交叉熵损失函数也是仅为一种示例性说明,本发明对此也不进行具体限定。
进一步地,对于模型的总体损失函数,定义为每个任务的损失函数的加权和,公式如下:
Figure BDA0003056415780000074
其中,N表示任务数量,wi表示第i个任务的损失权重,在每轮训练过程中,wi均会被动态调整一次,li表示第i个任务的损失函数。
步骤102:利用第一总损失和评估数据确定每个任务的增益。
在一些实施例中,可以通过对多任务模型中的网络参数进行反向求导,得到网络参数的梯度,同时利用评估数据和每个任务的预设评估函数,得到每个任务的评估值,进而针对每个任务,根据第一总损失、所述任务的评估值和所述梯度,计算所述任务的增益。
示例性的,可以通过链式法则,根据第一总损失对多任务模型中的网络参数进行反向求导,以得到的梯度,此梯度不参与网络参数的优化,因此此处的反向求导过程属于虚假的反向传播过程。
本领域技术人员可以理解的是,通过链式法则对网络参数的反向求导过程可以采用相关技术实现,本发明在此不再详述。
在本实施例中,每个任务的预设评估函数是用来评估当前模型在相应任务上的表现效果,评估函数的选取可以是可微分的,也可以是不可微分的,只要所使用的函数能够起到评估模型在相应任务上的表现效果的功能即可。
在一可选的具体实现方式中,每个任务的预设评估函数可以使用相应任务的损失函数形式。由于不同类型的任务,可以选用的损失函数形式多种多样,例如,回归任务的损失函数可以选用均方误差函数、均方根误差函数等,因此在为任务选择评估函数时,可以从该任务所适用的所有损失函数中任意选择一个损失函数作为该任务的评估函数。
需要说明的是,针对利用评估数据和每个任务的预设评估函数,得到每个任务的评估值的过程,是通过将评估数据输入多任务模型,以得到每个任务的输出数据,进而针对每个任务,通过将所述评估数据和所述任务的输出数据输入所述任务的预设评估函数,以得到所述任务的评估值。
其中,该评估值即能表示当前模型在相应任务上的表现效果如何。
需要进一步说明的是,每个任务的增益指的是虚假反向传播优化网络参数后的评估值与未优化网络参数时的评估值之间的差值,但在实际处理中,虚假反向传播是不参与网络参数优化的,只是反向求导计算梯度,因此需要基于此进行增益计算公式的进一步推导,以得到由已知参数计算增益的公式。
基于此,为了减少计算成本和避免在计算增益的过程中进行真实的反向传播,通过使用近似方式推导得到增益的计算公式,推导过程如下:
Figure BDA0003056415780000081
其中,Mit')表示第i个任务在网络参数为θt'下的评估函数的评估值(矩阵形式),θt'为虚假反向传播优化后的网络参数(矩阵形式),Mit)表示第i个任务在网络参数为θt下的评估函数的评估值(矩阵形式),θt表示本轮训练过程中使用的网络参数(矩阵形式);α表示训练过程中设置的学习率;wi,t表示上一轮训练过程中第i个任务调整后的损失权重,
Figure BDA0003056415780000091
表示网络参数θt的梯度(矩阵形式);L(θt)表示模型在网络参数θt下的第一总损失。
由此可见,每个任务的增益具体可以由上述计算得到第一总损失、学习率、上一轮训练过程中调整后的损失权重、评估函数的评估值、以及反向求导得到的梯度这些已知参数计算得到。
步骤103:根据每个任务的增益调整每个任务的的损失权重,并基于调整后的损失权重得到第二总损失。
在一些实施例中,针对根据每个任务的增益调整每个任务的的损失权重的过程,可以利用每个任务的增益确定增益和,然后针对每个任务,根据所述任务的增益和所述增益和,计算所述任务对应的新的损失权重。
在一可选的实现方式中,新的损失权重的计算公式如下:
Figure BDA0003056415780000092
其中,δi,t表示第i个任务的增益,N表示任务数量。
由上述公式(5)可知,每个任务的损失权重均为0至1的数值,并且损失权重越大,表示相应的任务在训练过程中的重要性占比越大,从而可确保任务得到充分训练。需要说明的是,每个任务的损失权重之和为1。
在一具体实施方式中,针对基于调整后的损失权重得到第二总损失的过程,在上述步骤101中给出每个任务的损失值计算过程的基础上,利用每个任务的损失值与相应调整后的损失权重进行加权求和,得到第二总损失。
其中,第二总损失不同于上述步骤101进行正向传播得到的第一总损失,第二总损失是基于调整后的损失权重加权得到,而第一总损失是基于调整前的损失权重加权得到。
相应地,模型的总体损失函数更新为如下:
Figure BDA0003056415780000101
其中,N表示任务数量,w'i,t表示第i个任务调整后的损失权重,li表示第i个任务的损失函数。
步骤104:根据第二总损失优化多任务模型中的网络参数。
其中,步骤104的过程属于真实的反向传播。
在一可选的具体实施方式中,可以通过链式法则,根据第二总损失对多任务模型中的网络参数进行反向求导,以得到网络参数的梯度,此次梯度参与网络参数的优化,进而通过梯度下降算法对网络参数进行优化。
至此,完成上述图1所示的训练流程,通过上述训练流程,在进行每轮训练时,均会从训练集中预留出一部分训练数据作为评估数据,从而在利用剩余的训练数据进行正向传播之后,利用正向传播得到的损失和评估数据计算出模型中每个任务的增益值,再通过增益值动态调整每个任务的损失权重,以动态调整每个任务在训练过程中的重要性占比,进而利用由调整后的损失权重获得的损失优化模型中的参数,以确保模型中每个任务得到充分训练,让每个任务都能表项优秀。
实施例二:
基于上述图1所示实施例的基础上,图2为本发明根据一示例性实施例示出的一种多任务模型训练的具体流程图,参见图2所示,在进行每轮训练时,首先,将训练集中的样本按照一定比例划分为训练数据和评估数据,如果是首轮训练,还需要将每个任务的损失权重均初始化为1/N(N表示任务数量)。
然后,将训练数据中的每个样本输入多任务模型进行正向传播,并利用总体损失函数获得第一总损失,接着通过链式法则,对多任务模型中的网络参数进行反向求导,得到网络参数的梯度,并将评估数据输入多任务模型,以得到每个任务的输出数据,从而基于每个任务的输出数据和每个任务的预设评估函数,得到每个任务的评估值,进而再由每个任务的评估值、第一总损失、反向求导得到的梯度、上一轮训练过程中调整后的损失权重(如果当前为首轮训练,取初始化的损失权重),计算得到每个任务的增益。
最后,通过每个任务的增益计算计算得到每个任务新的损失权重,从而由新的损失权重得到的新的总体损失函数,计算得到第二总损失,并基于第二总损失优化多任务模型中的网络参数。
重复执行上述流程,直至多任务模型收敛结束训练。
实施例三
在上述图1和图2所示实施例基础上,本实施例为对使用上述实施例训练得到的多任务模型的应用,图3为本发明根据一示例性实施例示出的人脸属性识别方法的实施例流程图,如图3所示,所述人脸属性识别方法包括如下步骤:
步骤301:将待识别的人脸图像输入已训练得到的多任务模型。
步骤302:通过多任务模型识别人脸图像具有的各种属性信息。
基于上述步骤101中对于多任务模型结构的描述,多任务模型的具体处理过程可以包括:通过多任务模型中的特征提取模块提取人脸图像的特征,并将所述特征分别输入多任务模型中的每个任务分支模块,进而通过每个任务分支模块根据所述特征预测相应的属性信息。
步骤303:获取多任务模型输出的每种属性信息。
至此,完成上述图3所示流程,由于本发明采用的是上述实施例训练得到的多任务模型识别人脸图像具有的各种人脸属性,而多任务模型中的每个任务是经过充分训练的,表现效果好,因此由每个任务预测出来的人脸属性准确度比较高。
与前述多任务模型训练方法的实施例相对应,本发明还提供了多任务模型训练装置的实施例。
图4为本发明根据一示例性实施例示出的一种多任务模型训练装置的实施例流程图,该装置用于执行上述任一实施例提供的多任务模型训练方法,如图4所示,该多任务模型训练装置包括:
划分模块410,用于在进行每轮训练时,从训练集中划分出训练数据和评估数据;
正向传播模块420,用于将所述训练数据输入多任务模型进行正向传播,以得到第一总损失,所述第一总损失基于上一轮训练过程中的每个任务的损失权重得到;
增益确定模块430,用于利用所述第一总损失和所述评估数据确定每个任务的增益;
权重更新模块440,用于根据每个任务的增益调整每个任务的的损失权重,并基于调整后的损失权重得到第二总损失;
参数优化模块450,用于根据所述第二总损失优化所述多任务模型中的网络参数。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
与前述人脸属性识别方法的实施例相对应,本发明还提供了人脸属性识别装置的实施例。
图5为本发明根据一示例性实施例示出的一种人脸属性识别装置的实施例流程图,该装置用于执行上述任一实施例提供的人脸属性识别方法,如图5所示,该人脸属性识别装置包括:
模型识别模块510,用于将待识别的人脸图像输入采用上述图1所述方法训练得到的多任务模型,通过所述多任务模型识别所述人脸图像具有的各种属性信息;
获取模块520,用于获取所述多任务模型输出的每种属性信息。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施方式还提供一种与前述实施方式所提供的方法对应的电子设备,以执行上述方法。
图6为本发明根据一示例性实施例示出的一种电子设备的硬件结构图,该电子设备包括:通信接口601、处理器602、存储器603和总线604;其中,通信接口601、处理器602和存储器603通过总线604完成相互间的通信。处理器602通过读取并执行存储器603中与多任务模型训练方法或者人脸属性识别方法的控制逻辑对应的机器可执行指令,可执行上文描述的多任务模型训练方法或者人脸属性识别方法,该方法的具体内容参见上述实施例,此处不再累述。
本发明中提到的存储器603可以是任何电子、磁性、光学或其它物理存储装置,可以包含存储信息,如可执行指令、数据等等。具体地,存储器603可以是RAM(Random AccessMemory,随机存取存储器)、闪存、存储驱动器(如硬盘驱动器)、任何类型的存储盘(如光盘、DVD等),或者类似的存储介质,或者它们的组合。通过至少一个通信接口601(可以是有线或者无线)实现该***网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
总线604可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器603用于存储程序,所述处理器602在接收到执行指令后,执行所述程序。
处理器602可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器602中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器602可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。
本申请实施例提供的电子设备与本申请实施例提供的多任务模型训练方法或者人脸属性识别方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
本申请实施方式还提供一种与前述实施方式所提供的多任务模型训练方法或者人脸属性识别方法对应的计算机可读存储介质,请参考图7所示,其示出的计算机可读存储介质为光盘30,其上存储有计算机程序(即程序产品),所述计算机程序在被处理器运行时,会执行前述任意实施方式所提供的多任务模型训练方法或者人脸属性识别方法。
需要说明的是,所述计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
本申请的上述实施例提供的计算机可读存储介质与本申请实施例提供的多任务模型训练方法或者人脸属性识别方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (13)

1.一种多任务模型训练方法,其特征在于,所述方法包括:
在进行每轮训练时,从训练集中划分出训练数据和评估数据,并将所述训练数据输入多任务模型进行正向传播,以得到第一总损失,所述第一总损失基于上一轮训练过程中的每个任务的损失权重得到;
利用所述第一总损失和所述评估数据确定每个任务的增益;
根据每个任务的增益调整每个任务的的损失权重,并基于调整后的损失权重得到第二总损失;
根据所述第二总损失优化所述多任务模型中的网络参数。
2.根据权利要求1所述的方法,其特征在于,所述利用所述第一总损失和所述评估数据确定每个任务的增益,包括:
对所述多任务模型中的网络参数进行反向求导,得到所述网络参数的梯度;
利用所述评估数据和每个任务的预设评估函数,得到每个任务的评估值;
针对每个任务,根据所述第一总损失、所述任务的评估值和所述梯度,计算所述任务的增益。
3.根据权利要求2所述的方法,其特征在于,所述利用所述评估数据和每个任务的预设评估函数,得到每个任务的评估值,包括:
将所述评估数据输入所述多任务模型,以得到每个任务的输出数据;
针对每个任务,将所述评估数据和所述任务的输出数据输入所述任务的预设评估函数,以得到所述任务的评估值。
4.根据权利要求1所述的方法,其特征在于,所述根据每个任务的增益调整每个任务的损失权重,包括:
根据每个任务的增益确定增益和;
针对每个任务,根据所述任务的增益和所述增益和,计算所述任务对应的新的损失权重。
5.根据权利要求1所述的方法,其特征在于,所述从训练集中划分出训练数据和评估数据,包括:
按照预设比例将所述训练集划分为两部分;
将其中一部分作为训练数据,另一部分作为评估数据;
其中,所述训练数据的数量大于所述评估数据的数量。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括训练集的获取过程:
收集多帧人脸图像和一帧标准人脸图像;
对每帧人脸图像和所述标准人脸图像进行人脸关键点检测;
针对每帧人脸图像,将该帧人脸图像的人脸关键点与所述标准人脸图像的人脸关键点进行对齐处理,以得到处理后的人脸图像;
将每帧处理后的人脸图像和所述标准人脸图像均缩放至预设大小后标注相应的属性标签并添加到训练集中。
7.根据权利要求1所述的方法,其特征在于,所述多任务模型包括特征提取模块和多个任务分支模块。
8.一种多任务模型训练装置,其特征在于,所述装置包括:
划分模块,用于在进行每轮训练时,从训练集中划分出训练数据和评估数据;
正向传播模块,用于将所述训练数据输入多任务模型进行正向传播,以得到第一总损失,所述第一总损失基于上一轮训练过程中的每个任务的损失权重得到;
增益确定模块,用于利用所述第一总损失和所述评估数据确定每个任务的增益;
权重更新模块,用于根据每个任务的增益调整每个任务的的损失权重,并基于调整后的损失权重得到第二总损失;
参数优化模块,用于根据所述第二总损失优化所述多任务模型中的网络参数。
9.一种人脸属性识别方法,其特征在于,所述方法包括:
将待识别的人脸图像输入采用上述权利要求1至7任一项所述方法训练得到的多任务模型;
通过所述多任务模型识别所述人脸图像具有的各种属性信息;
获取所述多任务模型输出的每种属性信息。
10.根据权利要求9所述的方法,其特征在于,所述通过所述多任务模型识别所述人脸图像具有的各种属性信息,包括:
通过所述多任务模型中的特征提取模块提取所述人脸图像的特征,并将所述特征分别输入所述多任务模型中的每个任务分支模块;
通过每个任务分支模块根据所述特征预测相应的属性信息。
11.一种人脸属性识别装置,其特征在于,所述装置包括:
模型识别模块,用于将待识别的人脸图像输入采用上述权利要求1至7任一项所述方法训练得到的多任务模型,通过所述多任务模型识别所述人脸图像具有的各种属性信息;
获取模块,用于获取所述多任务模型输出的每种属性信息。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7或9-10任一项所述方法的步骤。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7或9-10任一项所述方法的步骤。
CN202110500779.3A 2021-05-08 2021-05-08 多任务模型训练方法、装置、设备及存储介质 Pending CN115393914A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110500779.3A CN115393914A (zh) 2021-05-08 2021-05-08 多任务模型训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110500779.3A CN115393914A (zh) 2021-05-08 2021-05-08 多任务模型训练方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN115393914A true CN115393914A (zh) 2022-11-25

Family

ID=84114767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110500779.3A Pending CN115393914A (zh) 2021-05-08 2021-05-08 多任务模型训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115393914A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118072765A (zh) * 2024-04-24 2024-05-24 合众新能源汽车股份有限公司 一种人机交互判定方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118072765A (zh) * 2024-04-24 2024-05-24 合众新能源汽车股份有限公司 一种人机交互判定方法及装置

Similar Documents

Publication Publication Date Title
US20210012198A1 (en) Method for training deep neural network and apparatus
CN111126258B (zh) 图像识别方法及相关装置
CN113128478B (zh) 模型训练方法、行人分析方法、装置、设备及存储介质
CN110909784B (zh) 一种图像识别模型的训练方法、装置及电子设备
CN111052128B (zh) 用于检测和定位视频中的对象的描述符学习方法
CN113469088A (zh) 一种无源干扰场景下的sar图像舰船目标检测方法及***
CN112749737A (zh) 图像分类方法及装置、电子设备、存储介质
CN113239702A (zh) 意图识别方法、装置、电子设备
CN116129224A (zh) 检测模型的训练方法、分类方法、装置及电子设备
CN113902944A (zh) 模型的训练及场景识别方法、装置、设备及介质
CN112541394A (zh) 黑眼圈及鼻炎识别方法、***及计算机介质
CN111783935A (zh) 卷积神经网络构建方法、装置、设备及介质
CN113283388B (zh) 活体人脸检测模型的训练方法、装置、设备及存储介质
CN113743618A (zh) 时间序列数据处理方法、装置、可读介质及电子设备
CN113344079B (zh) 一种图像标签半自动标注方法、***、终端及介质
CN112329735B (zh) 人脸识别模型的训练方法及在线教育***
CN115393914A (zh) 多任务模型训练方法、装置、设备及存储介质
KR102413588B1 (ko) 학습 데이터에 따른 객체 인식 모델 추천 방법, 시스템 및 컴퓨터 프로그램
CN109657710B (zh) 数据筛选方法、装置、服务器及存储介质
CN110851600A (zh) 基于深度学习的文本数据处理方法及装置
CN114005017A (zh) 目标检测方法、装置、电子设备及存储介质
CN113033212B (zh) 文本数据处理方法及装置
CN114360007B (zh) 人脸识别模型训练、人脸识别方法、装置、设备及介质
CN114155420B (zh) 一种场景识别模型训练方法、装置、设备及介质
CN116824194A (zh) 图像分类模型的训练方法、图像处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination