CN113705823A - 基于联邦学习的模型训练方法和电子设备 - Google Patents

基于联邦学习的模型训练方法和电子设备 Download PDF

Info

Publication number
CN113705823A
CN113705823A CN202010446725.9A CN202010446725A CN113705823A CN 113705823 A CN113705823 A CN 113705823A CN 202010446725 A CN202010446725 A CN 202010446725A CN 113705823 A CN113705823 A CN 113705823A
Authority
CN
China
Prior art keywords
model
training
data
fused
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010446725.9A
Other languages
English (en)
Inventor
王妍
刘宏马
郭文静
苗磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202010446725.9A priority Critical patent/CN113705823A/zh
Publication of CN113705823A publication Critical patent/CN113705823A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例适用于人工智能技术领域,公开了一种基于联邦学习的模型训练方法和电子设备,方法包括:第一电子设备向第二电子设备发送待训练模型;第一电子设备接收一个或者多个第二电子设备发送的待融合模型,该待融合模型是第二电子设备根据本地的训练样本数据集对待训练模型进行训练得到的模型;第一电子设备使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果;第一电子设备根据交叉验证结果为一个或者多个待融合模型分配融合权重;第一电子设备根据每个待融合模型的融合权重对待融合模型进行模型加权融合,得到更新后的云端模型。通过本申请实施例提供的技术方案,可以提高云端融合得到的云端模型的鲁棒性。

Description

基于联邦学习的模型训练方法和电子设备
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于联邦学习的模型训练方法和电子设备。
背景技术
随着用户的数据安全隐私意识不断地增强,以及用户个人隐私数据频繁泄漏暴露出来的数据安全问题,使得用户数据安全和隐私的保护力度也在不断地加强,进而给传统人工智能(Artificial Intelligence,AI)的数据处理模式和模型训练模式提出来新的挑战。
为了应对新的挑战,提出了一种联邦学习(federated learning)的模型训练方式。在联邦学习中,模型的训练数据保存在各个客户端设备,不用上传至云端服务器;各个客户端设备使用本地数据训练模型,将得到的模型参数上传至云端服务器。具体地,云端服务器先下发需要训练的模型给各个客户端设备;每个客户端设备接收到模型后,使用存储在本地的训练数据进行模型训练,得到新的模型参数;然后,客户端设备将新的模型参数加密后上传至云端服务器;最后,云端服务器根据各个客户端设备上传的模型参数进行模型融合更新,得到新的模型。
但是,现有联邦学习中,云端服务器融合得到的新模型的鲁棒性较差。
发明内容
本申请提供一种基于联邦学习的模型训练方法和电子设备,以解决现有联邦学习中,云端服务器融合得到的新模型的鲁棒性较差的问题。
第一方面,本申请实施例提供一种基于联邦学习的模型训练方法,该方法包括:第一电子设备向第二电子设备发送待训练模型;然后,第一电子设备接收一个或者多个第二电子设备发送的待融合模型,该待融合模型是第二电子设备根据本地的训练样本数据集对待训练模型进行训练得到的模型;接着,第一电子设备使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果;最后,第一电子设备在根据交叉验证结果为一个或者多个待融合模型分配融合权重之后,再根据每个待融合模型的融合权重对待融合模型进行模型加权融合,得到更新后的云端模型。
其中,第一电子设备为云端设备,例如,服务器。而第二电子设备为终端设备或称客户端设备,例如,手机和平板等。待融合模型是指端侧上传给云端的模型,该模型一般是用于为用户提供个性化服务的模型,故可以称为个性化模型。该待融合模型也可以是称为端侧模型或端侧个性化模型。
需要指出的是,该待融合模型可以是经过端侧训练但没有经过模型验证的模型,也可以是既经过端侧训练也经过模型验证的模型。
可以看出,本申请实施例在对端侧设备上传的待融合模型进行模型融合之前,对待融合模型进行交叉验证,即通过交叉验证对模型的可信度和贡献度进行评判。再根据交叉验证结果为各个待融合模型分配不同的融合权重,即根据模型的置信水平为各个模型分配不同的权重。最后根据不同的融合权重对各个待融合模型进行加权融合,得到更新后云端新模型。这样,提高了云端融合得到的云端模型的鲁棒性。
在第一方面的一些可能的实现方式中,在第一电子设备接收一个或者多个第二电子设备发送的待融合模型之后,第一电子设备还可以根据预先设定的充分训练条件,确定每个待融合模型的训练结果,训练结果包括充分训练和非充分训练。
此时,第一电子设备根据交叉验证结果为各个待融合模型分配融合权重的具体过程可以包括:第一电子设备根据交叉验证结果,确定每个待融合模型的第一权重;第一电子设备针对每个待融合模型,根据训练结果对第一权重进行调整,得到第二权重;第一电子设备将每个待融合模型的第二权重作为融合权重。
具体地,在云端获取到端侧上传的待融合模型之后,可以对待融合模型进行统计性分析,统计每个待融合模型的端侧训练次数和端侧训练数据量等数据,然后根据该统计性分析结果确定待融合模型是否充分训练。待融合模型是否充分训练的结果可以用于辅助判断每个待融合模型的融合权重。
具体来说,在根据交叉验证结果为每个待融合模型分配融合权重时,可以综合交叉验证结果和待融合模型是否充分训练的结果来为用户分配融合权重。
上述充分训练条件可以包括端侧训练次数和端侧训练数据量。端侧训练次数和端侧训练数据量可以通过对上传的待融合模型的模型参数进行分析得到。可以通过统计每个待融合模型的端侧训练此时和端侧训练数据量来判断待融合模型充分训练与否。
换句话说,在第一方面的一些可能的实现方式中,第一电子设备根据预先设定的充分训练条件,确定每个待融合模型的训练结果的具体过程可以包括:若待融合模型的端侧训练次数大于预设次数阈值,且待融合模型的端侧数据量大于预设阈值,第一电子设备确定待融合模型的训练结果为充分训练;若待融合模型的端侧训练次数小于预设次数阈值,和/或待融合模型的端侧数据量小于预设阈值,第一电子设备确定待融合模型的训练结果为非充分训练。
其中,端侧训练次数是待训练模型在第二电子设备上的训练次数,端侧数据量是第二电子设备本地的训练样本数据量。
上述预设次数阈值和预设阈值均可以根据实际应用需求进行设定。例如,预测次数阈值为1000,预设阈值为100。
在确定每个待融合模型充分训练与否之后,可以结合充分训练与否的结果和交叉验证结果来为模型分配融合权重。在此过程中,可以先只根据交叉验证结果来为待融合模型分配第一权重,然后再根据充分训练与否调整第一权重,得到第二权重。该第二权重为待融合模型的融合权重。
具体来说,在第一方面的一些可能的实现方式中,第一电子设备根据训练结果对第一权重进行调整,得到第二权重的过程可以包括:若待融合模型的训练结果为充分训练,第一电子设备将第一权重和预设数值相加,得到第二权重;若待融合模型的训练结果为非充分训练,第一电子设备将第一权重和预设数值相减,得到第二权重。
上述预设数值可以根据实际应用需求进行设定,例如,该预设数值为0.001。
在第一方面的一些可能的实现方式中,第一电子设备根据交叉验证结果,确定每个待融合模型的第一权重的过程可以包括:第一电子设备将每个待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;第一电子设备将每个待融合模型的交叉验证结果和交叉验证结果总和之间的比值作为待融合模型的第一权重。
具体应用中,除了可以综合待融合模型充分训练与否和模型交叉验证结果来为模型分配融合权重之外,还可以只根据模型交叉验证结果来为模型分配融合权重。
在第一方面的一些可能的实现方式中,第一电子设备根据交叉验证结果为各个待融合模型分配融合权重的过程也可以包括:第一电子设备将每个待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;第一电子设备将每个待融合模型的交叉验证结果和交叉验证结果总和之间的比值作为待融合模型的融合权重。
此时,只根据模型交叉验证结果来为模型分配融合权重。
需要指出的是,综合待融合模型充分与否和模型交叉验证来为模型分配权重的方式,相比于只根据模型交叉验证结果为模型分配融合权重的方式,前者的所分配的融合权重的准确性更高。
在第一方面的一些可能的实现方式中,第一电子设备使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果的过程可以包括:第一电子设备将交叉验证数据集划分成子交叉验证数据集;第一电子设备分别使用每个子交叉验证数据集对每个待融合模型进行验证,得到子验证结果,其中,一个子交叉验证数据集对应一个子验证结果;第一电子设备根据每个待融合模型的子验证结果,得到每个待融合模型的交叉验证结果。
作为示例而非限定,将交叉验证数据集划分为3个子交叉验证数据集,对于某一个待融合模型A来说,这3个子交叉验证数据集对应的3个子验证结果分别为90%,85%。95%。为了计算简便,计算这3个子验证结果的平均值,即(90%+85%+95%)/3=90%。此时,将平均值作为待融合模型A的交叉验证结果,即待融合模型A的交叉验证结果为90%。
在第一方面的一些可能的实现方式中,该方法还可以包括:第一电子设备获取第二电子设备上传的云端验证数据,云端验证数据是第二电子设备通过对训练样本进行数据仿真生成的数据;第一电子设备根据云端验证数据和云端数据,构建交叉验证数据集,云端数据是存储在云端本地的数据。
需要指出的是,端侧设备可以进行数据仿真过程,也可以不进行数据仿真过程。如果端侧设备不进行数据仿真过程,此时,云端设备可以只基于云端数据来构建交叉验证数据集。而如果端侧设备进行了数据仿真过程,并将数据仿真过程中得到数据上传至云端,作为构建云端交叉验证数据集的数据,此时,云端设备可以结合端侧设备上传的云端验证数据和云端本地的数据构建交叉验证数据集。
而云端数据是指存储在云端本地的数据,该数据可以是云端根据端侧上传的待融合模型的模型参数得到的,也可以是用于训练待训练模型时的训练数据。
相较而言,结合端侧上传的云端验证数据和云端数据构建交叉验证数据集,可以丰富模型验证的场景和复杂度,从而进一步提高了云端融合得到的新模型的鲁棒性。
在第一方面的一些可能的实现方式中,在第一电子设备使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果之后,该方法还可以包括以下步骤:若待融合模型的模型结构与上一轮训练的待融合模型的模型结构不相同,第一电子设备根据待融合模型的模型结构,从预先存储的云端模型中确定出目标云端模型;第一电子设备对目标云端模型进行模型验证;若验证通过,第一电子设备将目标云端模型作为更新后的云端模型;
若待融合模型的模型结构与上一轮训练的待融合模型的模型结构相同,第一电子设备进入根据交叉验证结果为各个待融合模型分配融合权重的步骤。
具体来说,云端在对待融合模型进行可靠***叉验证之后,可以直接进行模型加权融合步骤,也可以先判断待融合模型的模型结构是否改变,在模型结构没有发生改变时,才进行模型加权融合。而模型结构已经发生改变了,则可以通过模型搜索得到新的云端模型。这样,在模型结果发生改变时仍然能得到更新后的云端模型。
在第一方面的一些可能的实现方式中,第一电子设备根据每个待融合模型的融合权重对待融合模型进行模型加权融合,得到更新后的云端模型的过程可以包括:第一电子设备根据预先设定的重新训练条件,确定待融合模型是否需要重新训练;若需要重新训练,第一电子设备根据融合权重,通过加权联邦元学习的方式对待融合模型进行训练,得到融合模型;对融合模型进行模型验证,若验证通过,则将融合模型作为更新后的云端模型;
若不需要重新训练,第一电子设备根据融合权重对待融合模型进行加权融合,得到融合模型;对融合模型进行模型验证,若验证通过,则将融合模型作为更新后的云端模型。
需要指出的是,重新训练条件主要是根据训练任务和模型特点来设定。对于一些模型简单,直接进行加权融合或者加权平均所得到的模型的效果很好,故不需要重新训练,比如随机森林;而对于一些模型结构比较复杂,直接进行加权融合或者加权平均所得到的模型的效果较差,故需要重新进行加权训练,比如,深度学习模型。
第二方面,本申请实施例提供一种基于联邦学习的模型训练方法,该方法可以包括:第二电子设备接收第一电子设备发送的待训练模型;然后,第二电子设备对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集;接着,第二电子设备根据验证后的训练样本数据集对待训练模型进行增量训练,得到端侧模型;最后,第二电子设备对端侧模型进行模型验证,将模型验证通过的端侧模型作为待融合模型传输至第一电子设备。
可以看出,相较于现有联邦学习在使用本地训练数据训练模型时,没有对本地训练数据进行有效性验证,也没有对训练得到模型进行验证,本申请实施例对本地训练数据进行数据有效性验证,再使用有效性验证后的训练数据来训练模型。模型训练完成后,客户端设备还可以对训练完成的模型进行模型验证,在验证通过后,再将训练完成的模型上传至云端。这样,可以保证上传至云端的模型的效果,进一步提高云端融合的新模型的鲁棒性
在第二方面的一些可能的实现方式中,第二电子设备对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集的过程可以包括:第二电子设备对训练样本数据集进行数据分类,确定训练样本数据中的第一有效数据、冗余数据和噪声数据;第二电子设备去除冗余数据;第二电子设备对噪声数据进行噪声数据修复,得到第二有效数据;第二电子设备基于第一有效数据和第二有效数据组成验证后的训练样本数据集。
在第二方面的一些可能的实现方式中,第二电子设备根据验证后的训练样本数据集对待训练模型进行增量训练,得到端侧模型的过程可以包括:
若模型训练任务的类型与上一轮训练的模型训练任务的类型不同,第二电子设备根据验证后的训练样本数据集,通过多任务增量学习的方式对待训练模型进行增量训练,得到端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且待训练模型的基模型类型为机器学习模型,第二电子设备根据验证后的训练样本数据集,通过机器增量学习的方式对待训练模型进行增量训练,得到端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且待训练模型的基模型类型为非机器学习模型,第二电子设备根据验证后的训练样本数据集,通过神经网络增量学习的方式对待训练模型进行增量训练,得到端侧模型。
作为示例而非限定,模型训练任务为分类任务时,如果当前模型训练任务为3分类任务,而上一轮的模型训练任务为2分类任务,则认为模型训练任务的类型发生改变。
需要指出的是,该实现方式根据端侧模型的种类和端侧模型训练任务,选取最优或者说最合适的端侧模型增量训练方式,进一步提高了端侧模型的训练效率和训练效果,使得模型可以快速收敛。
在第二方面的一些可能的实现方式中,第二电子设备根据验证后的训练样本数据集,通过神经网络增量学习的方式对待训练模型进行增量训练,得到端侧模型的过程可以包括:
若待训练模型符合第一类条件,第二电子设备根据验证后的训练样本数据集,通过小样本学习和卷积层更新的方式对待训练模型进行增量训练,得到端侧模型;
若待训练模型符合第二类条件,第二电子设备根据验证后的训练样本数据集,通过知识蒸馏和卷积层固化的方式对待训练模型进行增量训练,得到端侧模。
在第二方面的一些可能的实现方式中,该方法还可以包括数据增强过程,该数据增强过程可以具体包括:第二电子设备获取端侧样本数据;第二电子设备根据端侧样本数据进行数据仿真,生成训练数据和用于构建云端交叉验证数据集的云端验证数据;第二电子设备将云端验证数据上传至第一电子设备;第二电子设备根据端侧样本数据和训练数据,构建训练样本数据集。
需要指出的是,该实现方式先对少量训练样本进行数据增强,以仿真生成大量的训练样本,再使用通过数据仿真生成的训练样本数据对模型进行训练,提高了模型训练效率,训练得到模型更加个性化。
第三方面,本申请实施例提供一种基于联邦学习的模型训练装置,该装置可以包括:
待训练模型发送模块,用于向第二电子设备发送待训练模型;
模型接收模块,用于接收一个或者多个第二电子设备发送的待融合模型,待融合模型是第二电子设备根据本地的训练样本数据集对待训练模型进行训练得到的模型;
交叉验证模块,用于使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果;
权重分配模块,用于根据交叉验证结果为一个或者多个待融合模型分配融合权重;
模型融合模块,用于根据每个待融合模型的融合权重对待融合模型进行模型加权融合,得到更新后的云端模型。
在第三方面的一些可能的实现方式中,该装置还可以包括:
统计分析模块,用于根据预先设定的充分训练条件,确定每个待融合模型的训练结果,训练结果包括充分训练和非充分训练;
此时,上述权重分配模块具体用于:根据交叉验证结果,确定每个待融合模型的第一权重;针对每个待融合模型,根据训练结果对第一权重进行调整,得到第二权重;将每个待融合模型的第二权重作为融合权重。
在第三方面的一些可能的实现方式中,上述统计分析模块具体用于:
若待融合模型的端侧训练次数大于预设次数阈值,且待融合模型的端侧数据量大于预设阈值,确定待融合模型的训练结果为充分训练;
若待融合模型的端侧训练次数小于预设次数阈值,和/或待融合模型的端侧数据量小于预设阈值,确定待融合模型的训练结果为非充分训练;
其中,端侧训练次数是待训练模型在第二电子设备上的训练次数,端侧数据量是第二电子设备本地的训练样本数据量。
在第三方面的一些可能的实现方式中,上述权重分配模块具体用于:若待融合模型的训练结果为充分训练,将第一权重和预设数值相加,得到第二权重;若待融合模型的训练结果为非充分训练,将第一权重和预设数值相减,得到第二权重。
在第三方面的一些可能的实现方式中,上述权重分配模块具体用于:将每个待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;将每个待融合模型的交叉验证结果和交叉验证结果总和之间的比值作为待融合模型的第一权重。
在第三方面的一些可能的实现方式中,上述权重分配模块具体用于:将每个待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;将每个待融合模型的交叉验证结果和交叉验证结果总和之间的比值作为待融合模型的融合权重。
在第三方面的一些可能的实现方式中,上述交叉验证模块具体用于:将交叉验证数据集划分成子交叉验证数据集;分别使用每个子交叉验证数据集对每个待融合模型进行验证,得到子验证结果,其中,一个子交叉验证数据集对应一个子验证结果;根据每个待融合模型的子验证结果,得到每个待融合模型的交叉验证结果。
在第三方面的一些可能的实现方式中,该装置还可以包括:
交叉验证数据集构建模块,用于获取第二电子设备上传的云端验证数据,云端验证数据是第二电子设备通过对训练样本进行数据仿真生成的数据;根据云端验证数据和云端数据,构建交叉验证数据集,云端数据是存储在云端本地的数据。
在第三方面的一些可能的实现方式中,该装置还可以包括:
模型搜索模块,用于若待融合模型的模型结构与上一轮训练的待融合模型的模型结构不相同,根据待融合模型的模型结构,从预先存储的云端模型中确定出目标云端模型;对目标云端模型进行模型验证;若验证通过,将目标云端模型作为更新后的云端模型;若待融合模型的模型结构与上一轮训练的待融合模型的模型结构相同,进入根据交叉验证结果为各个待融合模型分配融合权重的步骤。
在第三方面的一些可能的实现方式中,上述模型融合模块具体用于:根据预先设定的重新训练条件,确定待融合模型是否需要重新训练;若需要重新训练,根据融合权重,通过加权联邦元学习的方式对待融合模型进行训练,得到融合模型;对融合模型进行模型验证,若验证通过,则将融合模型作为更新后的云端模型;若不需要重新训练,根据融合权重对待融合模型进行加权融合,得到融合模型;对融合模型进行模型验证,若验证通过,则将融合模型作为更新后的云端模型。
上述基于联邦学习的模型训练装置具有实现上述第一方面的基于联邦学习的模型训练方法的功能,该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现,硬件或软件包括一个或多个与上述功能相对应的模块,模块可以是软件和/或硬件。
需要说明的是,上述装置/模块之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
第四方面,本申请实施例提供一种基于联邦学习的模型训练装置,该装置可以包括以下模块:
待训练模型接收模块,用于接收第一电子设备发送的待训练模型;
数据有效性验证模块,用于对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集;
模型训练模块,用于根据验证后的训练样本数据集对待训练模型进行增量训练,得到端侧模型;
模型验证模块,用于对端侧模型进行模型验证;
待融合模型上传模块,用于将模型验证通过的端侧模型作为待融合模型传输至第一电子设备。
在第四方面的一些可能的实现方式中,上述数据有效性验证模块具体用于:对训练样本数据集进行数据分类,确定训练样本数据中的第一有效数据、冗余数据和噪声数据;去除冗余数据;对噪声数据进行噪声数据修复,得到第二有效数据;基于第一有效数据和第二有效数据组成验证后的训练样本数据集。
在第四方面的一些可能的实现方式中,上述模型训练模块具体用于:
若模型训练任务的类型与上一轮训练的模型训练任务的类型不同,根据验证后的训练样本数据集,通过多任务增量学习的方式对待训练模型进行增量训练,得到端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且待训练模型的基模型类型为机器学习模型,根据验证后的训练样本数据集,通过机器增量学习的方式对待训练模型进行增量训练,得到端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且待训练模型的基模型类型为非机器学习模型,根据验证后的训练样本数据集,通过神经网络增量学习的方式对待训练模型进行增量训练,得到端侧模型。
在第四方面的一些可能的实现方式中,上述模型训练模块具体用于:
若待训练模型符合第一类条件,第二电子设备根据验证后的训练样本数据集,通过小样本学习和卷积层更新的方式对待训练模型进行增量训练,得到端侧模型;
若待训练模型符合第二类条件,第二电子设备根据验证后的训练样本数据集,通过知识蒸馏和卷积层固化的方式对待训练模型进行增量训练,得到端侧模型。
在第四方面的一些可能的实现方式中,该装置还可以包括:
数据增强模块,用于获取端侧样本数据;根据端侧样本数据进行数据仿真,生成训练数据和用于构建云端交叉验证数据集的云端验证数据;将云端验证数据上传至第一电子设备;根据端侧样本数据和训练数据,构建训练样本数据集。
上述基于联邦学习的模型训练装置具有实现上述第二方面的基于联邦学习的模型训练方法的功能,该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现,硬件或软件包括一个或多个与上述功能相对应的模块,模块可以是软件和/或硬件。
需要说明的是,上述装置/模块之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
第五方面,本申请实施例提供一种基于联邦学习的模型训练方法,该方法可以包括:
第一电子设备向第二电子设备发送待训练模型。
第二电子设备对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集;然后,根据验证后的训练样本数据集对待训练模型进行增量训练,得到端侧模型;接着,对所述端侧模型进行模型验证;再将模型验证通过的端侧模型作为待融合模型传输至所述第一电子设备。
第一电子设备使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果;然后,根据所述交叉验证结果为一个或者多个待融合模型分配融合权重;最后,根据每个待融合模型的融合权重对待融合模型进行模型加权融合,得到更新后的云端模型。
在第五方面的一些可能的实现方式中,第二电子设备对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集的过程可以包括:
第二电子设备对训练样本数据集进行数据分类,确定训练样本数据中的第一有效数据、冗余数据和噪声数据;第二电子设备去除冗余数据;第二电子设备对噪声数据进行噪声数据修复,得到第二有效数据;第二电子设备基于第一有效数据和第二有效数据组成验证后的训练样本数据集。
在第五方面的一些可能的实现方式中,第二电子设备根据验证后的训练样本数据集对待训练模型进行增量训练,得到端侧模型的过程可以包括:
若模型训练任务的类型与上一轮训练的模型训练任务的类型不同,第二电子设备根据验证后的训练样本数据集,通过多任务增量学习的方式对待训练模型进行增量训练,得到端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且待训练模型的基模型类型为机器学习模型,第二电子设备根据验证后的训练样本数据集,通过机器增量学习的方式对待训练模型进行增量训练,得到端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且待训练模型的基模型类型为非机器学习模型,第二电子设备根据验证后的训练样本数据集,通过神经网络增量学习的方式对待训练模型进行增量训练,得到端侧模型。
进一步地,在第五方面的一些可能的实现方式中,第二电子设备根据验证后的训练样本数据集,通过神经网络增量学习的方式对待训练模型进行增量训练,得到端侧模型,包括:
若待训练模型符合第一类条件,第二电子设备根据验证后的训练样本数据集,通过小样本学习和卷积层更新的方式对待训练模型进行增量训练,得到端侧模型;若待训练模型符合第二类条件,第二电子设备根据验证后的训练样本数据集,通过知识蒸馏和卷积层固化的方式对待训练模型进行增量训练,得到端侧模型。
在第五方面的一些可能的实现方式中,第二电子设备还可以执行数据仿真过程。该数据仿真过程可以包括:
第二电子设备获取端侧样本数据;第二电子设备根据端侧样本数据进行数据仿真,生成训练数据和用于构建云端交叉验证数据集的云端验证数据;第二电子设备将云端验证数据上传至第一电子设备;第二电子设备根据端侧样本数据和训练数据,构建训练样本数据集。
在第五方面的一些可能的实现方式中,该方法还可以包括:第一电子设备根据预先设定的充分训练条件,确定每个待融合模型的训练结果,训练结果包括充分训练和非充分训练。
此时,上述第一电子设备根据交叉验证结果为各个待融合模型分配融合权重的过程可以包括:第一电子设备根据交叉验证结果,确定每个待融合模型的第一权重;第一电子设备针对每个待融合模型,根据训练结果对第一权重进行调整,得到第二权重;第一电子设备将每个待融合模型的第二权重作为融合权重。
在第五方面的一些可能的实现方式中,第一电子设备根据预先设定的充分训练条件,确定每个待融合模型的训练结果的过程可以包括:若待融合模型的端侧训练次数大于预设次数阈值,且待融合模型的端侧数据量大于预设阈值,第一电子设备确定待融合模型的训练结果为充分训练;若待融合模型的端侧训练次数小于预设次数阈值,和/或待融合模型的端侧数据量小于预设阈值,第一电子设备确定待融合模型的训练结果为非充分训练。
其中,端侧训练次数是待训练模型在第二电子设备上的训练次数,端侧数据量是第二电子设备本地的训练样本数据量。
在第五方面的一些可能的实现方式中,第一电子设备根据训练结果对第一权重进行调整,得到第二权重的过程可以包括:若待融合模型的训练结果为充分训练,第一电子设备将第一权重和预设数值相加,得到第二权重;若待融合模型的训练结果为非充分训练,第一电子设备将第一权重和预设数值相减,得到第二权重。
在第五方面的一些可能的实现方式中,第一电子设备根据交叉验证结果,确定每个待融合模型的第一权重的过程可以包括:第一电子设备将每个待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;第一电子设备将每个待融合模型的交叉验证结果和交叉验证结果总和之间的比值作为待融合模型的第一权重。
在第五方面的一些可能的实现方式中,第一电子设备根据交叉验证结果为各个待融合模型分配融合权重的过程可以包括:第一电子设备将每个待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;第一电子设备将每个待融合模型的交叉验证结果和交叉验证结果总和之间的比值作为待融合模型的融合权重。
在第五方面的一些可能的实现方式中,第一电子设备使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果的过程可以包括:第一电子设备将交叉验证数据集划分成子交叉验证数据集;第一电子设备分别使用每个子交叉验证数据集对每个待融合模型进行验证,得到子验证结果,其中,一个子交叉验证数据集对应一个子验证结果;第一电子设备根据每个待融合模型的子验证结果,得到每个待融合模型的交叉验证结果。
在第五方面的一些可能的实现方式中,该方法还可以包括:第一电子设备获取第二电子设备上传的云端验证数据,云端验证数据是第二电子设备通过对训练样本进行数据仿真生成的数据;第一电子设备根据云端验证数据和云端数据,构建交叉验证数据集,云端数据是存储在云端本地的数据。
在第五方面的一些可能的实现方式中,在第一电子设备使用交叉验证数据集对待融合模型进行交叉验证,得到交叉验证结果之后,该方法还可以包括:若待融合模型的模型结构与上一轮训练的待融合模型的模型结构不相同,第一电子设备根据待融合模型的模型结构,从预先存储的云端模型中确定出目标云端模型;第一电子设备对目标云端模型进行模型验证;若验证通过,第一电子设备将目标云端模型作为更新后的云端模型;若待融合模型的模型结构与上一轮训练的待融合模型的模型结构相同,第一电子设备进入根据交叉验证结果为各个待融合模型分配融合权重的步骤。
在第五方面的一些可能的实现方式中,第一电子设备根据每个待融合模型的融合权重对待融合模型进行模型加权融合,得到更新后的云端模型的过程可以包括:第一电子设备根据预先设定的重新训练条件,确定待融合模型是否需要重新训练;若需要重新训练,第一电子设备根据融合权重,通过加权联邦元学习的方式对待融合模型进行训练,得到融合模型;对融合模型进行模型验证,若验证通过,则将融合模型作为更新后的云端模型;若不需要重新训练,第一电子设备根据融合权重对待融合模型进行加权融合,得到融合模型;对融合模型进行模型验证,若验证通过,则将融合模型作为更新后的云端模型。
第六方面,本申请实施例提供一种基于联邦学习的模型训练装置,该装置包括第一电子设备和第二电子设备,该装置用于实现上述第五方面的基于联邦学习的模型训练方法的功能。
第七方面,本申请实施例提供一种电子设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上述第一方面或者上述第二方面任一项的方法。
第八方面,本申请实施例提供一种基于联邦学习的模型训练***,该***可以包括第一电子设备和第二电子设备。
该第一电子设备用于执行上述第一方面任一项的模型训练方法,第二电子设备用于执行上述第二方面任一项的模型训练方法。
第九方面,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如上述第一方面或者上述第二方面任一项的方法。
第十方面,本申请实施例提供一种芯片***,该芯片***包括处理器,该处理器与存储器耦合,该处理器执行存储器中存储的计算机程序,以实现如上述第一方面或者上述第二方面任一项所述的方法。该芯片***可以为单个芯片,或者多个芯片组成的芯片模组。
第十一方面,本申请实施例提供一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述第一方面或者第二方面中任一项所述的方法。
可以理解的是,上述第三方面至第十一方面的有益效果可以参见上述第一方面或者第二方面中的相关描述,在此不再赘述。
附图说明
图1为本申请实施例提供的模型训练***架构示意框图;
图2为本申请实施例提供的数据仿真过程示意图;
图3为本申请实施例提供的端侧数据有效性验证示意图;
图4为本申请实施例提供的端侧模型训练过程示意图;
图5为本申请实施例提供的端云协同过程示意图;
图6为本申请实施例提供的模型训练过程示意图;
图7为本申请实施例提供的模型训练过程的一种示意图;
图8为本申请实施例提供的模型训练过程的另一种示意图;
图9为本申请实施例提供的模型训练过程的又一种示意图;
图10为本申请实施例提供的模型训练的又一种示意图;
图11为本申请实施例提供的回归预测效果示意图;
图12为本申请实施例提供的图片推荐示意图;
图13为本申请实施例提供的端侧设备和云端设备的交互示意图;
图14为本申请实施例提供的电子设备示意图。
具体实施方式
发明人在研究过程中发现,现有技术通过联邦学***均化更新策略,没有根据模型的不同置信水平分配不同的权重。这样会导致云端服务器融合得到的新模型的鲁棒性较差,无法确保云端聚合模型的效果。
另外,现有联邦学习中,客户端设备在使用本地训练数据训练模型时,没有对本地训练数据进行有效性验证,也没有对训练得到模型进行验证。这样,无法保证上传至云端的模型的效果,进而导致云端服务器融合的新模型的鲁棒性较差。
还有,现有联邦学习中,客户端设备的本地训练数据的训练样本数量较少,导致训练效率较低,模型难以快速收敛。
针对传统联邦学***为各个模型分配不同的权重;最后根据各个模型对应的权重进行模型的加权融合,得到云端聚合的新模型。这样,可以提高云端聚合得到的新模型的鲁棒性。
进一步地,在本申请实施例中,客户端设备可以先对本地训练数据进行数据有效性验证,再使用有效性验证后的训练数据来训练模型。模型训练完成后,客户端设备还可以对训练完成的模型进行模型验证,在验证通过后,再将训练完成的模型上传至云端。这样,可以保证上传至云端的模型的效果,进一步提高云端融合的新模型的鲁棒性。
进一步地,在本申请实施例中,客户端设备可以先对少量训练样本进行数据增强,以仿真生成大量的训练样本,再使用通过数据仿真生成的训练样本数据对模型进行训练,提高了模型训练效率,训练得到模型更加个性化。
为了更好地介绍本申请实施例的技术方案,下面将详细阐述相关内容。
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。
下面首先介绍本申请实施例可能涉及的***架构。
参见图1示出的本申请实施例提供的模型训练***架构示意框图,如图1所示,该***包括云端设备11和客户端设备12,云端设备11和客户端设备12之间通过通信网络13通信连接,该通信网络13可以例如为互联网。客户端设备12的数量和类型均可以是任意的。一般情况下,存在至少两个客户端设备12,即可以有至少两个客户端设备参与模型训练。客户端设备的类型可以为但不限于手机、平板、车载终端或电脑等,作为示例而非限定,图1中的客户端设备12包括手机和平板等。云端设备11一般为云端服务器。云端设备11可以将待训练模型下发至客户端设备12,该模型一般是AI模型,AI模型的类型可以是任意的,作为示例而非限定,该AI模型可以为深度学习模型或者机器学习模型。更具体地,根据实际应用场景的不同,该AI模型也会相应地不同。该AI模型可以为用户提供个性化服务,也可以称为用户个性化模型。例如,在语音唤醒场景下,该AI模型是语音唤醒模型;在充电管控场景下,该AI模型是充电管控模型;在新闻推荐场景下,该AI模型是新闻推荐模型。
需要指出的是,上述待训练模型可以是上一轮模型训练后,云端设备更新后的模型。也就是说,云端设备和客户端设备可以进行多轮模型训练,在一轮模型训练中,云端设备可以将上一轮融合更新得到的模型下发至客户端设备,作为待训练模型。客户端设备使用本地数据对待训练模型进行训练后,将训练得到的模型上传至云端,云端设备根据各个客户端设备上传的模型进行模型融合更新,得到更新后的模型。依此循环,进行一轮或多轮模型训练。当然,在第一轮模型训练时,该待训练模型可以是云端设备预先训练好的具有通用性的初始模型。
例如,在语音唤醒场景下,该待训练模型为语音唤醒模型。在第一轮模型训练之前,云端服务器会先收集大量的合法合规的语音唤醒数据,该语音唤醒数据可以包括多个用户的语音数据,该语音数据可以是在获得用户授权的前提下收集的。云端基于收集的语音唤醒数据,对构建的语音唤醒模型进行训练。将训练完成的语音唤醒模型作为初始的语音唤醒模型。该初始的语音唤醒模型可以很好地对标准普通话的唤醒语音进行识别。但是,对于一些掺杂着方言或者地方口音的普通话,语音唤醒效果可能不佳。或者,在一些存在大量背景噪声的情况下,该初始的语音唤醒模型的语音唤醒效果不佳。云端将该初始的语音唤醒模型下发至用户的手机之后,手机可以使用该初始的语音唤醒模型进行唤醒语音识别,并且在这个过程中,手机可在获取到明确的用户授权后采集语音唤醒相关的端侧数据。此时,该端侧数据可以包括语音唤醒成功对应的语音数据,以及语音唤醒失败但通过其他方式唤醒成功(例如,在语音唤醒失败时通过面部唤醒成功)对应的语音数据等。
客户端设备在接收到云端设备下发的待训练模型后,可以使用端侧的训练样本数据集对待训练模型进行训练。
例如,在新闻推荐场景下,待训练模型为新闻推荐模型,该新闻推荐模型可以根据用户浏览新闻记录等数据,为用户推荐符合用户偏好的新闻。此时,手机在获取到明确的用户授权之后,可以通过数据打点的方式收集相关端侧数据,该相关端侧数据可以包括用户浏览新闻的时段(例如,早上或者晚上)和新闻类别(例如,体育类新闻或者娱乐类新闻)等。在获取明确的用户授权后,手机可将相关端侧数据组成新闻推荐模型的训练样本数据。
在一些实施例中,客户端设备在收集到少量训练样本数据后,可以基于该少量样本数据组成训练样本数据集,使用该训练样本数据集对待训练模型进行训练。但是,使用包括少量样本的训练样本数据集训练模型时,由于样本数据较少,模型训练效率较低,难以快速收敛至符合用户个性化需求的个性化模型。
在另一些实施例中,为了提高模型训练效率,使得模型可以快速收敛至个性化模型。客户端设备12可以在收集到少量样本数据之后,对该少量样本数据进行数据增强,以通过数据仿真生成大量的训练样本数据。然后,再基于数据仿真生成的训练样本数据组成训练样本数据集,使用该训练样本数据集对待训练模型进行训练。这样,通过数据增强生成大量训练样本数据,然后再使用数量较多的训练样本数据对模型进行训练,可以提高模型训练效率,使得模型可以快速收敛,还可以使得训练得到的模型更加个性化。
作为示例而非限定,下面结合图2示出的数据仿真过程示意图进行介绍。
如图2所示,客户端设备从端侧数据池获取到初始少量样本,端侧数据池中可以包括但不限于历史行为数据和打点数据等。客户端设备从端侧数据池获取到少量样本数据之后,可以对少量样本数据进行初步数据分析,初步数据分析可以是指数据分类、聚类或回归等操作。然后,基于初步数据分析结果,对客户端设备一侧的用户行为进行强化学习建模,得到对应的模型,再使用该模型进行AI仿真模拟数据生成,得到的生成数据可添加至训练数据集作为训练数据,用于客户端设备的模型训练,或添加至云端验证数据,该云端验证数据可以用于构建云端交叉验证数据集。接着,判断训练数据的数据量是否充足,如果数据量不充足,则重新进行AI仿真模拟数据生成;如果数据量充足,则可以对训练数据进行数据预处理操作,得到端侧数据,至此,端侧数据准备完成。
需要指出的是,通过对少量样本数据进行数据仿真,以生成样本数据量更多的训练样本数据,从而扩充了客户端设备一侧的训练样本数据集,进而提高了客户端设备一侧的模型训练效率,还使得客户端一侧训练得到的模型更加个性化。
此外,在获得少量样本数据或者通过数据仿真生成大量样本数据之后,使用训练样本数据训练模型之前,还可以对获得的训练样本数据进行数据有效性验证,以获得最优训练数据集,然后再使用最优训练数据集对模型进行训练。应理解,此处的训练样本数据可以是数据增强之后得到的样本数据,也可以是没有进行数据增强的样本数据。
对训练样本数据进行数据有效性验证可以包括但不限于数据分类、冗余数据去除和噪声数据修复等步骤。数据分类是指将训练样本数据进行分类,以确定出训练样本数据中的有效数据、冗余数据和噪声数据。冗余数据是指一个数据集合中重复的数据,即一个数据集合中存在多个相同的数据。噪声数据是指数据集合中无意义的数据,其一般是指数据中存在错误或异常的数据。有效数据是指数据集合中符合数据质量规范的数据,而数据质量的高低可以通过数据的完整性、一致性和准确性来评价。
对于冗余数据,可以去除该冗余数据,而对于噪声数据,可以进行噪声数据修复,将噪声数据转换为有效数据。最后,基于有效数据形成最优训练数据集。其中,最优训练数据集中的有效数据可以包括通过噪声数据修复得到的有效数据和通过数据分类得到的有效数据。
当然,在获得训练样本数据之后,进行数据有效性验证之前,还可以对训练样本数据进行数据清洗操作,以对训练样本数据进行初步的数据清洗,筛选明显错误、不完整和格式有误的数据。
作为示例而非限定,下面结合图3示出的端侧数据有效性验证示意图进行介绍。
如图3所示,客户端设备获取到端侧数据之后,可以先对端侧数据进行数据清洗。该端侧数据可以是通过数据增强得到的数据量较多的样本数据,也可以是没有进行数据增强,数据量较少的样本数据。然后,再进行端侧数据有效性验证。端侧数据有效性验证的过程可以包括:通过主动学习的方式对训练样本数据进行分类,以确定出训练样本数据中的有效数据、冗余数据和噪声数据。具体地,主动学习的过程中,可以基于有无标签分别进行有监督学习过程和无监督学习过程。具体来说,可以先判断样本数据是否有标签,如果有标签,则通过主动学习中的有监督学习对数据进行分类,如果没有标签,则通过主动学习中的无监督学习对没有标签的数据进行自动化标注,然后再对数据进行分类,得到数据分类结果。具体应用中,训练样本数据的标签可以具体表现为0和1,例如,当训练样本数据为语音唤醒场景下的语音数据时,标签分为0和1,0表示该训练样本数据为应该被语音唤醒对应的语音数据,1表示该训练样本数据为不应该被语音唤醒对应的语音数据。
得到数据分类结果之后,可以判断端侧数据中是否有冗余数据,如果有,则将冗余数据存储至数据缓存区;如果没有冗余数据,再判断端侧数据中是否有噪声数据,如果有噪声数据,则进行噪声数据修复,然后再判断端侧数据中是否存在有效数据;如果没有噪声数据,则判断端侧数据中是否存在有效数据。如果端侧数据中存在有效数据,则基于有效数据形成端侧训练集,该端侧训练集是最优训练样本数据集。如果端侧数据中不存在有效数据,则将端侧数据存储至数据缓存区。
需要说明的是,图3中的端侧数据可以是指用于端侧模型训练的训练样本数据,而图2中的端侧数据可以包括用于构建云端交叉验证数据集的云端验证数据和用于端侧模型训练的训练样本数据。当然,在其它一些实施例中,图3中的端侧数据也可以包括用于构建云端交叉验证数据集的云端验证数据和用于端侧模型训练的训练样本数据,即除了可以对训练样本数据进行数据有效性验证之外,也可以对云端验证数据进行数据有效性验证。
需要指出的是,在模型训练之前,对训练样本数据进行数据有效性验证,以获得最优训练数据集,再使用最优训练数据集对模型进行训练,以尽可能地保证客户端设备上传至云端的模型的效果,从而进一步提高云端融合的新模型的鲁棒性。
客户端设备获得训练样本数据集之后,可以使用该训练样本数据对模型进行训练。此时,该训练样本数据集可以是图3中的端侧训练集,即端侧模型训练时所使用的训练样本数据集是经过数据有效性验证后的数据集。当然,该训练样本数据集也可以是没有经过数据有效性验证后的数据集。另外,该训练样本数据集可以是数据增强后得到的数据集,也可以是没有进行数据增强的数据集。具体应用中,训练样本数据集的不同,端侧模型的训练过程也可以有所不同。可以理解的是,客户端设备上的模型训练方式是增量训练。
作为示例而非限定,下面结合图4示出的端侧模型训练过程示意图进行介绍。
如图4所示,客户端设备获取到端侧训练集之后,先判断获取到的模型训练任务是否发生变化,模型训练任务是否发生变化具体可以通过判断模型训练任务是否增加或减少。具体地,可以将当前的模型训练任务和前一次的模型训练任务相比,判断当前训练任务是否增加或减少。例如,前一次的训练任务是三分类任务,而当前的训练任务是四分类任务,则可以判定当前的模型训练任务是增加的。
如果模型训练任务是发生变化的,则采用多任务增量学习的方式进行模型增量训练,得到训练好的模型,该多任务增量学习算法可以例如为LWF(learning withoutforgetting)或EWC(elastic weight consolidation)。
如果模型训练任务没有发生变化,则接着判断基模型类型,根据基模型类型,采用不同的增量学习方式。基模型类型可以包括深度学习模型和机器学习模型。如果基模型类型是机器学习模型,则采用机器学习增量训练的方式进行模型增量训练,得到训练好的模型。如果基模型类型不是机器学习模型,则采用神经网络增量学习方式对模型进行增量训练。
在神经网络增量学习方式中,可以先判断模型更新的难易程度,具体可以通过判断模型结构和训练样本数据量的大小来判断模型更新的难易程度。如果模型难更新,则采用元学习和卷积层更新的方式对模型进行增量训练;反之,如果模型易更新,则采用知识蒸馏和卷积层固化的方式对模型进行增量训练。
在判断模型更新的难易程度时,可以预先设定一个样本数据量阈值,以及模型中的层级数量阈值,通过判断训练样本数据量和设定的样本数据量阈值之间的大小关系来判断训练样本数据量的多少,通过判断待训练模型的层级和层级数量阈值之间的大小关系来判断模型结构是否复杂。例如,如果待训练模型只有3层全连接层,则判定该待训练模型的结构简单,而如果有50层全连接层,则可以判定该待训练模型的结构复杂。一般情况下,模型结构复杂且训练样本数据量少,则判定模型难更新,反之,模型结构简单且训练样本数据量多,则判定模型易更新。
需要指出的是,如果端侧训练集是通过数据增强后得到的数据集,此时,由于该训练集包含的训练样本数据量较多,可以判定出模型易更新,则采用知识蒸馏和卷积层固化的方式进行模型增量训练。而如果端侧训练集是是没有经过数据增强的数据集,此时,该训练集包含的训练样本数据量较少,可以判定出模型难更新,则采用元学习和卷积层更新的方式进行模型增量训练,具体地,可以采用元学习的小样本学习(few-shot learning)进行模型的增量训练。当然,还需要结合模型结构是否复杂来判断模型更新难易与否。
当然,在其它一些实施例中,端侧模型训练过程也可以不同上文提及的过程,例如,可以不进行任务是否发生变化的判断,也可以不进行模型更新难易程度的判断等。但是,相较而言,上文图4提及的模型训练过程中,根据任务是否变化采用不同的增量训练方式,这样可以在任务变化的情况下,仍然能对模型进行增量训练。此外,还根据基模型的类型,采用不同的增量训练方式,这样,即使是少量样本的情况下,仍然可以通过元学习的增量训练方式即通过元学习中的小样本学习和卷积层更新的方式进行模型增量训练,得到训练好的模型。换句话说,图4中对应的端侧模型训练方式可以根据端侧模型的种类和端侧模型训练任务,选取最优或者说最合适的端侧模型增量训练方式,进一步提高了端侧模型的训练效率和训练效果,使得模型可以快速收敛。
客户端设备在进行端侧模型增量训练之后,可以对训练得到的模型进行模型验证,验证通过后才将模型上传至云端,这样可以尽可能地确保上传至云端的模型的效果,从而进一步提高云端融合的新模型的鲁棒性。模型验证可以是指使用对应的验证数据集对训练得到的模型进行验证,获得模型验证结果。当模型验证结果达到一定的条件时,则可以判定模型验证通过,得到图4中的端侧个性化模型,再将该端侧个性化模型上传至云端;反之,当模型测试结果没有达到对应的条件时,则可以判定模型验证没有通过,此时,可以重新使用端侧训练集进行模型增量训练。
具体应用中,模型验证结果一般表现为模型的精度,预先设定对应的精度阈值,如果模型的精度大于设定的精度阈值,则判定模型验证通过,反之,如果模型的精度小于设定的精度阈值,则判定模型验证没有通过。例如,在语音唤醒场景下,设定的精度阈值为90%,使用验证数据集对增量训练后的语音唤醒模型进行验证,得到该语音唤醒模型的唤醒成功率为91%,由于91%>90%,则判定模型验证通过,可以将该增量训练后的语音唤醒模型上传至云端。
当然,在其它一些实施例中,客户端设备在得到训练好的端侧模型之后,也可以不进行模型验证,而是直接将训练好的模型上传至云端。
客户端设备通过端侧模型训练获得可以上传至云端的个性化模型后,将该个性化模型上传至云端设备。云端设备可以先统计接收到的个性化模型数量,当个性化模型数据达到一定数量后才进行模型融合。
云端设备在获取到足量的个性化模型之后,可以先基于交叉验证数据集对个性化模型进行可靠***叉验证,然后再根据模型可靠***叉验证结果,确定每个个性化模型的融合权重,最后根据各个个性化模型对应的融合权重进行模型加权融合,以得到融合更新后的云端新模型。
在一些实施例中,云端的交叉验证数据集可以是由客户端设备在数据仿真过程中生成的云端验证数据和云端数据构成的。此时,云端验证数据可以是指如图2中的云端验证数据。而云端数据可以是云端设备根据客户端设备上传的个性化模型的参数或者特征信息生成的,即云端设备可以接收到各个客户端设备上传的个性化模型,再根据各个个性化模型的特征或者参数和云端预先存储的数据,生成对应的云端数据,基于生成的云端数据和客户端设备生成的云端验证数据构建得到交叉验证数据集。
其中,云端预先存储的数据可以是指云端用于训练初始模型的数据。例如,在语音唤醒场景下,待训练模型为语音唤醒模型。云端会首先收集大量的语音数据,作为训练初始的语音唤醒模型的训练数据集。此时,云端用于训练初始的语音唤醒模型的训练数据集是上述云端预先存储的数据。
而在另一些实施例中,客户端设备可能没有进行数据仿真过程,没有生成对应的云端验证数据。此时,云端的交叉验证数据集可以是只由云端数据构成。云端数据是云端设备根据客户端设备上传的个性化模型的参数或者特征信息和云端预先存储的数据,生成的数据。
在又一些实施例中,云端的交叉验证数据集也可以只由云端预先存储的数据组成。
相较而言,根据客户端设备生成的云端验证数据和云端生成的云端数据构建出的交叉验证数据集,可以丰富模型验证的场景和复杂度,从而进一步提高了云端融合得到的新模型的鲁棒性。
云端设备在构建出交叉验证数据集之后,可以使用交叉验证数据集分别对各个个性化模型进行模型可靠***叉验证,得到交叉验证结果。模型可靠***叉验证的过程可以包括:将构建的交叉验证数据集划分成多个子验证数据集,分别使用多个子验证数据集对每一个端侧个性化模型进行验证,得到每个子验证数据集的验证结果;针对每一个端侧个性化模型,可以根据各个子验证数据集对应的验证结果,计算得到一个验证结果,将这一个验证结果作为该端侧个性化模型的交叉验证结果。
模型可靠***叉验证是指对模型进行交叉验证,其目的是为了获得可靠性较高的模型。例如,在语音唤醒场景下,端侧个性化模型为语音唤醒模型,模型可靠***叉验证结果具体表现为语音唤醒成功率。通过模型交叉验证之后得到各个语音唤醒模型的语音唤醒成功率后,再选取语音唤醒成功率比较高的语音唤醒模型进行模型加权融合。作为示例而非限定,设定精度阈值为95%,即选取语音唤醒成功率大于或等于95%的语音唤醒模型进行模型加权融合。当然,也可以通过数量阈值来选取用于模型加权融合的语音唤醒模型。作为示例而非限定,根据语音唤醒成功率的高低,选取前100个语音唤醒模型用于模型加权融合。
当然,在模型可靠***叉验证之后,云端设备也可以不用根据交叉验证结果来筛选出用于模型加权融合的端侧个性化模型,而是将所有端侧个性化模型均用于模型加权融合。
云端设备使用交叉验证数据集进行模型可靠***叉验证之后,可以得到对应的交叉验证结果,然后再根据交叉验证结果,计算出各个个性化模型的融合权重,最后再根据融合权重进行模型加权融合,得到更新后的新模型。
当然,在其它一些实施例中,除了可以根据交叉验证结果计算模型融合权重之外,还可以对个性化模型进行统计性分析,通过统计性分析结果辅助确定模型融合权重。统计性分析可以是指分别统计各个客户端设备上传的个性化模型的端侧训练次数和端侧训练数据集的数据量大小等,得到统计性分析结果。云端设备得到统计性分析结果之后,可以结合统计性分析结果和模型可靠***叉验证结果确定端侧个性化模型的融合权重。
也就是说,可以只根据模型可靠***叉验证结果确定端侧个性化模型的融合权重,也可以结合模型可靠***叉验证结果和统计性分析结果来确定端侧个性化模型的融合权重。
下面先对只根据模型可靠***叉验证结果确定端侧个性化模型的融合权重的过程进行介绍。
云端设备在构建得到云端交叉验证数据集,并且获取到各个客户端设备上传的端侧个性化模型之后,先将云端交叉验证数据集划分成多个子验证数据集,其中,子验证数据集的数量可以根据实际需要和实际应用场景进行设定。再使用每一个子验证数据集对每一个端侧个性化模型进行验证,得到验证结果。此时,由于存在多个子验证数据集,故每一个端侧个性化模型对应多个验证结果,将每一个端侧个性化模型的多个验证结果进行加权平均或者算术平均,得到一个平均值,将这一个平均值作为端侧个性化模型的模型交叉验证结果。
得到每一个端侧个性化模型的模型交叉验证结果之后,可以根据预先设定的筛选条件,筛选出用于模型加权融合的端侧个性化模型。该筛选条件可以是数量阈值,也可以是模型精度阈值。例如,根据模型交叉验证结果的高低,选取前100个端侧个性化模型,或者,选取模型精度高于90%的端侧个性化模型,将选取出的模型用于模型加权融合。
在根据模型交叉验证结果筛选出用于模型加权融合之后,可以基于模型交叉验证结果为每个模型分配对应的权重。
举例来说,在语音唤醒场景下,云端获取到1000个语音唤醒模型,将云端交叉验证数据集划分成3个子验证数据集,每个子验证数据集均包括用户的语音数据。
分别使用这3个子验证数据集对1000个语音唤醒模型进行验证,得到模型的语音唤醒成功率,该语音唤醒成功率是模型验证结果。对于每一个语音唤醒模型来说,均有3个子验证数据集对应的语音唤醒成功率,即每一个语音唤醒模型有3个对应的语音唤醒成功率。
其中一个语音唤醒模型的3个语音唤醒成功率分别为90%、80%和70%,为了便于计算,此处计算这3个语音唤醒成功率的平均值,即90%+80%+70%=240%,240%/3=80%,将计算出的平均值作为该语音唤醒模型的语音唤醒成功率,即该语音唤醒模型的语音唤醒成功率为80%。
同理,依此分别计算1000个语音唤醒模型的语音唤醒成功率。
在计算出1000个语音唤醒模型的语音唤醒成功率后,可以根据语音唤醒成功率的高低,从1000个语音唤醒模型中筛选出用于模型加权融合的语音唤醒模型,所筛选出的语音唤醒模型是可靠性较高的模型。为便于计算,此处筛选出语音唤醒成功率前10个模型进行模型融合。这10个语音唤醒模型的语音唤醒成功率分别为95%、96%、94%、90%、92%、92%、96%、90%、90%和90%。
基于这10个语音唤醒成功率为这10个语音唤醒模型分配对应的权重。为了计算简便,此处以加权平均值作为每个语音唤醒模型的权重。先计算10个语音唤醒成功率的总和,即95%+96%+94%+90%+92%+92%+96%+90%+90%+90%=925%;然后,再分别将各自的语音唤醒成功率与总和作比值,将比值作为该语音唤醒模型的权重,即95/925、96/925、94/925、90/925、92/925、92/925、96/925、90/925、90/925和90/925。最后,得到这10个语音唤醒模型的权重,分别为0.103、0.104、0.102、0.097、0.099、0.099、0.104、0.097、0.097和0.097。至此,为10个语音唤醒模型分配了对应的权重,后续可以根据所分配的不同的权重对着10个语音唤醒模型进行加权融合,得到新的语音唤醒模型。
在计算出1000个语音唤醒模型的语音唤醒成功率后,除了如上文所述的权重分配方式,还可以不根据语音唤醒成功率的高低来筛选模型,而是将1000个语音唤醒模型均用于模型加权融合。此时,需要为这1000个语音唤醒模型分别分配对应的权重,为1000个语音唤醒模型分配权重的过程和上文提及的为10个语音唤醒模型分配权重的过程类似,即计算所有模型的语音唤醒成功率总和,再将每一个模型的语音唤醒成功率与总和作比值,得到对应的权重。具体过程在此不再赘述。
在介绍完只根据模型交叉验证结果确定端侧个性化模型的融合权重之后,下面接着介绍结合模型交叉验证结果和统计性分析结果来确定端侧个性化模型的融合权重。
云端在获取到端侧个性化模型之后,可以对端侧个性化模型进行统计性分析,得到统计性分析结果。作为示例而非限定,统计每个端侧个性化模型的训练次数和训练样本数据量。根据预先设定的模型是否充分训练的条件,确定端侧个性化模型是否充分训练。充分训练的条件可以根据实际需要和实际应用场景进行设备。例如,充分训练的条件为:训练次数大于或等于1000次,训练样本数据量大于或等于100个,即如果某个端侧个性化模型的训练次数大于或等于1000次,且训练样本数据量大于或等于100个,则认为该端侧个性化模型是充分训练的,反之,则认为不是充分训练的。
云端构建出云端交叉验证数据集之后,可以根据如上文示出的只根据模型交叉验证结果确定模型的融合权重的过程,来计算出端侧个性化模型的权重。只不过此处还需要根据模型充分训练与否来相应地调整权重,得到最终的融合权重。
根据模型充分训练与否调整权重可以是指:如果模型充分训练,则在基于模型交叉验证结果计算的融合权重的基础上,相应地加上预设数值,反之,如果模型没有充分训练,则在基于模型交叉验证结果计算的融合权重的基础上,相应地减去预设数值。
举例来说,在语音唤醒场景下,云端获取到1000个语音唤醒模型,将云端交叉验证数据集划分成3个子验证数据集,每个子验证数据集均包括用户的语音数据。
分别使用这3个子验证数据集对1000个语音唤醒模型进行验证,得到模型的语音唤醒成功率,该语音唤醒成功率是模型验证结果。对于每一个语音唤醒模型来说,均有3个子验证数据集对应的语音唤醒成功率,即每一个语音唤醒模型有3个对应的语音唤醒成功率。
其中一个语音唤醒模型的3个语音唤醒成功率分别为90%、80%和70%,为了便于计算,此处计算这3个语音唤醒成功率的平均值,即90%+80%+70%=240%,240%/3=80%,将计算出的平均值作为该语音唤醒模型的语音唤醒成功率,即该语音唤醒模型的语音唤醒成功率为80%。
同理,依此分别计算1000个语音唤醒模型的语音唤醒成功率。
在计算出1000个语音唤醒模型的语音唤醒成功率后,可以根据语音唤醒成功率的高低,从1000个语音唤醒模型中筛选出用于模型加权融合的语音唤醒模型,所筛选出的语音唤醒模型是可靠性较高的模型。为便于计算,此处筛选语音唤醒成功率前10个模型进行模型融合。这10个语音唤醒模型的语音唤醒成功率分别为95%、96%、94%、90%、92%、92%、96%、90%、90%和90%。
基于这10个语音唤醒成功率为这10个语音唤醒模型分配对应的权重。为了计算简便,此处以加权平均值作为每个语音唤醒模型的权重。先计算10个语音唤醒成功率的总和,即95%+96%+94%+90%+92%+92%+96%+90%+90%+90%=925%;然后,再分别将各自的语音唤醒成功率与总和作比值,将比值作为该语音唤醒模型的权重,即95/925、96/925、94/925、90/925、92/925、92/925、96/925、90/925、90/925和90/925。最后,得到这10个语音唤醒模型的权重,分别为0.103、0.104、0.102、0.097、0.099、0.099、0.104、0.097、0.097和0.097。
接着,通过统计性分析结果判断这10个语音唤醒模型是否充分训练。假如,充分训练的条件为:训练次数大于或等于1000次,训练样本数据量大于或等于100个。根据充分训练条件确定这10个语音唤醒模型是否充分训练的结果为:95%、96%、94%、90%和92%对应的语音唤醒模型为充分训练,92%、96%、90%、90%和90%对应的语音唤醒模型为非充分训练。
对于充分训练的语音唤醒模型,权重值相应地加上0.001,对于没有充分训练的语音唤醒模型,权重值相应地减去0.001。根据充分训练与否调整后的权重值为:0.104、0.105、0.103、0.098、0.100、0.098、0.103、0.096、0.096和0.096。这样,可以得到10个语音唤醒模型的最终融合权重,后续可以该调整后的融合权重进行模型加权融合。
当然,在具体应用中,模型充分训练与否对应的权重调整值可以根据实际应用场景进行设定。
在计算出1000个语音唤醒模型的语音唤醒成功率后,除了如上文所述的权重分配方式,还可以不根据语音唤醒成功率的高低来筛选模型,而是将1000个语音唤醒模型均用于模型加权融合。此时,需要为这1000个语音唤醒模型分别分配对应的权重,为1000个语音唤醒模型分配权重的过程和上文提及的为10个语音唤醒模型分配权重的过程类似,即计算所有模型的语音唤醒成功率总和,再将每一个模型的语音唤醒成功率与总和作比值,得到对应的权重。然后,再根据预先设定的充分训练条件和统计性分析结果,来相应地调整权重值,得到最终的融合权重。具体过程在此不再赘述。
云端设备依据上文所示的融合权重计算方式确定端侧个性化模型的融合权重之后,可以根据模型融合权重,进行模型加权融合,以获得新的云端模型。
在其它一些实施例中,云端设备在模型可靠***叉验证之后,还可以先判断客户端设备上传的个性化模型的结构是否发生改变,如果模型结构没有发生改变,则可以进行模型加权融合,而如果模型结构已经发生改变,则对模型结构进行分析,具体可以对模型的深度和宽度进行分析,然后再根据模型结构分析进行云端模型搜索,将搜索到的模型作为新的云端模型。这样,对于端侧模型结构发生改变的情况下,仍然可以结合云端模型搜索技术产生新的云端模型。
需要指出的是,上文图4中,客户端设备如果判定模型训练任务发现变化,会使用多任务增量学习方式来对模型进行增量训练,这样可能会导致端侧模型结构发生改变。
在其它一些实施例中,云端设备在获得加权融合后的模型之后,可以对加权融合得到的模型进行模型验证,验证通过后将该模型作为新的云端模型,如果验证没有通过,则可以重新判断端侧的个性化模型的结构是否发生改变。
作为示例而非限定,下面结合图5示出的端云协同过程示意图进行介绍。
如图5所示,其分为云侧51和端侧52,其中,图5中虚线往上是云侧51,虚线往下是端侧52。云侧51是指云端设备一侧,而端侧52是指客户端设备一侧。具体来说,云侧一般包括云端软件平台和云端设备,云端软件平台和云端设备共同作用以提供云端服务。例如,云侧可以是指与客户端相对的服务器端。端侧一般是指终端设备一侧,例如,端侧可以为用户手机端和电脑端等。云侧和端侧通过通信网络连接,该通信网络一般是互联网,例如,作为客户端的手机和服务器端通过互联网通信连接。
端侧包括端侧模型和云端验证数据,端侧模型是指客户端设备通过模型训练得到的可以上传至云端的模型,该端侧模型可以经过模型验证后的模型,也可以是没有进行过模型验证的模型。云端验证数据可以是指客户端设备对少量样本数据进行数据仿真后所生成的云端验证数据,将所生成的云端验证数据上传至云端。
当然,在其它一些实施例中,客户端设备如果没有进行数据仿真过程,端侧则不会包括云端验证数据。此时,云侧的交叉验证数据集可以是由云端生成的云端数据构成的。
云侧获取到端侧上传的端侧模型之后,可以将其存储在云端的端侧模型池。根据端侧模型携带的特征信息和云端存储数据进行云端数据生成,再根据云端生成的数据云和端侧上传的云端验证数据,构建出用于进行模型可靠性验证的交叉验证数据集。其中,此处的云端存储数据是指云端预先存储的数据。接着,云端设备使用所构建的交叉验证数据集行模型可靠***叉验证。同时,云端设备还对端侧模型进行端侧模型训练统计性分析。结合可靠***叉验证结果和统计性分析结果确定端侧模型的融合权重。
云侧对端侧模型进行可靠***叉验证之后,可以判断端侧模型的结构是否改变。如果端侧模型结构发生改变,则可以对端侧模型进行结构分析,具体可以是分析端侧模型的深度和宽度,例如,端侧模型有几层卷积层,有几层全连接层等。然后再进行云端模型搜索,搜索出模型效果较好的模型作为新的云端模型。如果端侧模型结构没有发生改变,则结合端侧模型训练统计性分析和模型可靠***叉验证来进行模型加权融合。
在模型加权融合中,根据预先设定的条件来判断是否需要对模型进行重新训练,重新训练的判断条件主要是根据训练任务和模型特点来设定。对于一些模型简单,直接进行加权融合或者加权平均所得到的模型的效果很好,故不需要重新训练,比如随机森林;而对于一些模型结构比较复杂,直接进行加权融合或者加权平均所得到的模型的效果较差,故需要重新进行加权训练,比如,深度学习模型。
云侧确定是否需要对模型进行重新训练,如果需要进行重新训练,则使用加权联邦元学***均。加权联邦元学习是指:根据端侧个性化模型的融合权重,将端侧个性化模型的模型参数和对应的融合权重进行加权聚合,得到新的模型参数,将新的模型参数作为联邦元学习的初始模型参数,再根据初始模型参数进行训练,将训练后的模型作为新的云端模型。
云侧通过模型加权融合得到模型,或者通过云端模型搜索得到模型之后,可以对得到的模型进行模型验证,验证通过后才将该模型作为新的云端模型,而如果验证没有通过,可以返回判断端侧模型结构是否发生改变的步骤。云侧得到新的云端模型之后,可以将新的云端模型下发至端侧,端侧可以继续对获取到的新的云端模型进行增量训练。
需要指出的是,客户端设备和云端设备之间可以进行多轮模型训练。在一轮模型训练中,客户端设备可以进行多次端侧模型训练。
为了更好地介绍本申请实施例可能涉及的***架构和对应的流程,下面将结合图6示出的模型训练过程示意图进行介绍。
如图6所示,云端61将待训练模型62下发至客户端设备64。多个客户端设备64所接收待训练模型62均是一样的。客户端设备64在接收到云端61下发的待训练模型62之后,则可以进行端侧自学习过程,得到训练后的模型,对训练后的模型进行模型效果验证等过程,得到可以上传至云端61的个性化模型65。每个客户端设备64使用本地的训练样本数据对待训练模型62进行训练之后,可以得到不同的个性化模型65,将个性化模型65上传至云端61。云端61根据上传的个性化模型65进行模型融合更新,得到融合更新后的云端模型63。
需要说明的是,端侧自学习过程可以是上文提及的端侧设备使用本地训练样本数据集训练云端下发的模型的过程。其可以包括端侧数据收集、端侧数据仿真生成、数据有效性验证、端侧增量训练和模型效果验证等过程。关于端侧如何训练模型的过程可以参见上文的图2、图3和图4对应的内容。
而云端61根据个性化模型65进行云端模型融合得到新的模型的过程可以参见上文图5对应的内容,在此不再赘述。
需要指出的是,客户端设备64可能会进行多次训练后才能得到上传至云端61的个性化模型65。而多次训练的原因可能是所训练得到的模型没有通过模型验证。
至此,上文介绍了本申请实施例可能涉及的***架构,以及客户端设备和云端设备可能的流程。
下面将对本申请实施例可能涉及的方案流程进行示例性介绍。
首先结合图7示出的模型训练过程的一种示意框图进行介绍。如图7所示,其包括云侧71和端侧72。
端侧72是指客户端设备一侧,其可以包括端侧数据池、端侧数据准备、端侧数据有效性验证、端侧模型训练和端侧模型。
端侧数据池是指客户端设备一侧用于存储端侧数据的地方,该端侧数据池可以包括客户端设备记录的历史行为数据、打点数据和隐私数据等,端侧数据池中的数据可以是端侧在获取到合法且明确的用户授权之后记录的数据。
端侧数据准备是指基于端侧数据池中的样本数据获得端侧数据。在一些实施例中,可以通过数据仿真的方式生成样本数据量较多的端侧数据,即从端侧数据池中获取少量样本数据,对该少量样本数据进行分析,再通过强化学习对端侧行为进行建模,然后用建立的模型进行AI仿真模拟数据生成,得到训练数据和云端验证数据,进而得到端侧数据。通过数据仿真方式进行端侧数据准备的过程可以参见图2,在此不再赘述。而在另一些实施例中,客户端设备如果不进行数据仿真过程,可以从端侧数据池中获取到少量样本数据,对该少量样本数据进行数据预处理后,即可得到端侧数据。
端侧数据有效性验证是指对端侧数据准备得到的端侧数据进行数据有效性验证。数据有效性验证过程可以参见上文的图3,在此不再赘述。当然,在其它一些实施例中,也可以不进行端侧数据有效性验证过程,此时,端侧数据准备完成后,即可基于端侧数据形成训练数据集,使用训练数据集进行端侧模型训练。
端侧模型训练是指客户端设备一侧对云端下发的端侧模型进行训练。端侧模型训练过程可以如上文图4对应的模型训练过程,在此不再赘述。
端侧72通过端侧模型训练得到端侧模型(即用户个性化模型)之后,可以通过端云控制平台协调各个客户端设备上传训练好的用户个性化模型至云侧。
云侧71包括端侧模型是否足量、端侧模型交叉验证和云端模型加权融合等。其中,端侧模型是否足量是指云侧持续地接收各个客户端设备上传的端侧模型,并统计所接收到的端侧模型数量;将端侧模型数量和预设数量阈值进行比较,如果端侧模型数量大于预设数量阈值,则判定为足量,反之,则判定为不足量。上述预设数量阈值可以根据实际应用需要进行设定,在此不作限定。
云侧71在判定出端侧模型足量之后,可以使用构建的云端交叉验证数据集进行端侧模型交叉验证。接着,根据为端侧模型分配的不同权重进行云端模型加权融合,得到新的云端模型,将新的云端模型再次下发给客户端设备。其中,端侧模型交叉验证过程、模型融合权重计算过程和模型加权融合过程可以参见上文相应内容,在此不再赘述。
由上可见,在一些实施例中,客户端设备一侧可以进行数据仿真过程,也可以不进行数据仿真过程。相对应地,云端设备一侧可以根据客户端设备生成的云端验证数据和云端生成的数据构建交叉验证数据集,也可以只根据云端生成的数据构建交叉验证数据集。
下面将先对客户端设备一侧不进行数据仿真过程,云端设备一侧根据云端生成的数据构建交叉验证数据集对应的方案进行介绍。
参见图8示出的模型训练过程的另一种示意图,如图8所示,其包括云侧81和端侧82。
端侧82的流程可以包括:
客户端设备获取端侧数据,该端侧数据可以包括用户行为数据,具体可以通过数据打点等方式获得。其中,该端侧数据可以是端侧在获取到合法且明确的用户授权之后采集的数据。获取到端侧数据之后,客户端设备可以对端侧数据进行数据预处理,数据预处理可以包括数据清洗等操作。接着,客户端设备可以对数据预处理后的数据进行端侧数据有效性验证,端侧数据有效性验证的具体过程可以参见图3对应的相关内容,在此不再赘述。当然,也可以不进行数据有效性验证,而是直接进行端侧模型训练。
客户端设备进行数据有效性验证之后,得到训练数据集,基于该训练数据集对模型进行增量训练。模型增量训练过程可以参见图4对应的相关内容,在此不再赘述。需要指出的是,由于本实施例中没有进行数据仿真过程,故训练数据集的样本量较少,此时,基于图4对应的训练过程,会判定出模型难更新,则使用元学习中的few-shot learning进行模型增量训练。
客户端设备在进行模型增量训练之后,可以对训练得到的模型进行模型验证,模型验证通过后,得到个性化模型,再将个性化模型上传至云侧的端侧模型池。其中,客户端设备一侧的模型验证可以是指:使用验证数据集对增量训练后得到的模型进行验证,得到模型验证结果,该模型验证结果可以为模型的精度,例如,语音唤醒模型的唤醒成功率;如果模型的精度高于预先设定的阈值,则认为模型验证通过,反之,如果模型的精度低于预先设定的阈值,则认为模型验证没有通过。将模型验证通过后的模型上传至云端,没有验证通过的模型不上传至云端。
云侧81的流程可以包括:
由于在本实施例中客户端设备没有进行数据仿真过程,没有生成用于构建云端交叉验证数据集的云端验证数据,此时,云端设备可以根据云端存储数据构建交叉验证数据集。其中,云端存储数据是指上文所称的云端预先存储的数据。当然,也可以直接基于云端预先存储的数据来构建交叉验证数据集。
接着,云端设备可以使用交叉验证数据集进行端侧模型可靠***叉验证,并统计个性化模型的训练次数和训练数据量等,结合交叉验证结果和统计性分析结果,计算各个个性化模型的融合权重。然后,云端设备再根据融合权重对模型参数进行加权平均,得到云端新模型。云侧的流程可以参见图5对应的相关内容,在此不再赘述。
在本实施例中,云端一侧在进行模型融合之前,先根据云端交叉验证数据集对端侧上传的模型进行可靠***叉验证,并根据可靠***叉验证结果和统计性分析结果来为不同的端侧模型分配不同的权重,提高了云端聚合得到的新模型的鲁棒性。进一步地,在客户端一侧,通过端侧数据有效性验证、小样本学习和模型验证等过程,可以尽可能地保证端侧上传至云端的模型效果,进而进一步地提高了云端融合得到的新模型的鲁棒性。
当然,在其它一些实施例中,端侧模型训练过程可以不包括图7中的端侧数据有效性验证过程,或者,可以不包括图7中的客户端设备一侧的模型验证过程。
在另一些实施例中,客户端设备一侧可以进行数据仿真过程,云端设备一侧的交叉验证数据集是由客户端设备生成的云端验证数据和云端生成的数据构成的。下面将结合图9示出的模型训练过程的又一种示意图对该方案进行介绍。
如图9所示,其包括云侧91和端侧92。
端侧92的流程可以包括:
客户端设备获取端侧数据,该端侧数据可以包括用户行为数据。该端侧数据是端侧在获取到合法且明确的用户授权之后采集的数据。接着,客户端设备基于获取到的端侧数据进行数据仿真操作,以将少量样本数据生成大量样本数据。数据仿真之后,得到所生成的数据,所生成的数据可以作为训练数据,也可以作为云端验证数据,从而可以得到训练数据和云端验证数据,将云端验证数据上传至云端,对训练数据进行数据预处理操作。数据仿真过程可以参见具体上文的图2,在此不再赘述。
客户端设备在对数据仿真生成的训练样本数据进行数据预处理之后,可以对数据预处理后的训练数据进行数据有效性验证,以得到训练数据集。数据有效性验证的过程可以具体参见上文的图3,在此不再赘述。
客户端设备在获得训练数据集之后,可以基于该训练数据集对模型进行增量训练。客户端一侧的模型增量训练过程可以参见上文的图4,在此不再赘述。需要指出的是,本实施例进行了数据仿真过程,故训练数据集的样本量较多,此时,基于图4对应的模型训练过程,可以判定出模型易更新,则使用知识蒸馏和卷积层固化的方式进行模型增量训练。
客户端设备在模型增量训练之后,可以对训练得到的模型进行模型验证,模型验证通过后,可以得到个性化模型,再将个性化模型上传至云侧的端侧模型池。
云侧的流程可以包括:
本实施例中,由于端侧进行了数据仿真过程,故云端会接收到端侧上传的云端验证数据,该云端验证数据可以用于构建云端交叉验证数据集。此时,云端设备可以基于云端验证数据和云端存储数据来构建交叉验证数据集,其中,云端存储数据是指上文提及的云端预先存储的数据;也可以基于云端验证数据和云端生成的数据来构建交叉验证数据集,其中,云端生成的数据是指云端根据端侧模型的特征参数信息和云端预先存储的数据生成的数据。图9中仅示出其中一种情况。
云端设备在构建出交叉验证数据集之后,云端设备使用交叉验证数据集进行端侧模型可靠***叉验证,并统计端侧个性化模型的训练次数和训练数据量等,结合交叉验证结合和统计性分析结果,计算端侧模型的融合权重。然后,根据融合权重对模型参数进行加权平均,得到云端新模型。云侧的融合权重计算过程和模型加权融合过程可以参见上文的图5,在此不再赘述。
为了更好介绍图9对应的实施例,下面结合图10示出的模型训练的又一种示意图进行介绍。
如图10所示,端侧数据通过数据仿真生成大量的样本数据。数据仿真所生成的数据中,一部分上传至云端,用于云端验证数据构成,另一部分数据用于端侧的训练数据构成。端侧通过数据仿真过程构成训练样本数据之后,可以先对训练样本数据集进行数据有效性验证(图中未示出),然后再进行端侧模型增量训练。在端侧模型增量训练的过程中,由于进行了数据仿真过程,训练样本数据量较大,因此可以判定模型易更新。模型易更新则采用卷积层固化和知识蒸馏的方式来进行端侧模型增量训练。在端侧模型增量训练时,可以得到蒸馏损失(Distilation Loss)和回归损失(Regression Loss)。蒸馏损失的权重为λ,回归损失的权重为1-λ,基于蒸馏损失和回归损失,以及对应的权重,可以得到总损失(Total loss)。
端侧得到训练好的模型之后,可以对训练好的模型进行模型效果验证。模型效果验证通过后,则可以将训练好的模型上传至云端。
云端得到端侧上传的模型之后,使用交叉验证数据集对模型进行交叉验证,根据交叉验证结果计算各个模型的融合权重。通过权重计算得到各个模型的融合权重之后,则使用加权联邦元学习进行模型加权融合,得到融合更新后的云端模型。
需要指出的是,本实施例相较于上文图8对应的实施例,区别在于本实施例进行端侧数据仿真过程,且云端的交叉验证数据集包括端侧数据仿真过程生成的云端验证数据。
基于此,本实施例在云端一侧在进行模型融合之前,先根据云端交叉验证数据集对端侧上传的模型进行可靠***叉验证,并根据可靠***叉验证结果和统计性分析结果来为不同的端侧模型分配不同的权重,提高了云端聚合得到的新模型的鲁棒性。进一步地,在客户端一侧,通过端侧数据有效性验证和模型验证等过程,可以尽可能地保证端侧上传至云端的模型效果,进而进一步地提高了云端融合得到的新模型的鲁棒性。
除此之外,本实施例通过端侧数据仿真过程,扩充了端侧的训练数据集,提高了端侧模型的训练效率,使得训练得到的端侧模型更加个性化。还有,交叉验证数据集包括云端验证数据集,丰富了模型验证的场景和复杂度,可以进一步提高云端融合得到的新模型的鲁棒性。
需要说明的是,上文图8和图9对应的实施例中示出的方案仅仅是一种示例,在具体应用中,可以相应地增加一些步骤或者减少一些步骤,亦或者是使用其它实现方式替换其中的一些步骤,从而得到新的方案,但这些通过替换或者重新组合的方案均落入本申请实施例的保护范围。
例如,图8和图9中的端侧模型训练过程可以如图4对应的增量训练过程。而在其它一些实施例中,图8和图9中的训练过程也可以使用现有联邦学习中的端侧训练过程。相较而言,图4对应的模型增量训练过程通过模型训练任务和模型类型,选择最优的模型增量训练方式,可以进一步提高端侧模型训练效率和模型训练效果。更进一步地,图4中的模型增量训练过程可以不包括端侧训练任务是否变化的判断过程等。
又例如,图8和图9中的云侧流程中,可以不进行模型结构是否改变判断过程,也可以不对模型加权融合后的模型进行验证。但是,增加模型结构改变判断过程可以在端侧模型结构发生改变的情况下,结合云端模型搜索仍然能产生新的云端模型。而增加模型加权融合后的模型验证过程可以尽可能地确保云端新模型的效果。
在其它一些实施例中,端侧流程可以如图8或图9所示的流程,但云侧的流程可以使用现有联邦学习对应的流程,而不是图8和图9对应的云侧流程。但是,如果只使用图8或者图9中的端侧流程,而云侧流程是现有联邦学习中的云侧流程。此时,由于端侧进行了数据有效性验证过程、端侧模型验证过程和图4对应的模型增量训练过程,可以尽可能地保证端侧上传至云端的端侧模型效果,仍然可以提高云端融合得到的新模型的鲁棒性。但是,云侧对端侧模型进行可靠***叉验证,以及根据可靠***叉验证结果和统计性分析结果来为不同的端侧模型分配不同的融合权重,可以进一步地提高云端融合的新模型的鲁棒性。
在介绍完本申请实施例提供的***架构,以及客户端设备和云端设备可能涉及的相关流程之后,下面对本申请实施例可能涉及的应用场景进行介绍。
本申请实施例的应用场景广泛,没有特定的领域和算法的限制。作为示例而非限定,本申请实施例可以应用于生物特征识别,例如,指纹识别、声纹识别和Face ID解锁等场景;在一些实施例中,结合5G(5th-Generation,第五代移动通信技术)和IoT(Internet ofThings,物联网)技术,也可以应用于多终端数据构建生态,提高AI能力等。例如功耗管控、充电管控和语音唤醒等场景。上文示出了语音唤醒场景下的相关内容,其它场景的过程与语音唤醒场景类型,在此不再赘述。
在本申请实施例中,模型通过不断的端侧自学习,模型预测准确率会越来越高。而通过端云协同可以获得更加鲁棒的模型,使得模型在一些样本数据量较少的场景下也能实现准确预测。下面将通过图11示出的回归预测效果示意图进行介绍。图11可以是基于上述图8对应实施例的方案。
图8对应的实施例中,客户端设备一侧没有进行数据仿真过程,训练样本数据量较少。此时,端侧自学习过程可以包括:端侧数据收集、端侧数据有效性验证、端侧模型增量训练和模型效果验证。由于训练样本数据量较少,故可以判定为模型难更新。模型难更新则使用卷积层更新和元学习的方式进行模型增量训练。端云协同过程是指云端和端侧联合进行模型训练的过程,即云端将待训练模型下发至客户端,客户端设备通过端侧自学习对待训练模型进行训练,并将训练得到的模型上传至云端,云端将接收到的各个模型进行融合更新,得到新的云端模型。图11是以回归预测问题作为示例的技术效果图。在回归预测问题中,模型预测值和真实值存在差异。
如图11所示,条纹长方形是真实值,空白长方形和虚线长方形是回归预测值。其中,空白长方形是端协同之前的回归预测值,虚线长方形是端云协同之后的回归预测值。条形柱体的高低代表了其数值的大小。通过真实值和回归预测值之间的柱体高度差,可以得知回归预测值和真实值之间的差异程度。图11的横轴是时间轴,图中示出了7月1日、8月1日、9月1日、10月1日、11月1日和12月1日等时间节点。
在8月1日和9月1日进行了两次端侧自学习过程,即客户端设备对云端下发的待训练模型进行了两次增量训练。在10月1日左右也进行了一次端侧自学习过程。可以看出,从8月1日到11月1日之间,进行了三次端侧自学习过程。每次端侧自学习之后,真实值和回归预测值之间的柱体高度差会逐渐较小,即回归预测值越来越接近真实值。也就是说,通过不断的端侧自学习,回归预测精度会越来越高。但是,也有一些时候,回归预测值和真实值相差较大,即模型的鲁棒性较低。
在11月1日进行了一次端云协同过程,即控制多个客户端设备将训练得到的模型上传至云端,云端将接收到的模型进行可靠***叉验证,根据可靠***叉验证结果分配不同的权重,最后根据所分配的权重进行模型加权融合,得到新的云端模型。云端再将融合得到的新模型下发至端侧。客户端设备使用融合更新得到的模型进行回归预测,真实值和回归预测值之间的差值一直都比较稳定,不会突然变得很大。也就是说,通过端云协同过程可以获得更加鲁棒的模型,且模型在少量数据的场景下也能实现准确预测。
下面将结合图12示出的图片推荐示意图进行介绍,图12是基于图9和图10对应实施例的技术方案。
在图9和图10对应的实施例中,端侧进行了数据仿真过程。此时,端侧的训练样本数据量较大。端侧自学习的过程可以包括端侧数据收集、数据仿真、数据有效性验证、端侧模型增量训练和模型效果验证等过程。
如图12所示,在最左边和中间的手机中,有四张图片,分别为图片221、图片222、图片223和图片224。在没有进行端侧自学习之前,***推荐的图片是图片222,而用户选择的图片是图片221。此时,通过用户选择图片的行为,获得用户的图片类别标签,即用户更喜欢图片221对应类别的微笑图片。获得用户的操作数据之后,通过数据仿真过程,生成大量的端侧操作数据。使用该端侧操作数据组成训练样本数据,然后再使用训练样本数据来训练图片推荐模型。
端侧自学习之后,***通过图片推荐模型给用户推荐的是图片221。也就是说,经过端侧自学习之后,可以获得更能体现用户个性化的图片推荐模型。
端侧将训练好的模型上传至云端,云端将大量端侧个性化模型聚合成一个新的图片推荐模型。使用端云协同后的图片推荐模型或者说云端融合更新后的图片推荐模型进行图片推荐,如图中最右边的手机,其包括四张图片,分别为图片225、图片226、图片227和图片228。使端云协同后,***给用户推荐的是图片225。
需要说明的是,图片225是侧面角度的微笑图片,而图片221是正面角度的微笑图片。通过图片225和图片221意在说明端云协同得到的模型可以在复杂场景下也能保证效果。图12表示端云协同后的模型可在角度变化的场景下,推荐出符合用户偏好的微笑图片。
下面将结合图13示出的端侧设备和云端设备的交互示意图对模型训练过程进行介绍。
如图13所示,该交互过程可以包括以下步骤:
步骤S1301、云端设备向端侧设备发送待训练模型。
步骤S1302、端侧设备根据收集到的少量样本进行数据仿真,生成大量的训练样本。
可以理解的是,端侧设备的数据仿真过程可以参见上文的相应内容,在此不再赘述。
步骤S1303、端侧设备将通过数据仿真生成的云端验证数据上传至云端设备。
步骤S1304、端侧设备根据数据仿真生成的训练样本构建训练样本数据集,并对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集。
可以理解的是,数据有效性验证过程可以参见上文的相应内容,在此不再赘述。
步骤S1305、端侧设备使用验证后的训练样本数据集对待训练模型进行训练,得到端侧模型。并对端侧模型进行模型验证,得到验证通过的端侧个性化模型。
步骤S1306、端侧设备将端侧个性化模型上传至云端设备。
步骤S1307、云端设备根据端侧设备上传的云端验证数据构建云端的交叉验证数据集。
步骤S1308、云端设备使用交叉验证数据集对端侧个性化模型进行可靠***叉验证,得到交叉验证结果。
步骤S1309、云端设备对端侧个性化模型进行统计性分析,得到表征端侧个性化模型充分训练与否的统计性分析结果。
步骤S1310、云端设备结合交叉验证结果和统计性分析结果,为每个端侧个性化模型分配融合权重。
步骤S1311、云端设备根据融合权重和端侧个性化模型,进行模型加权融合,得到更新后的云端模型。
需要说明的是,本实施例与上文各个实施例中的相同或相似内容,可以相互参见,在此不再赘述。
本申请实施例还提供了一种电子设备,该电子设备包括存储器和处理器,以及存储在存储器中并可在处理器上运行的计算机程序。处理器执行该计算机程序时可以实现上文任意实施例中的模型训练方法。
在本申请实施例中,第一电子设备是云端设备,其一般为服务器。而第二电子设备为终端设备,其可以为但不限于手机、平板电脑、笔记本电脑、可穿戴设备、车机或称车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本个人数字助理(personaldigital assistant,PDA)等。
作为示例而非限定,如图14所示,电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriberidentification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等***器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与***设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星***(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯***(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位***(global positioning system,GPS),全球导航卫星***(global navigation satellite system,GLONASS),北斗卫星导航***(beidounavigation satellite system,BDS),准天顶卫星***(quasi-zenith satellitesystem,QZSS)和/或星基增强***(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过***SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时***多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。
作为示例而非限定,电子设备100中的处理器110可以调用并执行内部存储器121中模型训练程序,实现上文任意实施例中模型训练方法的步骤。
例如,如果该电子设备具体为云端服务器,该云端服务器的内部存储器121上存储有模型训练程序以及各种模型。此时,云端存储服务器上的内部存储器121存储的模型可以包括但不限于:待训练模型、端侧上传的个性化模型和云端融合更新得到的模型。
具体应用中,云端服务器可以在接收到端侧设备上传的端侧个性化模型和端侧上传的云端验证数据之后,将该端侧个性化模型和云端验证数据均存储至内部存储器。在后续构建云端交叉验证数据集的过程中,云端服务器的处理器110可以执行模型训练程序,以从内部存储器121中读取到云端验证数据,实现根据该云端验证数据构建云端验证数据的步骤。在使用交叉验证数据集进行交叉验证的过程中,云端服务器的处理器110可以执行存储在内部存储器121上的模型训练程序,以使用交叉验证数据集对每一个端侧个性化模型进行交叉验证,得到交叉验证结果,并将该交叉验证结果存储至内部存储器121。然后,云端服务器的处理器110还可以执行存储在内部存储121上的模型训练程序,以根据交叉验证结果为各个不同的端侧个性化模型分配融合权重,再根据每个端侧个性化模型的融合权重进行加权融合,得到云端融合更新的模型,并将该云端融合更新的模型存储至内部存储器121。
当然,在其他一些实施例中,上述内部存储器121的功能也可以由外部存储器实现,此时,云端服务器的处理器100通过外部存储接口120读取到外部存储器上的数据。
又例如,如果该电子设备为端侧设备,例如,手机、平板电脑或者可穿戴设备等。该端侧设备包括处理器110和内部存储器121。内部存储器上可以存储有:模型训练程序、云端服务器下发的待训练模型、所采集的训练样本数据和训练完成的模型等。
端侧设备在接收到云端服务器下发的待训练模型之后,可以将该待训练模型写入至内部存储器121。同理,端侧设备可以通过数据打点等方式采集到训练样本数据之后,将所采集到的训练样本数据写入至内部存储器121。端侧设备的处理器100通过执行存储在内部存储器121上的模型训练程序,以实现数据仿真过程、数据有效性验证过程、端侧模型增量训练过程和模型验证过程等。数据仿真、数据有效性验证、端侧模型增量训练和模型验证等过程均可以参见上文对应实施例,此处不赘述。
以数据有效性验证过程为例,端侧设备的处理器100执行模型训练程序,以从内部存储器121上读取到端侧数据,然后再对端侧数据进行分类,确定出有效数据、冗余数据和噪声数据;将冗余数据存储至数据缓存区,对噪声数据进行噪声修复后存储至内部存储器121。
此外,本申请实施例还提供了一种模型训练装置,该模型训练装置包括处理模块和存储模块。该存储模块可以用于存储模型训练程序和模型,该处理模块可以用于执行存储在存储模块上的模型训练程序,以实现上文任意实施例中的模型训练方法。
作为示例而非限定,该存储模块可以为上述内部存储器121,该处理模块可以为上述处理器110。
在一些实施例中,该模型训练装置可以为云端服务器,也可以是集成在云端服务器上的装置。此时,该模型训练装置的处理模块可以执行存储模块上的模型训练程序,以实现云端交叉验证数据集构建过程、模型交叉验证过程、模型融合权重分配过程和模型加权融合过程等。
该模型训练装置的存储模块上存储有模型训练程序以及各种模型。该存储模块所存储的模型可以包括但不限于:待训练模型、端侧上传的个性化模型和云端融合更新得到的模型。
例如,该模型训练装置可以在接收到端侧个性化模型和云端验证数据之后,将该端侧个性化模型和云端验证数据均存储至存储模块。在后续构建云端交叉验证数据集的过程中,该模型训练装置的处理模块可以执行模型训练程序,以从存储模块中读取到云端验证数据,实现根据该云端验证数据构建云端验证数据的步骤。而在使用交叉验证数据集进行交叉验证的过程中,该模型训练装置的处理模块可以执行存储在存储模块上的模型训练程序,以使用交叉验证数据集对每一个端侧个性化模型进行交叉验证,得到交叉验证结果,并将该交叉验证结果存储至内部存储模块。另外,该模型训练装置的处理模块还可以执行存储在存储模块上的模型训练程序,以根据交叉验证结果为各个不同的端侧个性化模型分配融合权重,再根据每个端侧个性化模型的融合权重进行加权融合,得到云端融合更新的模型,并将该云端融合更新的模型存储至存储模块。
在另一些实施例中,该模型训练装置可以为端侧设备,也可以是集成在端侧设备上的装置。此时,该模型训练装置的处理模块执行存储模块上的模型训练程序,以实现上文的数据仿真过程、数据有效性验证过程、端侧模型增量训练过程和模型验证过程等。
该模型训练装置的内部存储模块可以包括但不限于:模型训练程序、云端下发的待训练模型、所采集的训练样本数据和训练完成的模型等。
该模型训练装置可以在接收到云端服务器下发的待训练模型之后,将该待训练模型写入至存储模块。同理,该模型训练装置可以通过数据打点等方式采集到训练样本数据之后,将所采集到的训练样本数据写入至存储模块。该模型训练装置的处理模块可以通过执行存储在存储模块上的模型训练程序,以实现数据仿真过程、数据有效性验证过程、端侧模型增量训练过程和模型验证过程等。数据仿真、数据有效性验证、端侧模型增量训练和模型验证等过程均可以参见上文对应实施例,此处不赘述。
以数据有效性验证过程为例,该模型训练装置的处理模块执行模型训练程序,以从存储模块上读取到端侧数据,然后再对端侧数据进行分类,确定出有效数据、冗余数据和噪声数据;将冗余数据存储至存储模块,对噪声数据进行噪声修复后存储至存储模块。
需要说明的是,此处与上文各个实施例的相同或相似之处,可以参见上文实施例的对应内容,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现可实现上述各个实施例中模型训练方法的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行时实现可实现上述各个实施例中模型训练方法的步骤。
本申请实施例还提供一种芯片***,芯片***包括处理器,处理器与存储器耦合,处理器执行存储器中存储的计算机程序,以实现上文任意实施例中的模型训练方法。该芯片***可以为单个芯片,或者多个芯片组成的芯片模组。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
此外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。
需要说明的是,在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
最后应说明的是:以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (17)

1.一种基于联邦学习的模型训练方法,其特征在于,所述方法包括:
第一电子设备向第二电子设备发送待训练模型;
所述第一电子设备接收一个或者多个所述第二电子设备发送的待融合模型,所述待融合模型是所述第二电子设备根据本地的训练样本数据集对所述待训练模型进行训练得到的模型;
所述第一电子设备使用交叉验证数据集对所述待融合模型进行交叉验证,得到交叉验证结果;
所述第一电子设备根据所述交叉验证结果为一个或者多个所述待融合模型分配融合权重;
所述第一电子设备根据每个待融合模型的所述融合权重对所述待融合模型进行模型加权融合,得到更新后的云端模型。
2.如权利要求1所述的方法,其特征在于,在所述第一电子设备接收一个或者多个所述第二电子设备发送的待融合模型之后,所述方法还包括:
所述第一电子设备根据预先设定的充分训练条件,确定每个所述待融合模型的训练结果,所述训练结果包括充分训练和非充分训练;
所述第一电子设备根据所述交叉验证结果为各个待融合模型分配融合权重,包括:
所述第一电子设备根据所述交叉验证结果,确定每个所述待融合模型的第一权重;
所述第一电子设备针对每个所述待融合模型,根据所述训练结果对所述第一权重进行调整,得到第二权重;
所述第一电子设备将每个所述待融合模型的所述第二权重作为所述融合权重。
3.如权利要求2所述的方法,其特征在于,所述第一电子设备根据预先设定的充分训练条件,确定每个所述待融合模型的训练结果,包括:
若所述待融合模型的端侧训练次数大于预设次数阈值,且所述待融合模型的端侧数据量大于预设阈值,所述第一电子设备确定所述待融合模型的训练结果为充分训练;
若所述待融合模型的端侧训练次数小于所述预设次数阈值,和/或所述待融合模型的端侧数据量小于所述预设阈值,所述第一电子设备确定所述待融合模型的训练结果为非充分训练;
其中,端侧训练次数是所述待训练模型在所述第二电子设备上的训练次数,所述端侧数据量是所述第二电子设备本地的训练样本数据量。
4.如权利要求2所述的方法,其特征在于,所述第一电子设备根据所述训练结果对所述第一权重进行调整,得到第二权重,包括:
若所述待融合模型的训练结果为充分训练,所述第一电子设备将所述第一权重和预设数值相加,得到所述第二权重;
若所述待融合模型的训练结果为非充分训练,所述第一电子设备将所述第一权重和所述预设数值相减,得到所述第二权重。
5.如权利要求2所述的方法,其特征在于,所述第一电子设备根据所述交叉验证结果,确定每个所述待融合模型的第一权重,包括:
所述第一电子设备将每个所述待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;
所述第一电子设备将每个待融合模型的交叉验证结果和所述交叉验证结果总和之间的比值作为待融合模型的第一权重。
6.如权利要求1所述的方法,其特征在于,所述第一电子设备根据所述交叉验证结果为各个待融合模型分配融合权重,包括:
所述第一电子设备将每个所述待融合模型的交叉验证结果进行相加,得到交叉验证结果总和;
所述第一电子设备将每个待融合模型的交叉验证结果和所述交叉验证结果总和之间的比值作为所述待融合模型的所述融合权重。
7.如权利要求1所述的方法,其特征在于,所述第一电子设备使用交叉验证数据集对所述待融合模型进行交叉验证,得到交叉验证结果,包括:
所述第一电子设备将所述交叉验证数据集划分成子交叉验证数据集;
所述第一电子设备分别使用每个所述子交叉验证数据集对每个所述待融合模型进行验证,得到子验证结果,其中,一个子交叉验证数据集对应一个子验证结果;
所述第一电子设备根据每个所述待融合模型的所述子验证结果,得到每个所述待融合模型的交叉验证结果。
8.如权利要求1所述的方法,其特征在于,所述方法还包括:
所述第一电子设备获取所述第二电子设备上传的云端验证数据,所述云端验证数据是所述第二电子设备通过对训练样本进行数据仿真生成的数据;
所述第一电子设备根据所述云端验证数据和云端数据,构建所述交叉验证数据集,所述云端数据是存储在云端本地的数据。
9.如权利要求1所述的方法,其特征在于,在所述第一电子设备使用交叉验证数据集对所述待融合模型进行交叉验证,得到交叉验证结果之后,所述方法还包括:
若所述待融合模型的模型结构与上一轮训练的待融合模型的模型结构不相同,所述第一电子设备根据所述待融合模型的模型结构,从预先存储的云端模型中确定出目标云端模型;
所述第一电子设备对所述目标云端模型进行模型验证;
若验证通过,所述第一电子设备将所述目标云端模型作为更新后的云端模型;
若所述待融合模型的模型结构与上一轮训练的待融合模型的模型结构相同,所述第一电子设备进入根据所述交叉验证结果为各个待融合模型分配融合权重的步骤。
10.如权利要求1至9任一项所述的方法,其特征在于,所述第一电子设备根据每个待融合模型的融合权重对所述待融合模型进行模型加权融合,得到更新后的云端模型,包括:
所述第一电子设备根据预先设定的重新训练条件,确定所述待融合模型是否需要重新训练;
若需要重新训练,所述第一电子设备根据所述融合权重,通过加权联邦元学习的方式对所述待融合模型进行训练,得到融合模型;对所述融合模型进行模型验证,若验证通过,则将所述融合模型作为所述更新后的云端模型;
若不需要重新训练,所述第一电子设备根据所述融合权重对所述待融合模型进行加权融合,得到融合模型;对所述融合模型进行模型验证,若验证通过,则将所述融合模型作为所述更新后的云端模型。
11.一种基于联邦学习的模型训练方法,其特征在于,所述方法包括:
第二电子设备接收第一电子设备发送的待训练模型;
所述第二电子设备对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集;
所述第二电子设备根据所述验证后的训练样本数据集对所述待训练模型进行增量训练,得到端侧模型;
所述第二电子设备对所述端侧模型进行模型验证;
所述第二电子设备将模型验证通过的端侧模型作为待融合模型传输至所述第一电子设备。
12.如权利要求11所述的方法,其特征在于,所述第二电子设备对训练样本数据集进行数据有效性验证,得到验证后的训练样本数据集,包括:
所述第二电子设备对所述训练样本数据集进行数据分类,确定所述训练样本数据中的第一有效数据、冗余数据和噪声数据;
所述第二电子设备去除所述冗余数据;
所述第二电子设备对所述噪声数据进行噪声数据修复,得到第二有效数据;
所述第二电子设备基于所述第一有效数据和所述第二有效数据组成所述验证后的训练样本数据集。
13.如权利要求11所述的方法,其特征在于,所述第二电子设备根据所述验证后的训练样本数据集对所述待训练模型进行增量训练,得到端侧模型,包括:
若模型训练任务的类型与上一轮训练的模型训练任务的类型不同,所述第二电子设备根据所述验证后的训练样本数据集,通过多任务增量学习的方式对所述待训练模型进行增量训练,得到所述端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且所述待训练模型的基模型类型为机器学习模型,所述第二电子设备根据所述验证后的训练样本数据集,通过机器增量学习的方式对所述待训练模型进行增量训练,得到所述端侧模型;
若模型训练任务的类型与上一轮训练的模型训练任务的类型相同,且所述待训练模型的基模型类型为非机器学习模型,所述第二电子设备根据所述验证后的训练样本数据集,通过神经网络增量学习的方式对所述待训练模型进行增量训练,得到所述端侧模型。
14.如权利要求13所述的方法,其特征在于,所述第二电子设备根据所述验证后的训练样本数据集,通过神经网络增量学习的方式对所述待训练模型进行增量训练,得到所述端侧模型,包括:
若所述待训练模型符合第一类条件,所述第二电子设备根据所述验证后的训练样本数据集,通过小样本学习和卷积层更新的方式对所述待训练模型进行增量训练,得到所述端侧模型;
若所述待训练模型符合第二类条件,所述第二电子设备根据所述验证后的训练样本数据集,通过知识蒸馏和卷积层固化的方式对所述待训练模型进行增量训练,得到所述端侧模型。
15.如权利要求11所述的方法,其特征在于,所述方法还包括:
所述第二电子设备获取端侧样本数据;
所述第二电子设备根据所述端侧样本数据进行数据仿真,生成训练数据和用于构建云端交叉验证数据集的云端验证数据;
所述第二电子设备将所述云端验证数据上传至第一电子设备;
所述第二电子设备根据所述端侧样本数据和所述训练数据,构建所述训练样本数据集。
16.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至10或者11至15任一项所述的方法。
17.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至10或者11至15任一项所述的方法。
CN202010446725.9A 2020-05-22 2020-05-22 基于联邦学习的模型训练方法和电子设备 Pending CN113705823A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010446725.9A CN113705823A (zh) 2020-05-22 2020-05-22 基于联邦学习的模型训练方法和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010446725.9A CN113705823A (zh) 2020-05-22 2020-05-22 基于联邦学习的模型训练方法和电子设备

Publications (1)

Publication Number Publication Date
CN113705823A true CN113705823A (zh) 2021-11-26

Family

ID=78646559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010446725.9A Pending CN113705823A (zh) 2020-05-22 2020-05-22 基于联邦学习的模型训练方法和电子设备

Country Status (1)

Country Link
CN (1) CN113705823A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114048864A (zh) * 2022-01-11 2022-02-15 中兴通讯股份有限公司 联邦学习数据的管理方法、电子设备和存储介质
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法
CN114465722A (zh) * 2022-01-29 2022-05-10 深圳前海微众银行股份有限公司 信息处理方法、装置、设备、存储介质及程序产品
CN114529228A (zh) * 2022-04-24 2022-05-24 南京鼎研电力科技有限公司 一种面向电力监控***供应链的风险预警方法及***
CN114827289A (zh) * 2022-06-01 2022-07-29 深圳大学 一种通信压缩方法、***、电子装置和存储介质
CN115022316A (zh) * 2022-05-20 2022-09-06 阿里巴巴(中国)有限公司 端云协同数据处理***、方法、设备及计算机存储介质
CN115271033A (zh) * 2022-07-05 2022-11-01 西南财经大学 基于联邦知识蒸馏医学图像处理模型构建及其处理方法
CN116049862A (zh) * 2023-03-13 2023-05-02 杭州海康威视数字技术股份有限公司 基于异步分组联邦学习的数据保护方法、装置及***
CN117349670A (zh) * 2023-10-25 2024-01-05 杭州汇健科技有限公司 一种肿瘤检测模型训练***、方法、设备及存储介质
WO2024011456A1 (zh) * 2022-07-13 2024-01-18 Oppo广东移动通信有限公司 数据处理方法、通信方法及装置、终端设备和网络设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、***、设备及计算机可读存储介质
CN110222762A (zh) * 2019-06-04 2019-09-10 恒安嘉新(北京)科技股份公司 对象预测方法、装置、设备、及介质
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、***、设备及计算机可读存储介质
CN110222762A (zh) * 2019-06-04 2019-09-10 恒安嘉新(北京)科技股份公司 对象预测方法、装置、设备、及介质
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114357067A (zh) * 2021-12-15 2022-04-15 华南理工大学 一种针对数据异构性的个性化联邦元学习方法
CN114048864A (zh) * 2022-01-11 2022-02-15 中兴通讯股份有限公司 联邦学习数据的管理方法、电子设备和存储介质
CN114465722A (zh) * 2022-01-29 2022-05-10 深圳前海微众银行股份有限公司 信息处理方法、装置、设备、存储介质及程序产品
CN114465722B (zh) * 2022-01-29 2024-04-02 深圳前海微众银行股份有限公司 信息处理方法、装置、设备、存储介质及程序产品
CN114529228A (zh) * 2022-04-24 2022-05-24 南京鼎研电力科技有限公司 一种面向电力监控***供应链的风险预警方法及***
CN115022316B (zh) * 2022-05-20 2023-08-11 阿里巴巴(中国)有限公司 端云协同数据处理***、方法、设备及计算机存储介质
CN115022316A (zh) * 2022-05-20 2022-09-06 阿里巴巴(中国)有限公司 端云协同数据处理***、方法、设备及计算机存储介质
CN114827289B (zh) * 2022-06-01 2023-06-13 深圳大学 一种通信压缩方法、***、电子装置和存储介质
CN114827289A (zh) * 2022-06-01 2022-07-29 深圳大学 一种通信压缩方法、***、电子装置和存储介质
CN115271033A (zh) * 2022-07-05 2022-11-01 西南财经大学 基于联邦知识蒸馏医学图像处理模型构建及其处理方法
CN115271033B (zh) * 2022-07-05 2023-11-21 西南财经大学 基于联邦知识蒸馏医学图像处理模型构建及其处理方法
WO2024011456A1 (zh) * 2022-07-13 2024-01-18 Oppo广东移动通信有限公司 数据处理方法、通信方法及装置、终端设备和网络设备
CN116049862A (zh) * 2023-03-13 2023-05-02 杭州海康威视数字技术股份有限公司 基于异步分组联邦学习的数据保护方法、装置及***
CN117349670A (zh) * 2023-10-25 2024-01-05 杭州汇健科技有限公司 一种肿瘤检测模型训练***、方法、设备及存储介质
CN117349670B (zh) * 2023-10-25 2024-04-12 杭州汇健科技有限公司 一种肿瘤检测模型训练***、方法、设备及存储介质

Similar Documents

Publication Publication Date Title
CN113705823A (zh) 基于联邦学习的模型训练方法和电子设备
EP3923634B1 (en) Method for identifying specific position on specific route and electronic device
CN111669515B (zh) 一种视频生成方法及相关装置
US11868463B2 (en) Method for managing application permission and electronic device
CN116564304A (zh) 语音交互方法及装置
EP4020374A1 (en) Image processing method and electronic apparatus
WO2021052139A1 (zh) 手势输入方法及电子设备
CN112860428A (zh) 一种高能效的显示处理方法及设备
CN112699971A (zh) 一种身份认证方法和装置
CN111103922A (zh) 摄像头、电子设备和身份验证方法
CN114242037A (zh) 一种虚拟人物生成方法及其装置
WO2022073417A1 (zh) 融合场景感知机器翻译方法、存储介质及电子设备
CN112651510A (zh) 模型更新方法、工作节点及模型更新***
CN115589051B (zh) 充电方法和终端设备
CN115718913A (zh) 一种用户身份识别方法及电子设备
CN113574525A (zh) 媒体内容推荐方法及设备
CN114424927A (zh) 睡眠监测方法、装置、电子设备及计算机可读存储介质
CN114822543A (zh) 唇语识别方法、样本标注方法、模型训练方法及装置、设备、存储介质
CN113468929A (zh) 运动状态识别方法、装置、电子设备和存储介质
CN114444705A (zh) 模型更新方法及装置
CN111768765A (zh) 语言模型生成方法和电子设备
CN113536834A (zh) 眼袋检测方法以及装置
WO2022214004A1 (zh) 一种目标用户确定方法、电子设备和计算机可读存储介质
US20230402150A1 (en) Adaptive Action Evaluation Method, Electronic Device, and Storage Medium
CN114079725B (zh) 视频防抖方法、终端设备和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination