基于联合学习的模型训练方法及***
技术领域
本申请实施例涉及机器学习和数据聚合领域,特别涉及一种基于联合学习的模型训练方法及***。
背景技术
目前,联合学***台服务提供商)协调多个客户端(例如个人设备或一些机构组织)共同训练全局模型。
具体的,服务器将初始的多个局部模型分别下发给各个客户端,该多个局部模型用于聚合生成服务器所需的全局模型;每个客户端使用其本地私有的训练数据来协作训练对应的局部模型,并将训练得到的局部模型参数(即模型的权重或梯度等)发送给服务器,服务器对所有的局部模型参数进行聚合更新,得到全局模型。重复进行此操作,直到聚合得到的全局模型达到预定的精度为止。
然而,在大规模且复杂的移动边缘网络***中,某些客户端的性能低下而无法参与模型训练,从而导致服务器无法聚合得到全局模型。
发明内容
本申请实施例提供了一种基于联合学习的模型训练方法及***,用于解决移动边缘网络中的部分客户端性能低下,无法参与模型训练,导致服务器无法聚合得到全局模型的问题。所述技术方案如下:
一方面,提供了一种基于联合学习的模型训练方法,用于移动边缘网络***中,所述移动边缘网络***中包括服务器、多个边缘设备和多个客户端,所述方法包括:
所述服务器将初始的多条模型信息分别发送给所述多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端接收所述模型信息,并根据所述训练参数和本地的训练数据对所述局部模型进行训练,得到局部模型参数,将所述局部模型参数发送给与所述客户端相连的边缘设备;
所述边缘设备接收所述局部模型参数,将所述局部模型参数发送给所述服务器,从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据;
所述服务器对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若所述更新后的局部模型参数在聚合更新前由所述第一客户端训练得到,则将所述更新后的局部模型参数发送给与所述第一客户端相连的边缘设备,若所述更新后的局部模型参数在聚合更新前由所述第二客户端训练得到,则将所述更新后的局部模型参数发送给所述第二客户端;
每个第二客户端根据所述更新后的局部模型参数更新自身的局部模型,并根据所述训练参数和所述训练数据训练更新后的局部模型;所述边缘设备代替所述第一客户端根据所述更新后的局部模型参数更新所述第一客户端的局部模型,并根据所述第一客户端中的训练参数和所述训练数据训练更新后的局部模型;直至聚合更新后的所述全局模型满足预设精度时停止训练。
在一种可能的实现方式中,所述方法还包括:在接收到所述模型信息后,所述客户端和相连的边缘设备进行密钥协商,得到密钥对,且所述边缘设备存储所述密钥对中的私钥,所述客户端存储所述密钥对中的公钥;
所述客户端将所述局部模型参数发送给与所述客户端相连的边缘设备,包括:所述客户端利用所述公钥对所述局部模型参数进行加密,并将加密后的局部模型参数发送给所述边缘设备;
所述边缘设备将所述局部模型参数发送给所述服务器,包括:所述边缘设备将所述加密后的局部模型参数发送给所述服务器;
所述服务器对所有局部模型参数进行聚合更新,包括:所述服务器对所有加密后的局部模型参数进行聚合更新。
在一种可能的实现方式中,所述方法还包括:每个客户端读取所述模型信息中的初始模型参数,根据所述初始模型参数和所述局部模型参数生成数据评价指标,将所述数据评价指标发送给相连的边缘设备,所述数据评价指标用于指示所述训练数据的质量;所述边缘设备将所述数据评价指标发送给所述服务器;
所述服务器对所有局部模型参数进行聚合更新,包括:所述服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新。
在一种可能的实现方式中,所述服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新,包括:
对于每个数据评价指标,所述服务器根据所述数据评价指标确定对应的聚合权重,所述数据评价指标与所述聚合权重呈正相关关系;
所述服务器根据每个聚合权重对对应的局部模型参数进行聚合更新。
在一种可能的实现方式中,所述从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,包括:
所述边缘设备统计已发送所述局部模型参数的客户端的数量与客户端总数的比值,所述客户端总数是与所述边缘设备相连且参与训练所述全局模型的客户端的数量;
在所述比值达到预定阈值时,所述边缘设备将未发送所述局部模型参数的客户端确定为所述第一客户端,将已发送所述局部模型参数的客户端确定为所述第二客户端。
一方面,提供了一种移动边缘网络***,所述移动边缘网络***中包括服务器、多个边缘设备和多个客户端;
所述服务器,用于将初始的多条模型信息分别发送给所述多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端,用于接收所述模型信息,并根据所述训练参数和本地的训练数据对所述局部模型进行训练,得到局部模型参数,将所述局部模型参数发送给与所述客户端相连的边缘设备;
所述边缘设备,用于接收所述局部模型参数,将所述局部模型参数发送给所述服务器,从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据;
所述服务器,还用于对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若所述更新后的局部模型参数在聚合更新前由所述第一客户端训练得到,则将所述更新后的局部模型参数发送给与所述第一客户端相连的边缘设备,若所述更新后的局部模型参数在聚合更新前由所述第二客户端训练得到,则将所述更新后的局部模型参数发送给所述第二客户端;
每个第二客户端,还用于根据所述更新后的局部模型参数更新自身的局部模型,并根据所述训练参数和所述训练数据训练更新后的局部模型;所述边缘设备,还用于代替所述第一客户端根据所述更新后的局部模型参数更新所述第一客户端的局部模型,并根据所述第一客户端中的训练参数和所述训练数据训练更新后的局部模型;直至聚合更新后的所述全局模型满足预设精度时停止训练。
在一种可能的实现方式中,在接收到所述模型信息后,所述客户端,还用于和相连的边缘设备进行密钥协商,得到密钥对,且所述边缘设备用于存储所述密钥对中的私钥,所述客户端用于存储所述密钥对中的公钥;
所述客户端,还用于利用所述公钥对所述局部模型参数进行加密,并将加密后的局部模型参数发送给所述边缘设备;
所述边缘设备,还用于将所述加密后的局部模型参数发送给所述服务器;
所述服务器,还用于对所有加密后的局部模型参数进行聚合更新。
在一种可能的实现方式中,每个客户端,还用于读取所述模型信息中的初始模型参数,根据所述初始模型参数和所述局部模型参数生成数据评价指标,将所述数据评价指标发送给相连的边缘设备,所述数据评价指标用于指示所述训练数据的质量;
所述边缘设备,还用于将所述数据评价指标发送给所述服务器;
所述服务器,还用于根据所有的数据评价指标对所有局部模型参数进行聚合更新。
在一种可能的实现方式中,所述服务器,还用于:
对于每个数据评价指标,根据所述数据评价指标确定对应的聚合权重,所述数据评价指标与所述聚合权重呈正相关关系;
根据每个聚合权重对对应的局部模型参数进行聚合更新。
在一种可能的实现方式中,所述边缘设备,还用于:
统计已发送所述局部模型参数的客户端的数量与客户端总数的比值,所述客户端总数是与所述边缘设备相连且参与训练所述全局模型的客户端的数量;
在所述比值达到预定阈值时,将未发送所述局部模型参数的客户端确定为所述第一客户端,将已发送所述局部模型参数的客户端确定为所述第二客户端。
本申请实施例提供的技术方案的有益效果至少包括:
由于边缘设备可以从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据,后续,边缘设备可以代替第一客户端,根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型,直至聚合更新后的全局模型满足预设精度时停止训练。这样,边缘设备可以代替性能低下的第一客户端来参与模型训练,从而使得服务器能够聚合得到全局模型,提高了全局模型训练的成功率。
由于客户端可以与边缘设备协商得到密钥对,再根据密钥对对局部模型参数进行加密,通过边缘设备将加密后的局部模型参数发送给服务器,这样可以保护数据隐私,避免数据泄露,从而可以提高模型训练的安全性。
由于服务器可以根据所有的数据评价指标对所有局部模型参数进行聚合更新,而数据评价指标用于指示训练数据的质量,这样,服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据部分示例性实施例示出的一种移动边缘网络***的结构示意图;
图2是本申请一个实施例提供的基于联合学习的模型训练方法的方法流程图;
图3是本申请一个实施例提供的移动边缘网络***的结构框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例可以应用于移动边缘网络***中,请参考图1,下面对移动边缘网络***进行介绍。
本实施例中的移动边缘网络***至少包括服务器、多个边缘设备和多个客户端。服务器与多个边缘设备建立连接,每个边缘设备可以同时与多个客户端建立连接。
若客户端需要向服务器发送数据,则可以将数据发送给边缘设备,边缘设备将该数据转发给服务器。若服务器需要向客户端发送数据,则可以将数据广播给客户端,或者,服务器可以将数据发送给边缘设备,边缘设备将该数据转发给客户端。
其中,服务器可以是一台服务器或多台服务器组成的服务器集群或云计算中心。客户端可以是只能设备,比如,计算机、平板电脑、手机等等,本实施例不作限定。
请参考图2,其示出了本申请一个实施例提供的基于联合学习的模型训练方法的方法流程图,该基于联合学习的模型训练方法可以应用于图1所示的移动边缘网络***中。该基于联合学习的模型训练方法,可以包括:
步骤201,服务器将初始的多条模型信息分别发送给多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型。
本实施例中,服务器可以先选定需要参与训练的所有客户端,并针对每个客户端生成一条模型信息,将每条模型信息广播给对应的客户端。其中,模型信息可以包括局部模型和训练参数,该训练参数包括参与训练的客户端数n、学习率η、当前迭代次数t、初始全局参数 (也即初始模型参数)
等等。
步骤202,每个客户端接收模型信息,并根据训练参数和本地的训练数据对局部模型进行训练,得到局部模型参数,将该局部模型参数发送给与客户端相连的边缘设备。
对于每个客户端来说,客户端在接收到模型信息后,可以先获取本地的训练数据,对该训练数据进行预处理,并利用预处理后的训练数据和训练参数对局部模型进行训练,得到局部模型参数。在一个示例中,局部模型参数可以是局部权重参数。
本实施例中,客户端可以采用小批量随机梯度下降算法来优化损失函数,从而训练局部模型。其中,涉及的相关参数包括客户端 i={1,2,...n},训练数据集D
i={D
1,D
2,...D
n},批数据大小B={B
1,B
2,...B
n},学习率η和损失函数
具体的损失函数如下:
损失函数中的x和y是D 中的数据,是ω局部权重参数,b是局部偏置参数,j是训练的数据。
上述损失函数的梯度如下:
其中,损失函数的梯度越小,表明训练值f(x,w)与真实值y之间的差异最小,也即局部模型的训练精度越高,所以,客户端可以求解损失函数的梯度最小时的局部权重参数,将该局部权重参数作为训练得到的局部模型参数。
本实施例中,在接收到模型信息后,客户端和相连的边缘设备可以进行密钥协商,得到密钥对,且边缘设备存储密钥对中的私钥,客户端存储密钥对中的公钥。具体的,可以采用Diffie-Hellman密钥交换协议来建立密钥,边缘设备使用KA.param()函数生成公共参数,用密钥对生成函数KA.gen()为客户端生成对应的密钥对,
其中
为用于加密的公钥,
为用于解密的私钥,然后通过签名算法SIG.sign()生成用于验证客户端i身份的签名消息σ
i。这些准备工作完成后,边缘设备将公钥集合分发给所有客户端。
此时,客户端将局部模型参数发送给与客户端相连的边缘设备,包括:客户端利用公钥对局部模型参数进行加密,并将加密后的局部模型参数发送给边缘设备。这样,客户端可以利用公钥对局部模型参数进行加密,并将加密后的局部模型参数发送给边缘设备,边缘设备便可以利用验证算法SIG.ver()对客户端进行验证身份。
本实施例中,为了保证训练的精确性,减少低质量的训练数据对训练的影响,在进行联合训练之前,会根据用户的数据质量为各用户指定一个数据评价指标,该数据评价指标可以用来指示训练数据的质量,这样,后续服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
在计算数据评价指标时,每个客户端可以读取模型信息中的初始模型参数,根据初始模型参数和局部模型参数生成数据评价指标,将数据评价指标发送给相连的边缘设备,该数据评价指标用于指示训练数据的质量。具体的,客户端可以计算数据评价指标
其中,ω
*是初始模型参数,ω
i是训练得到的局部模型参数。
若客户端中存储有公钥,则可以利用公钥对局部模型参数和数据评价指标进行加密,得到
在得到
后,通过以下公式对数据评价指标ρ
i进行加密得到encρ
i:
可选的,客户端可以在第一次发送局部模型参数时发送数据评价指标,后续无需再次发送;或者,客户端可以在每次发送局部模型参数时都发送数据评价指标,本实施例不作限定。
步骤203,边缘设备接收局部模型参数,将局部模型参数发送给服务器,从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据。
若客户端将未加密的局部模型参数发送给边缘设备,则边缘设备接收未加密的局部模型参数,并将该未加密的局部模型参数发送给服务器。若客户端将加密后的局部模型参数发送给边缘设备,则边缘设备将局部模型参数发送给服务器,包括:边缘设备将加密后的局部模型参数发送给服务器。
若客户端将未加密的局部模型参数和未加密的数据评价指标发送给边缘设备,则边缘设备接收未加密的局部模型参数和未加密的数据评价指标,并将该未加密的局部模型参数和未加密的数据评价指标发送给服务器。若客户端将加密后的局部模型参数和加密后的数据评价指标发送给边缘设备,则边缘设备将加密后的局部模型参数和加密后的数据评价指标发送给服务器。
本实施例中,边缘设备还可以从所有参与训练的客户端中筛选出第一客户端和第二客户端,该第一客户端为性能低下而无法参与训练的客户端,该第二客户端为能够参与训练的客户端。在确定出第一客户端后,边缘设备可以获取每个第一客户端中的模型信息和训练数据,并在后续训练过程中代替第一客户端来训练局部模型。
在确定第一客户端时,边缘设备可以统计已发送局部模型参数的客户端的数量与客户端总数的比值,客户端总数是与边缘设备相连且参与训练全局模型的客户端的数量;在比值达到预定阈值时,边缘设备将未发送局部模型参数的客户端确定为第一客户端,将已发送局部模型参数的客户端确定为第二客户端。其中,预定阈值可以是预先设定的一个比值,比如90%等,本实施例不作限定。
在边缘设备获取客户端总数时,服务器可以在向所有的客户端广播模型信息后,确定与每个边缘设备相连的所有客户端的客户端总数,并将该客户端总数发送给各个边缘设备,每个边缘设备接收该客户端总数。或者,边缘设备可以统计与自身进行密钥协商的客户端的数量,将该数量作为客户端总数。
步骤204,服务器对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若更新后的局部模型参数在聚合更新前由第一客户端训练得到,则将更新后的局部模型参数发送给与第一客户端相连的边缘设备,若更新后的局部模型参数在聚合更新前由第二客户端训练得到,则将更新后的局部模型参数发送给第二客户端。
若服务器接收到的是未加密的局部模型参数,则可以对所有未加密的局部模型参数进行聚合更新。若服务器接收到的是加密后的局部模型参数,则服务器对所有局部模型参数进行聚合更新,可以包括:服务器对所有加密后的局部模型参数进行聚合更新。
若服务器还接收到数据评价指标,则服务器对所有局部模型参数进行聚合更新,可以包括:服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新。具体的,对于每个数据评价指标,服务器根据数据评价指标确定对应的聚合权重,该数据评价指标与聚合权重呈正相关关系;服务器根据每个聚合权重对对应的局部模型参数进行聚合更新。
在第t次迭代中,服务器根据
更新全局模型参数
并更新全局模型:
服务器可以判断全局模型的精度是否达到预设精度(收敛),若达到预设精度,则停止模型训练;若未达到预设精度,则需要将更新后的局部模型参数反馈给第二客户端或边缘设备,以使第二客户端和边缘设备继续进行模型训练,直至聚合后的全局模型达到预设精度时停止训练。
在反馈更新后的局部模型参数时,服务器可以将各条更新后的局部模型参数广播给各个客户端。其中,第二客户端接收到更新后的局部模型参数后继续进行模型训练,第一客户端接收到更新后的局部模型参数后,将该更新后的局部模型参数发送给相连的边缘设备,以便于边缘设备代替第一客户端进行模型训练。或者,服务器可以将各条更新后的局部模型参数发送给各个边缘设备,边缘设备再确定与自身相连的各个第二客户端,向每个第二客户端发送对应的更新后的局部模型参数,第二客户端接收到更新后的局部模型参数后继续进行模型训练,边缘设备保留第一客户端对应的更新后的局部模型参数,并代替第一客户端进行模型训练。
步骤205,每个第二客户端根据更新后的局部模型参数更新自身的局部模型,并根据训练参数和训练数据训练更新后的局部模型;边缘设备代替第一客户端根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型;直至聚合更新后的全局模型满足预设精度时停止训练。
需要说明的是,服务器执行的步骤可以实现为单独的实施例,客户端执行的步骤可以实现为单独的实施例,边缘设备执行的步骤可以实现为单独的实施例,本实施例不作限定。
综上所述,本申请实施例提供的基于联合学习的模型训练方法,由于边缘设备可以从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据,后续,边缘设备可以代替第一客户端,根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型,直至聚合更新后的全局模型满足预设精度时停止训练。这样,边缘设备可以代替性能低下的第一客户端来参与模型训练,从而使得服务器能够聚合得到全局模型,提高了全局模型训练的成功率。
由于客户端可以与边缘设备协商得到密钥对,再根据密钥对对局部模型参数进行加密,通过边缘设备将加密后的局部模型参数发送给服务器,这样可以保护数据隐私,避免数据泄露,从而可以提高模型训练的安全性。
由于服务器可以根据所有的数据评价指标对所有局部模型参数进行聚合更新,而数据评价指标用于指示训练数据的质量,这样,服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
请参考图3,其示出了本申请一个实施例提供的移动边缘网络***的结构框图。该移动边缘网络***,可以包括:
服务器310,用于将初始的多条模型信息分别发送给多个客户端 320,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端320,用于接收模型信息,并根据训练参数和本地的训练数据对局部模型进行训练,得到局部模型参数,将局部模型参数发送给与客户端320相连的边缘设备330;
边缘设备330,用于接收局部模型参数,将局部模型参数发送给服务器310,从多个客户端320中确定训练速度不满足预设条件的第一客户端320和训练速度满足预设条件的第二客户端320,并获取各个第一客户端320中的模型信息和训练数据;
服务器310,还用于对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若更新后的局部模型参数在聚合更新前由第一客户端320训练得到,则将更新后的局部模型参数发送给与第一客户端320相连的边缘设备330,若更新后的局部模型参数在聚合更新前由第二客户端320训练得到,则将更新后的局部模型参数发送给第二客户端320;
每个第二客户端320,还用于根据更新后的局部模型参数更新自身的局部模型,并根据训练参数和训练数据训练更新后的局部模型;边缘设备330,还用于代替第一客户端320根据更新后的局部模型参数更新第一客户端320的局部模型,并根据第一客户端320中的训练参数和训练数据训练更新后的局部模型;直至聚合更新后的全局模型满足预设精度时停止训练。
在一种可能的实现方式中,在接收到模型信息后,客户端320,还用于和相连的边缘设备330进行密钥协商,得到密钥对,且边缘设备330用于存储密钥对中的私钥,客户端320用于存储密钥对中的公钥;
客户端320,还用于利用公钥对局部模型参数进行加密,并将加密后的局部模型参数发送给边缘设备330;
边缘设备330,还用于将加密后的局部模型参数发送给服务器 310;
服务器310,还用于对所有加密后的局部模型参数进行聚合更新。
在一种可能的实现方式中,每个客户端320,还用于读取模型信息中的初始模型参数,根据初始模型参数和局部模型参数生成数据评价指标,将数据评价指标发送给相连的边缘设备330,数据评价指标用于指示训练数据的质量;
边缘设备330,还用于将数据评价指标发送给服务器310;
服务器310,还用于根据所有的数据评价指标对所有局部模型参数进行聚合更新。
在一种可能的实现方式中,服务器310,还用于:
对于每个数据评价指标,根据数据评价指标确定对应的聚合权重,数据评价指标与聚合权重呈正相关关系;
根据每个聚合权重对对应的局部模型参数进行聚合更新。
在一种可能的实现方式中,边缘设备330,还用于:
统计已发送局部模型参数的客户端320的数量与客户端320总数的比值,客户端320总数是与边缘设备330相连且参与训练全局模型的客户端320的数量;
在比值达到预定阈值时,将未发送局部模型参数的客户端320确定为第一客户端320,将已发送局部模型参数的客户端320确定为第二客户端320。
综上所述,本申请实施例提供的移动边缘网络***,由于边缘设备可以从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据,后续,边缘设备可以代替第一客户端,根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型,直至聚合更新后的全局模型满足预设精度时停止训练。这样,边缘设备可以代替性能低下的第一客户端来参与模型训练,从而使得服务器能够聚合得到全局模型,提高了全局模型训练的成功率。
由于客户端可以与边缘设备协商得到密钥对,再根据密钥对对局部模型参数进行加密,通过边缘设备将加密后的局部模型参数发送给服务器,这样可以保护数据隐私,避免数据泄露,从而可以提高模型训练的安全性。
由于服务器可以根据所有的数据评价指标对所有局部模型参数进行聚合更新,而数据评价指标用于指示训练数据的质量,这样,服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
本申请一个实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的基于联合学习的模型训练方法。
需要说明的是:上述实施例提供的移动边缘网络***在进行模型训练时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将移动边缘网络***的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的移动边缘网络***与基于联合学习的模型训练方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。