CN111401552A - 一种基于调整批量大小与梯度压缩率的联邦学习方法和*** - Google Patents
一种基于调整批量大小与梯度压缩率的联邦学习方法和*** Download PDFInfo
- Publication number
- CN111401552A CN111401552A CN202010166667.4A CN202010166667A CN111401552A CN 111401552 A CN111401552 A CN 111401552A CN 202010166667 A CN202010166667 A CN 202010166667A CN 111401552 A CN111401552 A CN 111401552A
- Authority
- CN
- China
- Prior art keywords
- gradient
- terminal
- batch size
- compression ratio
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了一种基于调整批量大小与梯度压缩率的联邦学习方法和***,用于提高模型训练性能,包括:在联邦学习场景中,多个终端共享上行无线信道资源,基于本地终端的训练数据,与边缘服务器共同完成神经网络模型的训练;在模型训练过程中,终端在本地计算中采用批量的方法计算梯度,在上行传输过程中,传输前需要对梯度进行压缩;根据各终端的计算能力与其所处的信道状态,调整批量大小以及梯度压缩率,以在保证训练时间与不降低模型正确率的同时,提高模型训练的收敛速率。
Description
技术领域
本发明涉及人工智能与通信领域,具体涉及一种基于调整批量大小与梯度压缩率的联邦学习方法和***。
背景技术
近年来,随着硬件及软件水平的不断提升,人工智能(Artificial Intelligence,AI)技术又迎来了发展的高峰期。它从海量的数据中挖掘出关键信息以实现各种应用,如人脸识别,语音识别,数据挖掘等。然而对于数据隐私性比较敏感的场景,如医院的病人信息,银行的客户信息等,数据通常很难获取,俗称信息孤岛。如果仍然采用现有的人工智能训练方法,由于没有足够的数据,很难得到有效的结果。
由谷歌提出的联邦学***均梯度方法仍然可以获得很好的学习性能。在5G的高可靠低时延的无线通信场景中,自动驾驶的实现,物联网的智能分析、决策等都离不开联邦学习。
在传统的联邦学习场景中,由于终端与服务器之间采用有线连接,通信开销与本地计算时延都可以忽略不计。但随着移动通信网络的发展,以及移动智能设备的快速增长,为了快速实现物联网应用以及自动驾驶,人工智能模型训练可以放置在移动智能终端处,传统的有线通信也可以改为无线通信,使得训练终端的加入与退出变得非常便捷,即将联邦学习与无线通信网络相结合是未来的发展方向。
但将无线通信应用到联邦学习的场景,将会出现许多问题。首先,本地计算时延增加。虽然本地终端的计算能力在不断增加,已经可以部署人工智能模型,但是其与台式机或者服务器的差距仍然是比较大的,本地梯度计算带来的计算时延是不可以被忽略的。另外一方面,由于无线通信带宽资源紧缺,并且无线信道不稳定,大量的模型梯度信息传输会带来巨大的通信开销,引起很大的传输时延。
为了解决本地计算与梯度传输带来较高的训练时延的问题,本地批量数据处理与梯度压缩技术在模型训练过程中得到应用。每一轮训练交互中,终端可以只根据一部分的数据计算模型的梯度,以减少本地计算产生的时延,同时在传输的过程中,对梯度信息进行压缩,以较少的数据量表示原有的梯度信息,减少通信传输时间。但批量处理方式与梯度压缩都会对模型的收敛速率产生影响。
因此,在控制模型训练时延的同时,也需要考虑模型的收敛速率。如何采用合理的方式调整批量大小与梯度压缩率来保证训练时延、提高收敛速率是急需解决的问题。
发明内容
本发明的目的是提供一种基于调整批量大小与梯度压缩率的联邦学习方法和***,该联邦学习方法通过调整批量大小与梯度压缩率,在规定学习时间内提升了模型的收敛速率,且在联邦学习时不需要传输原始数据,更好地保护用户的隐私性和安全性。
为实现上述发明目的本发明提供以下技术方案:
第一方面,提供了一种基于调整批量大小与梯度压缩率的联邦学习方法,实现所述联邦学习的***包括边缘服务器、与所述边缘服务器无线通信的多个终端,所述终端根据本地数据进行模型学习,所述联邦学习方法包括:
所述边缘服务器根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力调整终端的批量大小与梯度压缩率,并将调整后的批量大小与梯度压缩率传输至终端;
所述终端按照接收的批量大小进行模型学习,并将模型学习获得的梯度信息按照接收的提取压缩率压缩后输出至边缘服务器;
所述边缘服务器对接收的所有梯度信息求平均后,将梯度平均值同步到终端;
所述终端根据接收的梯度平均值更新模型。
本发明中,为了减少终端计算时间以及设备硬件的需求,本地终端采用批量的方式计算梯度,即每次计算选择一定的批量大小进行梯度计算。为了减少终端至边缘服务器的传输信息,节省通信开销,降低通信时间,终端在上传梯度信息前,需要对梯度信息进行压缩。
在一个可能的实现方式中,所述根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力调整终端的批量大小与梯度压缩率包括:
(a)根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力计算当前学习时延;
(b)比较所述当前学习时延与规定学习时延,当前学习时延大于规定学习时延时,减小批量大小和增大梯度压缩率;当前学习时延小于规定学习时延时,增大批量大小和减小梯度压缩率;
(c)重复步骤(a)和步骤(b),直到当前学习时延等于规定学习时延为止,与规定学习时延相等的当前学习时延对应的批量大小与梯度压缩率即为调整后的批量大小与梯度压缩率。
当前学习时延高于规定学习时间,即当前训练不能够按时完成,此时应该减小批量大小以及增大压缩率,以节约本地终端计算和无线传输的时间;当前学习时延小于规定学习时间,即当前训练可以完成,但收敛速率还可以进一步提升,此时可以适当增加批量大小以及减小梯度的压缩率,以提高收敛性能。
特别地,当学习时间特别短时,即训练任务非常紧张,各终端批量大小应尽可能地小,压缩率应该尽可能地大,以保证学习时延;当学习时间特别长,即该任务没有严格的学习时间要求,各终端批量大小应该尽可能地大,压缩率应该尽可能地小,以保证收敛性能最好。
步骤(a)中,当前学习时延的计算过程为:
根据终端学习能力和批量大小计算终端以当前批量大小计算梯度时所需要的时间;
根据通信能力和梯度压缩率计算梯度信息经过压缩后经过无线信道上传至边缘服务器所经历的时间;
计算所有梯度信息汇总后进行平均获得平均梯度信息所需要的时间;
计算边缘服务器将平均梯度信息下发至各个终端所需要经历的时间;
计算各终端收到平均梯度信息后对模型进行更新所需要的时间;
这五部分时间之和即为当前学习时延。
根据当前学习时延的计算过程可得,当前学习时延可以通过调整批量大小与梯度压缩率进行改变,当批量大小增大或者梯度压缩率减小时,当前学习时延增加,当批量大小减小或者梯度压缩率增大时,当前学习时延减小。
在一种可能的实现方式中,对梯度信息进行压缩时,可以将梯度用量化损失来进行量化,此时量化损失被定义为压缩率,即所述梯度压缩率包括对梯度信息进行梯度量化获得的压缩率,表示为:
对应模型训练的收敛速率可以表示为:
其中,α1,β1是与模型相关的系数,且α1>0,β1>0,B是各终端批量大小的总和,C是各终端梯度压缩率的平均值,S是训练步数。
当梯度压缩率采用梯度量化方式获得的压缩率时,通过增大或减小量化函数采用的量化位数来增大或减小梯度压缩率。
在一种可能的实现方式中,所述梯度压缩率包括对梯度信息进行稀疏化处理获得的压缩率,即选择梯度矩阵中的最大m个梯度进行传输,此时将梯度的传输量定义为压缩率,表示为:
其中,M表示模型的大小。
对应模型训练的收敛速率可以表示为:
其中,α2,β2是与模型相关的系数,且α2>0,β2>0,B是各终端批量大小的总和,C是各终端梯度压缩率的平均值,S是训练步数。
当梯度压缩率采用梯度稀疏化方式获得的压缩率时,通过增大或减小梯度个数来增大或减小梯度压缩率。
在一个可能的实现方式中,采用以下公式获得梯度平均值:
其中,gk(w)表示终端计算的梯度,G(w)表示梯度平均值,w表示模型参数,k表示终端索引,K表示终端的总个数。
在一个可能的实现方式中,采用以下公式根据梯度平均值更新模型:
wt+1=wt-αG(wt)
其中,t是迭代次数,G(wt)表示第t次迭代时梯度平均值,wt、wt+1分别表示第t次和第t+1次迭代时终端的模型参数。
第二方面,提供了一种基于调整批量大小与梯度压缩率的联邦学习***,包括连接到基通信端的边缘服务器,与所述边缘服务器无线通信的多个终端,
所述边缘服务器根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力调整终端的批量大小与梯度压缩率,并将调整后的批量大小与梯度压缩率传输至终端;
所述终端按照接收的批量大小进行模型学习,并将模型学习获得的梯度信息按照接收的提取压缩率压缩后输出至边缘服务器;
所述边缘服务器对接收的所有梯度信息求平均后,将梯度平均值同步到终端;
所述终端根据接收的梯度平均值更新模型。
从以上技术方案可以看出,本申请实施例提供的基于调整批量大小与梯度压缩率的联邦学习方法和***具有以下优点:与直接传输数据相比,传输梯度可以充分保护用户数据的隐私性和安全性;对梯度进行压缩可以减缓通信传输的压力,减低时延;根据学习时间的需求动态调整批量大小以及压缩率,可以在保证训练时间以及模型训练正确率的同时,提高模型的收敛速率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1为本申请实施例中基于无线通信网络的联邦学习***示意图;
图2为本申请实施例中梯度压缩中量化方法示意图;
图3为本申请实施例中提供的一个实施例的批量大小和压缩率调整流程图;
图4为本申请实施例中提供的一个实施例的整体训练交互示意图;
图5为本申请实施例中梯度压缩中稀疏化方法示意图;
图6为本申请实施例中提供的另一个实施例的批量大小和压缩率调整流程图;
图7为本申请实施例中提供的另一个实施例的整体训练交互示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
图1为本申请实施例中基于无线通信网络的联邦学习***,该联邦学习***包括连接至基站等通信端的边缘服务器和终端,终端共享上行无线信道资源,基于本地终端的训练数据,与边缘服务器共同完成神经网络模型的训练。利用该联邦学习***可以实现基于调整批量大小与梯度压缩率的联邦学习方法。具体地,对于本地计算引起的计算时延,可以根据终端的计算能力,调整批量大小,以减小计算时延;另一方面,对于通信瓶颈问题,可以通过减少传输的信息量,以减少通信开销,即梯度压缩技术。根据终端所在的无线信道的状态以调整梯度压缩率,从而减小通信时延。为了满足训练时间的需求,本发明中批量大小与压缩率调整方法可以在保证训练时延的同时,提高模型训练的收敛速率。
实施例一
本实施例提供的基于调整批量大小与梯度压缩率的联邦学习方法适用于多个移动终端与一个连接通信热点(如基站)的边缘服务器共同训练一个人工智能模型的场景,对于其他无线通信技术,可以以相同的工作模式工作,因此在本实施例中,主要考虑移动通信技术的情况。
本实施例中,各个终端采用批量的方法进行本地计算,梯度压缩方法为量化,特别的,量化采用固定长度量化,其量化过程如图2,梯度信息经由一定比特量化并编码后,作为梯度信息传输至边缘服务器。当采用高量化位数表示梯度时,可以尽可能地保留原始的梯度信息,同时也增加了传输的信息量;当采用低量化位数对梯度进行量化时,量化后的梯度信息与原始的梯度信息存在偏差,但是传输的信息量减少。此时,梯度的压缩率可以用量化误差表示,即
其中,Q(x)表示量化函数,x表示梯度。
采用梯度量化时,模型训练的收敛速率可以表示为:
其中,α1,β1是与模型相关的系数,且α1>0,β1>0,B是各终端批量大小的总和,C是各终端梯度压缩率的平均值,S是训练步数。
在本实施例中,最终的目标要在满足训练时延的基础上,根据各个终端的计算能力以及所处无线信道的状态,调整批量大小以及压缩率的大小,以提高模型训练的收敛速率。
具体地,批量大小与压缩率的调整算法如图3,包括以下部分:
301、计算当前的训练时延,其中,训练时延包含五个部分:
(1)本地以批量大小b计算梯度时,所需要的时间;
(2)梯度信息经过压缩后,经过无线信道上传至边缘服务器所经历的时间;
(3)所以梯度信息汇总后进行平均汇总所需要的时间;
(4)边缘服务器将计算好的平均梯度信息发送至各个终端所需要经历的时间;
(5)各终端收到梯度信息后,对模型进行更新的时间;
302、由于本实施例的目的是为了在保证训练时间的前提下,提高收敛速率,因此需要将当前的训练时间与规定的训练时间Tmax相比较,分为三种情况,以做出对应的改变。
303、当训练时间小于规定的训练时间时,应该适当增大批量大小与量化的位数,以提高收敛的速率。
304、当训练时间大于规定的训练时间时,应该适当减小批量大小与量化的位数,及时完成训练,满足时间要求。
305、当训练时间等于规定的训练时间时,此时的批量大小与压缩率可以用于训练。
将此调整过程用于联邦学习的实际训练中,终端与基站的具体的交互过程如图4,具体包括如下内容:
401、初始化,各个终端需要上传相关的信息,如计算能力,以及无线信道所在的状态等信息至基站。
402、基站根据各个终端上传的信息,利用图3中所述的调整方法,得到批量大小b与梯度压缩率c。
403、各终端计算本地的梯度信息。
404、根据梯度压缩率,即量化误差,得到相应的量化位数,对梯度进行量化编码,并使用无线信道传输。
405、基站收到梯度信息,对梯度进行平均,并发送至各终端。
406、各终端下载平均梯度信息。
407、各终端使用该平均梯度信息对模型进行更新。
使用该发明方法,即可以获得最好的模型性能。
实施例二
本实施例提供的调整方法适用于多个移动终端与一个连接通信热点(如基站)的边缘服务器共同训练一个人工智能模型的场景,对于其他无线通信技术,可以以相同的工作模式工作,因此在本实施例中,主要考虑移动通信的情况。
本实施例中,各个终端采用批量的方法进行本地计算,梯度压缩方法为稀疏化,特别的,稀疏化的方式是选择部分较大的梯度进行传输,稀疏化的过程如图5,梯度信息经过稀疏化之后,将选中的梯度信息及其编号传输至边缘服务器。当保留更多的梯度信息时,可以减少梯度信息的损失,同时也增加了传输的信息量;当保留较少的梯度信息时,更多的梯度信息被丢失,但是传输的信息量减少。此时,梯度的压缩率可以表示为模型总量与传输的梯度个数的比值,即
其中,M表示模型的大小。
采用梯度稀疏化时,模型训练的收敛速率可以表示为:
其中,α2,β2是与模型相关的系数,且α2>0,β2>0,B是各终端批量大小的总和,C是各终端梯度压缩率的平均值,S是训练步数。
在本实施例中,最终的目标要在满足训练时延的基础上,根据各个终端的计算能力以及所处无线信道的状态,调整批量大小以及压缩率的大小,以提高模型训练的收敛速率。
具体地,批量大小与压缩率的调整算法如图6,包括以下部分:
601、计算当前的训练时延,其中,训练时延包含五个部分:
(1)本地以批量大小b计算梯度时,所需要的时间;
(2)梯度信息经过压缩后,经过无线信道上传至边缘服务器所经历的时间;
(3)所以梯度信息汇总后进行平均汇总所需要的时间;
(4)边缘服务器将计算好的平均梯度信息发送至各个终端所需要经历的时间;
(5)各终端收到梯度信息后,对模型进行更新的时间;
602、由于本实施例的目的是为了在保证训练时间的前提下,提高收敛速率,因此需要将当前的训练时间与规定的训练时间Tmax相比较,分为三种情况,以做出对应的改变。
603、当训练时间小于规定的训练时间时,应该适当增大批量大小与传输梯度的个数,以提高收敛的速率。
604、当训练时间大于规定的训练时间时,应该适当减小批量大小与传输梯度的个数,及时完成训练,满足时间要求。
605、当训练时间等于规定的训练时间时,此时的批量大小与压缩率可以用于训练。
将此调整过程用于联邦学习的实际训练中,终端与基站的具体的交互过程如图7,具体包括如下内容:
701、初始化,各个终端需要上传相关的信息,如计算能力,以及无线信道所在的状态等信息至基站。
702、基站根据各个终端上传的信息,利用图6中所述的调整方法,得到批量大小b与梯度压缩率c。
703、各终端计算本地的梯度信息。
704、根据梯度压缩率,得到应该传输的梯度的个数,对梯度进行排序选择,选出最大的梯度及其位置,并使用无线信道传输。
705、基站收到梯度信息,对梯度进行平均,并发送至各终端。
706、各终端下载平均梯度信息。
707、各终端使用该平均梯度信息对模型进行更新。
使用该发明方法,即可以获得最好的模型性能。
该联邦学习方法通过调整批量大小与梯度压缩率,在规定学习时间内提升了模型的收敛速率,且在联邦学习时不需要传输原始数据,更好地保护用户的隐私性和安全性。
实施例三
实施例三提供了一种基于调整批量大小与梯度压缩率的联邦学习***,包括连接到基通信端的边缘服务器,与所述边缘服务器无线通信的多个终端,
所述边缘服务器根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力调整终端的批量大小与梯度压缩率,并将调整后的批量大小与梯度压缩率传输至终端;
所述终端按照接收的批量大小进行模型学习,并将模型学习获得的梯度信息按照接收的提取压缩率压缩后输出至边缘服务器;
所述边缘服务器对接收的所有梯度信息求平均后,将梯度平均值同步到终端;
所述终端根据接收的梯度平均值更新模型。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,该联邦学习***与实施例一和实施例二提供的基于调整批量大小与梯度压缩率的联邦学习方法实现具体过程相同,可以参考前述方法实施例中的对应过程,在此不再赘述。
该联邦学习***通过调整批量大小与梯度压缩率,在规定学习时间内提升了模型的收敛速率,且在联邦学习时不需要传输原始数据,更好地保护用户的隐私性和安全性。
其中,上述提到的无线通信方式,可以是现有的移动通信网络,即LTE(Long-termEvolution)或5G网络,或者是WiFi网络。
其中,上述提到的边缘服务器的处理器能力远超于本地终端的计算能力,并且具备独立进行模型训练的能力。处理器可以是一个通用的中央处理器(Central ProcessingUnit,CPU),图形处理器(Graphics Processing Unit,GPU),微处理器,特定应用集成电路(Application Specific Integrated Circuit,ASIC),或一个或多个用于上述的模型训练的程序执行的集成电路。
其中,上述提到的本地终端,可以是现代智能手机、平板电脑、笔记本、自动驾驶汽车等可以支撑模型训练的移动终端,配有无线通信***,可以接入移动通信网络、WiFi等主流的无线通信网络。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于调整批量大小与梯度压缩率的联邦学习方法,实现所述联邦学习的***包括边缘服务器、与所述边缘服务器无线通信的多个终端,所述终端根据本地数据进行模型学习,其特征在于,所述联邦学习方法包括:
所述边缘服务器根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力调整终端的批量大小与梯度压缩率,并将调整后的批量大小与梯度压缩率传输至终端;
所述终端按照接收的批量大小进行模型学习,并将模型学习获得的梯度信息按照接收的提取压缩率压缩后输出至边缘服务器;
所述边缘服务器对接收的所有梯度信息求平均后,将梯度平均值同步到终端;
所述终端根据接收的梯度平均值更新模型。
2.如权利要求1所述的基于调整批量大小与梯度压缩率的联邦学习方法,其特征在于,所述根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力调整终端的批量大小与梯度压缩率包括:
(a)根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力计算当前学习时延;
(b)比较所述当前学习时延与规定学习时延,当前学习时延大于规定学习时延时,减小批量大小和增大梯度压缩率;当前学习时延小于规定学习时延时,增大批量大小和减小梯度压缩率;
(c)重复步骤(a)和步骤(b),直到当前学习时延等于规定学习时延为止,与规定学习时延相等的当前学习时延对应的批量大小与梯度压缩率即为调整后的批量大小与梯度压缩率。
3.如权利要求2所述的基于调整批量大小与梯度压缩率的联邦学习方法,其特征在于,步骤(a)中,当前学习时延的计算过程为:
根据终端学习能力和批量大小计算终端以当前批量大小计算梯度时所需要的时间;
根据通信能力和梯度压缩率计算梯度信息经过压缩后经过无线信道上传至边缘服务器所经历的时间;
计算所有梯度信息汇总后进行平均获得平均梯度信息所需要的时间;
计算边缘服务器将平均梯度信息下发至各个终端所需要经历的时间;
计算各终端收到平均梯度信息后对模型进行更新所需要的时间;
这五部分时间之和即为当前学习时延。
6.如权利要求4所述的基于调整批量大小与梯度压缩率的联邦学习方法,其特征在于,当梯度压缩率采用梯度量化方式获得的压缩率时,通过增大或减小量化函数采用的量化位数来增大或减小梯度压缩率。
7.如权利要求5所述的基于调整批量大小与梯度压缩率的联邦学习方法,其特征在于,当梯度压缩率采用梯度稀疏化方式获得的压缩率时,通过增大或减小梯度个数来增大或减小梯度压缩率。
9.如权利要求1所述的基于调整批量大小与梯度压缩率的联邦学***均值更新模型:
wt+1=wt-αG(wt)
其中,t是迭代次数,G(wt)表示第t次迭代时梯度平均值,wt、wt+1分别表示第t次和第t+1次迭代时终端的模型参数。
10.一种基于调整批量大小与梯度压缩率的联邦学习***,包括连接到基通信端的边缘服务器,与所述边缘服务器无线通信的多个终端,其特征在于,
所述边缘服务器根据当前批量大小和梯度压缩率,并结合终端的计算能力和边缘服务器与终端之间的通信能力调整终端的批量大小与梯度压缩率,并将调整后的批量大小与梯度压缩率传输至终端;
所述终端按照接收的批量大小进行模型学习,并将模型学习获得的梯度信息按照接收的提取压缩率压缩后输出至边缘服务器;
所述边缘服务器对接收的所有梯度信息求平均后,将梯度平均值同步到终端;
所述终端根据接收的梯度平均值更新模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010166667.4A CN111401552B (zh) | 2020-03-11 | 2020-03-11 | 基于调整批量大小与梯度压缩率的联邦学习方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010166667.4A CN111401552B (zh) | 2020-03-11 | 2020-03-11 | 基于调整批量大小与梯度压缩率的联邦学习方法和*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401552A true CN111401552A (zh) | 2020-07-10 |
CN111401552B CN111401552B (zh) | 2023-04-07 |
Family
ID=71428616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010166667.4A Active CN111401552B (zh) | 2020-03-11 | 2020-03-11 | 基于调整批量大小与梯度压缩率的联邦学习方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401552B (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931950A (zh) * | 2020-09-28 | 2020-11-13 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习进行模型参数更新的方法及*** |
CN112070207A (zh) * | 2020-07-31 | 2020-12-11 | 华为技术有限公司 | 一种模型训练方法及装置 |
CN112182633A (zh) * | 2020-11-06 | 2021-01-05 | 支付宝(杭州)信息技术有限公司 | 保护隐私的模型联合训练方法及装置 |
CN112231742A (zh) * | 2020-12-14 | 2021-01-15 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的模型联合训练方法及装置 |
CN112560059A (zh) * | 2020-12-17 | 2021-03-26 | 浙江工业大学 | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 |
CN112800468A (zh) * | 2021-02-18 | 2021-05-14 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的数据处理方法、装置及设备 |
CN113095510A (zh) * | 2021-04-14 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 一种基于区块链的联邦学习方法及装置 |
CN113098806A (zh) * | 2021-04-16 | 2021-07-09 | 华南理工大学 | 一种联邦学习下边端协同的信道适应性梯度压缩方法 |
CN113222179A (zh) * | 2021-03-18 | 2021-08-06 | 北京邮电大学 | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 |
CN113238867A (zh) * | 2021-05-19 | 2021-08-10 | 浙江凡双科技有限公司 | 一种基于网络卸载的联邦学习方法 |
WO2021155671A1 (zh) * | 2020-08-24 | 2021-08-12 | 平安科技(深圳)有限公司 | 高延时网络环境鲁棒的联邦学习训练方法、装置、计算机设备及存储介质 |
CN113298191A (zh) * | 2021-04-01 | 2021-08-24 | 山东大学 | 基于个性化半监督在线联邦学习的用户行为识别方法 |
CN113504999A (zh) * | 2021-08-05 | 2021-10-15 | 重庆大学 | 一种面向高性能分层联邦边缘学习的调度与资源分配方法 |
CN113807534A (zh) * | 2021-03-08 | 2021-12-17 | 京东科技控股股份有限公司 | 联邦学习模型的模型参数训练方法、装置和电子设备 |
CN113923605A (zh) * | 2021-10-25 | 2022-01-11 | 浙江大学 | 一种面向工业互联网的分布式边缘学习***和方法 |
WO2022041947A1 (zh) * | 2020-08-24 | 2022-03-03 | 华为技术有限公司 | 一种更新机器学习模型的方法及通信装置 |
WO2022051964A1 (en) * | 2020-09-10 | 2022-03-17 | Qualcomm Incorporated | Reporting for information aggregation in federated learning |
WO2022124729A1 (ko) * | 2020-12-11 | 2022-06-16 | 엘지전자 주식회사 | 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법 |
CN114710415A (zh) * | 2022-05-23 | 2022-07-05 | 北京理工大学 | 一种冗余编码的无源消息可靠传输与处理*** |
WO2022141544A1 (zh) * | 2020-12-31 | 2022-07-07 | 华为技术有限公司 | 模型数据发送的方法和装置 |
CN114841370A (zh) * | 2022-04-29 | 2022-08-02 | 杭州锘崴信息科技有限公司 | 联邦学习模型的处理方法、装置、电子设备和存储介质 |
WO2022164808A1 (en) * | 2021-02-01 | 2022-08-04 | Qualcomm Incorporated | Techniques for adaptive quantization level selection in federated learning |
CN115150288A (zh) * | 2022-05-17 | 2022-10-04 | 浙江大学 | 一种分布式通信***和方法 |
WO2023022321A1 (ko) * | 2021-08-17 | 2023-02-23 | 삼성전자 주식회사 | 분산 학습용 서버 및 분산 학습 방법 |
CN116050540A (zh) * | 2023-02-01 | 2023-05-02 | 北京信息科技大学 | 一种基于联合双维度用户调度的自适应联邦边缘学习方法 |
CN116405491A (zh) * | 2023-06-09 | 2023-07-07 | 北京随信云链科技有限公司 | 文件批量上传方法、***、电子设备及计算机可读存储介质 |
WO2024050659A1 (zh) * | 2022-09-05 | 2024-03-14 | 华南理工大学 | 一种联邦学习下边端协同的信道适应性梯度压缩方法 |
CN117857647A (zh) * | 2023-12-18 | 2024-04-09 | 慧之安信息技术股份有限公司 | 基于mqtt面向工业物联网的联邦学习通信方法和*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150063651A1 (en) * | 2013-08-28 | 2015-03-05 | Fujitsu Limited | Image processing apparatus and image processing method |
CN109934802A (zh) * | 2019-02-02 | 2019-06-25 | 浙江工业大学 | 一种基于傅里叶变换和图像形态学的布匹疵点检测方法 |
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN110633805A (zh) * | 2019-09-26 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习***优化方法、装置、设备及可读存储介质 |
CN110782042A (zh) * | 2019-10-29 | 2020-02-11 | 深圳前海微众银行股份有限公司 | 横向联邦和纵向联邦联合方法、装置、设备及介质 |
CN110874484A (zh) * | 2019-10-16 | 2020-03-10 | 众安信息技术服务有限公司 | 基于神经网络和联邦学习的数据处理方法和*** |
-
2020
- 2020-03-11 CN CN202010166667.4A patent/CN111401552B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150063651A1 (en) * | 2013-08-28 | 2015-03-05 | Fujitsu Limited | Image processing apparatus and image processing method |
US20190227980A1 (en) * | 2018-01-22 | 2019-07-25 | Google Llc | Training User-Level Differentially Private Machine-Learned Models |
CN109934802A (zh) * | 2019-02-02 | 2019-06-25 | 浙江工业大学 | 一种基于傅里叶变换和图像形态学的布匹疵点检测方法 |
CN110633805A (zh) * | 2019-09-26 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习***优化方法、装置、设备及可读存储介质 |
CN110874484A (zh) * | 2019-10-16 | 2020-03-10 | 众安信息技术服务有限公司 | 基于神经网络和联邦学习的数据处理方法和*** |
CN110782042A (zh) * | 2019-10-29 | 2020-02-11 | 深圳前海微众银行股份有限公司 | 横向联邦和纵向联邦联合方法、装置、设备及介质 |
Non-Patent Citations (2)
Title |
---|
HAIJIAN SUN: "Adaptive Federated Learning With Gradient Compression in Uplink NOMA" * |
刘俊旭: "机器学习的隐私保护研究综述" * |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070207A (zh) * | 2020-07-31 | 2020-12-11 | 华为技术有限公司 | 一种模型训练方法及装置 |
WO2022022274A1 (zh) * | 2020-07-31 | 2022-02-03 | 华为技术有限公司 | 一种模型训练方法及装置 |
WO2021155671A1 (zh) * | 2020-08-24 | 2021-08-12 | 平安科技(深圳)有限公司 | 高延时网络环境鲁棒的联邦学习训练方法、装置、计算机设备及存储介质 |
WO2022041947A1 (zh) * | 2020-08-24 | 2022-03-03 | 华为技术有限公司 | 一种更新机器学习模型的方法及通信装置 |
WO2022051964A1 (en) * | 2020-09-10 | 2022-03-17 | Qualcomm Incorporated | Reporting for information aggregation in federated learning |
CN111931950A (zh) * | 2020-09-28 | 2020-11-13 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习进行模型参数更新的方法及*** |
CN112182633A (zh) * | 2020-11-06 | 2021-01-05 | 支付宝(杭州)信息技术有限公司 | 保护隐私的模型联合训练方法及装置 |
WO2022124729A1 (ko) * | 2020-12-11 | 2022-06-16 | 엘지전자 주식회사 | 무선 통신 시스템에서 신호 전송을 위한 장치 및 방법 |
CN112231742A (zh) * | 2020-12-14 | 2021-01-15 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的模型联合训练方法及装置 |
CN112231742B (zh) * | 2020-12-14 | 2021-06-18 | 支付宝(杭州)信息技术有限公司 | 基于隐私保护的模型联合训练方法及装置 |
CN112560059A (zh) * | 2020-12-17 | 2021-03-26 | 浙江工业大学 | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 |
CN112560059B (zh) * | 2020-12-17 | 2022-04-29 | 浙江工业大学 | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 |
WO2022141544A1 (zh) * | 2020-12-31 | 2022-07-07 | 华为技术有限公司 | 模型数据发送的方法和装置 |
WO2022164808A1 (en) * | 2021-02-01 | 2022-08-04 | Qualcomm Incorporated | Techniques for adaptive quantization level selection in federated learning |
US20220245527A1 (en) * | 2021-02-01 | 2022-08-04 | Qualcomm Incorporated | Techniques for adaptive quantization level selection in federated learning |
CN112800468A (zh) * | 2021-02-18 | 2021-05-14 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的数据处理方法、装置及设备 |
CN112800468B (zh) * | 2021-02-18 | 2022-04-08 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的数据处理方法、装置及设备 |
CN113807534A (zh) * | 2021-03-08 | 2021-12-17 | 京东科技控股股份有限公司 | 联邦学习模型的模型参数训练方法、装置和电子设备 |
CN113807534B (zh) * | 2021-03-08 | 2023-09-01 | 京东科技控股股份有限公司 | 联邦学习模型的模型参数训练方法、装置和电子设备 |
CN113222179A (zh) * | 2021-03-18 | 2021-08-06 | 北京邮电大学 | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 |
CN113298191A (zh) * | 2021-04-01 | 2021-08-24 | 山东大学 | 基于个性化半监督在线联邦学习的用户行为识别方法 |
CN113298191B (zh) * | 2021-04-01 | 2022-09-06 | 山东大学 | 基于个性化半监督在线联邦学习的用户行为识别方法 |
WO2022217914A1 (zh) * | 2021-04-14 | 2022-10-20 | 深圳前海微众银行股份有限公司 | 一种基于区块链的联邦学习方法及装置 |
CN113095510A (zh) * | 2021-04-14 | 2021-07-09 | 深圳前海微众银行股份有限公司 | 一种基于区块链的联邦学习方法及装置 |
CN113095510B (zh) * | 2021-04-14 | 2024-03-01 | 深圳前海微众银行股份有限公司 | 一种基于区块链的联邦学习方法及装置 |
CN113098806A (zh) * | 2021-04-16 | 2021-07-09 | 华南理工大学 | 一种联邦学习下边端协同的信道适应性梯度压缩方法 |
CN113238867A (zh) * | 2021-05-19 | 2021-08-10 | 浙江凡双科技有限公司 | 一种基于网络卸载的联邦学习方法 |
CN113238867B (zh) * | 2021-05-19 | 2024-01-19 | 浙江凡双科技股份有限公司 | 一种基于网络卸载的联邦学习方法 |
CN113504999A (zh) * | 2021-08-05 | 2021-10-15 | 重庆大学 | 一种面向高性能分层联邦边缘学习的调度与资源分配方法 |
CN113504999B (zh) * | 2021-08-05 | 2023-07-04 | 重庆大学 | 一种面向高性能分层联邦边缘学习的调度与资源分配方法 |
WO2023022321A1 (ko) * | 2021-08-17 | 2023-02-23 | 삼성전자 주식회사 | 분산 학습용 서버 및 분산 학습 방법 |
CN113923605A (zh) * | 2021-10-25 | 2022-01-11 | 浙江大学 | 一种面向工业互联网的分布式边缘学习***和方法 |
CN114841370B (zh) * | 2022-04-29 | 2022-12-09 | 杭州锘崴信息科技有限公司 | 联邦学习模型的处理方法、装置、电子设备和存储介质 |
CN114841370A (zh) * | 2022-04-29 | 2022-08-02 | 杭州锘崴信息科技有限公司 | 联邦学习模型的处理方法、装置、电子设备和存储介质 |
CN115150288A (zh) * | 2022-05-17 | 2022-10-04 | 浙江大学 | 一种分布式通信***和方法 |
CN115150288B (zh) * | 2022-05-17 | 2023-08-04 | 浙江大学 | 一种分布式通信***和方法 |
CN114710415A (zh) * | 2022-05-23 | 2022-07-05 | 北京理工大学 | 一种冗余编码的无源消息可靠传输与处理*** |
CN114710415B (zh) * | 2022-05-23 | 2022-08-12 | 北京理工大学 | 一种冗余编码的无源消息可靠传输与处理*** |
WO2024050659A1 (zh) * | 2022-09-05 | 2024-03-14 | 华南理工大学 | 一种联邦学习下边端协同的信道适应性梯度压缩方法 |
CN116050540B (zh) * | 2023-02-01 | 2023-09-22 | 北京信息科技大学 | 一种基于联合双维度用户调度的自适应联邦边缘学习方法 |
CN116050540A (zh) * | 2023-02-01 | 2023-05-02 | 北京信息科技大学 | 一种基于联合双维度用户调度的自适应联邦边缘学习方法 |
CN116405491A (zh) * | 2023-06-09 | 2023-07-07 | 北京随信云链科技有限公司 | 文件批量上传方法、***、电子设备及计算机可读存储介质 |
CN116405491B (zh) * | 2023-06-09 | 2023-09-15 | 北京随信云链科技有限公司 | 文件批量上传方法、***、电子设备及计算机可读存储介质 |
CN117857647A (zh) * | 2023-12-18 | 2024-04-09 | 慧之安信息技术股份有限公司 | 基于mqtt面向工业物联网的联邦学习通信方法和*** |
Also Published As
Publication number | Publication date |
---|---|
CN111401552B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401552B (zh) | 基于调整批量大小与梯度压缩率的联邦学习方法和*** | |
CN109857546B (zh) | 基于Lyapunov优化的多服务器移动边缘计算卸载方法及装置 | |
CN113315604B (zh) | 一种联邦学习自适应梯度量化方法 | |
CN109951869B (zh) | 一种基于云雾混合计算的车联网资源分配方法 | |
CN108924796B (zh) | 一种资源分配及卸载比例联合决策的方法 | |
KR102177432B1 (ko) | 포그 컴퓨팅 기반 무선 네트워크에서 태스크 우선순위별 연산량 오프로딩 장치 및 방법 | |
CN110740473B (zh) | 一种用于移动边缘计算的管理方法及边缘服务器 | |
CN112491957B (zh) | 一种边缘网络环境下的分布式计算卸载方法及*** | |
CN111199740A (zh) | 一种基于边缘计算加速自动语音识别任务的卸载方法 | |
CN108965333A (zh) | 一种数据压缩、解压缩方法、***及电子设备 | |
CN111556576B (zh) | 基于d2d_mec***的时延优化方法 | |
CN114096006B (zh) | 移动边缘计算***中资源分配和数据压缩联合优化方法 | |
CN113507712B (zh) | 一种基于交替方向乘子的资源分配与计算任务卸载方法 | |
Master et al. | Adaptive prefetching in wireless computing | |
CN112770398A (zh) | 一种基于卷积神经网络的远端射频端功率控制方法 | |
CN112423320A (zh) | 一种基于QoS和用户行为预测的多用户计算卸载方法 | |
CN116761218A (zh) | 一种云边端协同***中的联合优化方法、***及存储介质 | |
CN109561129B (zh) | 一种基于光纤-无线网络的协同计算卸载方法 | |
CN115150288B (zh) | 一种分布式通信***和方法 | |
JP7425197B2 (ja) | スケジューリング方法及び装置 | |
CN113613270A (zh) | 一种基于数据压缩的雾接入网计算卸载方法 | |
CN113784372A (zh) | 一种面向终端多业务模型的联合优化方法 | |
CN111405293B (zh) | 一种视频传输方法及装置 | |
CN114302435B (zh) | 一种移动边缘计算传输***中的功耗与时延的优化方法 | |
CN112954592B (zh) | 一种针对d2d-mec***的能耗优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |