CN115329987A - 一种联邦学习***中用户选择的方法 - Google Patents
一种联邦学习***中用户选择的方法 Download PDFInfo
- Publication number
- CN115329987A CN115329987A CN202210934054.XA CN202210934054A CN115329987A CN 115329987 A CN115329987 A CN 115329987A CN 202210934054 A CN202210934054 A CN 202210934054A CN 115329987 A CN115329987 A CN 115329987A
- Authority
- CN
- China
- Prior art keywords
- model
- local
- user
- olt
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010187 selection method Methods 0.000 title claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000003287 optical effect Effects 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000012163 sequencing technique Methods 0.000 claims description 9
- 230000001174 ascending effect Effects 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 230000010354 integration Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 230000006872 improvement Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Optical Communication System (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明公开了一种联邦学习***中用户选择的方法,首先,中心服务器初始化训练任务和全局模型,并由OLT发送给所有用户;其次,本地用户接收到全局模型后利用本地数据进行模型更新,并上传更新后的本地模型;再次,OLT根据波长的负载情况进行用户选择,负载重的波长传输训练时间短的用户模型,负载轻的波长传输训练数据多的用户模型;从次,OLT将接收到的模型上传至中心服务器,中心服务器将所有接收到的本地模型聚合生成一个新的全局模型并将其发送给OLT;最后,判断全局损失函数是否达到收敛或达到最大全局更新次数,若否,则重复步骤S2‑S4,若是,则结束。
Description
技术领域
本发明涉及光与无线融合接入技术领域,尤其涉及一种联邦学习***中用户选择的方法。
背景技术
随着5G移动网络在全球范围内逐渐普及,万物互联时代已到来,人工智能技术的应用也正从云端向网络边缘延伸。传统的分布式机器学习,其机器学习算法通常部署在云数据中心。边缘设备需要将采集到的数据上传到云端,而这些数据十分庞大,这会造成网络拥堵,并且,边缘设备采集到的数据上传至云端面临着用户隐私泄露的风险。
由于数据不足以支撑实现机器学习、信息不允许粗暴交换、用户不愿意贡献价值三点,导致了现在大量存在的数据孤岛,以及隐私保护问题,联邦学习应运而生。联邦学习是一种非常有潜力的边缘学习框架,由Google研究人员于2016年提出,受到了学术界和工业界的广泛关注。联邦学习允许多个分布式边缘设备在边缘服务器的协调下,共同训练一个模型,而不需要上报各自的原始数据样本。在典型的联邦学习过程中,每个参与用户会先从服务器中下载当前最新的全局模型,然后利用本地数据样本进行局部训练,并将梯度信息上传给服务器,服务器聚合各个用户的梯度信息后更新模型参数,再将更新后的模型返回给参与用户。
由于联邦学习需要多轮次更新迭代,若每轮都有大量的用户将自己的梯度信息上传给服务器,将会造成网络负载严重且耗费大量时间。由于无线频谱资源有限,而联邦学习的用户量庞大,每个用户的性能不同,性能较差的用户可能会大大影响联邦学习的延迟,还会消耗巨大的能量,因此用户选择和资源分配是必要的。
发明内容
为了解决上述技术问题,本发明提供了一种联邦学习***中用户选择的方法。
一种联邦学习***中用户选择的方法,基于TWDM-PON,包括以下步骤:
S1:中心服务器初始化一第一全局模型,所述中心服务器将该第一全局模型下发至OLT,由所述OLT发送给所有本地用户;
S2:所述本地用户接收到该第一全局模型后利用本地数据进行模型更新,并上传更新后的本地模型至所述OLT;
S3:所述OLT根据波长的负载情况进行用户选择,负载大于0.5的波长传输训练时间短的用户模型,负载小于0.5的波长传输训练数据多的用户模型;
S4:所述OLT将筛选分配的模型后上传至所述中心服务器,所述中心服务器将所有接收到的所述本地模型聚合生成一个第二全局模型并将其发送给所述OLT;
S5:判断全局损失函数是否达到收敛或达到最大全局更新次数,若否,则重复步骤S2-S4;若是,则结束。
作为本发明的进一步改进,步骤S1中所述第一全局模型根据任务需求和目标应用程序进行初始化设置。
作为本发明的进一步改进,步骤S3中还包括:所述OLT根据该波长下本地用户训练所述本地模型所花费的时间进行升序排序,选取前N/4个用户上传其所述本地模型。
作为本发明的进一步改进,步骤S3中还包括:所述OLT根据该波长下本地用户的训练数据进行升序排序,选取后N/4个用户上传其所述本地模型。
作为本发明的进一步改进,步骤S3中其波长传输的用户的所述本地模型的表达式如下:其中,Cn表示第n个波长传输的用户的所述本地模型集合,ci表示排序后的第i个本地用户,τi表示排序后的第i个本地用户,load表示第n个波长的负载情况。
作为本发明的进一步改进,所述本地模型上传顺序由排序顺序确定。
作为本发明的进一步改进,步骤S4包括:
S44:待所有模型传输完之后,所述中心服务器则利用接收到的所有所述本地模型聚合成一个新的全局模型,聚合过程如下:
一种联邦学习***,其特征在于:用于实现上述方法,包括:
所述中心服务器,用于对全局模型进行初始化处理或整合处理;
所述OLT,部署在所述中心服务器下游,接收由所述中心服务器下发的初始化全局模型或整合全局模型,并向下发送;接收由下游传输的数据并上传至所述中心服务器;
用户,接收初始化全局模型或整合全局模型,进行模型训练后得到本地模型并上传;
ONU,部署在所述OLT和所述用户之间,对所述OLT进行接收响应,接收由所述OLT向下发送的初始化全局模型或整合全局模型并下发至所述用户;对所述用户需要发送的以太网数据进行收集和缓存,按照被分配的发送窗口向所述OLT端发送该缓存数据;
ODN,部署在所述OLT和所述ONU之间,完成光信号的双向传输。
一种网络装置,包括:处理器、存储器和总线***,所述处理器和存储器通过该总线***相连,所述存储器用于存储指令,所述处理器用于执行存储器存储的指令,以实现权利要求1至8任意一项所述的方法。
本发明的有益效果:本发明提出了一种联邦学习***中用户选择的方法。根据波长的负载情况不同采用不同的用户选择策略,负载轻的波长上传输训练数据量多的用户,以确保精确度,负载重的波长传输训练时间短的用户,以达到减小时延的目的。
附图说明
图1是本发明实施例提供的一种联邦学习***中用户选择的方法网络模型图。
图2是本发明实施例提供的一种联邦学习***中用户选择的方法流程图。
图3是本发明实施例提供的模型训练精确度结果图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
联邦学***衡,即“数据可用不可见”、“数据不动模型动”的应用新范式。
无源光网络***(Passive optical network,PON)其架构与联邦学习架构极其类似,利用PON***实现联邦学习有着其他***没有的天然优势。在时分波分复用无源光网络(Time wavelength division multiplexing-passive optical network,TWDM-PON)中实现联邦学习,能够快速的完成训练过程,但由于多波长的存在,需要为每个光网络单元(Optical Network Unit,ONU)分配带宽,合理的资源调度以及用户选择策略可以有效的减少联邦学习所耗费的时间。基于此,针对现有技术的缺陷本发明提出了一种联邦学习***中用户选择的方法。
如图1所示,中心服务器部署在光线路终端(optical line termina,OLT)上游,完成PON网络的上行接入;光线路终端将获取到的初始化全局模型通过光配线网(OpticalDistribution Network,ODN)发送分配到所有ONU并下发至用户终端设备;本地用户接收到全局模型后利用本地数据进行模型更新,并上传更新后的本地模型。
如图2所示为一种联邦学习***中用户选择的方法的流程图,具体步骤如下:
S1:中心服务器初始化训练任务和全局模型,并由OLT广播给所有用户;
S2:本地用户接收到全局模型后利用本地数据进行模型更新,并上传更新后的本地模型;
S3:OLT根据波长的负载情况进行用户选择,负载重的波长传输训练时间短的用户模型,负载轻的波长传输训练数据多的用户模型;
若波长的负载大于0.5,则此波长为重负载情况,对于负载重的波长,用于传输联邦学习的带宽少,为了减少时延,选择该波长下训练时间短的用户,OLT根据该波长下本地用户训练本地模型所花费的时间进行升序排序[c1,c2…cN],ci表示排序后的第i个本地用户,选取前N/4个用户上传其本地模型,上传顺序依据排序顺序确定。
若波长的负载小于等于0.5,则此波长为轻负载情况,对于负载轻的波长,用于传输联邦学习的带宽大,为了保证精确度,选择该波长下训练数据多的用户,OLT根据该波长下本地用户的训练数据进行升序排序[τ1,τ2…τN],τi表示排序后的第i个本地用户,选取后N/4个用户上传其本地模型,上传顺序依据排序顺序确定。
其波长传输的用户的本地模型的表达式如下:
其中Cn表示第n个波长传输的用户的本地模型集合,[c1,c2...cN/4]及[τ3N/4-1,τ3N/4,...τN]分别表示第n个波长下根据训练时间排序后的前N/4个用户集合以及根据训练数据量最多的后N/4个用户集合,load表示第n个波长的负载情况。
S4:OLT将接收到的模型上传至中心服务器,中心服务器将所有接收到的本地模型聚合生成一个新的全局模型并将其发送给OLT;
待用户选择结束之后,利用切片的方法进行传输,具体如下:根据用户训练模型所耗费的时间和用户上传至ONU所耗费的时间之和Ti重新排序用户,并计算出相邻用户之间的时间间隔,第n个波长上的第i个用户与第i-1个用户的间隔为则为该用户分配的带宽大小可以表示为:
其中,Z为轮询窗口的平均大小。
待所有模型传输完之后,中心服务器则利用接收到的所有本地模型聚合成一个新的全局模型,聚合过程如下:
实施例一:
为了验证一种联邦学***台上进行验证,采用16个ONU,每个ONU下有着相同数量的用户,波长数量为4,其中,有两个重负载波长,两个轻负载波长,每个波长下的ONU数量一致,OLT与ONU的距离设为20Km,上传和下传的速率设为10Gb/s。采用两层5×5的CNN网络进行训练,含有26.4百万个参数,假定每个参数被量化为1bit信息,因此,每个模型的数据量为26.4兆字节。学习率设定为0.006,用于本地客户端模型更新的小批量(mini-batch)大小设为10,每轮进行一次本地更新。如图3所示,是进行120轮联邦学习,用户数量为32时的精确度结果,可以看出,经过20轮训练,其精确度就趋于收敛,相比于随机用户选取策略,收敛速度比较快,且不同数量的客户参与训练,对精确度有着十分明显的影响。
本发明提出了一种联邦学习***中用户选择的方法。根据波长的负载情况不同选择不同的用户选择策略,负载轻的波长上传输训练数据量多的用户,以确保精确度,负载重的波长传输训练时间短的用户,以达到减小时延的目的。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。
Claims (10)
1.一种联邦学习***中用户选择的方法,其特征在于:基于TWDM-PON,包括以下步骤:
S1:中心服务器初始化一第一全局模型,所述中心服务器将该第一全局模型下发至OLT,由所述OLT发送给所有本地用户;
S2:所述本地用户接收到该第一全局模型后利用本地数据进行模型更新,并上传更新后的本地模型至所述OLT;
S3:所述OLT根据波长的负载情况进行用户选择,负载大于0.5的波长传输训练时间短的用户模型,负载小于0.5的波长传输训练数据多的用户模型;
S4:所述OLT将筛选分配的模型后上传至所述中心服务器,所述中心服务器将所有接收到的所述本地模型聚合生成一个第二全局模型并将其发送给所述OLT;
S5:判断全局损失函数是否达到收敛或达到最大全局更新次数,若否,则重复步骤S2-S4;若是,则结束。
2.如权利要求1所述的联邦学习***中用户选择的方法,其特征在于:步骤S1中所述第一全局模型根据任务需求和目标应用程序进行初始化设置。
4.如权利要求1所述的联邦学习***中用户选择的方法,其特征在于:步骤S3中还包括:所述OLT根据该波长下本地用户训练所述本地模型所花费的时间进行升序排序,选取前N/4个用户上传其所述本地模型。
5.如权利要求1所述的联邦学习***中用户选择的方法,其特征在于:步骤S3中还包括:所述OLT根据该波长下本地用户的训练数据进行升序排序,选取后N/4个用户上传其所述本地模型。
7.如权利要求3-6任意一项所述的联邦学习***中用户选择的方法,其特征在于:所述本地模型上传顺序由排序顺序确定。
9.一种联邦学习***,其特征在于:用于实现权利要求1至8任意一项所述的方法,包括:
所述中心服务器,用于对全局模型进行初始化处理或整合处理;
所述OLT,部署在所述中心服务器下游,接收由所述中心服务器下发的初始化全局模型或整合全局模型,并向下发送;接收由下游传输的数据并上传至所述中心服务器;
用户,接收初始化全局模型或整合全局模型,进行模型训练后得到本地模型并上传;
ONU,部署在所述OLT和所述用户之间,对所述OLT进行接收响应,接收由所述OLT向下发送的初始化全局模型或整合全局模型并下发至所述用户;对所述用户需要发送的以太网数据进行收集和缓存,按照被分配的发送窗口向所述OLT端发送该缓存数据;
ODN,部署在所述OLT和所述ONU之间,完成光信号的双向传输。
10.一种网络装置,其特征在于:包括:处理器、存储器和总线***,所述处理器和存储器通过该总线***相连,所述存储器用于存储指令,所述处理器用于执行存储器存储的指令,以实现权利要求1至8任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210934054.XA CN115329987B (zh) | 2022-08-04 | 2022-08-04 | 一种联邦学习***中用户选择的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210934054.XA CN115329987B (zh) | 2022-08-04 | 2022-08-04 | 一种联邦学习***中用户选择的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115329987A true CN115329987A (zh) | 2022-11-11 |
CN115329987B CN115329987B (zh) | 2023-07-21 |
Family
ID=83921492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210934054.XA Active CN115329987B (zh) | 2022-08-04 | 2022-08-04 | 一种联邦学习***中用户选择的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115329987B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120106333A1 (en) * | 2010-10-29 | 2012-05-03 | Futurewei Technologies, Inc. | Network Aware Global Load Balancing System and Method |
CN103024611A (zh) * | 2012-12-28 | 2013-04-03 | 武汉烽火网络有限责任公司 | 光线路终端对光网络单元进行预配置管理的方法及装置 |
CN105681092A (zh) * | 2016-01-27 | 2016-06-15 | 重庆邮电大学 | 一种混合复用pon中基于业务优先级的波长时隙分配方法 |
CN106130840A (zh) * | 2016-07-15 | 2016-11-16 | 武汉邮电科学研究院 | 一种固定、移动宽带融合接入网架构 |
CN108199959A (zh) * | 2018-01-30 | 2018-06-22 | 重庆邮电大学 | 一种弹性光网络中基于频谱预留的负载感知能效路由方法 |
CN110708135A (zh) * | 2019-11-15 | 2020-01-17 | 四川中电启明星信息技术有限公司 | 一种无源光网络的通信控制***与方法 |
CN112181666A (zh) * | 2020-10-26 | 2021-01-05 | 华侨大学 | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、***、设备和可读存储介质 |
CN113194489A (zh) * | 2021-04-01 | 2021-07-30 | 西安电子科技大学 | 无线边缘网络中有效联邦学习的最小-最大代价优化方法 |
CN113591145A (zh) * | 2021-07-28 | 2021-11-02 | 西安电子科技大学 | 基于差分隐私和量化的联邦学习全局模型训练方法 |
CN113900796A (zh) * | 2021-09-02 | 2022-01-07 | 山东电力工程咨询院有限公司 | 5g网络中面向多任务联邦学习的资源分配方法及*** |
US20220076169A1 (en) * | 2020-09-08 | 2022-03-10 | International Business Machines Corporation | Federated machine learning using locality sensitive hashing |
CN114219354A (zh) * | 2021-12-28 | 2022-03-22 | 杭州电子科技大学 | 一种基于联邦学习资源分配优化方法及*** |
CN114358286A (zh) * | 2022-03-08 | 2022-04-15 | 浙江中科华知科技股份有限公司 | 一种移动设备联邦学习方法及*** |
CN114584581A (zh) * | 2022-01-29 | 2022-06-03 | 华东师范大学 | 面向智慧城市物联网信物融合的联邦学习***及联邦学习训练方法 |
-
2022
- 2022-08-04 CN CN202210934054.XA patent/CN115329987B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120106333A1 (en) * | 2010-10-29 | 2012-05-03 | Futurewei Technologies, Inc. | Network Aware Global Load Balancing System and Method |
CN103024611A (zh) * | 2012-12-28 | 2013-04-03 | 武汉烽火网络有限责任公司 | 光线路终端对光网络单元进行预配置管理的方法及装置 |
CN105681092A (zh) * | 2016-01-27 | 2016-06-15 | 重庆邮电大学 | 一种混合复用pon中基于业务优先级的波长时隙分配方法 |
CN106130840A (zh) * | 2016-07-15 | 2016-11-16 | 武汉邮电科学研究院 | 一种固定、移动宽带融合接入网架构 |
CN108199959A (zh) * | 2018-01-30 | 2018-06-22 | 重庆邮电大学 | 一种弹性光网络中基于频谱预留的负载感知能效路由方法 |
CN110708135A (zh) * | 2019-11-15 | 2020-01-17 | 四川中电启明星信息技术有限公司 | 一种无源光网络的通信控制***与方法 |
US20220076169A1 (en) * | 2020-09-08 | 2022-03-10 | International Business Machines Corporation | Federated machine learning using locality sensitive hashing |
CN112181666A (zh) * | 2020-10-26 | 2021-01-05 | 华侨大学 | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、***、设备和可读存储介质 |
CN113194489A (zh) * | 2021-04-01 | 2021-07-30 | 西安电子科技大学 | 无线边缘网络中有效联邦学习的最小-最大代价优化方法 |
CN113591145A (zh) * | 2021-07-28 | 2021-11-02 | 西安电子科技大学 | 基于差分隐私和量化的联邦学习全局模型训练方法 |
CN113900796A (zh) * | 2021-09-02 | 2022-01-07 | 山东电力工程咨询院有限公司 | 5g网络中面向多任务联邦学习的资源分配方法及*** |
CN114219354A (zh) * | 2021-12-28 | 2022-03-22 | 杭州电子科技大学 | 一种基于联邦学习资源分配优化方法及*** |
CN114584581A (zh) * | 2022-01-29 | 2022-06-03 | 华东师范大学 | 面向智慧城市物联网信物融合的联邦学习***及联邦学习训练方法 |
CN114358286A (zh) * | 2022-03-08 | 2022-04-15 | 浙江中科华知科技股份有限公司 | 一种移动设备联邦学习方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN115329987B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111277437B (zh) | 一种智能电网的网络切片资源分配方法 | |
CN110968426B (zh) | 一种基于在线学习的边云协同k均值聚类的模型优化方法 | |
CN110717300A (zh) | 面向电力物联实时在线监测业务的边缘计算任务分配方法 | |
CN108566242B (zh) | 一种针对遥感数据传输业务的空间信息网络资源调度*** | |
CN112118312A (zh) | 一种面向边缘服务器的网络突发负载疏散方法 | |
CN114169543B (zh) | 一种基于模型陈旧性与用户参与度感知的联邦学习方法 | |
CN112469047B (zh) | 一种天地一体化智能网络卫星节点部署方法 | |
CN116610434A (zh) | 面向分层联邦学习***的资源优化方法 | |
CN115278708A (zh) | 一种面向联邦学习的移动边缘计算资源管理方法 | |
CN113094180B (zh) | 无线联邦学习调度优化方法及装置 | |
CN115174404A (zh) | 一种基于sdn组网的多设备联邦学习*** | |
CN115119233A (zh) | 一种分簇的无线通信方法和*** | |
Li et al. | Scalable federated learning over passive optical networks | |
CN112887943B (zh) | 一种基于中心度的缓存资源分配方法及*** | |
CN115329987A (zh) | 一种联邦学习***中用户选择的方法 | |
CN111476401A (zh) | 航班时刻表优化方法及*** | |
CN115115064B (zh) | 一种半异步联邦学习方法及*** | |
CN116800753A (zh) | 一种移动模型通信资源分配方法、装置、终端及存储介质 | |
Chen et al. | The contract net based task allocation algorithm for wireless sensor network | |
CN107911763B (zh) | 一种基于QoS的智能配用电通信网EPON网络规划方法 | |
CN114585093A (zh) | 一种发送业务数据的方法、装置及设备 | |
CN115460484B (zh) | 一种联邦学习***中用户调度和资源分配方法及*** | |
Li et al. | Bandwidth slicing to boost federated learning in edge computing | |
CN114390489A (zh) | 一种端到端网络切片的服务化部署方法 | |
CN103096380A (zh) | 无线接入点负载均衡优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |