CN115278709A - 一种基于联邦学习的通信优化方法 - Google Patents
一种基于联邦学习的通信优化方法 Download PDFInfo
- Publication number
- CN115278709A CN115278709A CN202210906790.4A CN202210906790A CN115278709A CN 115278709 A CN115278709 A CN 115278709A CN 202210906790 A CN202210906790 A CN 202210906790A CN 115278709 A CN115278709 A CN 115278709A
- Authority
- CN
- China
- Prior art keywords
- gradient
- local
- model
- matrix
- client
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000004891 communication Methods 0.000 title claims abstract description 26
- 238000005457 optimization Methods 0.000 title claims abstract description 18
- 230000002776 aggregation Effects 0.000 claims abstract description 24
- 238000004220 aggregation Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 20
- 230000006835 compression Effects 0.000 claims abstract description 16
- 238000007906 compression Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 59
- 239000013598 vector Substances 0.000 claims description 17
- 238000013441 quality evaluation Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/22—Traffic simulation tools or models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供的一种基于联邦学***均聚合算法得到全局模型并发给各客户端;计算各客户端的累计梯度误差值与梯度误差补偿值,自适应调整本地梯度核心特征需要补偿的梯度和本地梯度核心特征进行草图梯度聚合时的权重,再进行迭代。本发明既能够有效压缩模型梯度,降低模型训练中产生的通信开销,又能提高模型预测的准确度。
Description
技术领域
本发明涉及联邦机器学习技术领域,尤其涉及一种基于联邦学习的通信优化方法。
背景技术
现有的联邦学习通常将模型训练的中间参数上传至参数服务器实现模型聚合,此过程存在两个问题:一是大规模分布式训练需要大量的通信带宽进行梯度交换,这限制了多节点训练的可扩展性;二是需要昂贵的高带宽网络基础设施。
在移动设备上进行分布式训练时,这种训练存在更高的网络延迟、更低的***吞吐量和间歇性的连接不良。
为了解决上述问题,如果直接采用传统的SVD奇异值分解方法,虽然提高模型预测的准确度,但是梯度压缩效果不够理想。如果采用草图压缩方法,虽然梯度压缩效果理想,但是降低了模型预测的精度。
发明内容
本发明的技术问题是提供一种基于联邦学习的通信优化方法,既能够有效压缩模型梯度,降低模型训练中产生的通信开销,又能提高模型预测的准确度。
为实现上述目的,本发明采取的技术方案为:
一种基于联邦学***均聚合算法得到全局模型,将全局模型分发给各客户端;S3计算各客户端的累计梯度误差值与梯度误差补偿值,自适应调整本地梯度核心特征需要补偿的梯度和本地梯度核心特征进行草图梯度聚合时的权重,再迭代执行S1至S3。
进一步地,对目标数据进行预处理包括:将目标数据分割为若干数据集,并执行均匀随机取样操作选出每一次迭代中的数据集的批次大小,获得目标数据集;对目标数据集进行范式边界计算;获取初始化全局模型参数,接着通过范式边界计算后的目标数据集训练出本地模型,计算本地模型的本地梯度;对本地梯度进行裁剪得到本地模型的梯度矩阵。
进一步地,对本地模型进行奇异值分解为:各客户端执行快速梯度下降算法,将本地模型的梯度矩阵分解为包含梯度的左奇异向量、右奇异向量和对角矩阵,获得本地梯度核心特征。
进一步地,各客户端执行快速梯度下降算法,将本地模型的梯度矩阵分解为包含梯度的左奇异向量、右奇异向量和对角矩阵,获得本地梯度核心特征,包括:按序将本地模型的梯度矩阵的数据存储于零矩阵中,压缩至零矩阵中不存在零值行,得到第一矩阵;构造一个子抽样随机阿达玛变换矩阵,计算子抽样随机阿达玛变换矩阵和第一矩阵的乘积,将第一矩阵的大小从m压缩至得到第二矩阵;对第二矩阵执行SVD算法,将本地模型的梯度矩阵分解为包含梯度的左奇异向量、右奇异向量和对角矩阵,获得本地梯度核心特征。
进一步地,S3包括:计算各客户端在当前迭代过程中的本地模型损失值;计算本地模型损失值的交叉熵,并根据交叉熵计算本地模型的质量评估权重;计算草图梯度聚合过程中由草图梯度压缩产生的局部梯度误差,获得各客户端的累计梯度误差值和梯度误差补偿值;根据各客户端的本地模型的质量评估权重和累计梯度误差值调整各客户端的本地梯度核心特征进行草图梯度聚合时的权重;根据梯度误差补偿值自适应调整个客户端的本地梯度核心特征需要补偿的梯度后进入下一次迭代。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明及其特征、外形和优点将会变得更加明显。在全部附图中相同的标记指示相同的部分。并未刻意按照比例绘制附图,重点在于示出本发明的主旨。
图1是本发明提供的一种基于联邦学习的通信优化方法的总体流程图;
图2是本发明提供的一种基于联邦学习的通信优化方法中预处理算法的具体流程图;
图3是本发明提供的一种基于联邦学习的通信优化方法中快速梯度下降算法的具体流程图;
图4是本发明提供的一种基于联邦学习的通信优化方法中进行梯度误差补偿的具体流程图。
具体实施方式
下面结合附图和具体的实施例对本发明作进一步的说明,但是不作为本发明的限定。
为了解决现有技术在实现联邦学习算法中将模型训练的中间参数上传至参数服务器实现模型聚合时,直接采用传统的SVD奇异值分解方法,虽然提高模型预测的准确度,但是梯度压缩效果不够理想;直接采用草图压缩方法,虽然梯度压缩效果理想,但是降低了模型预测的精度的问题,因此,如图1所示,本发明提供了一种基于联邦学习的通信优化方法,具体为移动边缘网络通信优化方法,针对移动边缘网络下进行分布式训练时,移动端自身资源有限,并且该训练会带来更高的网络延迟、更低的***吞吐量和间歇性的网络连接不良的问题,对其进行通信优化,降低模型训练过程中产生巨大的通信开销。
首先各客户端需要对本地的目标数据进行预处理,然后训练出本地模型,本地模型为联邦模型;该步骤如图2所示,具体包括:
将目标数据分割为若干minibatch数据集并执行均匀随机取样操作选出每一次迭代中的数据集的批次大小,获得目标数据集d′i=di⊙Sc;其中,i为第i个客户端,di为第i个客户端的数据,c为矩阵列数,Sc输入与敏感原始数据维数相同的随机均匀取样矩阵;
由于每个客户端都要在目标数据集d′i上运行联邦学习模型,以提取特征,即d′il=F(d′i),为了限制一定的全局灵敏度,对目标数据集d′i进行范式边界计算,即其中,为最小数据批次大小;dl表示神经网络模型第层输出的无穷范数;根据该公式可知d′l的上限为Sf=max||f(d)-f(d′)||2;其中,f为实值函数,只要dl的敏感性就可以被保护,能够在一定程度上保护敏感数据不被泄露;
接着初始化全局模型参数wglobal并分发给各客户端,各客户端接着通过范式边界计算后的目标数据集训练出本地模型,计算本地模型的本地梯度g(i);对本地梯度进行裁剪,即以防止梯度***,最终得到本地模型的梯度矩阵A。
然后各客户端执行快速梯度下降算法,如图3所示,将本地模型的梯度矩阵分解为包含梯度的左奇异向量、右奇异向量和对角矩阵来近似描述梯度矩阵一定百分比的矩阵信息,进而对梯度以矩阵的形式进行压缩,获得本地梯度核心特征,降低联邦训练产生的高昂通信成本;该步骤具体包括:
按序收集本地模型的梯度矩阵A∈Rm×n中第m行中的n个数据点,并存储于零矩阵F∈Rm×n中,压缩零矩阵中的所有零值行,得到第一矩阵F′;
判断F中不存在零值行时,构造一个子抽样随机阿达玛变换矩阵Φ=N·H·D;其中,N∈Rq×m表示缩放的随机矩阵,其每行均匀采样,而无需从m×m单位矩阵的m行中替换,重新缩放为D表示元素为I.I.D的m×m对角矩阵,为随机变量(等概率的-1或1);H∈{±1}m×m表示为哈达玛矩阵(Hadamard),含义为hij=(-1)<i-1,j-1>,<i-1,j-1>是整数i-1和j-1的b位二进制向量的点积,此处的i,j表示所在的第i行第j列)哈达玛矩阵还可以表示为其中,m是矩阵的大小;
对第二矩阵执行SVD算法,按照[U,Λ,V]=SVD(B)将本地模型的梯度矩阵分解为包含梯度的左奇异向量、右奇异向量和对角矩阵并通过将原始信息压缩到B的前行,获得本地梯度核受到的影响很小的情况下,提高本地模型参数上传的通信效率。
接着对各客户端的本地梯度核心特征进行草图梯度压缩后,再进行草图梯度聚合,提取前k个稀疏化参数矩阵,并对前k个稀疏化参数矩阵执行联邦平均聚合算法得到全局模型,将全局模型分发给各客户端;
接着如图4所示,计算各客户端的累计梯度误差值与梯度误差补偿值,自适应调整本地梯度核心特征需要补偿的梯度和本地梯度核心特征进行草图梯度聚合时的权重,代入下一次迭代计算全局模型;该步骤具体包括:
计算本地模型损失值的交叉熵H(f(xi),yi)=-∑xiyilogf(xi),通过交叉熵来评估本地模型损失值如果交叉熵H(f(xi),yi)值越小,则代表本地模型预测结果越接近真实结果,也就说明模型训练质量越高;
每次草图梯度聚合各个客户端的质量评估权重,客户端Di在草图梯度聚合过程中由草图梯度压缩产生的局部梯度误差,可以用累计梯度误差值表示,表示为第i个客户端在第t轮迭代中累计的梯度误差,β是误差因子,累计梯度误差值可以随着迭代的进行不断更新;再根据其中,α是补偿系数;是经过SVD和Sketch之后梯度;
根据各客户端的本地模型的质量评估权重和累计梯度误差值调整各客户端的本地梯度核心特征进行草图梯度聚合时的权重;根据梯度误差补偿值自适应调整个客户端的本地梯度核心特征需要补偿的梯度,选择最优参数α和β,再代入下一次迭代计算,从而提高全局模型的准确度,具体在全局模型更新计算过程中表示为其中n是参与模型训练的客户端数量,ψ是均匀随机选取的高质量客户端数量,η是本地模型学***均,用于更新全局模型);是客户端i在第t轮迭代中未进行补偿的本地梯度,α是补偿系数,是第i个客户端在第t轮迭代中的累计梯度误差值。
综上所述,本发明提供的一种基于联邦学***均聚合算法得到全局模型,并发给各客户端,进行下一轮次的迭代过程。并且针对由Sketch梯度有损压缩之后产生的局部梯度误差,支持自适应梯度误差累计和梯度误差补偿,自适应调整需要补偿的梯度,添加到下一次迭代中,通过SVD结合Sketch压缩,既能够有效压缩模型梯度,降低模型训练中产生的通信开销,又通过梯度误差补偿解决了SVD与Sketch操作结合带来的与只执行SVD操作之间的梯度误差,从而提高了全局模型预测的准确度。本发明可以使得在整个训练过程中客户端与服务器之间的通信开销大大减少,加快模型收敛,并且模型预测的准确度与原先的预测准确度相差无几。
以上对本发明的较佳实施例进行了描述;需要理解的是,本发明并不局限于上述特定实施方式,其中未尽详细描述的设备和结构应该理解为用本领域中的普通方式予以实施;任何熟悉本领域的技术人员,在不脱离本发明技术方案作出许多可能的变动和修饰,或修改为等同变化的等效实施例,这并不影响本发明的实质内容;因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。
Claims (5)
1.一种基于联邦学习的通信优化方法,其特征在于,包括以下步骤:
S1获取各客户端上传的本地梯度核心特征;其中,所述本地梯度核心特征指各客户端通过对目标数据进行预处理,训练出本地模型,对本地模型进行奇异值分解提取出的模型梯度;所述本地模型为联邦模型;
S2对所述本地梯度核心特征进行草图梯度压缩后,进行草图梯度聚合,提取前k个稀疏化参数矩阵,并对前k个所述稀疏化参数矩阵执行联邦平均聚合算法得到全局模型,将所述全局模型分发给各客户端;
S3计算各客户端的累计梯度误差值与梯度误差补偿值,自适应调整所述本地梯度核心特征需要补偿的梯度和所述本地梯度核心特征进行草图梯度聚合时的权重,再迭代执行S1至S3。
2.根据权利要求1所述的一种基于联邦学习的通信优化方法,其特征在于,所述对目标数据进行预处理包括:
将目标数据分割为若干数据集,并执行均匀随机取样操作选出每一次迭代中的数据集的批次大小,获得目标数据集;
对目标数据集进行范式边界计算;
获取初始化全局模型参数,接着通过范式边界计算后的目标数据集训练出本地模型,计算所述本地模型的本地梯度;
对所述本地梯度进行裁剪得到所述本地模型的梯度矩阵。
3.根据权利要求2所述的一种基于联邦学习的通信优化方法,其特征在于,所述对本地模型进行奇异值分解为:
各客户端执行快速梯度下降算法,将所述本地模型的梯度矩阵分解为包含梯度的左奇异向量、右奇异向量和对角矩阵,获得本地梯度核心特征。
5.根据权利要求4所述的一种基于联邦学习的通信优化方法,其特征在于,所述S3包括:
计算各客户端在当前迭代过程中的本地模型损失值;
计算所述本地模型损失值的交叉熵,并根据交叉熵计算所述本地模型的质量评估权重;
计算草图梯度聚合过程中由草图梯度压缩产生的局部梯度误差,获得各客户端的累计梯度误差值和梯度误差补偿值;
根据各客户端的本地模型的质量评估权重和累计梯度误差值调整各客户端的本地梯度核心特征进行草图梯度聚合时的权重;根据梯度误差补偿值自适应调整个客户端的本地梯度核心特征需要补偿的梯度后进入下一次迭代。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210906790.4A CN115278709B (zh) | 2022-07-29 | 2022-07-29 | 一种基于联邦学习的通信优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210906790.4A CN115278709B (zh) | 2022-07-29 | 2022-07-29 | 一种基于联邦学习的通信优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115278709A true CN115278709A (zh) | 2022-11-01 |
CN115278709B CN115278709B (zh) | 2024-04-26 |
Family
ID=83772330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210906790.4A Active CN115278709B (zh) | 2022-07-29 | 2022-07-29 | 一种基于联邦学习的通信优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115278709B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117216596A (zh) * | 2023-08-16 | 2023-12-12 | 中国人民解放军总医院 | 基于梯度聚类的联邦学习优化通信方法、***及存储介质 |
CN117692939A (zh) * | 2024-02-02 | 2024-03-12 | 南京邮电大学 | 一种动态通信环境下的客户端调度方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190087713A1 (en) * | 2017-09-21 | 2019-03-21 | Qualcomm Incorporated | Compression of sparse deep convolutional network weights |
US20200117580A1 (en) * | 2018-04-22 | 2020-04-16 | Sas Institute Inc. | Validation Sets for Machine Learning Algorithms |
US20200142948A1 (en) * | 2018-11-07 | 2020-05-07 | Samsung Electronics Co., Ltd. | System and method for cached convolution calculation |
CN111507481A (zh) * | 2020-04-17 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 一种联邦学习*** |
CN112199702A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 一种基于联邦学习的隐私保护方法、存储介质及*** |
CN112288097A (zh) * | 2020-10-29 | 2021-01-29 | 平安科技(深圳)有限公司 | 联邦学习数据处理方法、装置、计算机设备及存储介质 |
CN112862011A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 基于联邦学习的模型训练方法、装置及联邦学习*** |
CN113222179A (zh) * | 2021-03-18 | 2021-08-06 | 北京邮电大学 | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 |
CN113645197A (zh) * | 2021-07-20 | 2021-11-12 | 华中科技大学 | 一种去中心化的联邦学习方法、装置及*** |
CN114339252A (zh) * | 2021-12-31 | 2022-04-12 | 深圳大学 | 一种数据压缩方法及装置 |
-
2022
- 2022-07-29 CN CN202210906790.4A patent/CN115278709B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190087713A1 (en) * | 2017-09-21 | 2019-03-21 | Qualcomm Incorporated | Compression of sparse deep convolutional network weights |
US20200117580A1 (en) * | 2018-04-22 | 2020-04-16 | Sas Institute Inc. | Validation Sets for Machine Learning Algorithms |
US20200142948A1 (en) * | 2018-11-07 | 2020-05-07 | Samsung Electronics Co., Ltd. | System and method for cached convolution calculation |
CN111507481A (zh) * | 2020-04-17 | 2020-08-07 | 腾讯科技(深圳)有限公司 | 一种联邦学习*** |
CN112199702A (zh) * | 2020-10-16 | 2021-01-08 | 鹏城实验室 | 一种基于联邦学习的隐私保护方法、存储介质及*** |
CN112288097A (zh) * | 2020-10-29 | 2021-01-29 | 平安科技(深圳)有限公司 | 联邦学习数据处理方法、装置、计算机设备及存储介质 |
CN113222179A (zh) * | 2021-03-18 | 2021-08-06 | 北京邮电大学 | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 |
CN112862011A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 基于联邦学习的模型训练方法、装置及联邦学习*** |
CN113645197A (zh) * | 2021-07-20 | 2021-11-12 | 华中科技大学 | 一种去中心化的联邦学习方法、装置及*** |
CN114339252A (zh) * | 2021-12-31 | 2022-04-12 | 深圳大学 | 一种数据压缩方法及装置 |
Non-Patent Citations (3)
Title |
---|
LAIZHONG CUI;XIAOXIN SU;YIPENG ZHOU;LEI ZHANG: ""ClusterGrad: Adaptive Gradient Compression by Clustering in Federated Learning"", 《GLOBECOM 2020 - 2020 IEEE GLOBAL COMMUNICATIONS CONFERENCE》, 25 January 2021 (2021-01-25) * |
P. RAVICHANDRAN;C. SARAVANAKUMAR;J. DAFNI ROSE;M. VIJAYAKUMAR;V. MUTHU LAKSHMI: ""Efficient Multilevel Federated Compressed Reinforcement Learning of Smart Homes Using Deep Learning Methods"", 《2021 INTERNATIONAL CONFERENCE ON INNOVATIVE COMPUTING, INTELLIGENT COMMUNICATION AND SMART ELECTRICAL SYSTEMS (ICSES)》, 16 December 2021 (2021-12-16) * |
杨阳: "物联网中数据压缩与资源分配的研究", 《中国博士学位论文全文数据库(电子期刊)》, 15 May 2020 (2020-05-15) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117216596A (zh) * | 2023-08-16 | 2023-12-12 | 中国人民解放军总医院 | 基于梯度聚类的联邦学习优化通信方法、***及存储介质 |
CN117216596B (zh) * | 2023-08-16 | 2024-04-30 | 中国人民解放军总医院 | 基于梯度聚类的联邦学习优化通信方法、***及存储介质 |
CN117692939A (zh) * | 2024-02-02 | 2024-03-12 | 南京邮电大学 | 一种动态通信环境下的客户端调度方法 |
CN117692939B (zh) * | 2024-02-02 | 2024-04-12 | 南京邮电大学 | 一种动态通信环境下的客户端调度方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115278709B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115278709A (zh) | 一种基于联邦学习的通信优化方法 | |
CN111555781B (zh) | 一种基于深度学习注意力机制的大规模mimo信道状态信息压缩及重建方法 | |
CN111898703A (zh) | 多标签视频分类方法、模型训练方法、装置及介质 | |
CN111259917B (zh) | 一种基于局部近邻成分分析的图像特征提取方法 | |
CN115829027A (zh) | 一种基于对比学习的联邦学习稀疏训练方法及*** | |
CN112836822B (zh) | 基于宽度学习的联邦学习策略优化方法和装置 | |
CN114332500A (zh) | 图像处理模型训练方法、装置、计算机设备和存储介质 | |
CN115587633A (zh) | 一种基于参数分层的个性化联邦学习方法 | |
CN113658130A (zh) | 基于双重孪生网络的无参考屏幕内容图像质量评估方法 | |
CN116168197A (zh) | 一种基于Transformer分割网络和正则化训练的图像分割方法 | |
CN115865145A (zh) | 一种基于Transformer的大规模MIMO信道状态信息反馈方法 | |
CN115169575A (zh) | 个性化联邦学习方法、电子设备及计算机可读存储介质 | |
CN114626550A (zh) | 分布式模型协同训练方法和*** | |
CN116797850A (zh) | 基于知识蒸馏和一致性正则化的类增量图像分类方法 | |
CN114677545B (zh) | 一种基于相似性剪枝和高效模块的轻量化图像分类方法 | |
CN115909441A (zh) | 人脸识别模型建立方法、人脸识别方法和电子设备 | |
CN114677535A (zh) | 域适应图像分类网络的训练方法、图像分类方法及装置 | |
CN112116062B (zh) | 一种基于张量串分解的多层感知机非线性压缩方法 | |
Limmer et al. | Optimal deep neural networks for sparse recovery via Laplace techniques | |
CN110111326B (zh) | 基于ert***的重建图像质量评价方法 | |
CN117222005B (zh) | 指纹定位方法、装置、电子设备及存储介质 | |
CN117236201B (zh) | 一种基于Diffusion和ViT的降尺度方法 | |
CN114581946B (zh) | 人群计数方法、装置、存储介质及电子设备 | |
CN112598130B (zh) | 基于自编码器和奇异值阈值的土壤湿度数据重构方法和计算机可读存储介质 | |
CN115019079B (zh) | 用于图像识别的分布式概略优化加速深度学习训练的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |