CN113408741B - 一种自适应网络拓扑的分布式admm机器学习方法 - Google Patents
一种自适应网络拓扑的分布式admm机器学习方法 Download PDFInfo
- Publication number
- CN113408741B CN113408741B CN202110691239.8A CN202110691239A CN113408741B CN 113408741 B CN113408741 B CN 113408741B CN 202110691239 A CN202110691239 A CN 202110691239A CN 113408741 B CN113408741 B CN 113408741B
- Authority
- CN
- China
- Prior art keywords
- node
- nodes
- machine learning
- iteration
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/231—Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明请求保护一种自适应网络拓扑的分布式ADMM机器学习方法,属于机器学习领域,包括以下步骤:将节点分为1个管理节点与多个工作节点,并且将工作节点抽象为上层节点与下层节点;针对连通网络将全局凸优化问题分解成若干个局部凸优化问题并进行求解,并通过协调局部最优解得到全局最优解,其中机器学习方法包含节点探测与迭代计算两部分;在节点探测过程中,工作节点将会运行迭代计算部分的更新,除此之外由上层节点在每次迭代完成时向管理节点反馈单次迭代完成;在选择上层节点位置时通过贪心思想避免遍历所有可能性,并采用动态选择,使网络中链路延迟的影响尽可能小。
Description
技术领域
本发明属于机器学习技术领域,具体属于一种基于自适应网络拓扑的分布式ADMM机器学习方法。
背景技术
近年来,随着信息产业高速发展,互联网规模不断扩大,大数据与机器学习在业务中使用的越来越频繁。在机器学习领域,大量的高维数据来自不同的节点,对计算能力提出了很高的要求,在这种情况下,单个节点很难解决此类问题,但分布式机器学习算法则能较好适应这种情况。
交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)是机器学习中广泛应用的一种约束问题优化方法。它通过分解全局问题为局部问题,大大降低单次问题的成本,并且局部问题可以通过协调得到最终全局问题解。其有较大的扩展与优化的可能性,从最初的对偶上升、对偶分解与增广拉格朗日乘数法,到由Stephen Boyd提出ADMM,再到后期不断有人针对各种特定情况提出变种ADMM,其在凸优化问题中的处理优势被运用于各种领域中。
根据ADMM机器学习过程中迭代通信的方式,可以将其简单分为集中式与分布式两种模式。这里的集中式区别于常见的单机集中式,即***仍旧是分布在若干个节点上,但所有节点都会与一个特定的节点进行通信。网络中存在一个中心节点与若干个普通节点,任意两个普通节点之间不会互相通信,任意一个普通节点将会与中心节点进行数据交换。中心节点在与所有普通节点通信后获取所有普通节点的局部子问题最优解,将所有解进行协调运算,得到一次迭代完成后的结果,然后将结果再次下发给所有节点重新运算。不同于集中式,网络中没有某一个特定的中心节点,网络中可以有多个中间节点,普通节点可以就近选择中间节点,最终再由中心节点进行数据汇总协调。将一个节点的压力分散到多个节点,更为符合互联网发展方向。该模式可以通过选择合适的中间节点避开质量较差的链路,从而加快迭代速度。且由于有多个中间节点,不会因为某一个中心节点的瘫痪导致整个***的崩溃。
在分布式计算的情况下,节点之间需要不断通信来进行数据交互,并借此加快数据收敛速度。但由于节点之间通信需要借助网络,整体运行会受到网络情况的影响。若运算中存在不合适的节点交互,受到网络时延的影响,将会大幅度拖慢整体计算过程,且若所选对象不合适,可能会造成相应通信团体的数据被污染,从而导致数据收敛速度的减慢与收敛精度误差的增加。因此如何为每个独立的节点选择合适的通信对象团体成为一个不可避免地问题。本发明针对网络链路中的延迟对分布式***的影响,提出了一种基于自适应网络拓扑的分布式ADMM机器学习方法。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种提高***健壮性的情况下通过自适应网络情况,使得节点分布更为合理,减少网络链路延迟影响自适应网络拓扑的分布式ADMM机器学习方法。本发明的技术方案如下:
一种自适应网络拓扑的分布式ADMM机器学习方法,其包括以下步骤:
将节点分为1个管理节点与多个工作节点,并且将工作节点抽象为上层节点与下层节点;针对连通网络将全局凸优化问题分解成若干个局部凸优化问题并进行求解,并通过协调局部最优解得到全局最优解,其中机器学习方法包含节点探测与迭代计算两部分;节点探测部分包括上下层节点归属更新以及上下层节点通信以及管理节点与上层节点通信,迭代计算部分上下层相关节点数据通信与单次迭代计算。在节点探测过程中,工作节点将会运行迭代计算部分的更新,除此之外由上层节点在每次迭代完成时向管理节点反馈单次迭代完成;在选择上层节点位置时通过贪心思想避免遍历所有可能性,并采用动态选择,使网络中链路延迟的影响尽可能小。
进一步的,所述节点探测部分具体包括以下步骤:
1)管理节点下发探测启动clustering start指令至上层节点,并记录当前时间ts;
2)上层节点i接收clustering start指令后下发数据至对应下层节点列表Li中的节点;
3)下层节点j接收数据并保存,直到接收到所有对应上层节点列表Uj中的节点数据,进行计算操作,完成后将数据返回给所有对应上层节点Uj;
4)上层节点i接收数据并保存,直到接收到所有对应下层节点列表Li中的节点数据,进行计算操作,完成后将数据返回给所有对应下层节点L;
5)上层节点向管理节点发送一次迭代完成iter over指令;
6)管理节点等待接收所有上层节点iter over指令并记录,当仅剩一个上层节点对应信息未收到时,将对应上层节点取消,获取当前时间tc,通过tc-ts获得单次完整***迭代所需时间tl,将其保存在迭代时间集合T中,若ti为迭代时间集合T中最小值,即ti=minT,则保存当前***上层节点集合U,否则不更新U;
7)管理节点下发节点归属更新update指令至所有上层与下层节点,节点收指令后进行对应节点归属更新操作;
8)重复流程3至流程7,直到网络中只剩下一个上层节点,此时管理节点保存的上层节点集合U为最终上层节点集合;
9)管理节点下发探测完成指令至所有上层节点与下层节点,节点收到指令后进行节点归属更新操作;
进一步的,上层节点和下层节点之间包含一种相关节点归属关系,即下层节点和有邻居关系的上层节点以及距离最近的上层节点相关;上层节点和有邻居关系的下层节点相关;若下层节点到该上层节点为到所有上层节点中距离最近,则上层节点与该下层节点也相关;每个下层节点可能与多个上层节点相关,每个上层节点也可能与多个下层节点相关。
进一步的,每个下层节点保存本地变量x与每个相关上层节点i对应的ui,每个上层节点保存本地变量z,所有变量x,u,z均为n阶向量,最初始状态均为n阶零向量。
进一步的,所述迭代计算部分包括以下步骤:
在第k次迭代计算中上层节点将下发zk至相关下层节点,下层节点通过公式
xk+1=(ATA+ρI)-1(ATb+ρ(zk-uk)),
uk+1=uk+xk+1-zk+1.
更新本地x,u,得到第k次迭代计算后的结果xk+1、zk+1与uk+1,其中A为n维实数闭凸集,I为n阶单位方阵,ρ>0为惩罚参数,并将更新后的x,u返回给相关上层节点,上层节点通过公式
进一步的,管理节点将会保存一个当前已完成迭代节点列表,设当前网络中上层节点数量为N,若已完成迭代节点列表长度为N-1,则向整体网络通知去除唯一不在已完成迭代节点列表中的上层节点,将已完成迭代节点列表清空,并保存一份当前***内上层节点列表SN-1与两次列表清空之间时间间隔tN-1;重复直到网络中只剩下一个上层节点。
进一步的,对于i∈{1,...,N-1},选取其中最小的ti,并将其对应的上层节点列表Si中上层节点作为最终***内上层节点,通知所有工作节点进行正式的迭代计算部分;工作节点接收到通知后,初始化本地对应x,u,z变量,并进行相关节点归属更新,然后开始与相关节点开始迭代计算通信;当迭代次数达到***预设的最大迭代次数时停止迭代计算。
本发明的优点及有益效果如下:
本发明通过分布式方法将计算压力从单个节点分散到整体***内节点上,整体计算速度不再受限于单个节点的硬件处理能力,将高维数据拆分,维度降低后单个节点的迭代计算压力降低,速度加快。且保证了***中上层节点数量至少为2个,即不会出现集中式星形模式,保证了***的可靠性。最终上层节点的数量与位置由算法决定。通过采取类似层次聚类的方式,从最初的所有节点设置为上层节点,不断去除最慢上层节点,减少集群数量,直到最终比较得到单次***迭代收敛最快对应的上层节点集合。采取贪心思想,避免了枚举所有可能性。确定上层节点集合时将各设备计算能力也考虑在内,而不是仅考虑网络时延却忽略节点之间差异。且由于节点探测部分设备计算时间与网络时延都被计算在单次迭代时间之中,故不需要提前了解各节点的运算能力。一定程度上降低网络延迟、拓扑变化等网络属性对分布式计算造成的影响。
附图说明
图1是一种简单拓扑实施例节点对应关系;
图2是本发明提供优选实施例小世界仿真网络拓扑图;
图3是节点探测部分流程图;
图4是正式迭代计算过程图解。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
一种基于自适应网络拓扑的分布式ADMM机器学习方法,针对连通网络将全局凸优化问题分解成若干个局部凸优化问题并进行求解,并通过协调局部最优解得到全局最优解。
进一步的,将整个机器学习方法分解为节点探测与迭代计算两部分。
进一步的,将***中节点分为一个管理节点与其余工作节点,将工作节点抽象为上层节点与下层节点两个属性,其中工作节点必定为下层节点,但不一定为上层节点,这将由算法决定。
进一步的,提出一种相关节点归属方法,由于节点分为上层节点与下层节点,故归属更新也分为上下两部分。
下层节点self归属更新部分流程为:
1)遍历所有邻居节点,若邻居节点为上层节点,则将其添加至自己对应的上层节点列表Uself中;
2)遍历所有上层节点,获取该下层节点到所有上层节点u的时延Tu,选取其中时延最短Tx对应的上层节点x,将其加入下层节点i对应的上层节点列表Uself中。
由于上下层节点关系是对应的,即所有下层节点确定对应的相关上层节点后,上层节点对应的相关下层节点也已经确定,故可以从下层节点归属更新的流程逆推出上层节点u对应的相关下层节点列表Lu,其流程为:
1)遍历所有邻居节点,将邻居节点添加至对应的下层节点列表Lu中;
2)遍历所有下层节点,该下层节点到所有上层节点的时延{T1,...,Tn}中,若至当前上层节点的时延Ti=min{T1,...,Tn},则添加该节点至对应的下层节点列表Lu。
进一步的,每个下层节点可能与多个上层节点相关,每个上层节点可能与多个下层节点相关。
进一步的,每个下层节点保存本地变量x与每个相关上层节点i对应的ui,每个上层节点保存本地变量z。
进一步的,在第k迭代计算中上层节点将下发zk至相关下层节点,下层节点通过公式
xk+1:=(ATA+ρI)-1(ATb+ρ(zk-uk)),
uk+1:=uk+xk+1-zk+1.
更新本地x,u,其中A为n维实数闭凸集,I为n阶单位方阵,并将更新后的x,u返回给相关上层节点,上层节点通过公式
更新本地z。
进一步的,在节点探测过程中,工作节点将会运行迭代计算部分的更新,并在此之外由上层节点在每次迭代完成时向管理节点反馈单次迭代完成。
进一步的,管理节点将会保存一个当前已完成迭代节点列表,设当前网络中上层节点数量为N,若已完成迭代节点列表长度为N-1,则向整体网络通知去除唯一不在已完成迭代节点列表中的上层节点,将已完成迭代节点列表清空,并保存一份当前***内上层节点列表SN-1与两次列表清空之间时间间隔tN-1,重复直到网络中只剩下一个上层节点。
进一步的,工作节点接收到管理节点通知的上层节点更新指令后,将会进行新的相关节点归属更新,重复直到网络中只剩下一个上层节点。
进一步的,对于i∈{1,...,N-1},选取其中最小的ti,并将其对应的上层节点列表Si中上层节点作为最终***内上层节点,通知所有工作节点进行正式的迭代计算部分。
进一步的,工作节点接收到通知后,初始化本地对应x,u,z变量,并进行相关节点归属更新,然后开始与相关节点开始迭代计算通信。当迭代次数达到***预设的最大迭代次数时停止迭代计算。
本发明通过将工作节点抽象为上层节点与下层节点,利用分布式ADMM算法求解凸优化问题的解,同时考虑到网络中链路延迟对不同节点间迭代计算时通信速度的影响,在选择上层节点位置时通过贪心思想避免遍历所有可能性,并通过动态选择,使网络中链路延迟的影响尽可能小。如图1所示,一个由5个工作节点与1个管理节点组成的简单拓扑网络,其中序号相同的上下层节点代表同一物理设备实体,由于每个工作节点的相关节点不局限于一个,故可以有多对多关系,如图1中上层节点1、3、5,以及下层节点2,3,4.。
对于小世界仿真网络,选择1个管理节点与16个工作节点,任意一个工作节点有4个邻居工作节点,每条链路有90%的可能性被重置至其他两个节点间,大致拓扑如图2所示,其中不包含管理节点。
最初,将所有工作节点都设为上层节点与下层节点。最初进入节点探测部分:
1)管理节点下发探测启动(clustering start)指令至上层节点,并记录当前时间ts;
2)上层节点i接收clustering start指令后下发数据至对应下层节点列表Li中的节点;
3)下层节点j接收数据并保存,直到接收到所有对应上层节点列表Uj中的节点数据,进行计算操作,完成后将数据返回给所有对应上层节点Uj;
4)上层节点i接收数据并保存,直到接收到所有对应下层节点列表Li中的节点数据,进行计算操作,完成后将数据返回给所有对应下层节点L;
5)上层节点向管理节点发送一次迭代完成(iter over)指令;
6)管理节点等待接收所有上层节点iter over指令并记录,当仅剩一个上层节点对应信息未收到时,将对应上层节点取消,获取当前时间tc,通过tc-ts获得单次完整***迭代所需时间tl,将其保存在迭代时间集合T中,若ti为迭代时间集合T中最小值,即ti=minT,则保存当前***上层节点集合U,否则不更新U;
7)管理节点下发节点归属更新(update)指令至所有上层与下层节点,节点收指令后进行对应节点归属更新操作;
8)重复流程3至流程7,直到网络中只剩下一个上层节点,此时管理节点保存的上层节点集合U为最终上层节点集合;
9)管理节点下发探测完成指令至所有上层节点与下层节点,节点收到指令后进行节点归属更新操作;
图3展示了上述步骤中单次聚类探测不同节点的通信过程,但探测过程会一直持续到网络中只剩下一个上层节点,并最终确定***内上层节点。
至此所有节点的归属已完成,网络中最终的上层节点确定,保存在U中,即节点聚类中心的数量与位置确定。上层节点确定后,下层节点的归属关系也可以较为容易通过归属更新部分得到。需要注意的是,这里选定的上层节点只是每一次探测迭代中选取的当前最优解,这是由贪心思想所决定的,相比遍历所有可能性并在正式计算前的聚类探测部分花去绝大部分时间,选择局部最优解更符合实际需求。
在确定上层节点后,为了解决
x,u,z的更新如下所示
xk+1=(ATA+ρI)-1(ATb+ρ(zk-uk)),# (2)
uk+1=uk+xk+1-zk+1.# (4)
如图4所示,上层节点将会保存各自的zi,而各下层节点则保存自己的xi以及和相关上层节点数量相同的ui,即每个相关的上层节点在下层节点处都会有一个对应的ui,最初上层节点下发自己的zi给所有与自己相关的下层节点,下层节点收到后将其通过公式2与公式4的关系进行更新自己所拥有的ui与xi,并将两者返回给与自己相关的上层节点,上层节点收到所有下层节点的相关ui与xi后,通过公式3进行更新自己所拥有的zi,至此一次迭代完成。
每次迭代完成后,上层节点都会根据当前的x,u,z求取问题1中的结果Li,并保存在本地,最终完成指定次数迭代后,对所有上层节点的每次迭代结果Li取平均,得到最终根据来判定结果收敛时间以及收敛时需要的迭代次数i。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (7)
1.一种自适应网络拓扑的分布式ADMM机器学习方法,其特征在于,包括以下步骤:
将节点分为1个管理节点与多个工作节点,并且将工作节点抽象为上层节点与下层节点;针对连通网络将全局凸优化问题分解成若干个局部凸优化问题并进行求解,并通过协调局部最优解得到全局最优解,其中机器学习方法包含节点探测与迭代计算两部分;节点探测部分包括上下层节点归属更新以及上下层节点通信以及管理节点与上层节点通信,迭代计算部分上下层相关节点数据通信与单次迭代计算,在节点探测过程中,工作节点将会运行迭代计算部分的更新,除此之外由上层节点在每次迭代完成时向管理节点反馈单次迭代完成;在选择上层节点位置时通过贪心思想避免遍历所有可能性,并采用动态选择,使网络中链路延迟的影响尽可能小;
所述节点探测部分具体包括以下步骤:
1)管理节点下发探测启动clustering start指令至上层节点,并记录当前时间ts;
2)上层节点i接收clustering start指令后下发数据至对应下层节点列表Li中的节点;
3)下层节点j接收数据并保存,直到接收到所有对应上层节点列表Uj中的节点数据,进行计算操作,完成后将数据返回给所有对应上层节点Uj;
4)上层节点i接收数据并保存,直到接收到所有对应下层节点列表Li中的节点数据,进行计算操作,完成后将数据返回给所有对应下层节点L;
5)上层节点向管理节点发送一次迭代完成iter over指令;
6)管理节点等待接收所有上层节点iter over指令并记录,当仅剩一个上层节点对应信息未收到时,将对应上层节点取消,获取当前时间tc,通过tc-ts获得单次完整***迭代所需时间tl,将其保存在迭代时间集合T中,若ti为迭代时间集合T中最小值,即ti=minT,则保存当前***上层节点集合U,否则不更新U;
7)管理节点下发节点归属更新update指令至所有上层与下层节点,节点收指令后进行对应节点归属更新操作;
8)重复流程3至流程7,直到网络中只剩下一个上层节点,此时管理节点保存的上层节点集合U为最终上层节点集合;
9)管理节点下发探测完成指令至所有上层节点与下层节点,节点收到指令后进行节点归属更新操作。
3.根据权利要求1所述的一种自适应网络拓扑的分布式ADMM机器学习方法,其特征在于,上层节点和下层节点之间包含一种相关节点归属关系,即下层节点和有邻居关系的上层节点以及距离最近的上层节点相关;上层节点和有邻居关系的下层节点相关;若下层节点到该上层节点为到所有上层节点中距离最近,则上层节点与该下层节点也相关;每个下层节点可能与多个上层节点相关,每个上层节点也可能与多个下层节点相关。
4.根据权利要求1所述的一种自适应网络拓扑的分布式ADMM机器学习方法,其特征在于,每个下层节点保存本地变量x与每个相关上层节点i对应的变量ui,每个上层节点保存本地变量z,所有变量x,u,z均为n阶向量,最初始状态均为n阶零向量,且与权利要求2中变量x同阶。
6.根据权利要求5所述的一种自适应网络拓扑的分布式ADMM机器学习方法,其特征在于,管理节点将会保存一个当前已完成迭代节点列表,设当前网络中上层节点数量为N,若已完成迭代节点列表长度为N-1,则向整体网络通知去除唯一不在已完成迭代节点列表中的上层节点,将已完成迭代节点列表清空,并保存一份当前***内上层节点列表SN-1与两次列表清空之间时间间隔tN-1;重复直到网络中只剩下一个上层节点。
7.根据权利要求6所述的一种自适应网络拓扑的分布式ADMM机器学习方法,其特征在于,对于i∈{1,…,N-1},选取其中最小的ti,并将其对应的上层节点列表Si中上层节点作为最终***内上层节点,通知所有工作节点进行正式的迭代计算部分;工作节点接收到通知后,初始化本地对应x,u,z变量,并进行相关节点归属更新,然后开始与相关节点开始迭代计算通信;当迭代次数达到***预设的最大迭代次数时停止迭代计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110691239.8A CN113408741B (zh) | 2021-06-22 | 2021-06-22 | 一种自适应网络拓扑的分布式admm机器学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110691239.8A CN113408741B (zh) | 2021-06-22 | 2021-06-22 | 一种自适应网络拓扑的分布式admm机器学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113408741A CN113408741A (zh) | 2021-09-17 |
CN113408741B true CN113408741B (zh) | 2022-12-27 |
Family
ID=77682381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110691239.8A Active CN113408741B (zh) | 2021-06-22 | 2021-06-22 | 一种自适应网络拓扑的分布式admm机器学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408741B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581221B (zh) * | 2022-05-05 | 2022-07-29 | 支付宝(杭州)信息技术有限公司 | 分布式计算***以及计算机设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458293A (zh) * | 2019-05-16 | 2019-11-15 | 重庆邮电大学 | 一种优化网络延迟的分布式admm机器学习方法 |
CN111935205A (zh) * | 2020-06-19 | 2020-11-13 | 东南大学 | 雾计算网络中基于交替方向乘子法的分布式资源分配方法 |
CN112636338A (zh) * | 2020-12-11 | 2021-04-09 | 国网江苏省电力有限公司南通供电分公司 | 一种基于边缘计算的负荷分区调控***及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10304008B2 (en) * | 2015-03-20 | 2019-05-28 | Nec Corporation | Fast distributed nonnegative matrix factorization and completion for big data analytics |
US20200327435A1 (en) * | 2019-04-12 | 2020-10-15 | General Electric Company | Systems and methods for sequential power system model parameter estimation |
CN111988185A (zh) * | 2020-08-31 | 2020-11-24 | 重庆邮电大学 | 一种基于Barzilai-Borwein步长的多步通信分布式优化方法 |
-
2021
- 2021-06-22 CN CN202110691239.8A patent/CN113408741B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458293A (zh) * | 2019-05-16 | 2019-11-15 | 重庆邮电大学 | 一种优化网络延迟的分布式admm机器学习方法 |
CN111935205A (zh) * | 2020-06-19 | 2020-11-13 | 东南大学 | 雾计算网络中基于交替方向乘子法的分布式资源分配方法 |
CN112636338A (zh) * | 2020-12-11 | 2021-04-09 | 国网江苏省电力有限公司南通供电分公司 | 一种基于边缘计算的负荷分区调控***及方法 |
Non-Patent Citations (1)
Title |
---|
"Distributed Alternating Direction Multiplier Method Based on Optimized Topology and Nodes Selection Strategy";Shuai Zeng等;《2020 3rd International Seminar on Research of Information Technology and Intelligent Systems (ISRITI)》;20210113;第2-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113408741A (zh) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mulier et al. | Self-organization as an iterative kernel smoothing process | |
Kroese et al. | Network reliability optimization via the cross-entropy method | |
CN112686428B (zh) | 基于地铁线网站点相似性的地铁客流预测方法及装置 | |
CN113408741B (zh) | 一种自适应网络拓扑的分布式admm机器学习方法 | |
CN110428015A (zh) | 一种模型的训练方法及相关设备 | |
Feng et al. | An online virtual metrology model with sample selection for the tracking of dynamic manufacturing processes with slow drift | |
CN116681104B (zh) | 分布式空间图神经网络的模型建立及实现方法 | |
Balog et al. | The mondrian kernel | |
Burtini et al. | Improving online marketing experiments with drifting multi-armed bandits | |
CN116402002A (zh) | 一种用于芯片布局问题的多目标分层强化学习方法 | |
Guo et al. | Research of new strategies for improving CBR system | |
Ghesmoune et al. | G-stream: Growing neural gas over data stream | |
CN113205388A (zh) | 一种基于矩阵分解的协同过滤推荐优化算法和装置 | |
Zheng et al. | Workload-aware shortest path distance querying in road networks | |
CN116974249A (zh) | 柔性作业车间调度方法和柔性作业车间调度装置 | |
WO2003075187A1 (en) | Apparatus and method for constructing data mining model using ensemble machines | |
Chang et al. | A survey of some simulation-based algorithms for Markov decision processes | |
CN111626425B (zh) | 面向二维近邻量子计算架构的量子寄存器分配方法和*** | |
CN107818347A (zh) | Gga数据质量的评定预测方法 | |
Flentge | Locally weighted interpolating growing neural gas | |
Bonet et al. | Factored probabilistic belief tracking | |
Li | Clustering with uncertainties: An affinity propagation-based approach | |
Mohammed et al. | Soft set decision/forecasting system based on hybrid parameter reduction algorithm | |
Abolfazli et al. | An Accelerated Asynchronous Distributed Method for Convex Constrained Optimization Problems | |
Galindo et al. | Faster quantum alternative to softmax selection in deep learning and deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |