CN117540822A - 跨移动边缘网络的联邦类增量学习方法、设备和存储介质 - Google Patents
跨移动边缘网络的联邦类增量学习方法、设备和存储介质 Download PDFInfo
- Publication number
- CN117540822A CN117540822A CN202311450969.4A CN202311450969A CN117540822A CN 117540822 A CN117540822 A CN 117540822A CN 202311450969 A CN202311450969 A CN 202311450969A CN 117540822 A CN117540822 A CN 117540822A
- Authority
- CN
- China
- Prior art keywords
- old
- samples
- training set
- dynamic
- dynamic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 126
- 230000002776 aggregation Effects 0.000 claims abstract description 70
- 238000004220 aggregation Methods 0.000 claims abstract description 70
- 230000003068 static effect Effects 0.000 claims abstract description 41
- 230000008859 change Effects 0.000 claims abstract description 36
- 238000005070 sampling Methods 0.000 claims abstract description 36
- 230000006870 function Effects 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 14
- 238000013140 knowledge distillation Methods 0.000 claims description 11
- 238000012952 Resampling Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 5
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000004931 aggregating effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 7
- 239000000243 solution Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010790 dilution Methods 0.000 description 2
- 239000012895 dilution Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010027175 memory impairment Diseases 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Bioethics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请的实施例涉及联邦学***均熵较上上次全局聚合后的变化值;若所述变化值大于第一预设阈值,则对动态设备的训练集中的旧类别的样本进行采样,并结合收集到的新类别的样本更新动态设备的训练集;基于静态设备的训练集和第一损失函数,训练得到静态设备的本地模型,并基于更新后的动态设备的训练集和第二损失函数,训练得到动态设备的本地模型;对各设备的本地模型进行全局聚合得到全局模型,这样训练得到的全局模型,能够减轻全局聚合对模型在旧类别分类性能的影响,不遗忘旧边缘网络的知识。
Description
技术领域
本申请实施例涉及联邦学习技术领域,特别涉及一种跨移动边缘网络的联邦类增量学习方法、设备和存储介质。
背景技术
在物联网等密集终端场景下,训练数据通常以分布式的形式存储于各个终端设备,多个设备之间由于监管约束、用户隐私等问题无法共享彼此的数据,导致在物联网设备上难以训练出令人满意的模型。在此背景下,联邦学习应运而生,用以解决用户隐私、数据孤岛等问题。联邦学习是一种隐私保护的分布式学习框架,每个设备使用其本地数据训练一个本地模型,中央服务器聚合参与训练的本地设备的模型参数以获得一个全局模型。
典型的联邦学***均的方式来聚合模型参数,以训练一个全局模型。FedProx算法引入了一个近端项来帮助本地模型逼近全局模型,限制本地模型对全局模型的偏离,以防止本地模型参数过拟合。FedCurv算法采用修改版本的EWC(Elastic WeightConsolidation,弹性权重巩固)来最小化联邦学习训练期间各客户端之间的模型差异,使所有的本地模型收敛到一个共享的最优值。
然而,业内的联邦学习方法大多针对单边缘***,即通过同一边缘网络/云服务器对环境中所有终端设备进行联合建模。但在实际场景中通常存在一些动态设备,此类设备往往会跨多个不同的边缘网络以完成相应任务。不同边缘网络中的感知目标由于任务需求不同往往存在差异(例如农村和城市的道路标志、路面条件、交通状况都有所不同),因此动态设备进入新边缘环境时通常面临着未知的新类别样本。为了保证***的整体性能,模型不仅需要适应新类别数据,而且需要保持识别旧类别的能力,即跨边缘联邦类增量。但是直接利用新环境的新类别数据训练模型,会使其遗忘旧类别知识,造成动态设备识别能力的下降。
发明内容
本申请实施例的目的在于提供一种跨移动边缘网络的联邦类增量学***衡新旧类别的样本量,减轻全局聚合对模型在旧类别分类性能的影响,使得动态设备可以跨多个边缘网络学习到新的类别,且不遗忘旧边缘网络的知识。
为解决上述技术问题,本申请的实施例提供了一种跨移动边缘网络的联邦类增量学***均熵较上上次全局聚合后的变化值;若所述变化值大于第一预设阈值,则对所述动态设备的训练集中的旧类别的样本进行采样,基于采样得到的旧类别的样本和收集到的新类别的样本,更新所述动态设备的训练集;基于静态设备的训练集和第一损失函数,对所述静态设备进行本地训练,得到所述静态设备的本地模型,并基于更新后的所述动态设备的训练集和第二损失函数,对所述动态设备进行本地训练,得到所述动态设备的本地模型;其中,所述第一损失函数具体为交叉熵损失函数,所述第二损失函数包括加权交叉熵损失项和类语义关系知识蒸馏损失项;对所述动态设备的本地模型和所述静态设备的本地模型进行全局聚合,得到全局模型。
本申请的实施例还提供了一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的跨移动边缘网络的联邦类增量学习方法。
本申请的实施例还提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的跨移动边缘网络的联邦类增量学习方法。
本申请的实施例提供的跨移动边缘网络的联邦类增量学***均熵的变化,来检测动态设备是否进入了新的边缘环境,在感知到动态设备进入新的边缘环境后,对动态设备的训练集进行更新,选择具有代表性的旧类别的样本进行保留,再结合新类别的样本得到更新后的训练集。在进行新一次联邦学***衡新旧类别的样本量,减轻全局聚合对模型对旧类别分类性能的影响,使得动态设备可以跨多个边缘网络学习到新的类别,且不遗忘旧边缘网络的知识。
在一些可选的实施例中,所述对所述动态设备的本地模型和所述静态设备的本地模型进行全局聚合,得到全局模型,包括:获取所有参与训练的设备的训练集中样本的总数量,将所述总数量作为所述动态设备的样本量信息,并由所述动态设备上传;根据各所述设备上传的样本量信息,为各所述设备分配聚合权重;根据各所述设备被分配的聚合权重和对应的本地模型进行全局聚合,得到全局模型。对于联邦学习而言,动态设备的本地模型的参数在全局聚合过程中可能会被稀释,这种稀释效应可能会导致动态设备在联邦学习过程中较难保持对旧类别的记忆和分类性能。因此本申请用所有参与训练的设备的训练集中样本的总数量作为动态设备的样本量信息上传,从而“欺骗”边缘服务器为动态设备分配更大的聚合权重,确保动态设备对全局聚合发挥更大的影响。
在一些可选的实施例中,所述动态设备的训练集中的旧类别为若干个,所述对所述动态设备的训练集中的旧类别的样本进行采样,包括:遍历各所述旧类别,计算当前旧类别中的各样本的特征向量与所述当前旧类别的类别中心向量之间的距离并进行排序;保留所述距离最小的若干个所述当前旧类别中的样本,作为从所述当前旧类别中采样得到的样本。特征向量距离类别中心向量近的样本更能代表这个类别的特征分布,更具有代表性,保留这样的样本可以更好地减轻后续训练时动态设备对于旧类别的灾难性遗忘。
在一些可选的实施例中,所述方法还包括:限定所述旧类别的样本的数量存储上限;计算本次采样得到的旧类别的样本与历史采样得到的旧类别的样本的第一数量总和;若所述第一数量总和超过所述数量存储上限,则对所述历史采样得到的旧类别的样本进行再次采样,并计算所述本次采样得到的旧类别的样本,与对所述历史采样得到的旧类别的样本进行再次采样得到的旧类别的样本的第二数量总和,直至所述第二数量综合不超过所述数量存储上限。设置旧类别的样本的数量存储上限可以更好地保证新旧类别样本的平衡。
在一些可选的实施例中,所述动态设备为若干个,所述计算动态设备的训练集的平均熵较上上次全局聚合后的变化值,包括:分别计算各所述动态设备的训练集的平均熵较上上次全局聚合后的变化值;所述若所述变化值大于第一预设阈值,则对所述动态设备的训练集中的旧类别的样本进行采样,包括:依次判断各所述变化值是否大于第一预设阈值,将所述变化值大于所述第一预设阈值的动态设备确定为目标动态设备;分别对各所述目标动态设备的训练集中的旧类别的样本进行采样。
在一些可选的实施例中,在上次全局聚合后,通过以下公式,计算动态设备的训练集的平均熵较上上次全局聚合后的变化值:
ΔH=H-Hlast
Γ(·)=pilogpi
其中,N为上次全局聚合后所述动态设备的训练集的平均熵,Hlast为上上次全局聚合后所述动态设备的训练集的平均熵,N为所述上次全局聚合后所述动态设备的训练集中的样本数量,θG表示所述上次全局聚合后得到的全局模型,xi表示所述上次全局聚合后所述动态设备的训练集中的第i个样本,ΔH为所述变化值。
在一些可选的实施例中,所述第一损失函数表示为:
L1=LCE
其中,{XjB,YjB}表示一个mini batch的数据,B为所述mini batch的容量,表示所述静态设备的训练集,DCE(·)为交叉熵函数,G为所述静态设备所处的边缘环境中类别的数量,xjb表示所述mini batch中第b个样本,ycb表示所述mini batch中第b个样本对应的标签,/>表示所述静态设备第k次本地训练得到所述静态设备的本地模型,/>表示/>输出的第b个样本的类别概率。
在一些可选的实施例中,所述第二损失函数表示为:
L2=λ1LWC+λ2LKD
其中,λ1和λ2为预设的超参数,LWC为所述加权交叉熵损失项,LKD为所述类语义关系知识蒸馏损失项;
所述LWC表示为:
其中,{XcB,YcB}表示一个mini batch的数据,B为所述mini batch的容量,表示收集到的新类别的样本的集合,M表示采样得到的旧类别的样本的集合,/>表示更新后的所述动态设备的训练集,DwC(·)为加权交叉熵函数,R为所述动态设备当前见过的所有类别的数量,wr表示类别r对应的权重,wr基于新旧类别的样本数量的比值确定,xcb表示所述mini batch中第b个样本,ycb表示所述mini batch中第b个样本对应的标签,/>表示所述动态设备第k次本地训练得到的所述动态设备的本地模型,/>表示/>输出的第b个样本的类别概率;
所述LKD表示为:
其中,DKL(·)表示KL散度,表示所述动态设备第k次本地训练得到的所述动态设备的本地模型的输出,/>表示变体独热编码,/>基于YcB经过变体得到,YCB表示所述动态设备当前需要识别的所有类别的标签的独热编码,所述变体具体为使用/>替换YCB的前f维,f为所述旧类别的数量,表示所述动态设备第k-1次本地训练得到的所述动态设备的本地模型的输出。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定。
图1是本申请的一个实施例提供的跨移动边缘网络的联邦类增量学习方法的流程图;
图2是本申请的一个实施例中,YCB变体替换为过程的示意图;
图3是本申请的一个实施例中,对动态设备的本地模型和静态设备的本地模型进行全局聚合,得到全局模型的流程图;
图4是本申请的一个实施例提供的跨移动边缘网络的联邦类增量学习过程的示意图;
图5是本申请的一个实施例中,对动态设备的训练集中的旧类别的样本进行采样的流程图;
图6是本申请的一个实施例中,限制采样得到的旧类别的样本的数量的流程图;
图7是本申请的另一个实施例提供的电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请的各实施例进行详细的阐述。然而,本领域的普通技术人员可以理解,在本申请各实施例中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施例的种种变化和修改,也可以实现本申请所要求保护的技术方案。以下各个实施例的划分是为了描述方便,不应对本申请的具体实现方式构成任何限定,各个实施例在不矛盾的前提下可以相互结合相互引用。
本申请的一个实施例提出了一种跨移动边缘网络的联邦类增量学习方法,应用于电子设备,其中,电子设备可以为终端或服务器,本实施例以及以下各个实施例中电子设备以服务器为例进行说明。下面对本实施例的跨移动边缘网络的联邦类增量学习方法的实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
值得注意的是,为了方便阐述本申请的技术方案,将步骤101至步骤104称为本次联邦学习,步骤104提到的全局聚合称为本次全局聚合。
本实施例的跨移动边缘网络的联邦类增量学习方法的具体流程可以如图1所示,包括:
步骤101,在上次全局聚合后,计算动态设备的训练集的平均熵较上上次全局聚合后的变化值。
步骤102,若所述变化值大于第一预设阈值,则对动态设备的训练集中的旧类别的样本进行采样,基于采样得到的旧类别的样本和收集到的新类别的样本,更新动态设备的训练集。
具体而言,每次全局聚合后,服务器都要计算一次动态设备的训练集的平均熵,并与上一次计算的平均熵做差计算出变化值。
在具体实现中,服务器基于这种平均熵的新类别检测机制来感知边缘环境的变化。在上次全局聚合后,服务器需要计算动态设备的训练集的平均熵较上上次全局聚合后计算出的平均熵之间的变化值,并判断该变化值是否大于第一预设阈值。若所述变化值大于第一预设阈值,则说明动态设备移动到了新的边缘环境中,需要进行训练集的更新。若所述变化值小于或等于第一预设阈值,则说明动态设备仍在旧的边缘环境中,那么本次联邦学习按照常规方法进行即可。第一预设阈值可以由本领域的技术人员根据实际需要进行设置。
熵值是一种常见的度量指标,用于评估数据集的复杂度和不确定性。熵值越高,表示数据集中的样本分布越复杂。因此,我们使用动态设备的训练集的平均熵的变化作为新类别数据是否到来的信号,能够科学准确地触发跨移动边缘网络的联邦类增量学习。
在一些例子中,服务器在上次全局聚合后,可以通过以下公式计算动态设备的训练集的平均熵较上上次全局聚合后的变化值:
ΔH=H-Hlast
Γ(·)=pilogpi
式中,N为上次全局聚合后动态设备的训练集的平均熵,Hlast为上上次全局聚合后动态设备的训练集的平均熵,N为上次全局聚合后动态设备的训练集中的样本数量,θG表示上次全局聚合后得到的全局模型,xi表示上次全局聚合后动态设备的训练集中的第i个样本,ΔH为计算出的变化值。
当ΔH>Hth时可以认为动态设备正在接收新类别数据,即可触发动态动态设备的训练集的更新。Hth即第一预设阈值,一般可以设定为1.2。
在具体实现中,若计算出的变化值大于第一预设阈值,服务器则可以对动态设备的训练集中的旧类别的样本进行采样,即保留部分旧类别的样本,每个旧类别都要保留有样本,服务器基于采样得到的旧类别的样本(即抱愧的旧类别的样本)和收集到的新类别的样本,更新动态设备的训练集。
在一些例子中,动态设备为若干个,服务器在计算动态设备的训练集的平均熵较上上次全局聚合后的变化值时,需要分别计算各动态设备的训练集的平均熵较上上次全局聚合后的变化值,并依次判断各变化值是否大于第一预设阈值,将变化值大于所述第一预设阈值的动态设备确定为目标动态设备,目标动态设备是移动到新的边缘环境的设备,没有被确定为目标动态设备的动态设备可以视作静态设备。在更新训练集时,分别对各目标动态设备的训练集中的旧类别的样本进行采样,根据各目标动态设备各自对应的采样得到的旧类别的样本和收集到的新类别的样本,更新训练集。
值得注意的是,动态设备和静态设备是设备的固有属性,在设备参与到联邦学习时即确定该设备是动态设备和静态设备,静态设备指只运行在一个边缘环境的设备,动态设备则可以在多个不同的边缘环境中移动。
步骤103,基于静态设备的训练集和第一损失函数,对静态设备进行本地训练,得到静态设备的本地模型,并基于更新后的动态设备的训练集和第二损失函数,对动态设备进行本地训练,得到动态设备的本地模型。
动态设备进入新边缘环境时,存储的旧类别的样本数量远远小于新类别的样本数量,这就导致模型在预测时更偏向于新类别,这种现象被称为灾难性遗忘。
在具体实现中,更新完动态设备的训练集后,即可进入本次联邦学习的本地训练阶段,对于静态设备而言,基于静态设备的训练集和第一损失函数进行本地训练,得到静态设备的本地模型,第一损失函数具体为交叉熵损失函数。而对于动态设备而言,则需要基于更新后的动态设备的训练集和第二损失函数进行本地训练,得到动态设备的本地模型,第二损失函数包括加权交叉熵损失项和类语义关系知识蒸馏损失项共两项。加权交叉熵损失通过调整权重来让模型更关注数量较少的旧类别的样本,类语义关系知识蒸馏损失则将动态设备的旧本地模型作为教师模型进行知识蒸馏,学习和传递旧模型的知识,减轻动态设备对于旧类别的灾难性遗忘。
在一些例子中,第一损失函数表示为:
L1=LCE
式中,{XjB,YjB}表示一个mini batch的数据,B为mini batch的容量,表示静态设备的训练集,DCE(·)为交叉熵函数,G为静态设备所处的边缘环境中类别的数量,xjb表示mini batch中第b个样本,ycb表示mini batch中第b个样本对应的标签,/>表示静态设备第k次本地训练得到本地模型,/>表示/>输出的第b个样本的类别概率。
在一些例子中,所述第二损失函数表示为:
L2=λ1LWC+λ2LKD
式中,λ1和λ2为预设的超参数,通常均设置为0.5,LWC为加权交叉熵损失项,LKD为类语义关系知识蒸馏损失项。
LWC表示为:
式中,{XcB,YcB}表示一个mini batch的数据,B为mini batch的容量,表示收集到的新类别的样本的集合,M表示采样得到的旧类别的样本的集合,/>表示更新后的动态设备的训练集,DWC(·)为加权交叉熵函数,R为动态设备当前见过的所有类别的数量,wr表示类别r对应的权重,wr基于新旧类别的样本数量的比值确定,xcb表示mini batch中的第b个样本,ycb表示mini batch中第b个样本对应的标签,/>表示动态设备第k次本地训练得到的本地模型,/>表示/>输出的第b个样本的类别概率。
LKD表示为:
式中,DKL(·)表示KL散度,表示动态设备第k次本地训练得到的本地模型的输出,/>表示变体独热编码,/>基于YcB经过变体得到,YcB表示动态设备当前需要识别的所有类别的标签的独热编码,变体具体为使用替换YcB的前f维,f为旧类别的数量,/>表示动态设备第k-1次本地训练得到的本地模型的输出。YcB变体替换为/>的过程如图2所示。
步骤104,对动态设备的本地模型和静态设备的本地模型进行全局聚合,得到全局模型。
在具体实现中,静态设备和动态设备各自完成本地训练后,即可进入本次联邦学习的全局聚合过程,服务器对动态设备的本地模型和静态设备的本地模型进行全局聚合,得到全局模型,可以通过如图3所示的各步骤实现,具体包括:
步骤1041,获取所有参与训练的设备的训练集中样本的总数量,将所述总数量作为动态设备的样本量信息,并由动态设备上传。
步骤1042,根据各设备上传的样本量信息,为各设备分配聚合权重
步骤1043,根据各设备被分配的聚合权重和对应的本地模型进行全局聚合,得到全局模型。
在具体实现中,全局聚合时,需要各设备上传自身的样本量信息,也就是自身的训练集中样本的数量,谁的样本量多,谁在全局聚合时就会被分配更大的权重,即全局聚合偏向样本量多的设备,这使得动态设备的本地模型的参数在全局聚合过程中可能会被稀释,这种稀释效应可能会导致动态设备在联邦学习过程中较难保持对旧类别的记忆和分类性能。因此服务器用所有参与训练的设备的训练集中样本的总数量作为动态设备的样本量信息上传,从而“欺骗”边缘服务器为动态设备分配更大的聚合权重,确保动态设备对全局聚合发挥更大的影响,保持其对旧类别的记忆和分类性能。
在一些例子中,本实施例提出的跨移动边缘网络的联邦类增量学习过程如图4所示。
本实施例,基于动态设备的训练集的平均熵的变化,来检测动态设备是否进入了新的边缘环境,在感知到动态设备进入新的边缘环境后,对动态设备的训练集进行更新,选择具有代表性的旧类别的样本进行保留,再结合新类别的样本得到更新后的训练集。在进行新一次联邦学***衡新旧类别的样本量,减轻全局聚合对模型对旧类别分类性能的影响,使得动态设备可以跨多个边缘网络学习到新的类别,且不遗忘旧边缘网络的知识。
在一些实施例中,动态设备的训练集中的旧类别为若干个,服务器对动态设备的训练集中的旧类别的样本进行采样,可以通过如图5所示的各步骤实现,具体包括:
步骤201,遍历各旧类别,计算当前旧类别中的各样本的特征向量与当前旧类别的类别中心向量之间的距离并进行排序。
在具体实现中,服务器基于Herding的样本选择策略更新动态设备的训练集。服务器遍历对于动态设备而言的各旧类别,计算当前旧类别中的各样本的特征向量与当前旧类别的类别中心向量之间的距离并进行排序。特征向量距离类别中心向量近的样本更能代表这个类别的特征分布,更具有代表性。
步骤202,保留所述距离最小的若干个当前旧类别中的样本,作为从当前旧类别中采样得到的样本。
在具体实现中,服务器计算出算当前旧类别中的各样本的特征向量与当前旧类别的类别中心向量之间的距离并进行排序后,可以保留所述距离最小的若干个当前旧类别中的样本,作为从当前旧类别中采样得到的样本,具体保留的数量可以由本领域的技术人员根据实际需要进行设置,每个旧类别保留的样本的数量可以相同,也可以不同。留这样的样本可以更好地减轻后续训练时动态设备对于旧类别的灾难性遗忘。
在一些实施例中,随着动态设备的不断移动,其会见到越来越多的新类别,而之前的新类别则归为旧类别,长此以往,采样得到的旧类别的样本会越来越多,甚至超过新类别的样本的数量,为了提升新旧类别样本的平衡性,服务器可以通过如图6所示的各步骤,限制采样得到的旧类别的样本的数量,具体包括:
步骤301,限定旧类别的样本的数量存储上限。
在具体实现中,本实施例参考iCaRL的样本采样方法,限定模型的旧类别的样本的数量存储上限为|M|,服务器严格按照|M|对动态设备的训练集中的旧类别的样本进行采样。
步骤302,计算本次采样得到的旧类别的样本与历史采样得到的旧类别的样本的第一数量总和。
步骤303,若所述第一数量总和超过数量存储上限,则对历史采样得到的旧类别的样本进行再次采样,并计算本次采样得到的旧类别的样本,与对历史采样得到的旧类别的样本进行再次采样得到的旧类别的样本的第二数量总和,直至所述第二数量综合不超过数量存储上限。
在一个例子中,假设当前的旧类别包括旧类别甲和旧类别乙,动态设备移动到新的边缘网络后见到新类别丙,此时服务器需要分别对旧类别甲和旧类别乙进行采样,采样得到的旧类别的样本的数量达到|M|。在下一次联邦学习过程中,动态设备又移动到了另一个新的边缘网络,见到新类别丁,之前的新类别丙归为旧类别丙,此时服务器对旧类别丙进行采样,计算本次采样得到的旧类别的样本与历史采样得到的旧类别的样本的第一数量总和。由于历史采样得到的旧类别的样本已达到|M|,第一数量总和此时大于|M|,服务器随即对历史采样得到的旧类别的样本进行再次采样,即对从旧类别甲和旧类别乙中采样得到的样本进行再次采样,再次采样完成后,服务器计算本次采样得到的旧类别的样本,与对历史采样得到的旧类别的样本进行再次采样得到的旧类别的样本的第二数量总和,直至第二数量综合不超过数量存储上限|M|。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本申请另一个实施例涉及一种电子设备,如图7所示,包括:至少一个处理器401;以及,与所述至少一个处理器401通信连接的存储器402;其中,所述存储器402存储有可被所述至少一个处理器401执行的指令,所述指令被所述至少一个处理器401执行,以使所述至少一个处理器401能够执行上述各实施例中的跨移动边缘网络的联邦类增量学习方法。
其中,存储器和处理器采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器和存储器的各种电路连接在一起。总线还可以将诸如***设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器。
处理器负责管理总线和通常的处理,还可以提供各种功能,包括定时,***接口,电压调节、电源管理以及其他控制功能。而存储器可以被用于存储处理器在执行操作时所使用的数据。
本申请另一个实施例涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,简称:ROM)、随机存取存储器(Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施例是实现本申请的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本申请的精神和范围。
Claims (10)
1.一种跨移动边缘网络的联邦类增量学习方法,其特征在于,包括:
在上次全局聚合后,计算动态设备的训练集的平均熵较上上次全局聚合后的变化值;
若所述变化值大于第一预设阈值,则对所述动态设备的训练集中的旧类别的样本进行采样,基于采样得到的旧类别的样本和收集到的新类别的样本,更新所述动态设备的训练集;
基于静态设备的训练集和第一损失函数,对所述静态设备进行本地训练,得到所述静态设备的本地模型,并基于更新后的所述动态设备的训练集和第二损失函数,对所述动态设备进行本地训练,得到所述动态设备的本地模型;其中,所述第一损失函数具体为交叉熵损失函数,所述第二损失函数包括加权交叉熵损失项和类语义关系知识蒸馏损失项;
对所述动态设备的本地模型和所述静态设备的本地模型进行全局聚合,得到全局模型。
2.根据权利要求1所述的跨移动边缘网络的联邦类增量学习方法,其特征在于,所述对所述动态设备的本地模型和所述静态设备的本地模型进行全局聚合,得到全局模型,包括:
获取所有参与训练的设备的训练集中样本的总数量,将所述总数量作为所述动态设备的样本量信息,并由所述动态设备上传;
根据各所述设备上传的样本量信息,为各所述设备分配聚合权重;
根据各所述设备被分配的聚合权重和对应的本地模型进行全局聚合,得到全局模型。
3.根据权利要求1所述的跨移动边缘网络的联邦类增量学习方法,其特征在于,所述动态设备的训练集中的旧类别为若干个,所述对所述动态设备的训练集中的旧类别的样本进行采样,包括:
遍历各所述旧类别,计算当前旧类别中的各样本的特征向量与所述当前旧类别的类别中心向量之间的距离并进行排序;
保留所述距离最小的若干个所述当前旧类别中的样本,作为从所述当前旧类别中采样得到的样本。
4.根据权利要求3所述的跨移动边缘网络的联邦类增量学习方法,其特征在于,所述方法还包括:
限定所述旧类别的样本的数量存储上限;
计算本次采样得到的旧类别的样本与历史采样得到的旧类别的样本的第一数量总和;
若所述第一数量总和超过所述数量存储上限,则对所述历史采样得到的旧类别的样本进行再次采样,并计算所述本次采样得到的旧类别的样本,与对所述历史采样得到的旧类别的样本进行再次采样得到的旧类别的样本的第二数量总和,直至所述第二数量综合不超过所述数量存储上限。
5.根据权利要求1至4中任一项所述的跨移动边缘网络的联邦类增量学***均熵较上上次全局聚合后的变化值,包括:
分别计算各所述动态设备的训练集的平均熵较上上次全局聚合后的变化值;
所述若所述变化值大于第一预设阈值,则对所述动态设备的训练集中的旧类别的样本进行采样,包括:
依次判断各所述变化值是否大于第一预设阈值,将所述变化值大于所述第一预设阈值的动态设备确定为目标动态设备;
分别对各所述目标动态设备的训练集中的旧类别的样本进行采样。
6.根据权利要求5所述的跨移动边缘网络的联邦类增量学***均熵较上上次全局聚合后的变化值:
ΔH=H-Hlast
Γ(·)=pilog pi
其中,N为上次全局聚合后所述动态设备的训练集的平均熵,Hlast为上上次全局聚合后所述动态设备的训练集的平均熵,N为所述上次全局聚合后所述动态设备的训练集中的样本数量,θG表示所述上次全局聚合后得到的全局模型,xi表示所述上次全局聚合后所述动态设备的训练集中的第i个样本,ΔH为所述变化值。
7.根据权利要求1至4中任一项所述的跨移动边缘网络的联邦类增量学习方法,其特征在于,所述第一损失函数表示为:
L1=LCE
其中,{XjB,YjB}表示一个mini batch的数据,B为所述mini batch的容量,表示所述静态设备的训练集,DCE(·)为交叉熵函数,G为所述静态设备所处的边缘环境中类别的数量,xjb表示所述mini batch中第b个样本,ycb表示所述mini batch中第b个样本对应的标签,/>表示所述静态设备第k次本地训练得到所述静态设备的本地模型,/>表示输出的第b个样本的类别概率。
8.根据权利要求1至4中任一项所述的跨移动边缘网络的联邦类增量学习方法,其特征在于,所述第二损失函数表示为:
L2=λ1LWC+λ2LKD
其中,λ1和λ2为预设的超参数,LWc为所述加权交叉熵损失项,LKD为所述类语义关系知识蒸馏损失项;
所述LWc表示为:
其中,{XcB,YcB}表示一个mini batch的数据,B为所述mini batch的容量,表示收集到的新类别的样本的集合,M表示采样得到的旧类别的样本的集合,/>表示更新后的所述动态设备的训练集,DWC(·)为加权交叉熵函数,R为所述动态设备当前见过的所有类别的数量,wr表示类别r对应的权重,wr基于新旧类别的样本数量的比值确定,xcb表示所述mini batch中第b个样本,ycb表示所述mini batch中第b个样本对应的标签,/>表示所述动态设备第k次本地训练得到的所述动态设备的本地模型,/>表示/>输出的第b个样本的类别概率;
所述LKD表示为:
其中,DKL(·)表示KL散度,表示所述动态设备第k次本地训练得到的所述动态设备的本地模型的输出,/>表示变体独热编码,/>基于YcB经过变体得到,YcB表示所述动态设备当前需要识别的所有类别的标签的独热编码,所述变体具体为使用/>替换YcB的前f维,f为所述旧类别的数量,/>表示所述动态设备第k-1次本地训练得到的所述动态设备的本地模型的输出。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至8中任一所述的跨移动边缘网络的联邦类增量学习方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述的跨移动边缘网络的联邦类增量学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311450969.4A CN117540822A (zh) | 2023-11-02 | 2023-11-02 | 跨移动边缘网络的联邦类增量学习方法、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311450969.4A CN117540822A (zh) | 2023-11-02 | 2023-11-02 | 跨移动边缘网络的联邦类增量学习方法、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117540822A true CN117540822A (zh) | 2024-02-09 |
Family
ID=89792904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311450969.4A Pending CN117540822A (zh) | 2023-11-02 | 2023-11-02 | 跨移动边缘网络的联邦类增量学习方法、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117540822A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117912640A (zh) * | 2024-03-20 | 2024-04-19 | 合肥工业大学 | 基于域增量学习的抑郁障碍检测模型训练方法及电子设备 |
-
2023
- 2023-11-02 CN CN202311450969.4A patent/CN117540822A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117912640A (zh) * | 2024-03-20 | 2024-04-19 | 合肥工业大学 | 基于域增量学习的抑郁障碍检测模型训练方法及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200273347A1 (en) | Joint order dispatching and fleet management for online ride-sharing platforms | |
Berman et al. | The minmax regret gradual covering location problem on a network with incomplete information of demand weights | |
US20050033709A1 (en) | Adaptive learning enhancement to automated model maintenance | |
CN109360421B (zh) | 一种基于机器学习的交通信息预测方法及装置、电子终端 | |
CN113763700B (zh) | 信息处理方法、装置、计算机设备及存储介质 | |
CN117540822A (zh) | 跨移动边缘网络的联邦类增量学习方法、设备和存储介质 | |
KR102344383B1 (ko) | 인공지능 기반 매장 수요 예측 방법 및 시스템 | |
Rabbouch et al. | Efficient implementation of the genetic algorithm to solve rich vehicle routing problems | |
CN110648161A (zh) | 商业选址的效益评估方法、装置及存储介质 | |
CN111752706B (zh) | 资源配置方法、装置及存储介质 | |
US11481659B1 (en) | Hyperparameter optimization using fairness constraints | |
CN110009155B (zh) | 业务区域配送难度的估计方法、装置和电子设备 | |
CN109934368B (zh) | 订单数量和订单状态的预测方法、装置及*** | |
CN112418341A (zh) | 模型融合方法、预测方法、装置、设备及存储介质 | |
KR20200017612A (ko) | 딥러닝을 이용한 위치 측위 학습 방법 | |
CN111626338A (zh) | 基于融合分类模型的云环境匹配方法、装置、设备和介质 | |
US11651271B1 (en) | Artificial intelligence system incorporating automatic model updates based on change point detection using likelihood ratios | |
CN109993562B (zh) | 一种满意度仿真方法、装置及终端设备 | |
CN111143070A (zh) | 一种资源调度方法和装置 | |
CN110751359A (zh) | 一种自动化航线网络评估方法、电子设备及存储介质 | |
CN113850669A (zh) | 用户分群方法、装置、计算机设备及计算机可读存储介质 | |
US11636377B1 (en) | Artificial intelligence system incorporating automatic model updates based on change point detection using time series decomposing and clustering | |
CN114898184A (zh) | 模型训练方法、数据处理方法、装置及电子设备 | |
CN112051843B (zh) | 基于订单预估的路径规划方法、装置、机器人和存储介质 | |
CN114913369A (zh) | 基于知识推理的主动救援决策方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |