CN114595826A - 一种联邦学习工人节点选择方法、***、终端以及存储介质 - Google Patents
一种联邦学习工人节点选择方法、***、终端以及存储介质 Download PDFInfo
- Publication number
- CN114595826A CN114595826A CN202011405413.XA CN202011405413A CN114595826A CN 114595826 A CN114595826 A CN 114595826A CN 202011405413 A CN202011405413 A CN 202011405413A CN 114595826 A CN114595826 A CN 114595826A
- Authority
- CN
- China
- Prior art keywords
- reputation value
- node
- current
- candidate node
- direct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种联邦学习工人节点选择方法、***、终端以及存储介质。包括:获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。本申请实施例可以更加准确的计算工人节点的声誉值,从而更加高效地选择可靠的工人节点。
Description
技术领域
本申请属于联邦学习技术领域,特别涉及一种联邦学习工人节点选择方法、***、终端以及存储介质。
背景技术
随着机器学习技术的快速发展,出现了许多新的移动应用,例如自动驾驶等,机器学习为移动用户带来了良好的服务体验。虽然机器学习技术极大地提高了移动应用程序的性能,但是大多数机器学习技术都需要将大量带有个人信息的用户数据聚合到中央服务器上,以执行模型训练。这导致了过多的计算和存储成本,同时也存在严重的用户隐私泄露风险。为了解决这些问题,业界提出了联邦学习这种新兴的分布式机器学习范式,以允许移动设备以分布的方式协作训练一个全局模型。联邦学习可以在数据拥有方不用给出自己的隐私数据情况下,进行机器学习模型训练,并能够保证模型的效果。移动设备只需将针对本地原始数据的本地模型参数更新发送给任务发布者,而无需上传原始数据,从而将机器学习与在中央服务器中获取、存储和培训数据分离开来。
然而,联邦学习仍然面临着严峻的挑战。不可靠的工作者可能有意或无意地做出一些行为来误导联邦学习任务的全局模型训练。恶意工人节点可能会发起“毒药”攻击,发送恶意参数更新来影响全局模型,导致当前协作学习机制的失败。此外,高动态性的移动网络环境间接地导致了一些移动设备的意外行为。由于高移动性或电量限制,移动工人节点可能会无意地更新一些低质量的参数,从而对联邦学习任务产生不利影响。因此,在不依赖局部模型更新的情况下,开发高效合理的联邦学习的工人节点选择方案是至关重要的。
在一篇名为《Incentive Mechanism for Reliable Federated Learning:AJoint Optimization Approach to Combining Reputation and Contract Theory》的论文中,提出了利用主观逻辑模型来计算声誉值,从而选择可靠工人候选人的具体方法,并利用区块链来管理。然而该论文的工人节点选择方案中,仅提出采用多权重主观逻辑模型来计算声誉值,具体方案不够清晰,影响声誉值的因素考虑不全,导致计算出来的声誉值不准确。
发明内容
本申请提供了一种联邦学习工人节点选择方法、***、终端以及存储介质,旨在至少在一定程度上解决现有技术中的上述技术问题之一。
为了解决上述问题,本申请提供了如下技术方案:
一种联邦学习工人节点选择方法,包括:
获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
本申请实施例采取的技术方案还包括:所述计算所述候选节点的推荐声誉值具体为:
预定义一个推荐建议的权重参数σ,根据两个任务发布者之间的相似度δ对所述权重参数σ进行修正,得到改进后的权重参数ω,ω=σ×δ;
设与所述当前候选节点有交互历史的其他任务发布者集合S={s1,s2,...,sm},从声誉区块链中下载集合S中所有任务发布者对所述当前候选节点的直接声誉值,其中任务发布者si对所述当前候选节点的直接声誉值为n为任务发布者si与该候选节点合作的总次数,则所述当前候选节点的推荐声誉值计算公式为:
本申请实施例采取的技术方案还包括:所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值之前还包括:
判断所述当前任务发布者与当前候选节点是否是第一次合作,如果是,
基于所述当前候选节点的推荐声誉值,判断所述当前候选节点是否是可信节点;如果是可信节点,
选择所述候选节点作为所述当前任务发布者的工人节点,并利用主观逻辑模型计算得到当前任务发布者对所述工人节点的初始直接声誉值。
本申请实施例采取的技术方案还包括:所述初始直接声誉值{a1,b1,c1}计算公式为:
上式中,{1,...,i,...I}是一次合作中的各个时间段,ti是在i时间段内数据传输成功的概率,αi、βi分别表示i时间段内正交互次数和负交互次数,k、η分别表示正交互在计算中的权重和负交互的权重,zI-i是一个时间衰退函数;k≤η,k+η=1,z∈(0,1)。
本申请实施例采取的技术方案还包括:所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值包括:
判断所述当前任务发布者与当前候选节点是否是第二次合作;如果是,
获取所述当前任务发布者与当前候选节点的初始直接声誉值,根据所述初始直接声誉值和推荐声誉值计算得到当前声誉值。
本申请实施例采取的技术方案还包括:所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值还包括:
如果所述当前任务发布者与当前候选节点不是第二次合作,获取所述当前任务发布者对当前候选节点最近两次的直接声誉值;
根据所述初步直接声誉值与所述当前候选节点的推荐声誉值计算得到所述当前候选节点的当前声誉值。
本申请实施例采取的技术方案还包括:所述基于所述当前声誉值判断所述候选节点是否是可信节点具体为:
用{a,b,c}分别表示信任、不信任和不确定性,a+b+c=1;设参数u表示所述不确定性对声誉值的影响,u∈[0,1],则有A=a+uc,B=b+(1-u)c,A、B分别是进一步的信任值和不信任值;对于一个候选节点,若A≥2B,则判定所述候选节点为可信节点。
本申请实施例采取的另一技术方案为:一种联邦学习工人节点选择***,包括:
第一声誉值计算模块:用于获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
第二声誉值计算模块:用于获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
节点选择模块:用于基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
本申请实施例采取的又一技术方案为:一种终端,所述终端包括处理器、与所述处理器耦接的存储器,其中,
所述存储器存储有用于实现所述联邦学习工人节点选择方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以控制联邦学习工人节点选择。
本申请实施例采取的又一技术方案为:一种存储介质,存储有处理器可运行的程序指令,所述程序指令用于执行所述联邦学习工人节点选择方法。
相对于现有技术,本申请实施例产生的有益效果在于:本申请实施例的联邦学习工人节点选择方法、***、终端及存储介质通过主观逻辑模型结合每个任务发布者自己与工人节点的历史交互中产生的直接声誉值以及其他任务发布者对该工人节点的推荐声誉值生成一个当前声誉值,根据该当前声誉值进行工人节点的选择,从而可以更加准确的计算工人节点的声誉值,并采用联盟链对声誉值进行管理,可以更加高效地选择可靠的工人节点。
附图说明
图1是本申请实施例的联邦学习工人节点选择方法的流程图;
图2为本申请实施例的联邦学习工人节点选择***结构示意图;
图3为本申请实施例的终端结构示意图;
图4为本申请实施例的存储介质的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
针对现有技术的不足,本申请实施例的联邦学习工人节点选择方法利用主观逻辑模型和区块链***设计一个基于声誉的联邦学习工人节点选择方案。假设声誉高的工人节点会带来高质量的数据(即为联邦学习任务生成可靠的局部模型更新),为了提高联邦学习任务的性能,每个任务发布者都会选择具有高声誉值(即具有高精确度和可靠的本地数据)的候选节点作为工人节点,以减少不可靠攻击者的影响。在选择工人节点时,每个任务发布者通过一个主观逻辑模型计算每个候选节点的声誉值,在该主观逻辑模型中,每个任务发布者分别结合自己与候选节点的历史交互中产生的直接声誉值(指的是任务发布者根据和候选节点的历史交互,通过主观逻辑模型计算得到的声誉值)和来自其他任务发布者的推荐声誉值(指的是任务发布者从其他任务发布者获取的可以参考的声誉值)生成一个当前声誉值,根据该当前声誉值进行工人节点的选择。
具体的,请参阅图1,是本申请实施例的联邦学习工人节点选择方法的流程图。本申请实施例的联邦学习工人节点选择方法包括以下步骤:
S10:任务发布者选择候选节点,并计算当前候选节点的推荐声誉值;
本步骤中,推荐声誉值根据除了任务发布者自己之外的其他任务发布者对该候选节点的直接声誉值计算得到。具体计算方式为:预定义一个推荐建议的权重参数σ,根据两个任务发布者之间的相似度δ对该权重参数σ进行修正,得到一个改进后的权重参数ω,ω=σ×δ;设其他任务发布者集合S={s1,s2,...,sm},且集合S中的所有任务发布者均与当前候选节点有交互历史,先从声誉区块链中下载集合S中所有任务发布者对该候选节点的直接声誉值,其中任务发布者si对该候选节点的直接声誉值为n为任务发布者si与该候选节点合作的总次数,则该候选节点的推荐声誉值计算公式为:
S20:判断当前任务发布者与当前候选节点是否是第一次合作,如果是,执行S30;否则,执行S50;
S30:基于当前候选节点的推荐声誉值,利用判定规则判断该候选节点是否是可信节点,如果是可信节点,执行S40;否则,重新执行S10进行下一个候选节点的选择;
本步骤中,任务发布者在与候选节点第一次合作时,由于之前没有交互历史,不存在直接声誉值,因此根据该候选节点与其他任务发布者合作时产生的推荐声誉值判断该候选节点是否是可信节点;具体的,所述判断候选节点是否是可信节点的判定规则为:用{a,b,c}分别表示信任、不信任和不确定性(不确定性可能是由于通信质量不佳等外在因素导致)。其中,a+b+c=1。设参数u,u∈[0,1]表示不确定性对声誉值的影响,则有A=a+uc,B=b+(1-u)c,A、B分别是进一步的信任值和不信任值。对于一个候选节点,若A≥2B,则可判定该候选节点为可信节点。具体的,如果成立,则可判定该候选节点为可信节点。
实际上,u是动态变化的,随着任务发布者和工人节点合作次数的增加,两者之间越来越熟悉,因通信质量不佳等因素引起的不确定值会越来越大程度上转换成信任值。因此,随着合作次数的增加,u是不断递增的,且在合作次数足够多的情况下,u的值趋近于1,即A=a+c。
S40:选择该候选节点作为任务发布者的工人节点,并获取该工人节点在参与合作后的积极态度、时间衰退等交互数据,利用主观逻辑模型根据交互数据计算得到当前任务发布者对该工人节点的初始直接声誉值;
本步骤中,初始直接声誉值{a1,b1,c1}的计算公式如下:
式(2)中,{1,...,i,...I}是一次合作中的各个时间段,ti是在i时间段内数据传输成功的概率,αi、βi分别表示i时间段内正交互次数和负交互次数,k、η分别表示正交互在计算中的权重和负交互的权重,zI-i是一个时间衰退函数。k≤η,k+η=1,z∈(0,1)。
S50:判断当前任务发布者与当前候选节点是否是第二次合作,如果是,执行S60;否则,执行S70;
S60:获取任务发布者与当前候选节点第一次合作时的初始直接声誉值,根据初始直接声誉值和当前候选节点最近一次的推荐声誉值计算得到当前声誉值,基于该当前声誉值,根据判定规则判断该候选节点是否是可信节点,如果是可信节点,选择该候选节点作为任务发布者的工人节点,并利用主观逻辑模型根据本次合作的交互数据计算得到当前任务发布者对该工人节点的直接声誉值;
本步骤中,任务发布者在与候选节点第二次合作时的直接声誉值计算方式具体为:由第一次计算得到的该候选节点的初始直接声誉值{a1,b1,c1}和该候选节点最近一次与其他任务发布者合作时产生的推荐声誉值计算得到当前声誉值基于该当前声誉值,根据判定规则并判断该候选节点是否是可信节点,如果是可信节点,将其作为工人节点,获取该工人节点在参与合作后的积极态度、时间衰退等交互数据,并利用公式(2)计算得到本次合作的直接声誉值{a2,b2,c2}。
本申请实施例中,通过将直接声誉值与推荐声誉值相结合计算得到当前声誉值时,根据当前声誉值进行工人节点的选择,从而避免单纯使用推荐声誉值而被其他恶意工人节点欺骗的可能。当前声誉值的计算公式为:
S70:获取当前任务发布者对当前候选节点最近两次的直接声誉值,并将最近两次直接声誉值的相加作为该候选节点的初步直接声誉值,根据该初步直接声誉值与该候选节点最近一次的推荐声誉值计算得到该候选节点的当前声誉值,基于该当前声誉值,根据判定规则判断该候选节点是否是可信节点,并在参与合作后根据合作后的交互情况计算得到本次合作的直接声誉值;
本步骤中,初步直接声誉值的计算公式如下:
假设n=3,即任务发布者与候选节点本次是第三次合作,则本次合作中该候选节点的直接声誉值计算方式为:由第二次计算得到的该候选节点的直接声誉值{a2,b2,c2}的加上第一次计算得到的初始直接声誉值{a1,b1,c1}的得到该候选节点的初步直接声誉值{a′3,b′3,c′3};根据该初步直接声誉值和该候选节点最近一次与其他任务发布者合作时产生的推荐声誉值计算得到该候选节点的当前声誉值利用当前声誉值,根据判定规则并判断该候选节点是否是可信节点,如果是可信节点,将其作为工人节点,根据该工人节点在参与合作后的交互数据,利用主观逻辑模型计算得到本次的直接声誉值{a3,b3,c3}。
上述中,为了保证声誉值的安全性和可靠性,本申请实施例通过联盟链对任务发布者的声誉值进行分布式管理。声誉值管理方式分为两种情况,分别为:
一、任务发布者与工人节点完全陌生(即无交互历史);针对该情况的声誉值管理方式为:先从声誉区块链中下载其他任务发布者对该工人节点的直接声誉值,并根据公式(1)计算得出推荐声誉值;基于该推荐声誉值判断该工人节点是否为可信节点,如果是可信节点,根据本次交互情况,利用公式(2)计算出本次任务发布者对该工人节点的初始直接声誉值,并将该初始直接声誉值上传至声誉区块链中进行保管。
二、任务发布者与工人节点有过交互历史;针对该情况的声誉值管理方式为:先从声誉区块链中下载其他任务发布者对该工人节点的直接声誉值,并根据公式(1)计算得出推荐声誉值;然后,下载任务发布者在历史交互中对该工人节点的直接声誉值,根据推荐声誉值和直接声誉值计算得到当前声誉值,根据当前声誉值判断该工人节点是否为可信节点,如果是可信节点,根据本次交互情况,利用公式(2)计算出本次任务发布者对该工人节点的新的直接声誉值,并将该新的直接声誉值上传至声誉区块链中进行保管。
本申请实施例的联邦学习工人节点选择方法在选择工人节点时,通过主观逻辑模型结合每个任务发布者自己与工人节点的历史交互中产生的直接声誉值以及其他任务发布者对该工人节点的推荐声誉值生成一个当前声誉值,根据该当前声誉值进行工人节点的选择,从而可以更加准确的计算工人节点的声誉值,并采用联盟链对声誉值进行管理,可以更加高效地选择可靠的工人节点。
请参阅图2,是本申请实施例的联邦学习工人节点选择***的结构示意图。本申请实施例的联邦学习工人节点选择***40包括:
第一声誉值计算模块41:用于获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
第二声誉值计算模块42:用于获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
节点选择模块43:用于基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
请参阅图3,为本申请实施例的终端结构示意图。该终端50包括处理器51、与处理器51耦接的存储器52。
存储器52存储有用于实现上述联邦学习工人节点选择方法的程序指令。
处理器51用于执行存储器52存储的程序指令以控制联邦学习工人节点选择。
其中,处理器51还可以称为CPU(Central Processing Unit,中央处理单元)。处理器51可能是一种集成电路芯片,具有信号的处理能力。处理器51还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
请参阅图4,为本申请实施例的存储介质的结构示意图。本申请实施例的存储介质存储有能够实现上述所有方法的程序文件61,其中,该程序文件61可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本申请中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本申请所示的这些实施例,而是要符合与本申请所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种联邦学习工人节点选择方法,其特征在于,包括:
获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
3.根据权利要求1所述的联邦学习工人节点选择方法,其特征在于,所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值之前还包括:
判断所述当前任务发布者与当前候选节点是否是第一次合作,如果是,
基于所述当前候选节点的推荐声誉值,判断所述当前候选节点是否是可信节点;如果是可信节点,
选择所述候选节点作为所述当前任务发布者的工人节点,并利用主观逻辑模型计算得到当前任务发布者对所述工人节点的初始直接声誉值。
5.根据权利要求4所述的联邦学习工人节点选择方法,其特征在于,所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值包括:
判断所述当前任务发布者与当前候选节点是否是第二次合作;如果是,
获取所述当前任务发布者与当前候选节点的初始直接声誉值,根据所述初始直接声誉值和推荐声誉值计算得到当前声誉值。
7.根据权利要求1至6任一项所述的联邦学习工人节点选择方法,其特征在于,所述基于所述当前声誉值判断所述候选节点是否是可信节点具体为:
用{a,b,c}分别表示信任、不信任和不确定性,a+b+c=1;设参数u表示所述不确定性对声誉值的影响,u∈[0,1],则有A=a+uc,B=b+(1-u)c,A、B分别是进一步的信任值和不信任值;对于一个候选节点,若A≥2B,则判定所述候选节点为可信节点。
8.一种联邦学习工人节点选择***,其特征在于,包括:
第一声誉值计算模块:用于获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
第二声誉值计算模块:用于获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
节点选择模块:用于基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
9.一种终端,其特征在于,所述终端包括处理器、与所述处理器耦接的存储器,其中,
所述存储器存储有用于实现权利要求1-7任一项所述的联邦学习工人节点选择方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以控制联邦学习工人节点选择。
10.一种存储介质,其特征在于,存储有处理器可运行的程序指令,所述程序指令用于执行权利要求1至7任一项所述联邦学习工人节点选择方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011405413.XA CN114595826A (zh) | 2020-12-04 | 2020-12-04 | 一种联邦学习工人节点选择方法、***、终端以及存储介质 |
PCT/CN2021/082976 WO2022116421A1 (zh) | 2020-12-04 | 2021-03-25 | 一种联邦学习工人节点选择方法、***、终端以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011405413.XA CN114595826A (zh) | 2020-12-04 | 2020-12-04 | 一种联邦学习工人节点选择方法、***、终端以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114595826A true CN114595826A (zh) | 2022-06-07 |
Family
ID=81812215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011405413.XA Pending CN114595826A (zh) | 2020-12-04 | 2020-12-04 | 一种联邦学习工人节点选择方法、***、终端以及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114595826A (zh) |
WO (1) | WO2022116421A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115600219A (zh) * | 2022-12-15 | 2023-01-13 | 湖南工商大学(Cn) | 候选任务工作者声誉值的确定方法 |
CN115865642A (zh) * | 2023-03-03 | 2023-03-28 | 中南大学 | 一种招募可信节点完成计算任务的方法和装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306910B (zh) * | 2022-09-07 | 2023-10-03 | 北京交通大学 | 一种基于联邦节点贡献的公平性隐私计算方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194721A (zh) * | 2017-05-12 | 2017-09-22 | 中国人民解放军信息工程大学 | 基于声誉记录分析的服务推荐者发现方法 |
CN109951333A (zh) * | 2019-03-19 | 2019-06-28 | 中南大学 | 边缘计算网络视频处理中基于主观逻辑的信任评估装置 |
CN112348204B (zh) * | 2020-11-05 | 2022-09-16 | 大连理工大学 | 一种基于联邦学习和区块链技术的边缘计算框架下海洋物联网数据安全共享方法 |
-
2020
- 2020-12-04 CN CN202011405413.XA patent/CN114595826A/zh active Pending
-
2021
- 2021-03-25 WO PCT/CN2021/082976 patent/WO2022116421A1/zh active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115600219A (zh) * | 2022-12-15 | 2023-01-13 | 湖南工商大学(Cn) | 候选任务工作者声誉值的确定方法 |
CN115600219B (zh) * | 2022-12-15 | 2023-03-14 | 湖南工商大学 | 候选任务工作者声誉值的确定方法 |
CN115865642A (zh) * | 2023-03-03 | 2023-03-28 | 中南大学 | 一种招募可信节点完成计算任务的方法和装置 |
CN115865642B (zh) * | 2023-03-03 | 2023-05-09 | 中南大学 | 一种招募可信节点完成计算任务的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022116421A1 (zh) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114595826A (zh) | 一种联邦学习工人节点选择方法、***、终端以及存储介质 | |
US11526745B2 (en) | Methods and apparatus for federated training of a neural network using trusted edge devices | |
US11153073B2 (en) | Content validation using blockchain | |
US20200257543A1 (en) | Aggregate Features For Machine Learning | |
WO2019128426A1 (en) | Method for training model and information recommendation system | |
US8904149B2 (en) | Parallelization of online learning algorithms | |
US20160132904A1 (en) | Influence score of a brand | |
US20230376548A1 (en) | Expert Detection in Social Networks | |
US20130042306A1 (en) | Determining machine behavior | |
US8918382B1 (en) | Learning common spelling errors through content matching | |
JP2018517959A (ja) | ビデオのための代表ビデオフレームの選択 | |
US20210158353A1 (en) | Methods, systems, apparatuses, and devices for processing request in consortium blockchain | |
WO2018130201A1 (zh) | 确定关联账号的方法、服务器及存储介质 | |
WO2022179384A1 (zh) | 一种社交群体的划分方法、划分***及相关装置 | |
US20210109975A1 (en) | People relevance platform | |
CN110545232A (zh) | 群消息提示、数据处理方法及装置、电子设备及存储设备 | |
CN116108393B (zh) | 电力敏感数据分类分级方法、装置、存储介质及电子设备 | |
CN109213476B (zh) | 一种安装包的生成方法、计算机可读存储介质及终端设备 | |
US20130159237A1 (en) | Method for rule-based context acquisition | |
CN112528109B (zh) | 一种数据分类方法、装置、设备及存储介质 | |
JP6321874B1 (ja) | サーバー装置 | |
US20240185068A1 (en) | Method for performing membership inference attack against generative models and apparatus for the same | |
NL2026283B1 (en) | Method and system for identifying clusters of affiliated web resources | |
US20230350860A1 (en) | Systems and methods for architecture embeddings for efficient dynamic synthetic data generation | |
CN117743674A (zh) | 资源召回方法、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |