CN114595826A - 一种联邦学习工人节点选择方法、***、终端以及存储介质 - Google Patents

一种联邦学习工人节点选择方法、***、终端以及存储介质 Download PDF

Info

Publication number
CN114595826A
CN114595826A CN202011405413.XA CN202011405413A CN114595826A CN 114595826 A CN114595826 A CN 114595826A CN 202011405413 A CN202011405413 A CN 202011405413A CN 114595826 A CN114595826 A CN 114595826A
Authority
CN
China
Prior art keywords
reputation value
node
current
candidate node
direct
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011405413.XA
Other languages
English (en)
Inventor
孟天晖
陈宏达
王洋
叶可江
须成忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202011405413.XA priority Critical patent/CN114595826A/zh
Priority to PCT/CN2021/082976 priority patent/WO2022116421A1/zh
Publication of CN114595826A publication Critical patent/CN114595826A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及一种联邦学习工人节点选择方法、***、终端以及存储介质。包括:获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。本申请实施例可以更加准确的计算工人节点的声誉值,从而更加高效地选择可靠的工人节点。

Description

一种联邦学习工人节点选择方法、***、终端以及存储介质
技术领域
本申请属于联邦学习技术领域,特别涉及一种联邦学习工人节点选择方法、***、终端以及存储介质。
背景技术
随着机器学习技术的快速发展,出现了许多新的移动应用,例如自动驾驶等,机器学习为移动用户带来了良好的服务体验。虽然机器学习技术极大地提高了移动应用程序的性能,但是大多数机器学习技术都需要将大量带有个人信息的用户数据聚合到中央服务器上,以执行模型训练。这导致了过多的计算和存储成本,同时也存在严重的用户隐私泄露风险。为了解决这些问题,业界提出了联邦学习这种新兴的分布式机器学习范式,以允许移动设备以分布的方式协作训练一个全局模型。联邦学习可以在数据拥有方不用给出自己的隐私数据情况下,进行机器学习模型训练,并能够保证模型的效果。移动设备只需将针对本地原始数据的本地模型参数更新发送给任务发布者,而无需上传原始数据,从而将机器学习与在中央服务器中获取、存储和培训数据分离开来。
然而,联邦学习仍然面临着严峻的挑战。不可靠的工作者可能有意或无意地做出一些行为来误导联邦学习任务的全局模型训练。恶意工人节点可能会发起“毒药”攻击,发送恶意参数更新来影响全局模型,导致当前协作学习机制的失败。此外,高动态性的移动网络环境间接地导致了一些移动设备的意外行为。由于高移动性或电量限制,移动工人节点可能会无意地更新一些低质量的参数,从而对联邦学习任务产生不利影响。因此,在不依赖局部模型更新的情况下,开发高效合理的联邦学习的工人节点选择方案是至关重要的。
在一篇名为《Incentive Mechanism for Reliable Federated Learning:AJoint Optimization Approach to Combining Reputation and Contract Theory》的论文中,提出了利用主观逻辑模型来计算声誉值,从而选择可靠工人候选人的具体方法,并利用区块链来管理。然而该论文的工人节点选择方案中,仅提出采用多权重主观逻辑模型来计算声誉值,具体方案不够清晰,影响声誉值的因素考虑不全,导致计算出来的声誉值不准确。
发明内容
本申请提供了一种联邦学习工人节点选择方法、***、终端以及存储介质,旨在至少在一定程度上解决现有技术中的上述技术问题之一。
为了解决上述问题,本申请提供了如下技术方案:
一种联邦学习工人节点选择方法,包括:
获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
本申请实施例采取的技术方案还包括:所述计算所述候选节点的推荐声誉值具体为:
预定义一个推荐建议的权重参数σ,根据两个任务发布者之间的相似度δ对所述权重参数σ进行修正,得到改进后的权重参数ω,ω=σ×δ;
设与所述当前候选节点有交互历史的其他任务发布者集合S={s1,s2,...,sm},从声誉区块链中下载集合S中所有任务发布者对所述当前候选节点的直接声誉值,其中任务发布者si对所述当前候选节点的直接声誉值为
Figure BDA0002818410310000031
n为任务发布者si与该候选节点合作的总次数,则所述当前候选节点的推荐声誉值
Figure BDA0002818410310000032
计算公式为:
Figure BDA0002818410310000033
本申请实施例采取的技术方案还包括:所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值之前还包括:
判断所述当前任务发布者与当前候选节点是否是第一次合作,如果是,
基于所述当前候选节点的推荐声誉值,判断所述当前候选节点是否是可信节点;如果是可信节点,
选择所述候选节点作为所述当前任务发布者的工人节点,并利用主观逻辑模型计算得到当前任务发布者对所述工人节点的初始直接声誉值。
本申请实施例采取的技术方案还包括:所述初始直接声誉值{a1,b1,c1}计算公式为:
Figure BDA0002818410310000041
上式中,{1,...,i,...I}是一次合作中的各个时间段,ti是在i时间段内数据传输成功的概率,αi、βi分别表示i时间段内正交互次数和负交互次数,k、η分别表示正交互在计算中的权重和负交互的权重,zI-i是一个时间衰退函数;k≤η,k+η=1,z∈(0,1)。
本申请实施例采取的技术方案还包括:所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值包括:
判断所述当前任务发布者与当前候选节点是否是第二次合作;如果是,
获取所述当前任务发布者与当前候选节点的初始直接声誉值,根据所述初始直接声誉值和推荐声誉值计算得到当前声誉值。
本申请实施例采取的技术方案还包括:所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值还包括:
如果所述当前任务发布者与当前候选节点不是第二次合作,获取所述当前任务发布者对当前候选节点最近两次的直接声誉值;
将所述最近两次直接声誉值的
Figure BDA0002818410310000051
相加作为所述当前候选节点的初步直接声誉值;
根据所述初步直接声誉值与所述当前候选节点的推荐声誉值计算得到所述当前候选节点的当前声誉值。
本申请实施例采取的技术方案还包括:所述基于所述当前声誉值判断所述候选节点是否是可信节点具体为:
用{a,b,c}分别表示信任、不信任和不确定性,a+b+c=1;设参数u表示所述不确定性对声誉值的影响,u∈[0,1],则有A=a+uc,B=b+(1-u)c,A、B分别是进一步的信任值和不信任值;对于一个候选节点,若A≥2B,则判定所述候选节点为可信节点。
本申请实施例采取的另一技术方案为:一种联邦学习工人节点选择***,包括:
第一声誉值计算模块:用于获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
第二声誉值计算模块:用于获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
节点选择模块:用于基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
本申请实施例采取的又一技术方案为:一种终端,所述终端包括处理器、与所述处理器耦接的存储器,其中,
所述存储器存储有用于实现所述联邦学习工人节点选择方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以控制联邦学习工人节点选择。
本申请实施例采取的又一技术方案为:一种存储介质,存储有处理器可运行的程序指令,所述程序指令用于执行所述联邦学习工人节点选择方法。
相对于现有技术,本申请实施例产生的有益效果在于:本申请实施例的联邦学习工人节点选择方法、***、终端及存储介质通过主观逻辑模型结合每个任务发布者自己与工人节点的历史交互中产生的直接声誉值以及其他任务发布者对该工人节点的推荐声誉值生成一个当前声誉值,根据该当前声誉值进行工人节点的选择,从而可以更加准确的计算工人节点的声誉值,并采用联盟链对声誉值进行管理,可以更加高效地选择可靠的工人节点。
附图说明
图1是本申请实施例的联邦学习工人节点选择方法的流程图;
图2为本申请实施例的联邦学习工人节点选择***结构示意图;
图3为本申请实施例的终端结构示意图;
图4为本申请实施例的存储介质的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
针对现有技术的不足,本申请实施例的联邦学习工人节点选择方法利用主观逻辑模型和区块链***设计一个基于声誉的联邦学习工人节点选择方案。假设声誉高的工人节点会带来高质量的数据(即为联邦学习任务生成可靠的局部模型更新),为了提高联邦学习任务的性能,每个任务发布者都会选择具有高声誉值(即具有高精确度和可靠的本地数据)的候选节点作为工人节点,以减少不可靠攻击者的影响。在选择工人节点时,每个任务发布者通过一个主观逻辑模型计算每个候选节点的声誉值,在该主观逻辑模型中,每个任务发布者分别结合自己与候选节点的历史交互中产生的直接声誉值(指的是任务发布者根据和候选节点的历史交互,通过主观逻辑模型计算得到的声誉值)和来自其他任务发布者的推荐声誉值(指的是任务发布者从其他任务发布者获取的可以参考的声誉值)生成一个当前声誉值,根据该当前声誉值进行工人节点的选择。
具体的,请参阅图1,是本申请实施例的联邦学习工人节点选择方法的流程图。本申请实施例的联邦学习工人节点选择方法包括以下步骤:
S10:任务发布者选择候选节点,并计算当前候选节点的推荐声誉值;
本步骤中,推荐声誉值根据除了任务发布者自己之外的其他任务发布者对该候选节点的直接声誉值计算得到。具体计算方式为:预定义一个推荐建议的权重参数σ,根据两个任务发布者之间的相似度δ对该权重参数σ进行修正,得到一个改进后的权重参数ω,ω=σ×δ;设其他任务发布者集合S={s1,s2,...,sm},且集合S中的所有任务发布者均与当前候选节点有交互历史,先从声誉区块链中下载集合S中所有任务发布者对该候选节点的直接声誉值,其中任务发布者si对该候选节点的直接声誉值为
Figure BDA0002818410310000081
n为任务发布者si与该候选节点合作的总次数,则该候选节点的推荐声誉值
Figure BDA0002818410310000082
计算公式为:
Figure BDA0002818410310000083
S20:判断当前任务发布者与当前候选节点是否是第一次合作,如果是,执行S30;否则,执行S50;
S30:基于当前候选节点的推荐声誉值,利用判定规则判断该候选节点是否是可信节点,如果是可信节点,执行S40;否则,重新执行S10进行下一个候选节点的选择;
本步骤中,任务发布者在与候选节点第一次合作时,由于之前没有交互历史,不存在直接声誉值,因此根据该候选节点与其他任务发布者合作时产生的推荐声誉值
Figure BDA0002818410310000084
判断该候选节点是否是可信节点;具体的,所述判断候选节点是否是可信节点的判定规则为:用{a,b,c}分别表示信任、不信任和不确定性(不确定性可能是由于通信质量不佳等外在因素导致)。其中,a+b+c=1。设参数u,u∈[0,1]表示不确定性对声誉值的影响,则有A=a+uc,B=b+(1-u)c,A、B分别是进一步的信任值和不信任值。对于一个候选节点,若A≥2B,则可判定该候选节点为可信节点。具体的,如果
Figure BDA0002818410310000085
成立,则可判定该候选节点为可信节点。
实际上,u是动态变化的,随着任务发布者和工人节点合作次数的增加,两者之间越来越熟悉,因通信质量不佳等因素引起的不确定值会越来越大程度上转换成信任值。因此,随着合作次数的增加,u是不断递增的,且在合作次数足够多的情况下,u的值趋近于1,即A=a+c。
S40:选择该候选节点作为任务发布者的工人节点,并获取该工人节点在参与合作后的积极态度、时间衰退等交互数据,利用主观逻辑模型根据交互数据计算得到当前任务发布者对该工人节点的初始直接声誉值;
本步骤中,初始直接声誉值{a1,b1,c1}的计算公式如下:
Figure BDA0002818410310000091
式(2)中,{1,...,i,...I}是一次合作中的各个时间段,ti是在i时间段内数据传输成功的概率,αi、βi分别表示i时间段内正交互次数和负交互次数,k、η分别表示正交互在计算中的权重和负交互的权重,zI-i是一个时间衰退函数。k≤η,k+η=1,z∈(0,1)。
S50:判断当前任务发布者与当前候选节点是否是第二次合作,如果是,执行S60;否则,执行S70;
S60:获取任务发布者与当前候选节点第一次合作时的初始直接声誉值,根据初始直接声誉值和当前候选节点最近一次的推荐声誉值计算得到当前声誉值,基于该当前声誉值,根据判定规则判断该候选节点是否是可信节点,如果是可信节点,选择该候选节点作为任务发布者的工人节点,并利用主观逻辑模型根据本次合作的交互数据计算得到当前任务发布者对该工人节点的直接声誉值;
本步骤中,任务发布者在与候选节点第二次合作时的直接声誉值计算方式具体为:由第一次计算得到的该候选节点的初始直接声誉值{a1,b1,c1}和该候选节点最近一次与其他任务发布者合作时产生的推荐声誉值
Figure BDA0002818410310000101
计算得到当前声誉值
Figure BDA0002818410310000102
基于该当前声誉值,根据判定规则并判断该候选节点是否是可信节点,如果是可信节点,将其作为工人节点,获取该工人节点在参与合作后的积极态度、时间衰退等交互数据,并利用公式(2)计算得到本次合作的直接声誉值{a2,b2,c2}。
本申请实施例中,通过将直接声誉值与推荐声誉值相结合计算得到当前声誉值时,根据当前声誉值进行工人节点的选择,从而避免单纯使用推荐声誉值而被其他恶意工人节点欺骗的可能。当前声誉值的计算公式为:
Figure BDA0002818410310000103
S70:获取当前任务发布者对当前候选节点最近两次的直接声誉值,并将最近两次直接声誉值的
Figure BDA0002818410310000104
相加作为该候选节点的初步直接声誉值,根据该初步直接声誉值与该候选节点最近一次的推荐声誉值计算得到该候选节点的当前声誉值,基于该当前声誉值,根据判定规则判断该候选节点是否是可信节点,并在参与合作后根据合作后的交互情况计算得到本次合作的直接声誉值;
本步骤中,初步直接声誉值的计算公式如下:
Figure BDA0002818410310000105
假设n=3,即任务发布者与候选节点本次是第三次合作,则本次合作中该候选节点的直接声誉值计算方式为:由第二次计算得到的该候选节点的直接声誉值{a2,b2,c2}的
Figure BDA0002818410310000111
加上第一次计算得到的初始直接声誉值{a1,b1,c1}的
Figure BDA0002818410310000112
得到该候选节点的初步直接声誉值{a′3,b′3,c′3};根据该初步直接声誉值和该候选节点最近一次与其他任务发布者合作时产生的推荐声誉值
Figure BDA0002818410310000113
计算得到该候选节点的当前声誉值
Figure BDA0002818410310000114
利用当前声誉值,根据判定规则并判断该候选节点是否是可信节点,如果是可信节点,将其作为工人节点,根据该工人节点在参与合作后的交互数据,利用主观逻辑模型计算得到本次的直接声誉值{a3,b3,c3}。
上述中,为了保证声誉值的安全性和可靠性,本申请实施例通过联盟链对任务发布者的声誉值进行分布式管理。声誉值管理方式分为两种情况,分别为:
一、任务发布者与工人节点完全陌生(即无交互历史);针对该情况的声誉值管理方式为:先从声誉区块链中下载其他任务发布者对该工人节点的直接声誉值,并根据公式(1)计算得出推荐声誉值;基于该推荐声誉值判断该工人节点是否为可信节点,如果是可信节点,根据本次交互情况,利用公式(2)计算出本次任务发布者对该工人节点的初始直接声誉值,并将该初始直接声誉值上传至声誉区块链中进行保管。
二、任务发布者与工人节点有过交互历史;针对该情况的声誉值管理方式为:先从声誉区块链中下载其他任务发布者对该工人节点的直接声誉值,并根据公式(1)计算得出推荐声誉值;然后,下载任务发布者在历史交互中对该工人节点的直接声誉值,根据推荐声誉值和直接声誉值计算得到当前声誉值,根据当前声誉值判断该工人节点是否为可信节点,如果是可信节点,根据本次交互情况,利用公式(2)计算出本次任务发布者对该工人节点的新的直接声誉值,并将该新的直接声誉值上传至声誉区块链中进行保管。
本申请实施例的联邦学习工人节点选择方法在选择工人节点时,通过主观逻辑模型结合每个任务发布者自己与工人节点的历史交互中产生的直接声誉值以及其他任务发布者对该工人节点的推荐声誉值生成一个当前声誉值,根据该当前声誉值进行工人节点的选择,从而可以更加准确的计算工人节点的声誉值,并采用联盟链对声誉值进行管理,可以更加高效地选择可靠的工人节点。
请参阅图2,是本申请实施例的联邦学习工人节点选择***的结构示意图。本申请实施例的联邦学习工人节点选择***40包括:
第一声誉值计算模块41:用于获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
第二声誉值计算模块42:用于获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
节点选择模块43:用于基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
请参阅图3,为本申请实施例的终端结构示意图。该终端50包括处理器51、与处理器51耦接的存储器52。
存储器52存储有用于实现上述联邦学习工人节点选择方法的程序指令。
处理器51用于执行存储器52存储的程序指令以控制联邦学习工人节点选择。
其中,处理器51还可以称为CPU(Central Processing Unit,中央处理单元)。处理器51可能是一种集成电路芯片,具有信号的处理能力。处理器51还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
请参阅图4,为本申请实施例的存储介质的结构示意图。本申请实施例的存储介质存储有能够实现上述所有方法的程序文件61,其中,该程序文件61可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本申请中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本申请所示的这些实施例,而是要符合与本申请所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种联邦学习工人节点选择方法,其特征在于,包括:
获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
2.根据权利要求1所述的联邦学习工人节点选择方法,其特征在于,所述计算所述候选节点的推荐声誉值具体为:
预定义一个推荐建议的权重参数σ,根据两个任务发布者之间的相似度δ对所述权重参数σ进行修正,得到改进后的权重参数ω,ω=σ×δ;
设与所述当前候选节点有交互历史的其他任务发布者集合S={s1,s2,...,sm},从声誉区块链中下载集合S中所有任务发布者对所述当前候选节点的直接声誉值,其中任务发布者si对所述当前候选节点的直接声誉值为
Figure FDA0002818410300000011
n为任务发布者si与该候选节点合作的总次数,则所述当前候选节点的推荐声誉值
Figure FDA0002818410300000012
计算公式为:
Figure FDA0002818410300000013
3.根据权利要求1所述的联邦学习工人节点选择方法,其特征在于,所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值之前还包括:
判断所述当前任务发布者与当前候选节点是否是第一次合作,如果是,
基于所述当前候选节点的推荐声誉值,判断所述当前候选节点是否是可信节点;如果是可信节点,
选择所述候选节点作为所述当前任务发布者的工人节点,并利用主观逻辑模型计算得到当前任务发布者对所述工人节点的初始直接声誉值。
4.根据权利要求3所述的联邦学习工人节点选择方法,其特征在于,所述初始直接声誉值{a1,b1,c1}计算公式为:
Figure FDA0002818410300000021
上式中,{1,...,i,...I}是一次合作中的各个时间段,ti是在i时间段内数据传输成功的概率,αi、βi分别表示i时间段内正交互次数和负交互次数,k、η分别表示正交互在计算中的权重和负交互的权重,zI-i是一个时间衰退函数;k≤η,k+η=1,z∈(0,1)。
5.根据权利要求4所述的联邦学习工人节点选择方法,其特征在于,所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值包括:
判断所述当前任务发布者与当前候选节点是否是第二次合作;如果是,
获取所述当前任务发布者与当前候选节点的初始直接声誉值,根据所述初始直接声誉值和推荐声誉值计算得到当前声誉值。
6.根据权利要求5所述的联邦学习工人节点选择方法,其特征在于,所述获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值还包括:
如果所述当前任务发布者与当前候选节点不是第二次合作,获取所述当前任务发布者对当前候选节点最近两次的直接声誉值;
将所述最近两次直接声誉值的
Figure FDA0002818410300000031
相加作为所述当前候选节点的初步直接声誉值;
根据所述初步直接声誉值与所述当前候选节点的推荐声誉值计算得到所述当前候选节点的当前声誉值。
7.根据权利要求1至6任一项所述的联邦学习工人节点选择方法,其特征在于,所述基于所述当前声誉值判断所述候选节点是否是可信节点具体为:
用{a,b,c}分别表示信任、不信任和不确定性,a+b+c=1;设参数u表示所述不确定性对声誉值的影响,u∈[0,1],则有A=a+uc,B=b+(1-u)c,A、B分别是进一步的信任值和不信任值;对于一个候选节点,若A≥2B,则判定所述候选节点为可信节点。
8.一种联邦学习工人节点选择***,其特征在于,包括:
第一声誉值计算模块:用于获取当前任务发布者选择的候选节点,并计算所述候选节点的推荐声誉值;所述推荐声誉值为其他任务发布者与所述候选节点在最近一次交互中产生的声誉值;
第二声誉值计算模块:用于获取当前任务发布者与所述候选节点至少最近一次的直接声誉值,根据所述直接声誉值和推荐声誉值计算得到所述候选节点的当前声誉值;所述直接声誉值为所述当前任务发布者与所述候选节点在历史交互中产生的声誉值;
节点选择模块:用于基于所述当前声誉值判断所述候选节点是否是可信节点,如果是可信节点,选取所述候选节点作为当前任务发布者的工作节点。
9.一种终端,其特征在于,所述终端包括处理器、与所述处理器耦接的存储器,其中,
所述存储器存储有用于实现权利要求1-7任一项所述的联邦学习工人节点选择方法的程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以控制联邦学习工人节点选择。
10.一种存储介质,其特征在于,存储有处理器可运行的程序指令,所述程序指令用于执行权利要求1至7任一项所述联邦学习工人节点选择方法。
CN202011405413.XA 2020-12-04 2020-12-04 一种联邦学习工人节点选择方法、***、终端以及存储介质 Pending CN114595826A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011405413.XA CN114595826A (zh) 2020-12-04 2020-12-04 一种联邦学习工人节点选择方法、***、终端以及存储介质
PCT/CN2021/082976 WO2022116421A1 (zh) 2020-12-04 2021-03-25 一种联邦学习工人节点选择方法、***、终端以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011405413.XA CN114595826A (zh) 2020-12-04 2020-12-04 一种联邦学习工人节点选择方法、***、终端以及存储介质

Publications (1)

Publication Number Publication Date
CN114595826A true CN114595826A (zh) 2022-06-07

Family

ID=81812215

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011405413.XA Pending CN114595826A (zh) 2020-12-04 2020-12-04 一种联邦学习工人节点选择方法、***、终端以及存储介质

Country Status (2)

Country Link
CN (1) CN114595826A (zh)
WO (1) WO2022116421A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115600219A (zh) * 2022-12-15 2023-01-13 湖南工商大学(Cn) 候选任务工作者声誉值的确定方法
CN115865642A (zh) * 2023-03-03 2023-03-28 中南大学 一种招募可信节点完成计算任务的方法和装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116306910B (zh) * 2022-09-07 2023-10-03 北京交通大学 一种基于联邦节点贡献的公平性隐私计算方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194721A (zh) * 2017-05-12 2017-09-22 中国人民解放军信息工程大学 基于声誉记录分析的服务推荐者发现方法
CN109951333A (zh) * 2019-03-19 2019-06-28 中南大学 边缘计算网络视频处理中基于主观逻辑的信任评估装置
CN112348204B (zh) * 2020-11-05 2022-09-16 大连理工大学 一种基于联邦学习和区块链技术的边缘计算框架下海洋物联网数据安全共享方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115600219A (zh) * 2022-12-15 2023-01-13 湖南工商大学(Cn) 候选任务工作者声誉值的确定方法
CN115600219B (zh) * 2022-12-15 2023-03-14 湖南工商大学 候选任务工作者声誉值的确定方法
CN115865642A (zh) * 2023-03-03 2023-03-28 中南大学 一种招募可信节点完成计算任务的方法和装置
CN115865642B (zh) * 2023-03-03 2023-05-09 中南大学 一种招募可信节点完成计算任务的方法和装置

Also Published As

Publication number Publication date
WO2022116421A1 (zh) 2022-06-09

Similar Documents

Publication Publication Date Title
CN114595826A (zh) 一种联邦学习工人节点选择方法、***、终端以及存储介质
US11526745B2 (en) Methods and apparatus for federated training of a neural network using trusted edge devices
US11153073B2 (en) Content validation using blockchain
US20200257543A1 (en) Aggregate Features For Machine Learning
WO2019128426A1 (en) Method for training model and information recommendation system
US8904149B2 (en) Parallelization of online learning algorithms
US20160132904A1 (en) Influence score of a brand
US20230376548A1 (en) Expert Detection in Social Networks
US20130042306A1 (en) Determining machine behavior
US8918382B1 (en) Learning common spelling errors through content matching
JP2018517959A (ja) ビデオのための代表ビデオフレームの選択
US20210158353A1 (en) Methods, systems, apparatuses, and devices for processing request in consortium blockchain
WO2018130201A1 (zh) 确定关联账号的方法、服务器及存储介质
WO2022179384A1 (zh) 一种社交群体的划分方法、划分***及相关装置
US20210109975A1 (en) People relevance platform
CN110545232A (zh) 群消息提示、数据处理方法及装置、电子设备及存储设备
CN116108393B (zh) 电力敏感数据分类分级方法、装置、存储介质及电子设备
CN109213476B (zh) 一种安装包的生成方法、计算机可读存储介质及终端设备
US20130159237A1 (en) Method for rule-based context acquisition
CN112528109B (zh) 一种数据分类方法、装置、设备及存储介质
JP6321874B1 (ja) サーバー装置
US20240185068A1 (en) Method for performing membership inference attack against generative models and apparatus for the same
NL2026283B1 (en) Method and system for identifying clusters of affiliated web resources
US20230350860A1 (en) Systems and methods for architecture embeddings for efficient dynamic synthetic data generation
CN117743674A (zh) 资源召回方法、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination