CN114764389A - 联合学***台 - Google Patents

联合学***台 Download PDF

Info

Publication number
CN114764389A
CN114764389A CN202110047867.2A CN202110047867A CN114764389A CN 114764389 A CN114764389 A CN 114764389A CN 202110047867 A CN202110047867 A CN 202110047867A CN 114764389 A CN114764389 A CN 114764389A
Authority
CN
China
Prior art keywords
data
information
load
model
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110047867.2A
Other languages
English (en)
Inventor
李振飞
王瑞扬
刘伟赫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ennew Digital Technology Co Ltd
Original Assignee
Ennew Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ennew Digital Technology Co Ltd filed Critical Ennew Digital Technology Co Ltd
Priority to CN202110047867.2A priority Critical patent/CN114764389A/zh
Publication of CN114764389A publication Critical patent/CN114764389A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3664Environments for testing or debugging software
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Bioethics (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Test And Diagnosis Of Digital Computers (AREA)

Abstract

本发明公开了联合学***台,包括服务器、客户端和运行环境,所述服务器提供计算服务,作为网络的节点,存储并处理网络上的数据和信息,所述客户端与服务器相对应,为客户提供本地服务的程序,一般安装在普通的客户机上,需要与服务器互相配合运行,所述运行环境对虚拟环境模拟参数进行判断。该联合学***台,使用模拟、抽象的形式,在实际的联合学***台,可以模拟不同的实际应用场景以验证不同的联合学习解决方案,实用性更强。

Description

联合学***台
技术领域
本发明涉及联合学***台。
背景技术
联合学***均或者加权平均,广播给每个边缘设备,联合学习是一种分布式机器学习方法,可以对保存在移动电话等设备上的大量分散数据进行学习,是“将代码引入数据,而不是将数据引入代码”的更加通用化的一个实现,并解决了关于隐私、所有权和数据位置等基本问题,联合学习可以实现更智能的模型,更低的延迟和更低的功耗,同时还确保隐私。
联合学***均处理,以改进共享模型。所有的学***台,不能模拟不同的实际应用场景以验证不同的联合学习解决方案的缺点。
发明内容
本发明的目的在于提供联合学***台,以解决上述背景技术中提出无法构建一个和真实环境相似的虚拟***异构测试平台的问题。
为实现上述目的,本发明提供如下技术方案:联合学***台,包括服务器、客户端和运行环境,
所述服务器提供计算服务,作为网络的节点,存储并处理网络上的数据和信息;
所述客户端与服务器相对应,为客户提供本地服务的程序,一般安装在普通的客户机上,需要与服务器互相配合运行;
所述运行环境对虚拟环境模拟参数进行判断。
优选的,所述服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,所述声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
优选的,所述客户端依次进行环境初始化、负载数据和负载模型,所述环境初始化的数据和信息发送至运行环境,所述运行环境每一轮的初始值一样,正态分布。
优选的,所述运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
优选的,所述加载数据(检测)分发数据集到客户端的负载数据,所述负载数据的数据和信息发送至负载模型。
优选的,所述负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
优选的,所述加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
优选的,所述本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,所述总计的数据和信息发送至全局测试。
优选的,所述全局测试经全局模型后将数据和信息发送至本地测试。
优选的,该联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤三:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
与现有技术相比,本发明的有益效果是:
该联合学***台,根据已知的***进行抽象、建模,使用模拟、抽象的形式,对联合学***台,可以模拟不同的实际应用场景以验证不同的联合学***均或者加权平均,广播给每个边缘设备,联合学习能产生更智能的模型,更低的延时和更少的功耗,同时确保用户的隐私,在云端形成针对一个共享模型的协同更新,将机器学习与云端存储数据的需求脱钩,让模型更聪明、延迟更低、更节能,而且保护用户隐私不受威胁,除了实现共享模型的更新,用户还能立刻使用改善后的模型,根据个人使用方式的不同,得到的体验也会不同,通过物联网接入相关数据,然后在本地进行模型学习、模型更新和计算存储,对各用户提供的模型进行一系列聚合计算和处理,并将联合之后的全局模型下发给各用户,往复迭代,直到学习出一个比较好的模型,便于用户更好的调用和价值共享,且适用于不同计算、通信、存储能力的边缘设备,功能性和实用性更强,操作方便,联合学习的效果更好。
附图说明
图1为本发明流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:联合学***台,包括服务器、客户端和运行环境,
服务器提供计算服务,作为网络的节点,存储并处理网络上的数据和信息;
客户端与服务器相对应,为客户提供本地服务的程序,一般安装在普通的客户机上,需要与服务器互相配合运行;
运行环境对虚拟环境模拟参数进行判断。
进一步的,服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
进一步的,客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
进一步的,运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
进一步的,加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
进一步的,负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
进一步的,加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
进一步的,本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
进一步的,全局测试经全局模型后将数据和信息发送至本地测试。
实施例一:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤三:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例二:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤三:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例三:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤三:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤七:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例四:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤三:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤七:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例五:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤三:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤四:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例六:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤三:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤四:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤五:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例七:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤三:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例八:
联合学***台,其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件
步骤三:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例九:
联合学***台,其步骤如下:
步骤一:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤二:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤三:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
实施例十:
联合学***台,其步骤如下:
步骤一:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤二:服务器可以声明客户端的各种参数、加载数据(检测)、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤三:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤四:加载数据(检测)分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:全局测试经全局模型后将数据和信息发送至本地测试。
步骤八:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
最后应当说明的是,以上内容仅用以说明本发明的技术方案,而非对本发明保护范围的限制,本领域的普通技术人员对本发明的技术方案进行的简单修改或者等同替换,均不脱离本发明技术方案的实质和范围。

Claims (10)

1.联合学***台,包括服务器、客户端和运行环境,其特征在于:
所述服务器提供计算服务,作为网络的节点,存储并处理网络上的数据和信息;
所述客户端与服务器相对应,为客户提供本地服务的程序,一般安装在普通的客户机上,需要与服务器互相配合运行;
所述运行环境对虚拟环境模拟参数进行判断。
2.根据权利要求1所述的联合学***台,其特征在于:所述服务器可以声明客户端的各种参数、加载数据、加载模型和学习,所述声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
3.根据权利要求2所述的联合学***台,其特征在于:所述客户端依次进行环境初始化、负载数据和负载模型,所述环境初始化的数据和信息发送至运行环境,所述运行环境每一轮的初始值一样,正态分布。
4.根据权利要求1所述的联合学***台,其特征在于:所述运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
5.根据权利要求3所述的联合学***台,其特征在于:所述加载数据分发数据集到客户端的负载数据,所述负载数据的数据和信息发送至负载模型。
6.根据权利要求3所述的联合学***台,其特征在于:所述负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
7.根据权利要求6所述的联合学***台,其特征在于:所述加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
8.根据权利要求6所述的联合学***台,其特征在于:所述本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,所述总计的数据和信息发送至全局测试。
9.根据权利要求7所述的联合学***台,其特征在于:所述全局测试经全局模型后将数据和信息发送至本地测试。
10.根据权利要求1-9任一项所述的联合学***台,其特征在于:其步骤如下:
步骤一:服务器可以声明客户端的各种参数、加载数据、加载模型和学习,声明客户端的各种参数经初始化客户端列表/参数将数据和信息发送至客户端。
步骤二:客户端依次进行环境初始化、负载数据和负载模型,环境初始化的数据和信息发送至运行环境,运行环境每一轮的初始值一样,正态分布。
步骤三:运行环境中的虚拟模拟环境参数包括:运行速度、净速度、通信和硬件。
步骤四:加载数据分发数据集到客户端的负载数据,负载数据的数据和信息发送至负载模型。
步骤五:负载模型的数据和信息分成两条线路,一条送往本地学习,一条送往本地测试。
步骤六:加载模型的数据和信息发送至学习进行判断,当判断为“Y”时,模型分发至本地学习,当判断为“N”时,数据和信息发送至全局测试。
步骤七:本地学习的数据和信息经过损失/准确度/型号参数后发送至总计,总计的数据和信息发送至全局测试。
步骤八:全局测试经全局模型后将数据和信息发送至本地测试。
CN202110047867.2A 2021-01-14 2021-01-14 联合学***台 Pending CN114764389A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110047867.2A CN114764389A (zh) 2021-01-14 2021-01-14 联合学***台

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110047867.2A CN114764389A (zh) 2021-01-14 2021-01-14 联合学***台

Publications (1)

Publication Number Publication Date
CN114764389A true CN114764389A (zh) 2022-07-19

Family

ID=82363675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110047867.2A Pending CN114764389A (zh) 2021-01-14 2021-01-14 联合学***台

Country Status (1)

Country Link
CN (1) CN114764389A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024119878A1 (zh) * 2022-12-09 2024-06-13 北京知道创宇信息技术股份有限公司 一种威胁情报***及威胁情报模型训练方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024119878A1 (zh) * 2022-12-09 2024-06-13 北京知道创宇信息技术股份有限公司 一种威胁情报***及威胁情报模型训练方法

Similar Documents

Publication Publication Date Title
Cui et al. Trading off between user coverage and network robustness for edge server placement
Qu et al. ChainFL: A simulation platform for joint federated learning and blockchain in edge/cloud computing environments
WO2020259502A1 (zh) 神经网络模型的生成方法及装置、计算机可读存储介质
Zhou et al. [Retracted] Machine Learning‐Based Offloading Strategy for Lightweight User Mobile Edge Computing Tasks
Jayasena et al. Optimized task scheduling on fog computing environment using meta heuristic algorithms
CN113505882B (zh) 基于联邦神经网络模型的数据处理方法、相关设备及介质
US20080104609A1 (en) System and method for load balancing distributed simulations in virtual environments
CN114626547A (zh) 一种基于区块链的群组协同学习方法
CN110753107A (zh) 天基云雾计算架构下的资源调度***、方法和存储介质
Xu et al. Service migration across edge devices in 6G-enabled Internet of Vehicles networks
CN113312177B (zh) 一种基于联邦学习的无线边缘计算***、优化方法
Soleymani et al. Fuzzy Rule‐Based Trust Management Model for the Security of Cloud Computing
CN114764389A (zh) 联合学***台
CN114564882A (zh) 基于离散事件的边缘深度学习模拟器的构建与应用
CN108289115B (zh) 一种信息处理方法及***
Wang et al. Computation offloading via Sinkhorn’s matrix scaling for edge services
CN111368060B (zh) 对话机器人的自学习方法、装置、***、电子设备及介质
Mueller-Bady et al. Optimization of monitoring in dynamic communication networks using a hybrid evolutionary algorithm
CN113487041B (zh) 横向联邦学习方法、装置及存储介质
CN110012021A (zh) 一种移动边缘计算下的自适应计算迁移方法
CN117033997A (zh) 数据切分方法、装置、电子设备和介质
Jabour et al. An optimized approach for efficient-power and low-latency fog environment based on the PSO algorithm
CN109271371A (zh) 一种基于Spark的分布式多层大数据分析处理模型
CN113191733A (zh) 一种基于互联网的项目多方协同管理***及方法
Chen et al. Fog computing support scheme based on fusion of location service and privacy preservation for QoS enhancement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination