CN113159279A - 基于神经网络与深度学习的跨域知识协助方法与*** - Google Patents

基于神经网络与深度学习的跨域知识协助方法与*** Download PDF

Info

Publication number
CN113159279A
CN113159279A CN202110289106.8A CN202110289106A CN113159279A CN 113159279 A CN113159279 A CN 113159279A CN 202110289106 A CN202110289106 A CN 202110289106A CN 113159279 A CN113159279 A CN 113159279A
Authority
CN
China
Prior art keywords
data
training
module
data training
storage module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110289106.8A
Other languages
English (en)
Other versions
CN113159279B (zh
Inventor
邢廷炎
周长兵
杨艳霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Geosciences Beijing
Original Assignee
China University of Geosciences Beijing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Geosciences Beijing filed Critical China University of Geosciences Beijing
Priority to CN202110289106.8A priority Critical patent/CN113159279B/zh
Publication of CN113159279A publication Critical patent/CN113159279A/zh
Application granted granted Critical
Publication of CN113159279B publication Critical patent/CN113159279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • G06F16/215Improving data quality; Data cleansing, e.g. de-duplication, removing invalid entries or correcting typographical errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/278Data partitioning, e.g. horizontal or vertical partitioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于神经网络与深度学习的跨域知识协助***,包括分布在不同知识领域的多个设备(1)、深度学习协调模块(2)和全局数据存储模块(9);每个设备(1)包括数据清理模块(3)、数据获取模块(4)和数据读取模块(5);所述设备(1)还包括单机存储模块(7),所述单机存储模块(7)分别和所述数据清理模块(3)、所述数据获取模块(4)和数据读取模块(5)数据通信连接。本发明的面向联邦机器学习的全流程服务迁移方法与***,本申请在进行数据记录训练前,对数据记录进行数据清理,以便剔除数据记录异常的部分,以便保证数据记录的准确性,从而保证数据模型的准确。

Description

基于神经网络与深度学习的跨域知识协助方法与***
技术领域
本发明涉及在智能制造技术领域,具体为一种基于神经网络与深度学习的跨域知识协助方法与***。
背景技术
21世纪已经从初步的自动化转变到高度自动化的时代,即智能化的时代。智能化的时代,给我们的生活、工作和工业生产和管理都带来了实实在在的帮助,如基于人工智能化的智能家居、家电,工业化生产中的工业机器人和工业监视机器人等,这些都是随着科学技术的快速发展,越来越多地出现在人们的生活中,可以说,人类社会的生产和生活的极大的提高,都依赖于技术的进步,但是自动化的操作和智能化的控制通常需要计算机或者微型计算机去处理众多的逻辑关系,因此,其需要进行大量的数学计算和逻辑计算,这必然会提高对处理器的逻辑计算能力需求,而大规模集成电路或超大规模集成电路的运算处理能力,也直接影响到了其生产成本。二十世纪,是一个智能化生产和智能制造的年底,现今生活中,设备不仅自己智能化,自动化,而且,还从以前设备单独的运行,到如今的协同化操作,这其中就离不开跨域、跨设备的运行和协作,而其中必然就涉及了不同设备或领域之间的而对有智能化的计算和人工智能的发展,其对处理器的运算处理能力需求进一步加强。
另外一方面,在实现人工智能方面,一个重要的研究就是利用模仿人类处理事务的能力,即模仿人类面对事件即输入,采用的处理手段或技术即输出,而形成输入和输出的映射关系;现今,提出另外一个研究去解决该映射关系的方法,即深度学习,深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据。
如专利CN110489395A公开了本发明公开的一种自动获取多源异构数据知识的方法,旨在提供一种更加具有完整性、通用性和便捷性,有利于知识的传递的获取的方法。其通过下述技术方案予以实现:采取自顶向下或自底向上的方式定义概念-实体-属性-关系-标签,得到实体对象的知识模型,然后通过数据直接保存和爬虫软件、OCR等识别软件获取数据,得到知识数据,完成异构数据源到异构知识源的转换;通过结构化知识生成方法得到已知知识模式下的实体-属性-关系的三元组实例化;再使用长短期记忆网络模型(LSTM模型)与发布者-完成者协作模式进行知识和知识模型的更新,得到扩展补充新知识的工作流,利用知识建模形成的知识模型,得到包含概念、实体、关系、属性值实例化三元组的数据流。
专利CN 111461153A公开了一种人群特征深度学习方法,该方法包括建立多种人群特征分类数据库,还包括以下步骤:对多种人群特征数据库与数据库分类模型比对形成六个维度相对的十二项行为类型,构建多种人群特征分类数据库,作为判断人群行为趋向2)所述有效识别行为特征与多人群特征数据库比对,确定目标人员的人群特征类型,并更新多人群特征数据库;3)根据使用者不同应用场景应用深度学习模型,优化人群特征数据库内形成适应使用者的深度学习数据库;4)根据人群不同行为特征,匹配相应的服务模式。为社会活动提供行为特征数据支撑,从而使各项宣传、营销动作,职场选拔、因人施教方面的匹配服务模式。
专利CN109716382A公开了一种用于管理、评估和监测一行动计划内的受试者对任务绩效需求的遵从性的***,包括:光学传感器,用于在遵从性评估和监测环节捕捉受试者的面部表情、眼动、注视点和受试者的头部姿势;领域知识数据库,包括概念数据实体和任务数据实体,每个概念数据实体包括知识与技能内容项,每个任务数据实体包括讲演内容材料项;受试者模块,用于使用光学传感器采集的传感数据评估受试者的情感状态和认知状态;训练器模块,用于在每次完成任务数据实体之后,根据受试者对相关概念数据实体的知识与技能内容项的理解概率以及受试者达成目标遵从性程度的概率,选择向受试者递送和呈现的任务数据实体。
专利CN112308240A公开了一种一种基于联邦学习的边缘侧机器协同与优化的***,包括:R个联邦学习***,R≥1,模型参数分发单元,以及模型训练和优化单元。R个联邦学习***中第i个联邦学习***包括运行经验分布不均匀的M i个边缘侧机器,M i≥2,i=1、2、……、R。模型参数分发单元用于向Mi个边缘侧机器分发联邦学习的初始参数,接收中间模型参数,以及将接收的中间模型参数进行聚合与更新,得到新模型参数。模型训练和优化单元用于基于初始参数和各自的运行数据对本地的运行模型进行训练,将训练之后得到中间模型参数发送至模型参数分发单元;以及根据新模型参数得到***协同运行模型。其中,本地的运行模型为针对不同的运行环境进行工作响应的模型。
专利CN110750591A公开了一种以计算机***实现的人工智能知识管理***,其中设有输入管理模块,用以管理在开发人工智能模型时使用的类神经网络算法的输入数据;设有人工智能模型管理模块,用以管理人工智能模型,提供选择;设有输出管理模块,用以管理开发人工智能模型时以类神经网络算法产生的输出数据;之后以演算结果管理模块管理每次演算的结果,并提供调整人工智能模型的参数,以及重新演算产生的输出数据,以此建构一知识库,并通过一区块链技术形成散布于多个区块链节点的分布式记录。
专利CN110427406A公开了一种组织机构相关人员关系的挖掘方法及装置。所述方法包括:获取组织机构相关自然人及自然人所属组织机构的各维度数据信息集合;获取根据自然人姓名或其他属性信息聚类后的人员所属组织机构各维度的特征子集合;将同类自然人所属的组织机构进行组合,依据每个组合的相似性特征进行向量转化;根据相似性向量训练同名人分类模型,并使用模型预测分类结果;根据分类结果,合并同一自然人,聚合关联自然人、自然人所属组织机构和关联组织机构数据集合,生成组织机构相关人员关系结构。本发明实施例能够准确而直观的挖掘出不同组织机构相关人员的相互关系,从而满足了在孤立分散的组织机构相关人员间建立联系的需求。
可见,目前,在人工智能化或者进行多个各设备间跨域的进行知识学习协助技术方面还存在以下缺陷:
1.在现有技术中,强化学习训练模型通常利用自身收集的数据进行学习、优化和控制,对数据的处理很少是跨域进行知识协助,或者协助数据处理中,由于需要提供足够数据的和相关的数据关联以实现智能化,但是,对于数据处理方面,并没有有效和快速处理的方法,以便尽快训练得到数据训练模型。
2.现有技术中,为了综合和汇总各类数据,虽然针对数据孤岛和数据隐私的两难问题,多家机构和学者提出解决办法,但是对多个数据的安全访问和处理并无有效的办法。
3.现有技术中,对数据记录的训练时,未考虑数据量的大小和数量的多少,直接对所有的数据进行训练以便获得模型时,容易导致数据量太大,从而一方面数据运算量大,数据运算困难;同时数据量量大容易导致数据训练模型不准确。
4.现有技术中,对数据记录中,可能存在的异常数据记录并未进行数据初步清理,容易产生异常数据导致数据训练得到的模型异常。
面对上述技术问题,人们希望提供一种能够快速进行数据训练,同时降低对数据处理***的能力的需求的数据训练模型的技术手段,以便快速处理数据的得到数据模型的技术方案。但到目前为止,现有技术中并无有效办法解决上述技术难题。
面对上述技术问题,希望提供一种基于神经网络与深度学习的跨域知识协助方法与***,以解决上述技术问题。
发明内容
针对上述技术问题,本发明的目的在于提供一种基于神经网络与深度学习的跨域知识协助方法与***,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于神经网络与深度学习的跨域知识协助***,包括分布在不同知识领域的多个设备、深度学习协调模块和全局数据存储模块;每个设备包括数据清理模块、数据获取模块和数据读取模块;所述设备还包括单机存储模块,所述单机存储模块分别和所述数据清理模块、所述数据获取模块和数据读取模块数据通信连接;
数据训练融合子模块,所述数据训练融合子模块设置于部分所述设备上;设置有所述数据训练融合子模块的所述设备上设置局域数据存储模块,所述局域数据存储模块分别和所述数据训练融合子模块、所述数据读取模块数据通信连接;
所述深度学习协调模块、所述数据读取模块、所述数据训练融合子模块、所述局域数据存储模块和所述全局数据存储模块之间通过数据通信网络进行数据通信连接;所述深度学习协调模块对所有参与数据训练学习的设备、工作模块和数据进度调度;
在进行数据训练学习时,所述设备在运行中,所述数据获取模块获取安装在该设备上的运行数据和状态数据,形成数据记录,并将所述数据记录存储于所述设备的所述单机存储模块,所述数据清理模块读取存储于所述单机存储模块中的所述数据记录,并利用数理统计方法和设定的要求去分析每条所述数据记录,在发现某条数据记录出现明显不合理时,将该条数据记录删除;
所述深度学习协调模块对所有的设备进行分组,将所有的所述设备按照一定的规则分成数个分组,并保证每个所述分组中存在至少一个所述数据训练融合子模块,并将所述分组的信息发送给所述数据读取模块、所述数据训练融合子模块和所述局域数据存储模块,并且修改所述数据读取模块、所述数据训练融合子模块和所述局域数据存储模块的所述数据记录的读取权限;
所述数据训练融合子模块依据所述深度学习协调模块分配的读取权限,和其对应的分组的所述数据读取模块建立数据通信连接,从而所述数据训练融合子模块通过所述数据读取模块读取存储于所述单机存储模块中存储的数据记录进行数据学习训练,得出数据训练子模型,并将所述数据训练子模型存储于所述局域数据存储模块和所述全局数据存储模块中,其中,在各分组的所述数据训练融合子模块进行数据训练以得到数据训练子模型时,读取存储于所述全局数据存储模块中其它分组通过数据训练得的数据训练子模型作为初始模型以便进行快速收敛的到数据训练子模型;
其中,所述全局数据存储模块的存储的数据训练子模型数量为一定值,并在得到的数据训练子模型数量超过所述定值时,删除最开始存储的所述数据训练子模型,并记录删除的所述数据训练子模型的数量;并在删除了一规定数量的所述数据训练子模型时,停止进行对所述分组进行数据训练;
对最后剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块进行存储。
优选的,所述深度学习协调模块随机从各分组的数据记录中抽取一定量的数据记录发送给所述全局数据存储模块;对所述总的所述数据联邦模型进行校验,在所述数据记录利用该总的所述数据联邦模型进行校验中,数据输出和数据记录中的数据符合模型精度要求时,则该总的所述数据联邦模型建立完成,否则,所述深度学习协调模块给所述分组增加所述数据训练融合子模块获取数据训练子模型的次数,并再次进行获取数据训练子模型的过程;最后对剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块进行存储。
优选的,在所述数据读取模块、所述数据训练融合子模块、所述局域数据存储模块和所述全局数据存储模块和所述深度学习协调模块之间进行的数据通信和数据的存取都采用加密的方式进行,以保证数据记录在传输中的安全性。
优选的,在所述数据清理模块进行数据记录的数据清理时,利用已有的历史数据记录或存储于所述局域数据存储模块中的数据训练子模型对数据进行初步数据清理,对每条数据记录进行分析,在数据记录出现偏离一定程度时,剔除该数据记录,以使得数据记录清理更加准确。
优选的,所述深度学习协调模块对所述设备中的所述单机存储模块中的数据进行清理和异常分析时,剔除的不合理的数据记录发送给所述深度学习协调模块,从而通过所述深度学习协调模块对这些数据记录进行处理,并分析出现数据记录异常其中的原因,以便后续修改数据训练子模型的参数。
优选的,在利用所述深度学习协调模块对所有的设备进行分组时,预先获取各所述设备的数据记录量的大小,并且分组时,将数据记录量大的在同一分组,而数据记录量小的为一个分组,以便防止数据记录量大的数据记录在进行数据训练时淹没了数量记录量小的数据,以便构建总的深度数据训练模型准确性。
优选的,在利用所述深度学习协调模块对所有的设备进行分组时,预先获取各所述设备的数据记录量的大小,并且分组时,对数据记录量大的分组的所述设备的数量少,而数据记录量小的分组,所述设备的数量多,以便保证每个分组的所述数据记录的数量适中,以便使得所有的所述数据训练融合子模块的计算量合适。
优选的,在对分组通过所述数据训练融合子模块进行数据训练得到所述数据训练子模型时,每完成一定次数的所述数据训练子模型时,所述深度学习协调模块重新对所述设备进行分组,然后再次利用所述数据训练融合子模块进行数据训练得到所述数据训练子模型,以加快数据训练模型的准确性。
另外一方面,本申请还提供一种基于神经网络与深度学习的跨域知识协助方法,包括基于神经网络与深度学习的跨域知识协助***,包括如下步骤:
步骤S1,初始化所述基于神经网络与深度学习的跨域知识协助***,所述深度学习协调模块预先获取各所述设备的数据记录量的大小,在利用对所有的设备进行分组时,将数据记录量大的在同一分组,而数据记录量小的为一个分组,以便防止数据记录量大的数据记录在进行数据训练时淹没了数量记录量小的数据,对数据记录量大的分组的所述设备的数量少,而数据记录量小的分组,所述设备的数量多,以便保证每个分组的所述数据记录的数量适中;并保证每个所述分组中存在至少一个所述数据训练融合子模块,并将所述分组的信息发送给所述数据读取模块、所述数据训练融合子模块和所述局域数据存储模块,并且修改所述数据读取模块、所述数据训练融合子模块和所述局域数据存储模块的所述数据记录的读取权限;
步骤S2,所述数据清理模块读取存储于所述单机存储模块中的所述数据记录,并利用数理统计方法和设定的要求去分析每条所述数据记录,在发现某条数据记录出现明显不合理时,将该条数据记录删除;
步骤S3,所述数据训练融合子模块依据所述深度学习协调模块分配的读取权限,和其对应的分组的所述数据读取模块建立数据通信连接,从而所述数据训练融合子模块通过所述数据读取模块读取存储于所述单机存储模块中存储的数据记录进行数据学习训练,得出数据训练子模型;
步骤S4,将所述数据训练子模型存储于所述局域数据存储模块和所述全局数据存储模块中,其中,在各分组的所述数据训练融合子模块进行数据训练以得到数据训练子模型时,读取存储于所述全局数据存储模块中其它分组通过数据训练得的数据训练子模型作为初始模型以便进行快速收敛的到数据训练子模型;
步骤S5,所述全局数据存储模块的存储的数据训练子模型数量为一定值,并在得到的数据训练子模型数量超过所述定值时,删除最开始存储的所述数据训练子模型,并记录删除的所述数据训练子模型的数量;并在删除了一规定数量的所述数据训练子模型时,停止进行对所述分组进行数据训练;
步骤S6,对最后剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块进行存储。
优选的,在对分组通过所述数据训练融合子模块进行数据训练得到所述数据训练子模型时,每完成一定次数的所述数据训练子模型时,所述深度学习协调模块重新对所述设备进行分组,然后再次利用所述数据训练融合子模块进行数据训练得到所述数据训练子模型,以加快数据训练模型的准确性。
与现有技术相比,本发明的有益效果是:
1、本发明的基于神经网络与深度学习的跨域知识协助方法与***,采用深度学习和神经网络的技术,对数据训练中的参数采用已有的模型进行优化,以便实现加快数据训练模型生成方式,从而使得训练更加准确,另外一个可以减小数据整体成本。
2、本发明的基于神经网络与深度学习的跨域知识协助方法与***,在对设备进行分组以便数据训练时,预先获取各所述设备的数据记录量的大小,并且分组时,将数据记录量大的在同一分组,而数据记录量小的为一个分组,以便防止数据记录量大的数据记录在进行数据训练时淹没了数量记录量小的数据,以便构建总的所述数据联邦模型准确性;同时,对数据记录量大的分组的所述设备的数量少,而数据记录量小的分组,所述设备的数量多,以便保证每个分组的所述数据记录的数量适中,以便使得所有的所述数据训练融合子模块的计算量合适。
3、本发明的基于神经网络与深度学习的跨域知识协助方法与***,本申请在进行数据记录训练前,对数据记录进行数据清理,以便剔除数据记录异常的部分,以便保证数据记录的准确性,从而保证数据模型的准确。
附图说明
图1为本发明的整体结构示意图;
图2为本发明的各模块的数据流程结构示意图。
图中:1、设备;2、深度学习协调模块;3、数据清理模块;4、数据获取模块;5、数据读取模块;6、数据训练融合子模块;7、单机存储模块;8、局域数据存储设备;9、全局数据存储模块;10、分组。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
具体实施例一:
一种基于神经网络与深度学习的跨域知识协助***,包括分布在不同知识领域的多个设备1、深度学习协调模块2和全局数据存储模块9;每个设备1包括数据清理模块3、数据获取模块4和数据读取模块5;所述设备1还包括单机存储模块7,所述单机存储模块7分别和所述数据清理模块3、所述数据获取模块4和数据读取模块5数据通信连接;
数据训练融合子模块6,所述数据训练融合子模块6设置于部分所述设备1上;设置有所述数据训练融合子模块6的所述设备1上设置局域数据存储模块8,所述局域数据存储模块8分别和所述数据训练融合子模块6、所述数据读取模块5数据通信连接;
所述深度学习协调模块2、所述数据读取模块5、所述数据训练融合子模块6、所述局域数据存储模块8和所述全局数据存储模块9之间通过数据通信网络进行数据通信连接;所述深度学习协调模块2对所有参与数据训练学习的设备1、工作模块和数据进度调度;
在进行数据训练学习时,所述设备1在运行中,所述数据获取模块4获取安装在该设备1上的运行数据和状态数据,形成数据记录,并将所述数据记录存储于所述设备1的所述单机存储模块7,所述数据清理模块3读取存储于所述单机存储模块7中的所述数据记录,并利用数理统计方法和设定的要求去分析每条所述数据记录,在发现某条数据记录出现明显不合理时,将该条数据记录删除;
所述深度学习协调模块2对所有的设备1进行分组,将所有的所述设备1按照一定的规则分成数个分组10,并保证每个所述分组10中存在至少一个所述数据训练融合子模块6,并将所述分组的信息发送给所述数据读取模块5、所述数据训练融合子模块6和所述局域数据存储模块9,并且修改所述数据读取模块5、所述数据训练融合子模块6和所述局域数据存储模块5的所述数据记录的读取权限;
所述数据训练融合子模块6依据所述深度学习协调模块2分配的读取权限,和其对应的分组的所述数据读取模块5建立数据通信连接,从而所述数据训练融合子模块6通过所述数据读取模块5读取存储于所述单机存储模块7中存储的数据记录进行数据学习训练,得出数据训练子模型,并将所述数据训练子模型存储于所述局域数据存储模块8和所述全局数据存储模块9中,其中,在各分组的所述数据训练融合子模块6进行数据训练以得到数据训练子模型时,读取存储于所述全局数据存储模块9中其它分组通过数据训练得的数据训练子模型作为初始模型以便进行快速收敛的到数据训练子模型;
其中,所述全局数据存储模块9的存储的数据训练子模型数量为一定值,并在得到的数据训练子模型数量超过所述定值时,删除最开始存储的所述数据训练子模型,并记录删除的所述数据训练子模型的数量;并在删除了一规定数量的所述数据训练子模型时,停止进行对所述分组进行数据训练;
对最后剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块9进行存储。
优选的,所述深度学习协调模块2随机从各分组的数据记录中抽取一定量的数据记录发送给所述全局数据存储模块8;对所述总的所述数据联邦模型进行校验,在所述数据记录利用该总的所述数据联邦模型进行校验中,数据输出和数据记录中的数据符合模型精度要求时,则该总的所述数据联邦模型建立完成,否则,所述深度学习协调模块2给所述分组增加所述数据训练融合子模块6获取数据训练子模型的次数,并再次进行获取数据训练子模型的过程;最后对剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块9进行存储。
优选的,在所述数据读取模块5、所述数据训练融合子模块6、所述局域数据存储模块8和所述全局数据存储模块9和所述深度学习协调模块2之间进行的数据通信和数据的存取都采用加密的方式进行,以保证数据记录在传输中的安全性。
优选的,在所述数据清理模块3进行数据记录的数据清理时,利用已有的历史数据记录或存储于所述局域数据存储模块8中的数据训练子模型对数据进行初步数据清理,对每条数据记录进行分析,在数据记录出现偏离一定程度时,剔除该数据记录,以使得数据记录清理更加准确。
优选的,所述深度学习协调模块2对所述设备1中的所述单机存储模块7中的数据进行清理和异常分析时,剔除的不合理的数据记录发送给所述深度学习协调模块2,从而通过所述深度学习协调模块2对这些数据记录进行处理,并分析出现数据记录异常其中的原因,以便后续修改数据训练子模型的参数。
优选的,在利用所述深度学习协调模块2对所有的设备1进行分组时,预先获取各所述设备1的数据记录量的大小,并且分组时,将数据记录量大的在同一分组,而数据记录量小的为一个分组,以便防止数据记录量大的数据记录在进行数据训练时淹没了数量记录量小的数据,以便构建总的深度数据训练模型准确性。
优选的,在利用所述深度学习协调模块2对所有的设备1进行分组时,预先获取各所述设备1的数据记录量的大小,并且分组时,对数据记录量大的分组的所述设备1的数量少,而数据记录量小的分组,所述设备1的数量多,以便保证每个分组的所述数据记录的数量适中,以便使得所有的所述数据训练融合子模块4的计算量合适。
优选的,在对分组通过所述数据训练融合子模块4进行数据训练得到所述数据训练子模型时,每完成一定次数的所述数据训练子模型时,所述深度学习协调模块2重新对所述设备1进行分组,然后再次利用所述数据训练融合子模块4进行数据训练得到所述数据训练子模型,以加快数据训练模型的准确性。
具体实施例二:
一种基于神经网络与深度学习的跨域知识协助方法,包括基于神经网络与深度学习的跨域知识协助***,包括如下步骤:
步骤S1,初始化所述基于神经网络与深度学习的跨域知识协助***,所述深度学习协调模块2预先获取各所述设备1的数据记录量的大小,在利用对所有的设备1进行分组时,将数据记录量大的在同一分组,而数据记录量小的为一个分组,以便防止数据记录量大的数据记录在进行数据训练时淹没了数量记录量小的数据,对数据记录量大的分组的所述设备1的数量少,而数据记录量小的分组,所述设备1的数量多,以便保证每个分组的所述数据记录的数量适中;并保证每个所述分组中存在至少一个所述数据训练融合子模块6,并将所述分组的信息发送给所述数据读取模块5、所述数据训练融合子模块6和所述局域数据存储模块9,并且修改所述数据读取模块5、所述数据训练融合子模块6和所述局域数据存储模块5的所述数据记录的读取权限;
步骤S2,所述数据清理模块3读取存储于所述单机存储模块7中的所述数据记录,并利用数理统计方法和设定的要求去分析每条所述数据记录,在发现某条数据记录出现明显不合理时,将该条数据记录删除;
步骤S3,所述数据训练融合子模块4依据所述深度学习协调模块2分配的读取权限,和其对应的分组的所述数据读取模块5建立数据通信连接,从而所述数据训练融合子模块4通过所述数据读取模块5读取存储于所述单机存储模块7中存储的数据记录进行数据学习训练,得出数据训练子模型;
步骤S4,将所述数据训练子模型存储于所述局域数据存储模块8和所述全局数据存储模块9中,其中,在各分组的所述数据训练融合子模块6进行数据训练以得到数据训练子模型时,读取存储于所述全局数据存储模块9中其它分组通过数据训练得的数据训练子模型作为初始模型以便进行快速收敛的到数据训练子模型;
步骤S5,所述全局数据存储模块9的存储的数据训练子模型数量为一定值,并在得到的数据训练子模型数量超过所述定值时,删除最开始存储的所述数据训练子模型,并记录删除的所述数据训练子模型的数量;并在删除了一规定数量的所述数据训练子模型时,停止进行对所述分组进行数据训练;
步骤S6,对最后剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块9进行存储。
优选的,在对分组通过所述数据训练融合子模块4进行数据训练得到所述数据训练子模型时,每完成一定次数的所述数据训练子模型时,所述深度学习协调模块2重新对所述设备1进行分组,然后再次利用所述数据训练融合子模块4进行数据训练得到所述数据训练子模型,以加快数据训练模型的准确性。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (10)

1.一种基于神经网络与深度学习的跨域知识协助***,包括分布在不同知识领域的多个设备(1)、深度学习协调模块(2)和全局数据存储模块(9);每个设备(1)包括数据清理模块(3)、数据获取模块(4)和数据读取模块(5);所述设备(1)还包括单机存储模块(7),所述单机存储模块(7)分别和所述数据清理模块(3)、所述数据获取模块(4)和数据读取模块(5)数据通信连接;
数据训练融合子模块(6),所述数据训练融合子模块(6)设置于部分所述设备(1)上;设置有所述数据训练融合子模块(6)的所述设备(1)上设置局域数据存储模块(8),所述局域数据存储模块(8)分别和所述数据训练融合子模块(6)、所述数据读取模块(5)数据通信连接;
所述深度学习协调模块(2)、所述数据读取模块(5)、所述数据训练融合子模块(6)、所述局域数据存储模块(8)和所述全局数据存储模块(9)之间通过数据通信网络进行数据通信连接;所述深度学习协调模块(2)对所有参与数据训练学习的设备(1)、工作模块和数据进度调度;
其特征在于:
在进行数据训练学习时,所述设备(1)在运行中,所述数据获取模块(4)获取安装在该设备(1)上的运行数据和状态数据,形成数据记录,并将所述数据记录存储于所述设备(1)的所述单机存储模块(7),所述数据清理模块(3)读取存储于所述单机存储模块(7)中的所述数据记录,并利用数理统计方法和设定的要求去分析每条所述数据记录,在发现某条数据记录出现明显不合理时,将该条数据记录删除;
所述深度学习协调模块(2)对所有的设备(1)进行分组,将所有的所述设备(1)按照一定的规则分成数个分组(10),并保证每个所述分组(10)中存在至少一个所述数据训练融合子模块(6),并将所述分组的信息发送给所述数据读取模块(5)、所述数据训练融合子模块(6)和所述局域数据存储模块(9),并且修改所述数据读取模块(5)、所述数据训练融合子模块(6)和所述局域数据存储模块(5)的所述数据记录的读取权限;
所述数据训练融合子模块(6)依据所述深度学习协调模块(2)分配的读取权限,和其对应的分组的所述数据读取模块(5)建立数据通信连接,从而所述数据训练融合子模块(6)通过所述数据读取模块(5)读取存储于所述单机存储模块(7)中存储的数据记录进行数据学习训练,得出数据训练子模型,并将所述数据训练子模型存储于所述局域数据存储模块(8)和所述全局数据存储模块(9)中,其中,在各分组的所述数据训练融合子模块(6)进行数据训练以得到数据训练子模型时,读取存储于所述全局数据存储模块(9)中其它分组通过数据训练得的数据训练子模型作为初始模型以便进行快速收敛的到数据训练子模型;
其中,所述全局数据存储模块(9)的存储的数据训练子模型数量为一定值,并在得到的数据训练子模型数量超过所述定值时,删除最开始存储的所述数据训练子模型,并记录删除的所述数据训练子模型的数量;并在删除了一规定数量的所述数据训练子模型时,停止进行对所述分组进行数据训练;
对最后剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块(9)进行存储。
2.根据权利要求1所述的一种基于神经网络与深度学习的跨域知识协助***,其特征在于:所述深度学习协调模块(2)随机从各分组的数据记录中抽取一定量的数据记录发送给所述全局数据存储模块(8);对所述总的所述数据联邦模型进行校验,在所述数据记录利用该总的所述数据联邦模型进行校验中,数据输出和数据记录中的数据符合模型精度要求时,则该总的所述数据联邦模型建立完成,否则,所述深度学习协调模块(2)给所述分组增加所述数据训练融合子模块(6)获取数据训练子模型的次数,并再次进行获取数据训练子模型的过程;最后对剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块(9)进行存储。
3.根据权利要求1所述的一种基于神经网络与深度学习的跨域知识协助***,其特征在于:在所述数据读取模块(5)、所述数据训练融合子模块(6)、所述局域数据存储模块(8)和所述全局数据存储模块(9)和所述深度学习协调模块(2)之间进行的数据通信和数据的存取都采用加密的方式进行,以保证数据记录在传输中的安全性。
4.根据权利要求1所述的一种基于神经网络与深度学习的跨域知识协助***,其特征在于:在所述数据清理模块(3)进行数据记录的数据清理时,利用已有的历史数据记录或存储于所述局域数据存储模块(8)中的数据训练子模型对数据进行初步数据清理,对每条数据记录进行分析,在数据记录出现偏离一定程度时,剔除该数据记录,以使得数据记录清理更加准确。
5.根据权利要求4所述的一种基于神经网络与深度学习的跨域知识协助***,其特征在于:所述深度学习协调模块(2)对所述设备(1)中的所述单机存储模块(7)中的数据进行清理和异常分析时,剔除的不合理的数据记录发送给所述深度学习协调模块(2),从而通过所述深度学习协调模块(2)对这些数据记录进行处理,并分析出现数据记录异常其中的原因,以便后续修改数据训练子模型的参数。
6.根据权利要求1所述的一种基于神经网络与深度学习的跨域知识协助***,其特征在于:在利用所述深度学习协调模块(2)对所有的设备(1)进行分组时,预先获取各所述设备(1)的数据记录量的大小,并且分组时,将数据记录量大的在同一分组,而数据记录量小的为一个分组,以便防止数据记录量大的数据记录在进行数据训练时淹没了数量记录量小的数据,以便构建总的深度数据训练模型准确性。
7.根据权利要求6所述的一种基于神经网络与深度学习的跨域知识协助***,其特征在于:在利用所述深度学习协调模块(2)对所有的设备(1)进行分组时,预先获取各所述设备(1)的数据记录量的大小,并且分组时,对数据记录量大的分组的所述设备(1)的数量少,而数据记录量小的分组,所述设备(1)的数量多,以便保证每个分组的所述数据记录的数量适中,以便使得所有的所述数据训练融合子模块(4)的计算量合适。
8.根据权利要求1所述的一种基于神经网络与深度学习的跨域知识协助***,其特征在于:在对分组通过所述数据训练融合子模块(4)进行数据训练得到所述数据训练子模型时,每完成一定次数的所述数据训练子模型时,所述深度学习协调模块(2)重新对所述设备(1)进行分组,然后再次利用所述数据训练融合子模块(4)进行数据训练得到所述数据训练子模型,以加快数据训练模型的准确性。
9.一种基于神经网络与深度学习的跨域知识协助方法,包括如权利要求1-8中任意一项所述的基于神经网络与深度学习的跨域知识协助***,其特征在于,包括如下步骤:
步骤S1,初始化所述基于神经网络与深度学习的跨域知识协助***,所述深度学习协调模块(2)预先获取各所述设备(1)的数据记录量的大小,在利用对所有的设备(1)进行分组时,将数据记录量大的在同一分组,而数据记录量小的为一个分组,以便防止数据记录量大的数据记录在进行数据训练时淹没了数量记录量小的数据,对数据记录量大的分组的所述设备(1)的数量少,而数据记录量小的分组,所述设备(1)的数量多,以便保证每个分组的所述数据记录的数量适中;并保证每个所述分组中存在至少一个所述数据训练融合子模块(6),并将所述分组的信息发送给所述数据读取模块(5)、所述数据训练融合子模块(6)和所述局域数据存储模块(9),并且修改所述数据读取模块(5)、所述数据训练融合子模块(6)和所述局域数据存储模块(5)的所述数据记录的读取权限;
步骤S2,所述数据清理模块(3)读取存储于所述单机存储模块(7)中的所述数据记录,并利用数理统计方法和设定的要求去分析每条所述数据记录,在发现某条数据记录出现明显不合理时,将该条数据记录删除;
步骤S3,所述数据训练融合子模块(4)依据所述深度学习协调模块(2)分配的读取权限,和其对应的分组的所述数据读取模块(5)建立数据通信连接,从而所述数据训练融合子模块(4)通过所述数据读取模块(5)读取存储于所述单机存储模块(7)中存储的数据记录进行数据学习训练,得出数据训练子模型;
步骤S4,将所述数据训练子模型存储于所述局域数据存储模块(8)和所述全局数据存储模块(9)中,其中,在各分组的所述数据训练融合子模块(6)进行数据训练以得到数据训练子模型时,读取存储于所述全局数据存储模块(9)中其它分组通过数据训练得的数据训练子模型作为初始模型以便进行快速收敛的到数据训练子模型;
步骤S5,所述全局数据存储模块(9)的存储的数据训练子模型数量为一定值,并在得到的数据训练子模型数量超过所述定值时,删除最开始存储的所述数据训练子模型,并记录删除的所述数据训练子模型的数量;并在删除了一规定数量的所述数据训练子模型时,停止进行对所述分组进行数据训练;
步骤S6,对最后剩余的所有所述数据训练子模型采取参数加权的模式得出总的深度数据训练模型,并发送给所述全局数据存储模块(9)进行存储。
10.根据权利要求9所述的一种基于神经网络与深度学习的跨域知识协助方法,其特征在于:在对分组通过所述数据训练融合子模块(4)进行数据训练得到所述数据训练子模型时,每完成一定次数的所述数据训练子模型时,所述深度学习协调模块(2)重新对所述设备(1)进行分组,然后再次利用所述数据训练融合子模块(4)进行数据训练得到所述数据训练子模型,以加快数据训练模型的准确性。
CN202110289106.8A 2021-03-18 2021-03-18 基于神经网络与深度学习的跨域知识协助方法与*** Active CN113159279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110289106.8A CN113159279B (zh) 2021-03-18 2021-03-18 基于神经网络与深度学习的跨域知识协助方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110289106.8A CN113159279B (zh) 2021-03-18 2021-03-18 基于神经网络与深度学习的跨域知识协助方法与***

Publications (2)

Publication Number Publication Date
CN113159279A true CN113159279A (zh) 2021-07-23
CN113159279B CN113159279B (zh) 2023-06-23

Family

ID=76887721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110289106.8A Active CN113159279B (zh) 2021-03-18 2021-03-18 基于神经网络与深度学习的跨域知识协助方法与***

Country Status (1)

Country Link
CN (1) CN113159279B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837108A (zh) * 2021-09-26 2021-12-24 重庆中科云从科技有限公司 人脸识别方法、装置及计算机可读存储介质
CN115479447A (zh) * 2022-08-26 2022-12-16 丽智电子(昆山)有限公司 一种原物料存储冰柜温度的云端监控报警***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111212110A (zh) * 2019-12-13 2020-05-29 清华大学深圳国际研究生院 一种基于区块链的联邦学习***及方法
CN111709534A (zh) * 2020-06-19 2020-09-25 深圳前海微众银行股份有限公司 基于演化计算的联邦学习方法、装置、设备及介质
CN111723948A (zh) * 2020-06-19 2020-09-29 深圳前海微众银行股份有限公司 基于演化计算的联邦学习方法、装置、设备及介质
CN112116103A (zh) * 2020-09-17 2020-12-22 北京大学 基于联邦学习的个人资质评估方法、装置及***及存储介质
CN112308240A (zh) * 2020-11-02 2021-02-02 清华大学 基于联邦学习的边缘侧机器协同与优化的***
CN112347754A (zh) * 2019-08-09 2021-02-09 国际商业机器公司 建立联合学习框架
CN112487456A (zh) * 2020-12-07 2021-03-12 北京明略昭辉科技有限公司 联邦学习模型训练方法、***、电子设备及可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112347754A (zh) * 2019-08-09 2021-02-09 国际商业机器公司 建立联合学习框架
CN111212110A (zh) * 2019-12-13 2020-05-29 清华大学深圳国际研究生院 一种基于区块链的联邦学习***及方法
CN111709534A (zh) * 2020-06-19 2020-09-25 深圳前海微众银行股份有限公司 基于演化计算的联邦学习方法、装置、设备及介质
CN111723948A (zh) * 2020-06-19 2020-09-29 深圳前海微众银行股份有限公司 基于演化计算的联邦学习方法、装置、设备及介质
CN112116103A (zh) * 2020-09-17 2020-12-22 北京大学 基于联邦学习的个人资质评估方法、装置及***及存储介质
CN112308240A (zh) * 2020-11-02 2021-02-02 清华大学 基于联邦学习的边缘侧机器协同与优化的***
CN112487456A (zh) * 2020-12-07 2021-03-12 北京明略昭辉科技有限公司 联邦学习模型训练方法、***、电子设备及可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN ZHANG等: "A survey on federated learning", 《KNOWLEDGE-BASED SYSTEMS》 *
成艺: "联合学习环境下保护隐私的数据聚合技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837108A (zh) * 2021-09-26 2021-12-24 重庆中科云从科技有限公司 人脸识别方法、装置及计算机可读存储介质
CN113837108B (zh) * 2021-09-26 2023-05-23 重庆中科云从科技有限公司 人脸识别方法、装置及计算机可读存储介质
CN115479447A (zh) * 2022-08-26 2022-12-16 丽智电子(昆山)有限公司 一种原物料存储冰柜温度的云端监控报警***

Also Published As

Publication number Publication date
CN113159279B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
US6952688B1 (en) Knowledge-engineering protocol-suite
US6411936B1 (en) Enterprise value enhancement system and method
Corney et al. Putting the crowd to work in a knowledge-based factory
Jantan et al. Intelligent techniques for decision support system in human resource management
Vohra Intelligent decision support systems for admission management in higher education institutes
CN113159279B (zh) 基于神经网络与深度学习的跨域知识协助方法与***
Garad et al. The relationship between transformational leadership, improving employee’s performance and the raising efficiency of organizations
CN115423289B (zh) 智能板材加工车间数据处理方法及终端
Dhlamini et al. Intelligent risk management tools for software development
CN115394143A (zh) 一种基于数字孪生的虚拟仿真教育***及其交互方法
Ruiz et al. Smart Digital Twin for ZDM-based job-shop scheduling
Skulimowski Discovering complex system dynamics with intelligent data retrieval tools
Ong Big data and its research implications for higher education: Cases from UK higher education institutions
Mohammadrezaytayebi et al. Introducing a system dynamic–based model of quality estimation for construction industry subcontractors’ works
Skulimowski A foresight support system to manage knowledge on information society evolution
Grzeszczyk Mixed intelligent systems: developing models for project management and evaluation
Mackenzie Organizational structures as the primal information system: An interpretation
CN111352968B (zh) 一种基于区块链网络的智能制造要素识取方法
US20050080663A1 (en) Management tool
Amin et al. Trend cluster analysis using self organizing maps
CN113222169B (zh) 结合大数据分析反馈的联邦机器组合服务方法与***
Wray et al. Neural network identification of critical factors in a dynamic just-in-time Kanban environment
Aguilar-Ruiz et al. Generation of management rules through system dynamics and evolutionary computation
RU2746687C1 (ru) Интеллектуальная система управления предприятием
Bucos et al. Student cluster analysis based on Moodle data and academic performance indicators

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant