CN114997036A - 基于深度学习的网络拓扑重构方法、装置和设备 - Google Patents

基于深度学习的网络拓扑重构方法、装置和设备 Download PDF

Info

Publication number
CN114997036A
CN114997036A CN202210182108.1A CN202210182108A CN114997036A CN 114997036 A CN114997036 A CN 114997036A CN 202210182108 A CN202210182108 A CN 202210182108A CN 114997036 A CN114997036 A CN 114997036A
Authority
CN
China
Prior art keywords
network
training
deep learning
equation
generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210182108.1A
Other languages
English (en)
Inventor
朱先强
徐翔
朱承
丁兆云
张维明
刘斌
周鋆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202210182108.1A priority Critical patent/CN114997036A/zh
Publication of CN114997036A publication Critical patent/CN114997036A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及一种基于深度学习的网络拓扑重构方法、装置和设备。所述方法包括:获取目标网络的网络动力学方程,通过动力学方程得到网络节点的状态矩阵;对状态矩阵进行标记,得到深度学习模型的训练样本;将训练样本输入所述深度学习模型中,对深度学习模型进行训练;构建训练所述判别器的第一损失函数,对判别器进行训练;构建训练生成器的第二损失函数,对生成器进行训练;将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。采用本方法能够适应较大规模的网络拓扑重构场景。

Description

基于深度学习的网络拓扑重构方法、装置和设备
技术领域
本申请涉及数据处理技术领域,特别是涉及一种基于深度学习的网络拓扑重构方法、装置和设备。
背景技术
现实世界中的很多***,如生态***、交通***、社会***等都可以抽象为复杂网络。***中的各个元素被抽象成节点,元素与元素之间的关系被抽象为连边,节点与节点之间的连边构成了***的网络结构。真实世界中的***除了具有一定的结构特征外,***中元素的状态往往也存在一定的规律,例如生态***中,为了保持整个生态***的平衡,不同种类的物种数量会存在一定的变化规律;对人类来说,随着经济的发展,人类的出生率也存在着一定的变化趋势。为了刻画不同***中各个元素状态的变化,不同领域的学者用不同的动力学方程来描述***状态的变化过程。将***抽象成复杂网络之后,并用动力学方程描述***上元素的状态变化过程,则***的结构与***上的动态过程便建立了联系。没有结构的***意味着***中的元素彼此孤立,即元素间没有信息交流,则***上也就不存在动态变化过程,这样的***实际上并不存在;同样地,也不存在元素间不进行交互的***。因此,***的结构与***上的动态过程存在紧密的依赖关系。
网络重构问题是指通过网络上的动态过程反推网络的拓扑结构,是根据网络拓扑结构研究网络动态过程问题的反问题,该问题已经成为网络科学邻域的研究热点。到目前为止,相关学者已经在该问题上做了大量的工作。较早的相关研究包括格兰杰因果关系方法、压缩感知方法和基于信息论的方法等。由于网络结构与网络动力学之间紧密的依赖关系,很多学者研究了如何通过网络上节点的动态时间序列对网络拓扑进行重构,但由于很难获取网络中节点的完整时间序列数据,很多工作研究了有限数据量条件下的网络重构问题。
发明内容
基于此,有必要针对上述技术问题,提供一种基于深度学习的网络拓扑重构方法、装置和设备。
一种基于深度学习的网络拓扑重构方法,所述方法包括:
获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵;
对所述状态矩阵进行标记,得到深度学习模型的训练样本;
将所述训练样本输入所述深度学习模型中,对所述深度学习模型进行训练;所述深度学习模型包括:预处理层、生成器和判别器;所述预处理层对输入的所述训练样本预处理,得到输入数据;所述判别器对所述输入数据进行判别,输出第一连边预测结果;所述生成器接收输入数据,输出生成数据;所判别器对所述生成器进行判别,得到第二连边预测结果;
构建训练所述判别器的第一损失函数,对所述判别器进行训练;所述第一损失函数计算所述第一连边预测结果与所述输入数据对应标签的损失;
构建训练所述生成器的第二损失函数,对生成器进行训练;所述第二损失函数计算所述第二连边预测结果与所述输入数据对应标签的损失;
将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
在其中一个实施例中,所述网络动力学方程包括:热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程;还包括:分别获取热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,求解所述热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,得到目标网络中各个节点的状态值;将所述状态值作为向量值,得到目标网络的状态矩阵。
在其中一个实施例中,还包括:获取连续时间数据重构网络的拓扑结构,将连续时间数据重构网络上节点的状态集合表示为:
Figure BDA0003521769870000021
其中,
Figure BDA0003521769870000022
表示节点i在t时刻的状态值,T表示总的时间长度;
根据两个节点的所述状态集合,预测两个节点之间存在连边的概率
Figure BDA0003521769870000031
确定
Figure BDA0003521769870000032
其中,N为网络节点数量,A为网络的邻接矩阵,从而将各个节点的状态集合转化为节点的状态向量。
在其中一个实施例中,所述第一损失函数和所述第二损失函数均是平方损失函数。
在其中一个实施例中,所述生成器为三层带有sigmoid激活层的全连接神经网络。
在其中一个实施例中,所述判别器为三层带有sigmoid激活层的全连接神经网络。
一种基于深度学习的网络拓扑重构装置,所述装置包括:
状态矩阵获取模块,用于获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵;
训练模块,用于对所述状态矩阵进行标记,得到深度学习模型的训练样本;将所述训练样本输入所述深度学习模型中,对所述深度学习模型进行训练;所述深度学习模型包括:预处理层、生成器和判别器;所述预处理层对输入的所述训练样本预处理,得到输入数据;所述判别器对所述输入数据进行判别,输出第一连边预测结果;所述生成器接收输入数据,输出生成数据;所判别器对所述生成器进行判别,得到第二连边预测结果;构建训练所述判别器的第一损失函数,对所述判别器进行训练;所述第一损失函数计算所述第一连边预测结果与所述输入数据对应标签的损失;构建训练所述生成器的第二损失函数,对生成器进行训练;所述第二损失函数计算所述第二连边预测结果与所述输入数据对应标签的损失;
重构模块,用于将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
在其中一个实施例中,所述网络动力学方程包括:热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程;所述状态矩阵获取模块还用于分别获取热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,求解所述热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,得到目标网络中各个节点的状态值;将所述状态值作为向量值,得到目标网络的状态矩阵。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵;
对所述状态矩阵进行标记,得到深度学习模型的训练样本;
将所述训练样本输入所述深度学习模型中,对所述深度学习模型进行训练;所述深度学习模型包括:预处理层、生成器和判别器;所述预处理层对输入的所述训练样本预处理,得到输入数据;所述判别器对所述输入数据进行判别,输出第一连边预测结果;所述生成器接收输入数据,输出生成数据;所判别器对所述生成器进行判别,得到第二连边预测结果;
构建训练所述判别器的第一损失函数,对所述判别器进行训练;所述第一损失函数计算所述第一连边预测结果与所述输入数据对应标签的损失;
构建训练所述生成器的第二损失函数,对生成器进行训练;所述第二损失函数计算所述第二连边预测结果与所述输入数据对应标签的损失;
将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵;
对所述状态矩阵进行标记,得到深度学习模型的训练样本;
将所述训练样本输入所述深度学习模型中,对所述深度学习模型进行训练;所述深度学习模型包括:预处理层、生成器和判别器;所述预处理层对输入的所述训练样本预处理,得到输入数据;所述判别器对所述输入数据进行判别,输出第一连边预测结果;所述生成器接收输入数据,输出生成数据;所判别器对所述生成器进行判别,得到第二连边预测结果;
构建训练所述判别器的第一损失函数,对所述判别器进行训练;所述第一损失函数计算所述第一连边预测结果与所述输入数据对应标签的损失;
构建训练所述生成器的第二损失函数,对生成器进行训练;所述第二损失函数计算所述第二连边预测结果与所述输入数据对应标签的损失;
将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
上述基于深度学习的网络拓扑重构方法、装置、计算机设备和存储介质,通过研究拓扑网络的机理,将网络中节点之间的连通性,通过状态矩阵之间的关联程度进行表示,从而在应用深度学习模型进行网络重构时,深度学习网络能够更好的学习到状态向量之间的相关性,从而在进行网络重构时,能够适应较大规模的网络拓扑重构场景。
附图说明
图1为一个实施例中基于深度学习的网络拓扑重构方法的流程示意图;
图2为一个实施例中深度学习模型的流程示意图;
图3为一个实施例中BA无标度网络上热量扩散动力学的实验结果;其中图3(a)为ACC指标结果,图3(b)为F1指标结果;
图4为一个实施例中BA无标度网络上互利共生动力学的实验结果;其中图4(a)为ACC指标结果,图4(b)为F1指标结果;
图5为一个实施例中BA无标度网络上基因调控动力学的实验结果;其中图5(a)为ACC指标结果,图5(b)为F1指标结果;
图6为一个实施例中WS小世界网络上热量扩散动力学的实验结果;其中图6(a)为ACC指标结果,图6(b)为F1指标结果;
图7为一个实施例中WS小世界网络上互利共生动力学的实验结果;其中图7(a)为ACC指标结果,图7(b)为F1指标结果;
图8为一个实施例中WS小世界网络上基因调控动力学的实验结果;其中图8(a)为ACC指标结果,图8(b)为F1指标结果;
图9为一个实施例中基于深度学习的网络拓扑重构装置的结构框图;
图10为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种基于深度学习的网络拓扑重构方法,包括以下步骤:
步骤102,获取目标网络的网络动力学方程,通过动力学方程得到网络节点的状态矩阵。
数据的获取一般有两种方式,一种方式是在不知道网络动力学方程的情况下,采取某种观测方式直接获取,例如在交通网络中,可以通过传感器采集不同时刻每个路口车辆的数量和车速数据;另一种方式是在知道网络动力学方程的情况下,通过模拟仿真的方法获取网络中各个节点在不同时刻的状态数据,本发明主要考虑后面这种情况,即通过模拟仿真获取网络上的动态过程数据。
网络上的动力学可以用微分方程进行描述,本发明考虑了来自物理和生物领域的三种连续时间网络动力学。第一个动力学是热量扩散动力学,微分方程表示为
Figure BDA0003521769870000061
其中,xi表示节点i的热量值,ki,j为热量系数,Ai,j表示网络邻接矩阵中节点i与节点j对应的数值,即如果节点i与节点j存在连边则Ai,j=1,反之Ai,j=0。第二个动力学是生态***中物种间的互利共生动力学,微分方程表示为
Figure BDA0003521769870000062
其中,xi表示物种i的数量,bi生态***中的外来物种迁移量,ki表示物种容量,ci表示物种阈值。第三个动力学是基因调控动力学,微分方程表示为
Figure BDA0003521769870000063
Figure BDA0003521769870000064
f为基因调控模式系数,h为调节基因激活的希尔系数。
步骤104,对状态矩阵进行标记,得到深度学习模型的训练样本。
根据网络中节点之间真实存在连边的情况,将存在连边的两个节点对应的状态向量进行拼接,同时打上“1”的标签。相应地,给不存在连边的两个节点拼接后的向量打上“0”的标签。为了便于说明,本发明将标签为“1”的样本称为正样本,将标签为“0”的样本称为负样本。
由于真实网络存在稀疏的性质,即网络中存在连边的节点数量较少,如果按照上述方法给节点间的状态向量打标签,会得到很多负样本,即样本数据不平衡,这样的数据对神经网络来说不具有学***衡问题,采用过采样(over-sampling)的方法,通过扩展正样本数量来平衡样本数据。具体做法是:按照负样本数量与正样本数量的比例复制正样本,然后将得到的正样本与原始负样本混合并打乱顺序作为后续神经网络训练和测试时所需要用到的数据。取混合后数据量的80%用于模型的训练,剩下的20%用于模型的测试。由于需要对网络中任意两个节点的状态向量进行拼接和打标签,因此数据处理的复杂度为
Figure BDA0003521769870000072
步骤106,将训练样本输入深度学习模型中,对深度学习模型进行训练。
深度学习模型包括:预处理层、生成器和判别器;预处理层对输入的训练样本预处理,得到输入数据;判别器对输入数据进行判别,输出第一连边预测结果;生成器接收输入数据,输出生成数据;判别器对生成器进行判别,得到第二连边预测结果。
本步骤中,深度学习模型是生成对抗网络,具体参照图2所示,图2中, samples表示样本输入,train表示训练,D表示判别器,G表示生成器,loss表示损失,WN×T表示状态矩阵。
具体步骤如下:用预处理之后的数据训练判别器D,通过优化损失函数最终得到真实的节点连边概率
Figure BDA0003521769870000071
然后,相同地,再次使用预处理之后的数据训练生成器G,将生成器G得到的输出通过判别器D中的损失函数并进行优化,最终得到节点间连边概率的预测值。
步骤108,构建训练判别器的第一损失函数,对判别器进行训练,构建训练生成器的第二损失函数,对生成器进行训练;
第一损失函数计算第一连边预测结果与输入数据对应标签的损失,第二损失函数计算第二连边预测结果与输入数据对应标签的损失。
步骤110,将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
上述基于深度学习的网络拓扑重构方法,通过研究拓扑网络的机理,将网络中节点之间的连通性,通过状态矩阵之间的关联程度进行表示,从而在应用深度学习模型进行网络重构时,深度学习网络能够更好的学习到状态向量之间的相关性,从而在进行网络重构时,能够适应较大规模的网络拓扑重构场景。
在其中一个实施例中,网络动力学方程包括:热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,分别获取热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,求解所述热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,得到目标网络中各个节点的状态值;将所述状态值作为向量值,得到目标网络的状态矩阵。
具体状态值的计算可以通过使用Neural ODE求解相应的微分方程。
网络重构问题可以分为两类,一类为已知网络拓扑结构或者不关心网络拓扑结构的网络动力学重构问题(network dynamics reconstruction),即根据对网络已知的某些性质去拟合网络上的动态过程;另一类为已知网络上的动力学或者不关心网络动力学的网络拓扑重构问题(network topology reconstruction),本发明研究的问题是网络拓扑重构。一般来说,网络拓扑重构会利用网络上的动态过程,即利用网络中各个节点的状态变化规律。在未知网络动力学的情况下,可以通过观测得到需要的动态过程数据;在已知网络动力学的情况下,可以通过模拟仿真获得网络上各个节点状态的变化数据。根据获得的网络数据是否连续,可以将网络拓扑重构问题分为基于离散数据的网络拓扑重构问题和基于连续时间数据的网络拓扑重构问题,本发明主要考虑如何根据网络上的连续时间数据来重构网络的拓扑结构。
在其中一个实施例中,为了更加严谨地描述如何根据连续时间数据重构网络的拓扑结构,将网络上节点的状态集合表示为
Figure BDA0003521769870000091
其中
Figure BDA0003521769870000092
表示节点i在t时刻的状态值,T表示总的时间长度。则可以将网络拓扑结构重构问题分解为:根据两个节点的状态集合来预测两个节点之间存在连边的概率,即
Figure BDA0003521769870000093
其中Eij表示节点i与节点j之间存在连边。那么网络拓扑结构重构问题可以转化为:
Figure BDA0003521769870000094
其中,N为网络节点数量,A为网络的邻接矩阵。可以将网络中各个节点的状态集合转化为节点的状态向量,进而该问题可以转化为利用相关性方法计算两个节点状态向量之间的相关性来预测两个节点之间存在连边的概率。但由于网络的复杂性,包括网络结构的复杂性和网络上动态过程的复杂性,利用某种相关性指标很难准确地衡量网络中各个节点之间的相关性大小。因此,本发明采用深度学习的方法通过学习两个节点状态向量之间的相关性大小来判断两个节点之间存在连边的概率。
在其中一个实施例中,采用三层带有sigmoid激活层的全连接神经网络作为生成器模块的主体架构,生成器
Figure BDA0003521769870000095
通过使用判别器中的损失函数对训练数据进行训练,使得输入生成器的数据得到的连边预测结果尽可能接近判别器对真实数据得到的连边概率,最终得到对网络中节点连边概率的预测值。
在其中一个实施例中,与生成器类似,我们也采用三层带有sigmoid激活层的全连接神经网络作为判别器模块的主体架构,判别器
Figure BDA0003521769870000096
的目的是判断训练数据中不同节点间是否存在真实连边的概率,即如果两个节点间存在连边,则使概率
Figure BDA0003521769870000097
尽可能接近1,反之,使概率
Figure BDA0003521769870000098
尽可能接近0。判别器中的损失函数使用平方损失函数(Mean Square Error,MSE),损失函数使用Adam优化器进行优化。
在进行模型训练时,首先,用处理之后的训练数据训练判别器
Figure BDA0003521769870000099
使得训练器的输出尽可能接近真实值,即使判别器的输出尽可能与标签值一致,使用Adam优化器优化损失函数,得到判别器的训练参数θD。然后,用与训练判别器相同的训练数据训练生成器
Figure BDA0003521769870000101
并得到生成器的训练参数θG,由于生成器与判别器共用同一个损失函数,因此,可采用与训练判别器相同的训练参数。
关于上述实施例,以下针对不同节点规模的BA无标度网络和WS小世界网络中进行实验验证。
采用三种动力学方程产生网络节点状态数据。网络的拓扑特征见表1,其中, N为网络节点数量,E为网络连边数量,<k>为网络平均度值,C为网络聚类系数,<l>为网络平均距离长度。
表1 网络的基本拓扑特征
Figure BDA0003521769870000102
为了准确评估实验结果的精确性,本文采用ACC和F1作为网络重构准确性衡量指标。将标签为“1”的样本称为正样本,将标签为“0”的样本称为负样本,则可以将网络拓扑重构问题看成是一个分类问题,于是可以利用分类结果的混淆矩阵计算分类结果的ACC和F1指标,分类结果的混淆矩阵定义如下:
表2混淆矩阵
Figure BDA0003521769870000103
Figure BDA0003521769870000111
查准率(precision)P和查全率(recall)R定义如下:
Figure BDA0003521769870000112
Figure BDA0003521769870000113
ACC和F1指标定义如下:
Figure BDA0003521769870000114
Figure BDA0003521769870000115
在BA无标度网络和WS小世界网络上,分别使用三种动力学方程得到的节点状态数据进行实验分析,图3展示了BA无标度网络上热量扩散动力学的实验结果,其中,横坐标为网络节点数量,纵坐标为指标数值大小。左图展示了在训练数据集和测试数据集上得到的ACC指标结果,右图展示了F1指标结果。从实验结果可以发现,训练数据集和测试数据集上的ACC指标与F1指标结果比较相近,随着网络规模的增加,ACC指标与F1指标的平均得分能够保持在 0.95以上。
图4和图5分别展示了BA无标度网络上互利共生动力学和基因调控动力学的实验结果,与BA无标度网络上热量扩散动力学的实验结果类似,训练数据集和测试数据集上的ACC指标与F1指标结果比较相近,ACC指标与F1指标的平均得分在0.95左右。图6、图7和图8分别展示了WS小世界网络上热量扩散动力学、互利共生动力学和基因调控动力学的实验结果。
表3详细地记录了三种不同动力学在不同规模的BA无标度网络和WS小世界网络上的实验结果。
表3三种动力学在不同规模网络上的实验结果统计表
Figure BDA0003521769870000116
Figure BDA0003521769870000121
综上,本发明针对连续时间数据下的网络拓扑重构问题,提出了一种深度学习框架。框架能够很好地捕捉节点状态向量之间的相关性,分别利用热量扩散、互利共生和基因调控三种动力学产生网络节点的连续时间状态数据,在不同规模的BA无标度网络和WS小世界网络中进行了实验验证,实验结果表明本文提出的学习框架能够较准确地还原网络的拓扑结构,且适用于较大规模的网络拓扑重构场景。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图9所示,提供了一种基于深度学习的网络拓扑重构装置,包括:状态矩阵获取模块902、训练模块904和重构模块906,其中:
状态矩阵获取模块902,用于获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵;
训练模块904,用于对所述状态矩阵进行标记,得到深度学习模型的训练样本;将所述训练样本输入所述深度学习模型中,对所述深度学习模型进行训练;所述深度学习模型包括:预处理层、生成器和判别器;所述预处理层对输入的所述训练样本预处理,得到输入数据;所述判别器对所述输入数据进行判别,输出第一连边预测结果;所述生成器接收输入数据,输出生成数据;所判别器对所述生成器进行判别,得到第二连边预测结果;构建训练所述判别器的第一损失函数,对所述判别器进行训练;所述第一损失函数计算所述第一连边预测结果与所述输入数据对应标签的损失;构建训练所述生成器的第二损失函数,对生成器进行训练;所述第二损失函数计算所述第二连边预测结果与所述输入数据对应标签的损失;
重构模块906,用于将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
在其中一个实施例中,所述网络动力学方程包括:热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程;状态矩阵获取模块902还用于分别获取热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,求解所述热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,得到目标网络中各个节点的状态值;将所述状态值作为向量值,得到目标网络的状态矩阵。
在其中一个实施例中,状态矩阵获取模块902还用于获取连续时间数据重构网络的拓扑结构,将连续时间数据重构网络上节点的状态集合表示为:
Figure BDA0003521769870000131
其中,
Figure BDA0003521769870000132
表示节点i在t时刻的状态值,T表示总的时间长度;
根据两个节点的所述状态集合,预测两个节点之间存在连边的概率
Figure BDA0003521769870000133
确定
Figure BDA0003521769870000134
其中,N为网络节点数量,A为网络的邻接矩阵,从而将各个节点的状态集合转化为节点的状态向量。
在其中一个实施例中,所述第一损失函数和所述第二损失函数均是平方损失函数。
在其中一个实施例中,所述生成器为三层带有sigmoid激活层的全连接神经网络。
在其中一个实施例中,所述判别器为三层带有sigmoid激活层的全连接神经网络。
关于基于深度学习的网络拓扑重构装置的具体限定可以参见上文中对于基于深度学习的网络拓扑重构方法的限定,在此不再赘述。上述基于深度学习的网络拓扑重构装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图10所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于深度学习的网络拓扑重构方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述实施例中方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM (EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM 以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM (SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM (RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于深度学习的网络拓扑重构方法,其特征在于,所述方法包括:
获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵;
对所述状态矩阵进行标记,得到深度学习模型的训练样本;
将所述训练样本输入所述深度学习模型中,对所述深度学习模型进行训练;所述深度学习模型包括:预处理层、生成器和判别器;所述预处理层对输入的所述训练样本预处理,得到输入数据;所述判别器对所述输入数据进行判别,输出第一连边预测结果;所述生成器接收输入数据,输出生成数据;所述判别器对所述生成器进行判别,得到第二连边预测结果;
构建训练所述判别器的第一损失函数,对所述判别器进行训练;所述第一损失函数计算所述第一连边预测结果与所述输入数据对应标签的损失;
构建训练所述生成器的第二损失函数,对生成器进行训练;所述第二损失函数计算所述第二连边预测结果与所述输入数据对应标签的损失;
将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
2.根据权利要求1所述的方法,其特征在于,所述网络动力学方程包括:热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程;
所述获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵,包括:
分别获取热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,求解所述热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,得到目标网络中各个节点的状态值;
将所述状态值作为向量值,得到目标网络的状态矩阵。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取连续时间数据重构网络的拓扑结构,将连续时间数据重构网络上节点的状态集合表示为:
Figure FDA0003521769860000011
其中,
Figure FDA0003521769860000012
表示节点i在t时刻的状态值,T表示总的时间长度;
根据两个节点的所述状态集合,预测两个节点之间存在连边的概率
Figure FDA0003521769860000021
确定
Figure FDA0003521769860000022
其中,N为网络节点数量,A为网络的邻接矩阵,从而将各个节点的状态集合转化为节点的状态向量。
4.根据权利要求1所述的方法,其特征在于,所述第一损失函数和所述第二损失函数均是平方损失函数。
5.根据权利要求1所述的方法,其特征在于,所述生成器为三层带有sigmoid激活层的全连接神经网络。
6.根据权利要求1所述的方法,其特征在于,所述判别器为三层带有sigmoid激活层的全连接神经网络。
7.一种基于深度学习的网络拓扑重构装置,其特征在于,所述装置包括:
状态矩阵获取模块,用于获取目标网络的网络动力学方程,通过所述动力学方程得到网络节点的状态矩阵;
训练模块,用于对所述状态矩阵进行标记,得到深度学习模型的训练样本;将所述训练样本输入所述深度学习模型中,对所述深度学习模型进行训练;所述深度学习模型包括:预处理层、生成器和判别器;所述预处理层对输入的所述训练样本预处理,得到输入数据;所述判别器对所述输入数据进行判别,输出第一连边预测结果;所述生成器接收输入数据,输出生成数据;所判别器对所述生成器进行判别,得到第二连边预测结果;构建训练所述判别器的第一损失函数,对所述判别器进行训练;所述第一损失函数计算所述第一连边预测结果与所述输入数据对应标签的损失;构建训练所述生成器的第二损失函数,对生成器进行训练;所述第二损失函数计算所述第二连边预测结果与所述输入数据对应标签的损失;
重构模块,用于将待预测的网络节点的状态矩阵输入训练好的深度学习模型,得到网络拓扑。
8.根据权利要求7所述的装置,其特征在于,所述网络动力学方程包括:热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程;
所述状态矩阵获取模块还用于分别获取热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,求解所述热量扩散动力学方程、互利共生动力学方程以及基因调控动力学方程,得到目标网络中各个节点的状态值;将所述状态值作为向量值,得到目标网络的状态矩阵。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
CN202210182108.1A 2022-02-25 2022-02-25 基于深度学习的网络拓扑重构方法、装置和设备 Pending CN114997036A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210182108.1A CN114997036A (zh) 2022-02-25 2022-02-25 基于深度学习的网络拓扑重构方法、装置和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210182108.1A CN114997036A (zh) 2022-02-25 2022-02-25 基于深度学习的网络拓扑重构方法、装置和设备

Publications (1)

Publication Number Publication Date
CN114997036A true CN114997036A (zh) 2022-09-02

Family

ID=83023924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210182108.1A Pending CN114997036A (zh) 2022-02-25 2022-02-25 基于深度学习的网络拓扑重构方法、装置和设备

Country Status (1)

Country Link
CN (1) CN114997036A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115622894A (zh) * 2022-12-19 2023-01-17 中国人民解放军国防科技大学 基于历史数据概率分析的动态网络拓扑预测方法与***
CN115801549A (zh) * 2023-01-28 2023-03-14 中国人民解放军国防科技大学 基于关键节点识别的自适应网络恢复方法、装置及设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115622894A (zh) * 2022-12-19 2023-01-17 中国人民解放军国防科技大学 基于历史数据概率分析的动态网络拓扑预测方法与***
CN115622894B (zh) * 2022-12-19 2023-04-18 中国人民解放军国防科技大学 基于历史数据概率分析的动态网络拓扑预测方法与***
CN115801549A (zh) * 2023-01-28 2023-03-14 中国人民解放军国防科技大学 基于关键节点识别的自适应网络恢复方法、装置及设备
CN115801549B (zh) * 2023-01-28 2023-06-16 中国人民解放军国防科技大学 基于关键节点识别的自适应网络恢复方法、装置及设备

Similar Documents

Publication Publication Date Title
Wu et al. Predicting effective diffusivity of porous media from images by deep learning
Li et al. Clustering discretization methods for generation of material performance databases in machine learning and design optimization
Yao et al. FEA-Net: A physics-guided data-driven model for efficient mechanical response prediction
CN111126668B (zh) 基于图卷积网络的Spark作业时间预测方法和装置
Messner Convolutional neural network surrogate models for the mechanical properties of periodic structures
CN112735535B (zh) 预测模型训练、数据预测方法、装置和存储介质
CN114997036A (zh) 基于深度学习的网络拓扑重构方法、装置和设备
CN110347932A (zh) 一种基于深度学习的跨网络用户对齐方法
Dehuri et al. A hybrid genetic based functional link artificial neural network with a statistical comparison of classifiers over multiple datasets
EP3968337A1 (en) Target object attribute prediction method based on machine learning and related device
Pandit et al. Prediction of earthquake magnitude using adaptive neuro fuzzy inference system
Bolandi et al. Bridging finite element and deep learning: High-resolution stress distribution prediction in structural components
CN114064852A (zh) 自然语言的关系抽取方法、装置、电子设备和存储介质
CN113487019A (zh) 电路故障诊断方法、装置、计算机设备和存储介质
Oeing et al. Using artificial intelligence to support the drawing of piping and instrumentation diagrams using DEXPI standard
Ororbia et al. Design synthesis of structural systems as a Markov decision process solved with deep reinforcement learning
CN117892915A (zh) 基于核算单位的商品碳标签生成方法及***
CN113177110B (zh) 一种虚假新闻检测方法、装置、计算机设备和存储介质
El-Sebakhy Functional networks training algorithm for statistical pattern recognition
KR20220111215A (ko) 자기주의 기반 심층 신경망 모델을 이용한 약물-표적 상호작용 예측 장치 및 그 방법
CN114678083A (zh) 一种化学品遗传毒性预测模型的训练方法及预测方法
Kaushik et al. Software cost estimation using lstm-rnn
Adamu et al. Model matching: Prediction of the influence of uml class diagram parameters during similarity assessment using artificial neural network
Xu et al. Modeling Student Performance using Feature Crosses Information for Knowledge Tracing
Park et al. tLaSDI: Thermodynamics-informed latent space dynamics identification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination