CN112286996A - 一种基于网络链接和节点属性信息的节点嵌入方法 - Google Patents

一种基于网络链接和节点属性信息的节点嵌入方法 Download PDF

Info

Publication number
CN112286996A
CN112286996A CN202011319384.5A CN202011319384A CN112286996A CN 112286996 A CN112286996 A CN 112286996A CN 202011319384 A CN202011319384 A CN 202011319384A CN 112286996 A CN112286996 A CN 112286996A
Authority
CN
China
Prior art keywords
network
model
node
variable
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011319384.5A
Other languages
English (en)
Inventor
单虹毓
杜朴风
焦鹏飞
金弟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202011319384.5A priority Critical patent/CN112286996A/zh
Publication of CN112286996A publication Critical patent/CN112286996A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2465Query processing support for facilitating data mining operations in structured databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/03Data mining

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Fuzzy Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于网络链接和节点属性信息的节点嵌入方法,该方法包括:构建由图自编码器、先验生成模型和网络导向约束模块构成的神经网络模型;图自编码器将网络数据映射到隐变量空间中,生成隐变量空间分布函数;先验生成模型将隐变量空间分布通过归一化流模型映射到高斯分布并生成新变量;其基于隐变量与新变量间的kl散度,优化和更新两者空间分布,其将隐变量的多个空间分布函数组合成一组合分布函数;网络导向约束模块通过拉普拉斯特征映射方式对组合分布函数进行约束;采用训练完成的模型对网络数据进行处理,得到节点特征参数,将节点特征参数与该网络数据相结合,形成带有节点特征参数的网络数据。本发明能够获得高质量的节点表示。

Description

一种基于网络链接和节点属性信息的节点嵌入方法
技术领域
本发明涉及数据挖掘领域,特别涉及一种基于网络链接和节点属性信息的节点嵌入方法。
背景技术
目前,在数据挖掘领域网络嵌入是一个重要的任务。它是许多网络分析任务的基础,例如节点群集,节点分类和图形可视化。网络嵌入旨在学习每个节点的低维潜在表示,同时保留网络中节点之间的关系。近年来,已经提出了各种网络嵌入方法。其中基于拓扑的方法认为只能获取网络的拓扑信息,网络嵌入通常的方法是保留尽可能多的拓扑信息;除了拓扑信息之外,网络的属性信息也被认为是网络嵌入的有用来源。许多网络嵌入方法使用这两种类型的信息来提高网络嵌入的质量,例如随机游走、矩阵分解、深度学习等。尤其是采用深度学习技术的自动编码器,其工作原理是学习数据的编码并从解码中重建数据,其在处理大规模网络时具有可伸缩性的优点。由于网络嵌入的目标是探索和保留原始数据的潜在结构,目前带有节点语义信息的网络数据通常是高维且复杂的,因此基于自编码器的方法很难发现数据的某些深层信息。为了解决这个问题,现有的改进方法采用变分自动编码器,该方法是通过向自编码器引入了一个潜在变量模型,假设由编码器压缩的潜变量遵循一定的先验分布,可以通过观察到的数据来推断该分布参数。但是,现有的变分自编码器模型通常允许潜在变量遵循固定分布,例如高斯分布,但是实际网络通常具有许多复杂的结构特性,例如:一阶/二阶接近度、高阶接近度(例如主题和共同体)、幂律等,它们表达了多峰特征,现有的变分自编码器模型无法挖掘这些不符合固定分布的潜在变量信息。
发明内容
本发明为解决公知技术中存在的技术问题而提供一种基于网络链接和节点属性信息的节点嵌入方法。
本发明为解决公知技术中存在的技术问题所采取的技术方案是:一种基于网络链接和节点属性信息的节点嵌入方法,该方法为:构建由图自编码器、先验生成模型和网络导向约束模块构成的神经网络模型;图自编码器用于将包括网络链接和节点属性信息的网络数据映射到隐变量空间中,对应生成隐变量的空间分布函数;先验生成模型,其用于将隐变量的空间分布通过归一化流模型映射到高斯分布并生成新变量;其计算隐变量分布函数与新变量分布函数之间的kl散度,并基于kl散度,优化和更新隐变量及新变量的空间分布,得到对应隐变量的多个空间分布函数,其将得到的多个空间分布函数组合成一个组合分布函数;网络导向约束模块用于通过拉普拉斯特征映射方式对组合分布函数进行约束;采集包括已知网络链接和节点属性信息的网络数据,制成样本集,从样本集中抽取网络数据样本和相应的邻接矩阵,对神经网络模型进行训练;采用训练完成的神经网络模型对未知网络链接和节点属性信息的网络数据进行处理,得到对应该网络数据的节点特征参数,将节点特征参数与该网络数据相结合,形成带有节点特征参数的网络数据。
进一步地,该方法还包括:将所得节点放入分类器中进行训练,并将训练好的节点嵌入网络数据中进行可视化表示。
进一步地,采用Adam优化器来最小化神经网络模型的损失函数,并优化神经网络模型的参数。
进一步地,对神经网络模型进行训练时,随机初始化参数,利用Adam优化器优化所得的参数更新规则建立模型训练过程,将网络数据样本放入神经网络模型中训练,不断迭代,直至参数更新收敛。
进一步地,该方法包括如下步骤:
步骤一,构建由图自编码器、先验生成模型和网络导向约束模块构成的神经网络模型,并详细刻画神经网络模型中每个变量的含义;
步骤二,根据神经网络模型中各个模块的关系,刻画生成神经网络模型的过程,得到神经网络模型的KL散度,KL散度计算公式如下:
KL(p||q)=[p(u)logp(u)-p(u)logq(u)];
式中,u为归一化流模型中间层的变量;q(u)为中间变量u的分布;p(u)为中间变量u的标准高斯分布;
步骤三,由图自编码器的重构误差损失,以及先验生成模型和网络导向约束模块产生的KL散度损失和先验网络正则化损失,得到神经网络模型最终损失函数:
Figure BDA0002792361000000021
上式中,L为最终损失;Lrect为图自编码器的重构误差损失;Lkl为KL散度损失,KL散度损失是变分推断产生的损失;Lla为生成的先验网络正则化损失,先验网络正则化损失是拉普拉斯特征映射产生的损失;α为超参数;
(1)Lrect的计算公式如下:
Figure BDA0002792361000000031
其中
Figure BDA0002792361000000032
为交叉熵损失;
Figure BDA0002792361000000033
为解码器产生的邻接矩阵的第i,j位置的值;aij为输入的邻接矩阵的第i,j位置的值;n表示所有的节点数量,i和j分别表示第i和第j个节点;
(2)Lkl的计算公式如下:
Figure BDA0002792361000000034
式中,det为雅可比行列式;z为隐变量;u为归一化流模型中间层的变量;q(u)为中间变量u的分布;p(u)为中间变量u的标准高斯分布;KL为散度;
(3)Lla的计算公式如下:
Figure BDA0002792361000000035
其中aij为输入的邻接矩阵的第i,j位置的值,
Figure BDA0002792361000000036
表示归一化流模型生成的数据中的第i个向量,
Figure BDA0002792361000000037
表示归一化流模型生成的数据中的第j个向量,n表示所有的节点数量,i和j分别表示第i和第j个节点;
步骤四,使用Adam优化器来最小化损失函数并优化神经网络模型的参数;
步骤五,采集网络数据并处理为数据集;
步骤六,随机初始化参数,利用步骤四所得的参数更新规则建立神经网络模型训练过程,从数据集中抽取网络数据和邻接矩阵;导入神经网络模型中训练,不断迭代,直至参数更新收敛;
步骤七,将所获得的参数结果记录到相关网络数据中,且用所得的节点表示网络数据,将所得节点表示放入分类器中进行训练,并将训练好的节点表示进行可视化表示。
本发明具有的优点和积极效果是:通过引入归一化流模型拟合了一个灵活多模的分布,使得模型的隐变量的分布接近这个灵活多模的分布。同时引入了网络导向约束模块引导这个灵活的分布具有网络特性,从而提升了对节点的表征能力。本发明基于有效的深度神经网络,利用变分推断和拉普拉斯特征映射所得的更新规则,高效迅速的训练模型,获取所需的模型参数。所提的模型可以很快迭代至收敛,具有很强的可扩展性,可应用到大规模网络中。对于训练数据的实验结果也表明,所提方法能够获得高质量的节点表示。该发明在社交网络、信息检索、推荐***等领域具有广泛的应用前景。
附图说明
图1是本发明的一种工作流程示意图。
具体实施方式
为能进一步了解本发明的发明内容、特点及功效,兹列举以下实施例,并配合附图详细说明如下:
请参见图1,一种基于网络链接和节点属性信息的节点嵌入方法,该方法为:构建由图自编码器、先验生成模型和网络导向约束模块构成的神经网络模型;图自编码器用于将包括网络链接和节点属性信息的网络数据映射到隐变量空间中,对应生成隐变量的空间分布函数;先验生成模型,其用于将隐变量的空间分布通过归一化流模型映射到高斯分布并生成新变量;其计算隐变量分布函数与新变量分布函数之间的kl散度,并基于kl散度,优化和更新隐变量及新变量的空间分布,得到对应隐变量的多个空间分布函数,其将得到的多个空间分布函数组合成一个组合分布函数;网络导向约束模块用于通过拉普拉斯特征映射方式对组合分布函数进行约束;采集包括已知网络链接和节点属性信息的网络数据,制成样本集,从样本集中抽取网络数据样本和相应的邻接矩阵,对神经网络模型进行训练;采用训练完成的神经网络模型对未知网络链接和节点属性信息的网络数据进行处理,得到对应该网络数据的节点特征参数,将节点特征参数与该网络数据相结合,形成带有节点特征参数的网络数据。
该方法还可包括:将所得节点放入分类器中进行训练,并将训练好的节点嵌入网络数据中进行可视化表示。
本方法可采用Adam优化器来最小化神经网络模型的损失函数,并优化神经网络模型的参数。采用Adam优化器来最小化神经网络模型的损失函数并优化神经网络模型的参数的方法可参考如下文献:《一种随机优化方法》,作者:Kingma,Diederik,Ba,Jimmy《计算机科学》(《Computer Science》)2015年出版。
优选地,对神经网络模型进行训练时,可随机初始化参数,利用Adam优化器优化所得的参数更新规则建立模型训练过程,将网络数据样本放入神经网络模型中训练,不断迭代,直至参数更新收敛。
下面以本发明的一个优选实施例来进一步说明本发明的工作流程及工作原理:
一种基于网络链接和节点属性信息的节点嵌入方法,该方法可包括如下步骤:
步骤一,构建由图自编码器、先验生成模型和网络导向约束模块构成的神经网络模型,并详细刻画神经网络模型中每个变量的含义。
步骤二,根据神经网络模型中各个模块的关系,刻画生成神经网络模型的过程,得到神经网络模型的KL散度,KL散度计算公式如下:
KL(p||q)=[p(u)logp(u)-p(u)logq(u)];
式中,u为归一化流模型中间层的变量;q(u)为中间变量u的分布,这个分布是去接近真实的高斯分布;p(u)为中间变量u的标准高斯分布。
步骤三,由图自编码器的重构误差损失,以及先验生成模型和网络导向约束模块产生的KL散度损失和先验网络正则化损失,得到神经网络模型最终损失函数:
Figure BDA0002792361000000051
上式中,L为最终损失;Lrect为图自编码器的重构误差损失;Lkl为KL散度损失,KL散度损失是变分推断产生的损失;Lla为生成的先验网络正则化损失,先验网络正则化损失是拉普拉斯特征映射产生的损失;α为超参数。
(1)Lrect的计算公式如下:
Figure BDA0002792361000000052
其中
Figure BDA0002792361000000053
为交叉熵损失;
Figure BDA0002792361000000054
为解码器产生的邻接矩阵的第i,j位置的值;aij为输入的邻接矩阵的第i,j位置的值;n表示所有的节点数量,i和j分别表示第i和第j个节点。
(2)Lkl的计算公式如下:
Figure BDA0002792361000000055
式中,det为雅可比行列式;z为隐变量;u为归一化流模型中间层的变量;q(u)为中间变量u的分布;p(u)为中间变量u的标准高斯分布;KL为散度。
(3)Lla的计算公式如下:
Figure BDA0002792361000000061
其中aij为输入的邻接矩阵的第i,j位置的值,
Figure BDA0002792361000000062
表示归一化流模型生成的数据中的第i个向量,
Figure BDA0002792361000000063
表示归一化流模型生成的数据中的第j个向量,n表示所有的节点数量,i和j分别表示第i和第j个节点。
步骤四,为了优化损失函数,使用Adam优化器来最小化损失函数并优化神经网络模型的参数。
步骤五,采集网络数据并处理为数据集;网络数据可以为文档网络数据等。可从文档网络中抽取所需要的内容和邻接矩阵;
步骤六,随机初始化参数,利用步骤四所得的参数更新规则建立神经网络模型训练过程,从数据集中抽取网络数据和邻接矩阵;导入神经网络模型中训练,不断迭代,直至参数更新收敛。
步骤七,将所获得的参数结果记录到相关网络数据中,且用所得的节点表示网络数据,将所得节点表示放入分类器中进行训练,并将训练好的节点表示进行可视化表示。
通过模型求解出来的更新规则进行训练,通过将节点的表征放到聚类算法中训练,聚类结果更加精确,且节点的分布的可视化,即通过观察节点的表征在二维空间上的分布,以及每个节点所属的社团,可以看出本发明的方法可以获取高质量的节点嵌入。
表1为选取的一个测试数据的具体说明。
表1:测试数据
数据集名称 节点 边数 特征数 社团数
PubMed 19717 44338 500 3
通过神经网络模型求解出来的更新规则进行训练,通过将节点的表征放到聚类算法中训练,聚类结果更加精确,且节点的分布的可视化,即观察节点的表征在二维空间上的分布,以及每个节点所属的社团,表现出本发明的方法可以获取高质量的节点嵌入。
该方法可获得较高质量的节点表示,实验数据请参见下表2。
表2为通过本发明的实验结果与其他网络节点示方法的实验结果的精准率和归一化信息熵分数的对比:
方法 精准率 归一化信息熵
DeepWalk 0.684 0.265
Node2Vec 0.667 0.250
SDNE 0.416 0.158
TADW 0.574 0.201
ARVGA 0.587 0.184
VGAE 0.586 0.178
本发明的方法 0.681 0.314
以上所述的实施例仅用于说明本发明的技术思想及特点,其目的在于使本领域内的技术人员能够理解本发明的内容并据以实施,不能仅以本实施例来限定本发明的专利范围,即凡本发明所揭示的精神所作的同等变化或修饰,仍落在本发明的专利范围内。

Claims (5)

1.一种基于网络链接和节点属性信息的节点嵌入方法,其特征在于,该方法为:构建由图自编码器、先验生成模型和网络导向约束模块构成的神经网络模型;图自编码器用于将包括网络链接和节点属性信息的网络数据映射到隐变量空间中,对应生成隐变量的空间分布函数;先验生成模型,其用于将隐变量的空间分布通过归一化流模型映射到高斯分布并生成新变量;其计算隐变量分布函数与新变量分布函数之间的kl散度,并基于kl散度,优化和更新隐变量及新变量的空间分布,得到对应隐变量的多个空间分布函数,其将得到的多个空间分布函数组合成一个组合分布函数;网络导向约束模块用于通过拉普拉斯特征映射方式对组合分布函数进行约束;采集包括已知网络链接和节点属性信息的网络数据,制成样本集,从样本集中抽取网络数据样本和相应的邻接矩阵,对神经网络模型进行训练;采用训练完成的神经网络模型对未知网络链接和节点属性信息的网络数据进行处理,得到对应该网络数据的节点特征参数,将节点特征参数与该网络数据相结合,形成带有节点特征参数的网络数据。
2.根据权利要求1所述的基于网络链接和节点属性信息的节点嵌入方法,其特征在于,该方法还包括:将所得节点放入分类器中进行训练,并将训练好的节点嵌入网络数据中进行可视化表示。
3.根据权利要求1所述的基于网络链接和节点属性信息的节点嵌入方法,其特征在于,采用Adam优化器来最小化神经网络模型的损失函数,并优化神经网络模型的参数。
4.根据权利要求3所述的基于网络链接和节点属性信息的节点嵌入方法,其特征在于,对神经网络模型进行训练时,随机初始化参数,利用Adam优化器优化所得的参数更新规则建立模型训练过程,将网络数据样本放入神经网络模型中训练,不断迭代,直至参数更新收敛。
5.根据权利要求1所述的基于网络链接和节点属性信息的节点嵌入方法,其特征在于,该方法包括如下步骤:
步骤一,构建由图自编码器、先验生成模型和网络导向约束模块构成的神经网络模型,并详细刻画神经网络模型中每个变量的含义;
步骤二,根据神经网络模型中各个模块的关系,刻画生成神经网络模型的过程,得到神经网络模型的KL散度,KL散度计算公式如下:
KL(p||q)=[p(u)log p(u)-p(u)log q(u)];
式中,u为归一化流模型中间层的变量;q(u)为中间变量u的分布;p(u)为中间变量u的标准高斯分布;
步骤三,由图自编码器的重构误差损失,以及先验生成模型和网络导向约束模块产生的KL散度损失和先验网络正则化损失,得到神经网络模型最终损失函数:
Figure FDA0002792360990000021
上式中,L为最终损失;Lrect为图自编码器的重构误差损失;Lkl为KL散度损失,KL散度损失是变分推断产生的损失;Lla为生成的先验网络正则化损失,先验网络正则化损失是拉普拉斯特征映射产生的损失;α为超参数;
(1)Lrect的计算公式如下:
Figure FDA0002792360990000022
其中l为交叉熵损失;
Figure FDA0002792360990000023
为解码器产生的邻接矩阵的第i,j位置的值;aij为输入的邻接矩阵的第i,j位置的值;n表示所有的节点数量,i和j分别表示第i和第j个节点;
(2)Lkl的计算公式如下:
Figure FDA0002792360990000024
式中,det为雅可比行列式;z为隐变量;u为归一化流模型中间层的变量;q(u)为中间变量u的分布;p(u)为中间变量u的标准高斯分布;KL为散度;
(3)Lla的计算公式如下:
Figure FDA0002792360990000025
其中aij为输入的邻接矩阵的第i,j位置的值,
Figure FDA0002792360990000026
表示归一化流模型生成的数据中的第i个向量,
Figure FDA0002792360990000027
表示归一化流模型生成的数据中的第j个向量,n表示所有的节点数量,i和j分别表示第i和第j个节点;
步骤四,使用Adam优化器来最小化损失函数并优化神经网络模型的参数;
步骤五,采集网络数据并处理为数据集;
步骤六,随机初始化参数,利用步骤四所得的参数更新规则建立神经网络模型训练过程,从数据集中抽取网络数据和邻接矩阵;导入神经网络模型中训练,不断迭代,直至参数更新收敛;
步骤七,将所获得的参数结果记录到相关网络数据中,且用所得的节点表示网络数据,将所得节点表示放入分类器中进行训练,并将训练好的节点表示进行可视化表示。
CN202011319384.5A 2020-11-23 2020-11-23 一种基于网络链接和节点属性信息的节点嵌入方法 Pending CN112286996A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011319384.5A CN112286996A (zh) 2020-11-23 2020-11-23 一种基于网络链接和节点属性信息的节点嵌入方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011319384.5A CN112286996A (zh) 2020-11-23 2020-11-23 一种基于网络链接和节点属性信息的节点嵌入方法

Publications (1)

Publication Number Publication Date
CN112286996A true CN112286996A (zh) 2021-01-29

Family

ID=74425125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011319384.5A Pending CN112286996A (zh) 2020-11-23 2020-11-23 一种基于网络链接和节点属性信息的节点嵌入方法

Country Status (1)

Country Link
CN (1) CN112286996A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113297575A (zh) * 2021-06-11 2021-08-24 浙江工业大学 一种基于自编码器的多通道图垂直联邦模型防御方法
CN115529290A (zh) * 2022-08-30 2022-12-27 中国人民解放军战略支援部队信息工程大学 基于图神经网络的ip街道级定位方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805167A (zh) * 2018-05-04 2018-11-13 江南大学 一种基于Laplace函数约束的稀疏深度置信网络图像分类方法
CN108920712A (zh) * 2018-07-25 2018-11-30 中国海洋大学 网络中节点的表示方法及装置
CN109376857A (zh) * 2018-09-03 2019-02-22 上海交通大学 一种融合结构和属性信息的多模态深度网络嵌入方法
CN109753589A (zh) * 2018-11-28 2019-05-14 中国科学院信息工程研究所 一种基于图卷积网络的图可视化方法
US20190180732A1 (en) * 2017-10-19 2019-06-13 Baidu Usa Llc Systems and methods for parallel wave generation in end-to-end text-to-speech
US20200134428A1 (en) * 2018-10-29 2020-04-30 Nec Laboratories America, Inc. Self-attentive attributed network embedding
CN111340187A (zh) * 2020-02-18 2020-06-26 河北工业大学 基于对抗注意力机制的网络表征方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190180732A1 (en) * 2017-10-19 2019-06-13 Baidu Usa Llc Systems and methods for parallel wave generation in end-to-end text-to-speech
CN108805167A (zh) * 2018-05-04 2018-11-13 江南大学 一种基于Laplace函数约束的稀疏深度置信网络图像分类方法
CN108920712A (zh) * 2018-07-25 2018-11-30 中国海洋大学 网络中节点的表示方法及装置
CN109376857A (zh) * 2018-09-03 2019-02-22 上海交通大学 一种融合结构和属性信息的多模态深度网络嵌入方法
US20200134428A1 (en) * 2018-10-29 2020-04-30 Nec Laboratories America, Inc. Self-attentive attributed network embedding
CN109753589A (zh) * 2018-11-28 2019-05-14 中国科学院信息工程研究所 一种基于图卷积网络的图可视化方法
CN111340187A (zh) * 2020-02-18 2020-06-26 河北工业大学 基于对抗注意力机制的网络表征方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
ASSOCIATION FOR COMPUTATIONAL LINGUISTICS: "Riemannian Normalizing Flow on VariationalWasserstein Autoencoder for Text Modeling", 《PROCEEDINGS OF THE 2019 CONFERENCE OF THE NORTH AMERICAN CHAPTER OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS: HUMAN LANGUAGE TECHNOLOGIES, VOLUME 1 (LONG AND SHORT PAPERS)》 *
HONGYAO KE 等: "Deep Mutual Encode Model for Network Embedding From Structural Identity", 《IEEE ACCESS》 *
LEO GUO: "Normalization Flow (标准化流) 总结", 《知乎》 *
周晓旭等: "网络顶点表示学习方法", 《华东师范大学学报(自然科学版)》 *
张璞等: "半监督属性网络表示学习方法", 《计算机工程与应用》 *
王杰等: "基于图卷积网络和自编码器的半监督网络表示学习模型", 《模式识别与人工智能》 *
白铂等: "图神经网络", 《中国科学:数学》 *
陈亦琦等: "基于复合关系图卷积的属性网络嵌入方法", 《计算机研究与发展》 *
陈梦雪等: "基于对抗图卷积的网络表征学习框架", 《模式识别与人工智能》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113297575A (zh) * 2021-06-11 2021-08-24 浙江工业大学 一种基于自编码器的多通道图垂直联邦模型防御方法
CN113297575B (zh) * 2021-06-11 2022-05-17 浙江工业大学 一种基于自编码器的多通道图垂直联邦模型防御方法
CN115529290A (zh) * 2022-08-30 2022-12-27 中国人民解放军战略支援部队信息工程大学 基于图神经网络的ip街道级定位方法及装置

Similar Documents

Publication Publication Date Title
Xu et al. Ternary compression for communication-efficient federated learning
CN111950594A (zh) 基于子图采样的大规模属性图上的无监督图表示学习方法和装置
CN108647226B (zh) 一种基于变分自动编码器的混合推荐方法
Cao et al. Adversarial learning with local coordinate coding
Dai et al. Sliced iterative normalizing flows
CN109753589A (zh) 一种基于图卷积网络的图可视化方法
CN113065974B (zh) 一种基于动态网络表示学习的链路预测方法
Liu et al. Real-time streaming graph embedding through local actions
CN112417289B (zh) 一种基于深度聚类的资讯信息智能推荐方法
CN112286996A (zh) 一种基于网络链接和节点属性信息的节点嵌入方法
CN108764362A (zh) 基于神经网络的k-means聚类方法
CN110830291A (zh) 一种基于元路径的异质信息网络的节点分类方法
CN113989544A (zh) 一种基于深度图卷积网络的群体发现方法
CN112270374B (zh) 基于som聚类模型的数学表达式的聚类方法
CN116304367B (zh) 基于图自编码器自监督训练用于获得社区的算法及装置
CN115588487B (zh) 一种基于联邦学习和生成对抗网络的医学图像数据集制作方法
Chang Latent variable modeling for generative concept representations and deep generative models
CN117033997A (zh) 数据切分方法、装置、电子设备和介质
CN116108127A (zh) 一种基于异构图交互和掩码多头注意力机制的文档级事件抽取方法
CN114692867A (zh) 一种结合高阶结构和注意力机制的网络表示学习算法
CN114511060A (zh) 基于自编码器和生成对抗网络的属性补全和网络表示方法
CN103824279A (zh) 基于组织进化聚类算法的图像分割方法
CN111882441A (zh) 一种基于理财产品推荐场景的用户预测解释Treeshap方法
CN114492165A (zh) 基于亲缘选育方法的参数优化方法及***
CN112307288A (zh) 一种用于多渠道的用户聚类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210129

WD01 Invention patent application deemed withdrawn after publication