CN108536844A - 一种文本增强的网络表示学习方法 - Google Patents

一种文本增强的网络表示学习方法 Download PDF

Info

Publication number
CN108536844A
CN108536844A CN201810336473.7A CN201810336473A CN108536844A CN 108536844 A CN108536844 A CN 108536844A CN 201810336473 A CN201810336473 A CN 201810336473A CN 108536844 A CN108536844 A CN 108536844A
Authority
CN
China
Prior art keywords
node
matrix
text
network
indicate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810336473.7A
Other languages
English (en)
Other versions
CN108536844B (zh
Inventor
杨博
杨爽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201810336473.7A priority Critical patent/CN108536844B/zh
Publication of CN108536844A publication Critical patent/CN108536844A/zh
Application granted granted Critical
Publication of CN108536844B publication Critical patent/CN108536844B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种文本增强的网络表示学习方法,涉及复杂网络分析技术,基于非负矩阵分解的框架提出了一个新的由文本信息增强的网络表示学习方法,对于网络结构,本文结合了节点之间的一阶和二阶相似性,然后通过分解相似度矩阵得到网络表示;对于与节点相关的文本聚类结构,本文将文本‑词项矩阵进行分解得到文本聚类隶属度矩阵,然后利用该矩阵在网络表示和文本聚类结构之间建立了一致性关系,从而网络表示学习由网络结构和与节点相关的文本聚类结构共同控制,该方法既刻画了网络结构又刻画了与节点相关的文本聚类结构,为网络表示学习增加了除网络结构之外的额外信息,从而使学习到的节点表示包含更多的有用信息,具有更高的可辨识性。

Description

一种文本增强的网络表示学习方法
技术领域
本发明涉及复杂网络分析技术领域,尤其涉及一种文本增强的网络表示学习方法。
背景技术
在现实世界中,网络无处不在,例如知名社交网络推特和学术论文引文网络DBLP等,由于网络的普遍性和重要性,网络分析受到了越来越多的关注。多种网络分析任务被广泛研究,例如节点分类、连接预测和社区发现。但是,这些任务通常面临着邻接矩阵这一传统网络表示所带来的稀疏性问题。为了解决这个问题,近几年,旨在为网络中的每个节点学习低维连续的向量表示的网络表示学习方法引起了广大学者的研究兴趣。网络表示学习旨在为网络中的每个节点学习一个低维连续的向量表示,这在许多应用方面都很有用。目前绝大多数的网络表示学习方法都只关注于网络结构信息,而通常与网络结构紧密相关的节点文本信息却被忽略了。低维连续的节点表示向量可以直接作为网络分析任务的输入,因此这些任务能够在一个连续的向量空间内被执行,从而避免了网络稀疏性所带来的问题。
网络表示学习的一个基本要求是保证所学的节点表示能够保留并刻画出原始的网络结构和其固有属性。为了满足这一要求,一些网络表示方法旨在刻画节点之间的一阶相似性,例如谱聚类通过计算规范化的Laplace矩阵的前d个特征向量来得到d维的节点向量表示;也有提出保留节点之间二阶相似性的思想,还有进一步提出刻画节点之间的k阶相似性。
目前绝大多数的网络表示学习方法都仅仅考虑了网络的链接信息,而在真实世界中,网络除了具有节点之间的链接信息,网络中的节点自身通常也包含一些信息,比如文本信息或图像信息。据观察,节点文本信息通常与网络结构紧密相关。例如,在引文网络中,有相似文本内容的论文之间往往存在较强的引用关系;在微博上,用户之间的关注关系一般取决于他们所发表的微博内容。尽管节点的文本信息与网络结构是紧密相关的,但在已有的网络表示学习方法中将节点文本信息纳入考虑的相关工作却很少。
发明内容
针对上述缺陷或不足,本发明的目的在于提供一种文本增强的网络表示学习方法。
为达到以上目的,本发明的技术方案为:
一种文本增强的网络表示学习方法,包括:
1)、建立基于网络拓扑结构的无向图,所述无向图包括多个节点的集合、多条边的集合、以及和节点相关的文本信息集合;
2)、根据网络拓扑结构的无向图,对每对节点之间进行多阶相似性建模,得到最终的相似度矩阵,对相似度矩阵进行非负矩阵分解,得到第一目标函数,构建网络结构模型;
3)、根据网络节点的文本信息,将网络节点的文本信息表示为文档-词项矩阵,基于非负矩阵分解的文本聚类方法,将文本-词项矩阵分解成两个非负的矩阵,得到第二目标函数,构建文本信息模型;
4)、根据文本簇的表示矩阵,获取第三目标函数,并根据第三目标函数将网络结构模型和文本信息模型统一在完整框架下,得到最终的节点表示矩阵,以使得节点表示包含有用信息。
所述步骤1)包括:
设G=(V,E,T)表示无向图,其中V表示n个节点的集合,E表示e条边的集合,T表示和节点相关的文本信息集合。
所述步骤2包括对每对节点之间进行一阶和二阶相似性建模,具体包括以下步骤:
2.1、一阶相似性建模:
给定邻接矩阵A,对于任意一对节点,如果该对节点之间存在一条边Aij>0,则该对节点之间的一阶相似度大于零,否则为零;其中,i,j分别表示节点编号;
2.2、定义Xi (1)=(Ai,1,...,Ai,n)表示节点i的一阶相似度向量,Xj (1)=(Aj,1,...,Aj,n)表示节点j的一阶相似度向量;使用和Xj (1)的余弦相似度作为节点i和节点j的二阶相似度,所述二阶相似度的取值范围为0到1;
2.3、获取相似度矩阵为X=X(1)+5*X(2)
2.4、对相似度矩阵X进行非负矩阵分解,生成两个非负的矩阵其中,M表示基矩阵,U表示系数矩阵,矩阵U的第i行为节点i的向量表示,(d≤n)为节点表示向量的维度;为了近似相似度矩阵X,得到第一目标函数:
所述步骤3)包括:
3.1、将网络节点的文本信息表示为文档-词项矩阵,其中,n表示网络中节点的个数,即文本的个数,m表示词项的个数;
3.2、将文本-词项矩阵分解成两个非负的矩阵得到第二目标函数为:
其中,矩阵Q中的元素Qij表示节点i隶属于文本簇j的程度,矩阵V中的元素Vij表示词项i与簇j相关的程度。
所述步骤4)包括:
4.1、根据文本簇的表示矩阵获取中间目标函数:
其中,矩阵C的第z行是第z个簇的表示向量,它的维度为d,和节点表示向量的维度相同;
4.2、通过中间目标函数(3),在由公式(1)表示的网络结构模型和由公式(2)表示的文本模型之间建立连接,获取第三目标函数:
其中,α是一个大于零的参数,用来调整文本信息对学习节点表示的贡献,β是一个大于零的参数,通过辅助的文本簇表示矩阵C,节点表示矩阵U被投影到文本聚类隶属度矩阵Q的空间中,从而在二者之间建立了一致性关系。
所述4.2后还包括对第三目标函数进行优化,具体包括对:
A、采用乘性迭代规则更新M,并保持其它参数V,C不变:
B、采用乘性迭代规则更新V,并保持其它参数M,C不变:
C、采用乘性迭代规则更新C,并保持其它参数M,V不变:
D、更新U并保持其余参数不变:
E、更新Q并保持其余参数不变:
由于公式(9)被重写为:
用Φ=[Φij]表示针对约束Q≥0的拉格朗日乘子矩阵,对应的拉格朗日乘数函数写为:
将L′(Q)关于Q的偏导数设置为零:
通过引入Karush-Kuhn-Tucker(KKT)条件ΦijQij=0,得到更新规则:
与现有技术比较,本发明的有益效果为:
本发明提供了一种文本增强的网络表示学习方法,基于非负矩阵分解的框架提出了一个新的由文本信息增强的网络表示学习方法(TENE),对于网络结构,本文结合了节点之间的一阶和二阶相似性,然后通过分解相似度矩阵得到网络表示;对于与节点相关的文本聚类结构,本文将文本-词项矩阵进行分解得到文本聚类隶属度矩阵,然后利用该矩阵在网络表示和文本聚类结构之间建立了一致性关系,从而网络表示学习由网络结构和与节点相关的文本聚类结构共同控制,该方法既刻画了网络结构又刻画了与节点相关的文本聚类结构,为网络表示学习增加了除网络结构之外的额外信息,从而使学习到的节点表示包含更多的有用信息,具有更高的可辨识性。
附图说明
图1是本发明文本增强的网络表示学习方法的控制流程框图。
具体实施方式
下面将结合附图对本发明做详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
如图1所示,本发明公开了一种文本增强的网络表示学习方法,包括:
1)、建立基于网络拓扑结构的无向图,所述无向图包括多个节点的集合、多条边的集合、以及和节点相关的文本信息集合;
设G=(V,E,T)表示无向图,其中V表示n个节点的集合,E表示e条边的集合,T表示和节点相关的文本信息集合。网络表示的目标是为网络中的每个节点学习一个低维、连续的向量表示,其中(d≤n)是向量的维度。本发明提出一种基于非负矩阵分解可集成网络结构和节点文本信息的网络表示方法。
2)、根据网络拓扑结构的无向图,对每对节点之间进行多阶相似性建模,得到最终的相似度矩阵,对相似度矩阵进行非负矩阵分解,得到第一目标函数,构建网络结构模型;
所述步骤2包括对每对节点之间进行一阶和二阶相似性建模,具体包括以下步骤:
2.1、一阶相似性建模:
给定邻接矩阵A,对于任意一对节点,如果该对节点之间存在一条边Aij>0,则该对节点之间的一阶相似度大于零,否则为零;其中,i,j分别表示节点编号;
一阶相似度描述了两个节点之间局部的相似性。给定邻接矩阵A,对于任意一对节点,如果它们之间存在一条能观察到的边,即Aij>0,那么它们之间的一阶相似度大于零,否则为零。
由于通常在真实网络中,直接相连的节点之间往往存在一些相似性,所以刻画节点之间的一阶相似度具有重要意义。例如,在***中,如果一个网页链接到另一个网页,那么这两个网页的内容通常包含相同的主题。使用邻接矩阵A作为网络结构的最直接表示,以此来刻画一阶相似性。然而,真实网络通常是很稀疏的。许多相似的节点之间并不存在直接相连的边。也就是说,即使两个节点之间的一阶相似度为零,它们仍然可以是相似的。因此,只考虑节点之间的一阶相似度是不充分的。直观上,共享许多相同邻居的节点之间往往也存在许多相似性,引出了如下所示的二阶相似性:
2.2、定义Xi (1)=(Ai,1,...,Ai,n)表示节点i的一阶相似度向量,Xj (1)=(Aj,1,...,Aj,n)表示节点j的一阶相似度向量;使用和Xj (1)的余弦相似度作为节点i和节点j的二阶相似度,所述二阶相似度的取值范围为0到1;
2.3、获取相似度矩阵为X=X(1)+5*X(2);需要注意的是,除了一阶和二阶之外,模型还可以刻画更高阶的相似度,例如三阶和四阶。本文在算法运行速度和正确率之间进行了权衡,确定了最终的相似度矩阵X。
2.4、对相似度矩阵X进行非负矩阵分解,生成两个非负的矩阵其中,M表示基矩阵,U表示系数矩阵,矩阵U的第i行为节点i的向量表示,(d≤n)为节点表示向量的维度;为了近似相似度矩阵X,得到第一目标函数:
3)、根据网络节点的文本信息,将网络节点的文本信息表示为文档-词项矩阵,基于非负矩阵分解的文本聚类方法,将文本-词项矩阵分解成两个非负的矩阵,得到第二目标函数,构建文本信息模型;
对于所有节点都包含文本信息的网络而言,其中的每个节点都可以被看作是一个文本。表示相应的文档-词项矩阵,其中n表示网络中节点的个数,即文本的个数,m表示词项的个数。矩阵T中的每个元素由词频-逆文档频率机制决定的。假设由节点文本信息组成的文本语料库包含k个簇,那么借鉴文献基于非负矩阵分解的文本聚类思想,将文本-词项矩阵分解成两个非负的矩阵从而产生了如下的目标函数。
所述步骤3)包括:
3.1、将网络节点的文本信息表示为文档-词项矩阵,其中,n表示网络中节点的个数,即文本的个数,m表示词项的个数;
3.2、将文本-词项矩阵分解成两个非负的矩阵得到第二目标函数为:
其中,矩阵Q中的元素Qij表示节点i隶属于文本簇j的程度,矩阵V中的元素Vij表示词项i与簇j相关的程度。从而,对于所有节点,得到了一个文本聚类隶属度矩阵Q。如果节点i只隶属于簇z,那么Qiz的值将远远大于矩阵Q的第i个行向量中的其它元素。如果节点i隶属于簇z的可能性很低,那么Qiz的值将接近为零。
4)、根据文本簇的表示矩阵,获取第三目标函数,并根据第三目标函数将网络结构模型和文本信息模型统一在完整框架下,得到最终的节点表示矩阵,以使得节点表示包含有用信息。
所述步骤4)包括:
4.1、根据文本簇的表示矩阵获取中间目标函数:
其中,矩阵C的第z行是第z个簇的表示向量,它的维度为d,和节点表示向量的维度相同;
辅助的非负矩阵它被定义为文本簇的表示矩阵。矩阵C的第z行是第z个簇的表示向量,它的维度为d,和节点表示向量的维度相同。如果节点i隶属于簇z,那么节点i的嵌入表示应该和簇z的嵌入表示很相似。节点i隶属于簇z的可能性越高,节点i与簇z的表示向量应该越相似。采用向量內积的方式来衡量这两个表示向量之间的相似性,从而它们之间的相似性可以被定义为UiCz
按照这种方式,当这两个表示向量大体上是正交的时候,这意味着这两个向量完全不同,从而节点i隶属于簇z的可能性几乎为零。正如在文本信息建模部分所提及的那样,文本聚类隶属度矩阵Q指示了每个节点隶属于每个簇的程度。自然而然,希望UCT的结果能与聚类隶属度矩阵Q尽可能一致。为了最小化UCT和矩阵Q之间的差异,得到中间目标函数。
4.2、通过中间目标函数(3),在由公式(1)表示的网络结构模型和由公式(2)表示的文本模型之间建立连接,获取第三目标函数:
其中,α是一个大于零的参数,用来调整文本信息对学习节点表示的贡献,β是一个大于零的参数,通过辅助的文本簇表示矩阵C,节点表示矩阵U被投影到文本聚类隶属度矩阵Q的空间中,从而在二者之间建立了一致性关系。因此,节点表示的学习过程是在相似度矩阵X和文本聚类隶属度矩阵Q的共同指导下进行的。通过将网络结构和文本聚类结构统一集成到网络表示的学习过程中,得到了最终的节点表示矩阵U。通过使用节点的文本信息,为网络表示学习增加了除网络结构之外的额外信息,从而使学习到的节点表示包含更多的有用信息,具有更高的可辨识性。
所述4.2后还包括对第三目标函数进行优化,具体包括对:
A、采用乘性迭代规则更新M,并保持其它参数V,C不变:
B、采用乘性迭代规则更新V,并保持其它参数M,C不变:
C、采用乘性迭代规则更新C,并保持其它参数M,V不变:
D、更新U并保持其余参数不变:
E、更新Q并保持其余参数不变:
由于公式(9)被重写为:
用Φ=[Φij]表示针对约束Q≥0的拉格朗日乘子矩阵,对应的拉格朗日乘数函数写为:
将L′(Q)关于Q的偏导数设置为零:
通过引入Karush-Kuhn-Tucker(KKT)条件ΦijQij=0,得到更新规则:
上面所列的所有更新规则都有正确性的保证,而且都可以被证明是收敛的。
TENE的运行时间主要花费在执行如上所示的更新规则中的矩阵乘法运算。具体来说,公式(5)、(6)、(7)、(8)、(13)的时间复杂度分别为O(n2d),O(nmk),O(knd),O(n2d+nkd+nd2)和O(nmk+ndk)。由于通常d,k<m,n,所以总体的时间复杂度为O(nmk+n2d)。
对于本领域技术人员而言,显然能了解到上述具体事实例只是本发明的优选方案,因此本领域的技术人员对本发明中的某些部分所可能做出的改进、变动,体现的仍是本发明的原理,实现的仍是本发明的目的,均属于本发明所保护的范围。

Claims (6)

1.一种文本增强的网络表示学习方法,其特征在于,包括:
1)、建立基于网络拓扑结构的无向图,所述无向图包括多个节点的集合、多条边的集合、以及和节点相关的文本信息集合;
2)、根据网络拓扑结构的无向图,对每对节点之间进行多阶相似性建模,得到最终的相似度矩阵,对相似度矩阵进行非负矩阵分解,得到第一目标函数,构建网络结构模型;
3)、根据网络节点的文本信息,将网络节点的文本信息表示为文档-词项矩阵,基于非负矩阵分解的文本聚类方法,将文本-词项矩阵分解成两个非负的矩阵,得到第二目标函数,构建文本信息模型;
4)、根据文本簇的表示矩阵,获取第三目标函数,并根据第三目标函数将网络结构模型和文本信息模型统一在完整框架下,得到最终的节点表示矩阵,以使得节点表示包含有用信息。
2.根据权利要求1所述的文本增强的网络表示学习方法,其特征在于,所述步骤1)包括:
设G=(V,E,T)表示无向图,其中V表示n个节点的集合,E表示e条边的集合,T表示和节点相关的文本信息集合。
3.根据权利要求2所述的文本增强的网络表示学习方法,其特征在于,所述步骤2包括对每对节点之间进行一阶和二阶相似性建模,具体包括以下步骤:
2.1、一阶相似性建模:
给定邻接矩阵A,对于任意一对节点,如果该对节点之间存在一条边Aij>0,则该对节点之间的一阶相似度大于零,否则为零;其中,i,j分别表示节点编号;
2.2、定义Xi (1)=(Ai,1,...,Ai,n)表示节点i的一阶相似度向量,Xj (1)=(Aj,1,...,Aj,n)表示节点j的一阶相似度向量;使用和Xj (1)的余弦相似度作为节点i和节点j的二阶相似度,所述二阶相似度的取值范围为0到1;
2.3、获取相似度矩阵为X=X(1)+5*X(2)
2.4、对相似度矩阵X进行非负矩阵分解,生成两个非负的矩阵其中,M表示基矩阵,U表示系数矩阵,矩阵U的第i行为节点i的向量表示,(d≤n)为节点表示向量的维度;为了近似相似度矩阵X,得到第一目标函数:
4.根据权利要求3所述的文本增强的网络表示学习方法,其特征在于,所述步骤3)包括:
3.1、将网络节点的文本信息表示为文档-词项矩阵,其中,n表示网络中节点的个数,即文本的个数,m表示词项的个数;
3.2、将文本-词项矩阵分解成两个非负的矩阵得到第二目标函数为:
其中,矩阵Q中的元素Qij表示节点i隶属于文本簇j的程度,矩阵V中的元素Vij表示词项i与簇j相关的程度。
5.根据权利要求4所述的文本增强的网络表示学习方法,其特征在于,所述步骤4)包括:
4.1、根据文本簇的表示矩阵获取中间目标函数:
其中,矩阵C的第z行是第z个簇的表示向量,它的维度为d,和节点表示向量的维度相同;
4.2、通过中间目标函数(3),在由公式(1)表示的网络结构模型和由公式(2)表示的文本模型之间建立连接,获取第三目标函数:
其中,α是一个大于零的参数,用来调整文本信息对学习节点表示的贡献,β是一个大于零的参数,通过辅助的文本簇表示矩阵C,节点表示矩阵U被投影到文本聚类隶属度矩阵Q的空间中,从而在二者之间建立了一致性关系。
6.根据权利要求5所述的文本增强的网络表示学习方法,其特征在于,所述4.2后还包括对第三目标函数进行优化,具体包括对:
A、采用乘性迭代规则更新M,并保持其它参数V,C不变:
B、采用乘性迭代规则更新V,并保持其它参数M,C不变:
C、采用乘性迭代规则更新C,并保持其它参数M,V不变:
D、更新U并保持其余参数不变:
E、更新Q并保持其余参数不变:
由于公式(9)被重写为:
用Φ=[Φij]表示针对约束Q≥0的拉格朗日乘子矩阵,对应的拉格朗日乘数函数写为:
将L′(Q)关于Q的偏导数设置为零:
通过引入Karush-Kuhn-Tucker(KKT)条件ΦijQij=0,得到更新规则:
CN201810336473.7A 2018-04-13 2018-04-13 一种文本增强的网络表示学习方法 Active CN108536844B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810336473.7A CN108536844B (zh) 2018-04-13 2018-04-13 一种文本增强的网络表示学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810336473.7A CN108536844B (zh) 2018-04-13 2018-04-13 一种文本增强的网络表示学习方法

Publications (2)

Publication Number Publication Date
CN108536844A true CN108536844A (zh) 2018-09-14
CN108536844B CN108536844B (zh) 2021-09-03

Family

ID=63480211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810336473.7A Active CN108536844B (zh) 2018-04-13 2018-04-13 一种文本增强的网络表示学习方法

Country Status (1)

Country Link
CN (1) CN108536844B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902168A (zh) * 2019-01-25 2019-06-18 北京创新者信息技术有限公司 一种专利评价方法和***
CN110837602A (zh) * 2019-11-05 2020-02-25 重庆邮电大学 基于表示学习和多模态卷积神经网络的用户推荐方法
CN111461346A (zh) * 2020-03-31 2020-07-28 支付宝(杭州)信息技术有限公司 一种网络节点表征方法、装置和设备
CN111931023A (zh) * 2020-07-01 2020-11-13 西北工业大学 一种基于网络嵌入的社团结构识别方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976446A (zh) * 2010-10-20 2011-02-16 浙江工业大学 一种显微序列图像的多特征点跟踪方法
CN103279556A (zh) * 2013-06-09 2013-09-04 南方报业传媒集团 基于自适应子空间学习的迭代文本聚类方法
US20170032391A1 (en) * 2015-07-28 2017-02-02 Xerox Corporation Methods and systems for customer churn prediction
CN106547739A (zh) * 2016-11-03 2017-03-29 同济大学 一种文本语义相似度分析方法
CN107122455A (zh) * 2017-04-26 2017-09-01 中国人民解放军国防科学技术大学 一种基于微博的网络用户增强表示方法
CN107679135A (zh) * 2017-09-22 2018-02-09 深圳市易图资讯股份有限公司 面向网络文本大数据的话题检测与跟踪方法、装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976446A (zh) * 2010-10-20 2011-02-16 浙江工业大学 一种显微序列图像的多特征点跟踪方法
CN103279556A (zh) * 2013-06-09 2013-09-04 南方报业传媒集团 基于自适应子空间学习的迭代文本聚类方法
US20170032391A1 (en) * 2015-07-28 2017-02-02 Xerox Corporation Methods and systems for customer churn prediction
CN106547739A (zh) * 2016-11-03 2017-03-29 同济大学 一种文本语义相似度分析方法
CN107122455A (zh) * 2017-04-26 2017-09-01 中国人民解放军国防科学技术大学 一种基于微博的网络用户增强表示方法
CN107679135A (zh) * 2017-09-22 2018-02-09 深圳市易图资讯股份有限公司 面向网络文本大数据的话题检测与跟踪方法、装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王莉等: "在线社会网络的动态社区发现及演化", 《计算机学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902168A (zh) * 2019-01-25 2019-06-18 北京创新者信息技术有限公司 一种专利评价方法和***
CN109902168B (zh) * 2019-01-25 2022-02-11 北京创新者信息技术有限公司 一种专利评价方法和***
CN110837602A (zh) * 2019-11-05 2020-02-25 重庆邮电大学 基于表示学习和多模态卷积神经网络的用户推荐方法
CN110837602B (zh) * 2019-11-05 2022-10-04 重庆邮电大学 基于表示学习和多模态卷积神经网络的用户推荐方法
CN111461346A (zh) * 2020-03-31 2020-07-28 支付宝(杭州)信息技术有限公司 一种网络节点表征方法、装置和设备
CN111461346B (zh) * 2020-03-31 2022-12-06 支付宝(杭州)信息技术有限公司 一种网络节点表征方法、装置和设备
CN111931023A (zh) * 2020-07-01 2020-11-13 西北工业大学 一种基于网络嵌入的社团结构识别方法及装置

Also Published As

Publication number Publication date
CN108536844B (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN107463953B (zh) 在标签含噪情况下基于质量嵌入的图像分类方法及***
CN108536844A (zh) 一种文本增强的网络表示学习方法
Ma et al. Online active learning of decision trees with evidential data
CN111523051A (zh) 基于图卷积矩阵分解的社交兴趣推荐方法及***
Yang et al. Chaos and transient chaos in simple Hopfield neural networks
Necoara et al. Efficient parallel coordinate descent algorithm for convex optimization problems with separable constraints: application to distributed MPC
CN107122455A (zh) 一种基于微博的网络用户增强表示方法
CN106651016B (zh) 一种热点话题下动态预测用户行为的***及方法
Nazemi A dynamical model for solving degenerate quadratic minimax problems with constraints
CN107077487A (zh) 利用深度网络对个人照片加标签
Gakkhar et al. Seasonally perturbed prey–predator system with predator-dependent functional response
CN106296425A (zh) 基于带权重联合非负矩阵分解的属性图聚类方法及***
CN109447261A (zh) 一种基于多阶邻近相似度的网络表示学习的方法
CN113065974A (zh) 一种基于动态网络表示学习的链路预测方法
Song et al. Mixed H 2/H∞ distributed robust model predictive control for polytopic uncertain systems subject to actuator saturation and missing measurements
Fang et al. Cross-domain recommendation via tag matrix transfer
Refaat et al. A mathematical approach to simultaneously plan generation and transmission expansion based on fault current limiters and reliability constraints
Wu et al. Exponential synchronization of weighted general delay coupled and non-delay coupled dynamical networks
González‐Olivares et al. A simple Gause‐type predator–prey model considering social predation
CN111460275B (zh) 一种面向社交网络的动态网络表示学习方法及***
CN116541593A (zh) 一种基于超图神经网络的课程推荐方法
Chang et al. A demonstration of the improved efficiency of the canonical coordinates method using nonlinear combined heat and power economic dispatch problems
Pan et al. HTML+ CSS Implementation based on Image Intelligent Scene Recognition Algorithm
Wang et al. Cooperative learning neural network output feedback control of uncertain nonlinear multi-agent systems under directed topologies
CN108427762A (zh) 利用随机游走的自编码文档表示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant