CN114912529A - 一种基于张量图卷积网络的节点分类方法及*** - Google Patents

一种基于张量图卷积网络的节点分类方法及*** Download PDF

Info

Publication number
CN114912529A
CN114912529A CN202210536635.8A CN202210536635A CN114912529A CN 114912529 A CN114912529 A CN 114912529A CN 202210536635 A CN202210536635 A CN 202210536635A CN 114912529 A CN114912529 A CN 114912529A
Authority
CN
China
Prior art keywords
tensor
graph
map
view
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210536635.8A
Other languages
English (en)
Inventor
陈川
吴哲彬
郑子彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202210536635.8A priority Critical patent/CN114912529A/zh
Priority to PCT/CN2022/105119 priority patent/WO2023221275A1/zh
Publication of CN114912529A publication Critical patent/CN114912529A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于张量图卷积网络的节点分类方法及***,方法包括:根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图;其中,图数据包括图的邻接矩阵和特征矩阵,特征矩阵由图中所有节点的特征向量构成,多视角增强图包括邻接张量和特征张量,邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;将多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出图数据中各节点的预测分类结果。本发明从图数据预处理和模型架构提高张量图卷积网络模型的鲁棒性,遭受对抗攻击时仍较稳定。

Description

一种基于张量图卷积网络的节点分类方法及***
技术领域
本发明涉及图神经网络技术领域,尤其是涉及一种基于张量图卷积网络的节点分类方法及***。
背景技术
图是描述实体间关系的基本数据结构,如社交网络、学术应用网络以及蛋白质网络等,学习和挖掘图数据有助于解决各类现实应用问题。图神经网络(GraphConvolutional Network,GCN)是一种新型的人工智能神经网络,近年来已经被广泛应用于许多领域,例如节点分类、链路预测和推荐***等。
尽管图神经网络目前已取得了令人满意的成绩,但是作为深度学习在图结构数据上的拓展,其依旧非常容易遭受对抗攻击的影响。除此之外,消息传递机制在支撑起整个图神经网络核心的同时,也存在着严重的隐患,对对抗攻击的抵抗性十分脆弱。这是由于图神经网络中消息在进行传播的时候,对抗攻击所带来的虚假消息也同时跟着传播,从而导致全局节点的表征性能严重受到影响。
现实中的图结构数据集即使在未遭受对抗攻击的情况下,通常也带有一定的噪声扰动或者离群点,而此时模型的缺乏鲁棒性可能会导致不理想的结果,特别是与安全和隐私相关的重要应用。
发明内容
本发明的目的是提供一种基于张量图卷积网络的节点分类方法及***,以解决现有技术中图神经网络模型缺乏鲁棒性、对对抗攻击的防御能力较弱的技术问题。
本发明的目的,可以通过如下技术方案实现:
一种基于张量图卷积网络的节点分类方法,包括:
根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作,并通过低秩近似以得到一个多视角增强图;
其中,所述图数据包括图的邻接矩阵和特征矩阵,所述特征矩阵由图中所有节点的特征向量构成,所述多视角增强图包括邻接张量和特征张量,所述邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,所述特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;
将所述多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出所述图数据中各节点的预测分类结果。
可选地,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图包括:
将图数据和得到的多个单视角增强图进行重构,得到第一多视角增强图,所述第一多视角增强图包括第一邻接张量和特征张量;
对所述第一邻接张量进行张量分解得到第二邻接张量;
基于所述第二邻接张量和特征张量生成第二多视角增强图,所述第二邻接张量为所述第二多视角增强图的邻接张量。
可选地,对所述第一邻接张量进行张量分解得到第二邻接张量包括:
利用基于张量的奇异值分解方法对所述第一邻接张量进行张量分解,得到所述第一邻接张量的低秩近似值作为第二邻接张量。
可选地,所述张量图卷积网络模型包括输入层、二层张量图卷积层、全连接层和输出层,对所述张量图卷积网络模型的训练过程包括:
利用所述输入层将训练集中各图数据对应多视角增强图的邻接张量和特征张量输入到所述二层张量图卷积层;
利用所述二层张量图卷积层得到所述多视角增强图的节点表征张量;
利用所述全连接层根据所述节点表征张量得到节点表征矩阵;
利用所述输出层根据所述节点表征矩阵得到图数据中各节点的预测分类结果。
可选地,二层张量图卷积层包括第一层张量图卷积层和第二层张量图卷积层,利用所述二层张量图卷积层得到所述多视角增强图的节点表征张量包括:
利用所述第一层张量图卷积层对所述邻接张量的每个前切面进行对称归一化得到归一邻接张量,然后对所述归一邻接张量和所述特征张量进行张量运算得到第一特征张量;
利用所述第二层张量图卷积层对所述归一邻接张量和所述第一特征张量进行张量运算得到节点特征张量。
可选地,利用所述第一层张量图卷积层对所述归一邻接张量和所述特征张量进行张量运算得到第一特征张量包括:
所述第一层张量图卷积层利用
Figure BDA0003648550790000031
对所述归一邻接张量和所述特征张量进行张量运算得到第一特征张量;
其中,σ(·)表示非线性激活函数,
Figure BDA0003648550790000032
表示归一邻接张量,
Figure BDA0003648550790000037
表示特征张量,
Figure BDA0003648550790000036
表示第一层张量图卷积层的权重张量,*表示张量t-product运算,张量t-product运算是先对张量沿着第三个维度进行傅里叶变换将数据从原始空间域变换到傅里叶域,然后在傅里叶域中进行两个张量之间对应矩阵前切面的矩阵乘法,最后将得到的结果沿着第三个维度进行逆傅里叶变换回到原始的空域中作为张量t-product运算的结果,
Figure BDA0003648550790000038
表示第一特征张量。
可选地,利用所述第二层张量图卷积层对所述归一邻接张量和所述第一特征张量进行张量运算得到节点特征张量包括:
所述第二层张量图卷积层利用
Figure BDA0003648550790000033
对所述归一邻接张量和所述第一特征张量进行张量运算得到第二特征张量,将所述第二特征张量作为节点特征张量;
其中,
Figure BDA0003648550790000034
表示第二特征张量,
Figure BDA0003648550790000035
表示第二层张量图卷积层的权重张量。
可选地,根据图数据生成多个不同视角的单视角增强图包括:
对图数据去除或添加随机边生成多个不同视角的单视角增强图。
本发明还提供了一种基于张量图卷积网络的节点分类***,包括:
多视角增强图生成模块,用于根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图;
其中,所述图数据包括图的邻接矩阵和特征矩阵,所述特征矩阵由图中所有节点的特征向量构成,所述多视角增强图包括邻接张量和特征张量,所述邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,所述特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;
节点分类模块,用于将所述多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出所述图数据中各节点的预测分类结果。
可选地,所述多视角增强图生成模块根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图包括:
所述多视角增强图生成模块将图数据和得到的多个单视角增强图进行重构,得到第一多视角增强图,所述第一多视角增强图包括第一邻接张量和特征张量;
对所述第一邻接张量进行张量分解得到第二邻接张量;
基于所述第二邻接张量和特征张量生成第二多视角增强图,所述第二邻接张量为所述第二多视角增强图的邻接张量
本发明提供了一种基于张量图卷积网络的节点分类方法及***,其中方法包括:根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图;其中,所述图数据包括图的邻接矩阵和特征矩阵,所述特征矩阵由图中所有节点的特征向量构成,所述多视角增强图包括邻接张量和特征张量,所述邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,所述特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;将所述多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出所述图数据中各节点的预测分类结果。
有鉴如此,本发明带来的有益效果是:
本发明采用多视角增强技术根据初始的图数据得到一个多视角增强图,可以明显地降低增强方差,增加数据的多样性,提高张量图卷积网络模型的泛化能力,使得张量图卷积网络模型的输出结果更加稳定,能从图数据预处理阶段提高整个张量图卷积网络模型的鲁棒性;利用新型的张量图卷积网络模型同时对多视角图数据结构在单个视角内和多个视角间进行图卷积操作,能同时学习多视角增强图的单个视角内和不同视角间的信息,可以捕获到多个视角间的相关性,能提高整个张量图卷积网络模型的鲁棒性,从而使得其能够在遭受人为对抗攻击或者噪声扰动的情况下依旧能保持相对稳定的性能。
附图说明
图1为本发明方法的流程示意图;
图2为本发明***的结构示意图;
图3为本发明张量t-product运算的示意图;
图4为单视角图增强和多视角图增强之间的差异示意图;
图5为本发明方法实施例的过程示意图;
图6为本发明方法中生成多视角图增强的过程示意图;
图7为本发明方法中基于张量的奇异值分解t-SVD示例图;
图8为本发明张量图卷积网络模型的框架图。
具体实施方式
术语解释:
图神经网络:传统的图表征学习算法旨在探索如何在图结构数据上尽可能学得更高质量的表征以提高下游任务的表现,然而它并非是端到端的模型,从而使得最终学得的节点表征为次优的。相比之下,近几年来图神经网络旨在研究一种适合图结构数据的神经网络深度学习模型,而且是端到端的。通过将图结构数据与欧式数据进行类比,可以衍生出许多关于图结构数据的深度学习算法,图神经网络也因此获得了越来越多的关注。由于其在图结构数据上显著的性能,图神经网络在现实世界中有着广泛的应用。
数据增强:对于依赖于大规模数据集进行训练以避免过拟合问题的深度神经网络模型(如CNN、RNN等)来说,目前数据增强已成为提高模型泛化能力最重要的技术手段之一。数据增强可以在不实质性地增加数据的情况下,让有限的数据产生等价于更多数据的价值,以从问题的根源——训练数据集出发来处理过拟合问题。
张量:又称为多维数组,一维数组即一阶张量,通常被称为向量;二维数组即二阶张量,通常被称为矩阵;那么三维以及三维以上的数组则被统称为张量。彩色图像便是现实生活中的三阶张量的主要代表之一,它不仅仅在平面上有高和宽,在深度上还有三个色彩通道:红、绿、蓝,它们各自都具有一定的信息。张量是多维数组的泛化概念。由于张量可以表达高阶数据复杂的关系,所以它成为了处理和分析多维数据的有力工具,在计算机视觉、数据挖掘和机器学习领域都有广泛应用。
张量低秩近似:一般来说,现实中的张量具有较强的低秩性或能够被近似地分解成低维的结构,并且张量分解通常是高维数据处理的核心手段。通过对张量进行分解(如CANDECOMP/PARAFAC(CP)、Tucker和Tensor-Train(TT)等)可以有效地将原始张量转换为更小的子空间,不仅可以在很大程度上减少存储开销,而且这些分解因子能够帮助捕获张量不同维度之间的潜在相关信息。对于高维空间中的图像或视频数据,低秩结构的这一特征发挥着至关重要的作用。低秩成分在图片的各个局部区域或视频中的不同帧之间都显示出高度的相关性,这种相关性提供了张量数据潜在的全局结构信息,可以很好地完成数据的补全或者去噪任务。
张量t-product运算:先对张量沿着第三个维度进行傅里叶变换将数据从原始空间域变换到傅里叶域,然后在傅里叶域中进行两个张量之间对应矩阵前切面的矩阵乘法,最后将得到的结果沿着第三个维度进行逆傅里叶变换回到原始的空域中作为张量t-product运算的结果。如图3所示,其中
Figure BDA0003648550790000063
Figure BDA0003648550790000061
分别为原空间上的三个三阶张量,
Figure BDA0003648550790000062
为相应的傅里叶空间上的张量。
对抗攻击:对抗攻击旨在设计一种针对数值型向量的攻击方式从而让深度学习模型做出误判。与其他攻击方式不同,对抗攻击主要作用在输入数据的构造时,对抗攻击后的数据被当成正常数据一样输入模型从而达到欺骗模型的效果。
鲁棒性:鲁棒性又称为健壮性,在机器学习领域中用来衡量模型的抗风险能力。鲁棒性强的模型可以在一定的噪声、离群点或者对抗攻击干扰下依旧保持较强的稳定性和有效性。
本发明实施例提供了一种基于张量图卷积网络的节点分类方法及***,以解决现有技术中图神经网络模型缺乏鲁棒性、对对抗攻击的防御能力较弱的技术问题。
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的首选实施例。但是,本发明可以以许多不同的形式来实现,并不限于本发明所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
除非另有定义,本发明所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本发明中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本发明所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
传统的图表征学习旨在利用图结构数据的拓扑结构信息为图上的每个节点学得一个低维的向量表征,在尽可能低维的向量空间中最大化去保留图上的结构信息。然后,利用得到的节点表征完成下游的节点分类、链路预测等任务。不同于传统的图表征学习,图神经网络不仅考虑了图结构数据的拓扑结构信息,而且同时把节点自身的属性信息加入到学习过程中。此外,下游所要完成的目标任务也会加入到节点表征学习中完成端到端的训练。
值得说明的是,节点自身的属性信息指的是这个节点所代表的实体本身固有属性特征,例如好友网络中的每个节点表示一个用户,而此时的属性信息可以是该用户的性别、年龄、地点等信息。下游要完成的目标任务包括对图结构数据中的节点进行分类或聚类、对图上的边进行预测等。
尽管图神经网络目前已取得了令人满意的成绩,但是作为深度学习在图结构数据上的拓展,其依旧十分容易遭受对抗攻击的影响。除此之外,消息传递机制在支撑起整个图神经网络核心的同时,也存在着严重的隐患——对对抗攻击的抵抗性十分脆弱。这是由于图神经网络中消息在进行传播的时候,对抗攻击所带来的虚假消息也同时跟着传播,从而导致全局节点的表征性能严重受到影响。现实生活中的图结构数据集即使在未遭受对抗攻击的情况下,通常也带有一定的噪声扰动或者离群点,而此时模型的缺乏鲁棒性可能会导致不理想的结果,特别是与安全和隐私相关的重要应用。因此,本发明主要研究的问题就是如何提高图神经网络模型的鲁棒性,从而使得其能够在遭受人为对抗攻击或者噪声扰动的情况下依旧能保持相对稳定的性能。
图神经网络由于其消息传递的机制导致模型十分容易受到对抗攻击的影响,这种脆弱性在一些关键性的安全应用中会存在着很大的隐患。因此,为了使图神经网络能够抵御对抗攻击的干扰,目前研究人员提出了多种对策,主要可分为对抗训练、对抗扰动检测、鲁棒性验证、图净化和注意力机制等。
以金融领域的账户交易图为例,其中,图中的节点表示账户,节点之间的边表示账户之间的交易往来。由黑客所制造的欺诈性账户同真实账户之间的虚假交易容易在整个账户交易图中传播有害信息,误导图神经网络模型对账户的信用度进行不准确的估计,同时给银行和用户造成不良影响。此时的节点分类任务可以理解成:为用户进行不同区间的信用度评估。
类似地,在特定的商品上添加虚假的评论信息可以欺骗电商网站的推荐***,图中的节点表示商品,节点之间的连边表示商品间的相似度(物以类聚),虚假的评论信息会影响商品的自身属性,从而给整个商品推荐造成不良影响。此时的分类任务可以是帮助商品归类以进行商品推荐。
因此,设计对对抗攻击具有一定防御能力的鲁棒性图神经网络模型是至关重要的。
图净化中的图结构数据预处理旨在模型训练之前,根据图结构数据本身固有的信息对数据进行去噪等净化操作,然后利用预处理之后的数据进行模型训练。这样,图神经网络模型便可以在一个相对而言比较干净的图结构数据上进行学习,从而得到质量较高的节点表征。
为了有效地抵御对抗攻击,一类直接的解决方法就是进行图增强,从被扰动的图中生成一个新的图,例如通过增减边、修改边的权值等方式。利用图增强可以消除图中一些虚假的结构或属性,同时挖掘出真实的结构或属性,从而用来防御对抗攻击。然而,这类方法都是单视角图增强方法,只在单视角的图结构数据上进行处理。
目前图神经网络如最具代表性的图卷积神经网(GCN),在以多视角增强图为输入时只能依次单独地处理多个单视角增强图,最后聚合不同视角所得到的表征,从而忽略了图卷积过程中不同视角之间的相关性。事实上,从同一个原始图数据增强而得到的多个不同视角的增强图之间应该具有相似的低秩部分,即多个不同视角的增强图在视角维度上是低秩的。因此,在节点表征学习的过程中,捕获视角间的相关信息对于提高整个模型鲁棒性是必要的。
经研究发现,单视角图增强为学习节点表征引入了较高的增强方差,而多视角图增强即同时生成多个单视角增强图可以减少这种方差并增加数据的多样性提高模型泛化能力,本发明对三个数据集Cora、Cora-ML以及Citeseer进行了案例研究,发现多视角图增强的结果方差远低于单视角图增强,如图4所示。
针对现有方法的缺点,本发明提供一种基于张量图卷积网络的节点分类方法及***,利用多视角图增强方法和鲁棒性张量图卷积网络模型,能够从模型输入和模型架构两个不同角度去提高整个图神经网络模型的鲁棒性。具体地,它可以改进原始单视角图增强所带来方差大的不足,并且可以在高维度的多视角图结构数据层次上进行张量低秩近似值以防御对抗攻击的影响,最后使用新型的张量图卷积网络模型,能同时对多视角图结构数据在单个视角内和多个视角间进行图卷积操作,改变了以往图卷积网络的卷积方式,提高了的张量图卷积网络模型的鲁棒性。
请参阅图1,本发明提供了一种基于张量图卷积网络的节点分类方法,包括:
S100:根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图;
其中,所述图数据包括图的邻接矩阵和特征矩阵,所述特征矩阵由图中所有节点的特征向量构成,所述多视角增强图包括邻接张量和特征张量,所述邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,所述特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;
S200:将所述多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出所述图数据中各节点的预测分类结果。
在步骤S100中,根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图。
根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图的过程包括:
将图数据和得到的多个单视角增强图进行重构,得到第一多视角增强图,第一多视角增强图包括第一邻接张量和特征张量;对第一邻接张量进行张量分解得到第二邻接张量;基于第二邻接张量和特征张量生成第二多视角增强图,第二邻接张量为所述第二多视角增强图的邻接张量。
本实施例中,给定一个初始的目标图G即图数据G=(A,X),其中,图G的邻接矩阵
Figure BDA0003648550790000101
,特征矩阵
Figure BDA0003648550790000102
,N为图G上的节点数量,F为每个节点的特征维度。可以理解的是,F指图G上每个节点所对应的特征向量的表征维度。
首先,本实施例根据随机边去除和添加技术生成图G的单视角增强图。具体的,对于图G上的每条边,以概率p来决定是否删去该边;对于图G上没有边的节点之间,同样以概率p来确定是否添加一条边。为了减少图增强的方差,本实施例利用上述操作生成不同视角的T-1个增强图,即通过图增强方式生成了T-1个不同视角的单视角增强图。
然后,将初始的目标图G和通过图增强方式得到的T-1个单视角增强图进行张量化操作,即将目标图G和T-1个单视角增强图重构成一个多视角增强图,该多视角增强图称为第一多视角增强图,用三阶张量
Figure BDA0003648550790000103
表示,如图6所示。其中,
Figure BDA0003648550790000106
为第一多视角增强图的邻接张量(第一邻接张量),
Figure BDA0003648550790000109
为第一多视角增强图的特征张量,该多视角增强图具有T个视角。
可以理解的是,邻接张量
Figure BDA0003648550790000107
的每个前切面A(i)(i∈[2,T])表示第i个视角对应的单视角增强图的邻接矩阵;类似地,
Figure BDA00036485507900001010
表示T个视角的节点特征张量,它的每个前切面X(i)(i∈[2,T])表示第i个视角对应的单视角增强图的特征矩阵。
值得说明的是,初始的目标图G本质上也是一个单视角增强图,将目标图G作为第一多视角增强图的第一个单视角增强图,则邻接张量
Figure BDA0003648550790000108
的第一个前切面表示目标图G的邻接矩阵,邻接张量
Figure BDA00036485507900001011
的第2个至第T个前切面表示第1个至第T-1个单视角增强图的邻接矩阵。特征张量也是类似的情况,在此不再赘述。
已知
Figure BDA0003648550790000104
为第一多视角增强图的邻接张量,那么它的低秩近似值
Figure BDA00036485507900001012
表示如下:
Figure BDA0003648550790000105
其中,r表示张量
Figure BDA00036485507900001013
的秩。本实施例中,将邻接张量第一个前切面上的每个元素看成是一个张量管,那么奇异张量
Figure BDA00036485507900001014
以及
Figure BDA00036485507900001015
便可以同样看成是矩阵形式的类比。此时,
Figure BDA0003648550790000111
就是原多视角增强图即第一多视角增强图的邻接张量
Figure BDA0003648550790000112
的张量低秩近似结果。请参阅图7,如图7所示的是基于张量的奇异值分解方法(t-SVD)示例,其中,n1,n2,n3为邻接张量
Figure BDA0003648550790000113
的三个维度大小,即n1、n2、n3分别为邻接张量
Figure BDA0003648550790000114
的高度、宽度和深度大小,
Figure BDA0003648550790000115
分别为左奇异张量、奇异张量和右奇异张量,分别对应于矩阵奇异值分解的左奇异矩阵,奇异矩阵和右奇异矩阵。
值得说明的是,基于张量的奇异值分解方法是以张量为一个基本单位,不对张量进行任何矩阵化操作。它沿着张量第三个维度(即深度)进行傅里叶变换,从而可以对张量不同的前切面矩阵相互之间进行信息糅合,然后才进行奇异值分解。因此可以看出,在第三维度进行卷积的时候可以捕获到视角间的相关性。
传统的矩阵SVD方法在处理高维度张量数据时常常对张量进行切片或者展开操作,从而破坏张量数据的整体结构性。因此,相比于传统的矩阵SVD方法,基于张量的奇异值分解方法(t-SVD)可以捕获到多视角图结构数据在不同视角间的相关性。
本实施例中,取
Figure BDA0003648550790000116
中前r个张量管,进行张量低秩近似得到邻接张量
Figure BDA0003648550790000117
的低秩近似值
Figure BDA0003648550790000118
即第二邻接张量,将第二邻接张量
Figure BDA0003648550790000119
作为第二多视角增强图的邻接张量,则可以得到图结构数据预处理的结果即第二多视角增强图,作为下游图张量卷积网络模型的输入。
本实施例中的张量管(tube),指的是一个张量中沿着张量第三维度的一个向量,如图7中的S中每一根所示。
值得说明的是,第一多视角增强图的邻接张量是第一邻接张量
Figure BDA00036485507900001110
第一邻接张量的张量低秩近似值为第二邻接张量
Figure BDA00036485507900001111
第二多视角增强图的邻接张量是第二邻接张量,第一多视角增强图与第二多视角增强图的特征张量是相同的。
本实施例中,张量图卷积网络模型包括输入层、二层张量图卷积层、全连接层和输出层。随机选择多视角增强图上一定比例(例如10%)的节点为训练集进行训练,对张量图卷积网络模型的训练过程为:
利用输入层将图数据对应多视角增强图的邻接张量和特征张量输入到二层张量图卷积层;
利用二层张量图卷积层得到多视角增强图的节点表征张量;
利用全连接层对节点表征张量进行线性组合得到节点表征矩阵;
利用输出层根据节点表征矩阵得到训练集中各节点的预测分类结果。
具体的,二层张量图卷积层包括第一层张量图卷积层和第二层张量图卷积层,利用二层张量图卷积层得到多视角增强图的节点表征张量包括:
利用第一层张量图卷积层对邻接张量的每个前切面进行对称归一化得到归一邻接张量,对归一邻接张量和特征张量进行张量运算得到第一特征张量;
利用第二层张量图卷积层对归一邻接张量和第一特征张量进行张量运算得到节点特征张量。
具体的,利用第一层张量图卷积层对归一邻接张量和特征张量进行张量运算得到第一特征张量包括:
第一层张量图卷积层利用
Figure BDA0003648550790000121
对归一邻接张量和特征张量进行张量运算得到第一特征张量。其中,σ(.)表示非线性激活函数,
Figure BDA0003648550790000122
表示归一邻接张量,
Figure BDA0003648550790000126
表示特征张量,
Figure BDA0003648550790000127
表示第一层张量图卷积层的权重张量,*表示张量t-product运算,张量t-product运算是先对张量沿着第三个维度进行傅里叶变换将数据从原始空间域变换到傅里叶域,然后在傅里叶域中进行两个张量之间对应矩阵前切面的矩阵乘法,最后将得到的结果沿着第三个维度进行逆傅里叶变换回到原始的空域中作为张量t-product运算的结果,
Figure BDA0003648550790000128
表示第一特征张量。
具体的,利用第二层张量图卷积层对归一邻接张量和第一特征张量进行张量运算得到节点特征张量包括:
第二层张量图卷积层利用
Figure BDA0003648550790000123
对归一邻接张量和第一特征张量进行张量运算得到第二特征张量,将第二特征张量作为节点特征张量。其中,
Figure BDA0003648550790000129
表示第二特征张量,
Figure BDA00036485507900001210
表示第二层张量图卷积层的权重张量,*表示张量t-product运算。
在步骤S200中,上游得到的T视角增强图即第二多视角增强图的邻接张量
Figure BDA0003648550790000124
,其中,每个前切面
Figure BDA0003648550790000125
表示相应视角的单视角增强图的邻接矩阵。每个单视角增强图上的节点加上自环后的邻接矩阵表示为Ar (i)+I,其中I为单位矩阵,其对应的度矩阵为
Figure BDA0003648550790000131
,度矩阵
Figure BDA0003648550790000132
作为第i个前切面所构成的度张量为
Figure BDA0003648550790000134
。同样地,特征张量
Figure BDA0003648550790000133
Figure BDA0003648550790000135
的第i个前切面刚好是第二多视角增强图的第i个视角所对应的单视角增强图的特征矩阵。值得说明的是,特征张量
Figure BDA00036485507900001313
等于第二多视角增强图的特征张量
Figure BDA00036485507900001314
值得说明的是,度矩阵为对角矩阵,其对角线上的每个元素Dii表示节点i的连边数量(即与节点i有连边的节点数量);度张量由多个度矩阵沿第三个维度堆叠而成,度张量和邻接张量一一对应。
因此,根据二维的二层图卷积网络模型,本实施例将其拓展至三阶张量形式如下:
Figure BDA0003648550790000136
其中,*表示张量t-product运算,σ(·)表示非线性激活函数,如ReLU等;
Figure BDA0003648550790000137
是第二邻接张量
Figure BDA00036485507900001315
的每个前切面对称归一化的结果,
Figure BDA00036485507900001316
为单位张量,单位张量的每个前切面都是单位矩阵,×3指张量模3矩阵乘积,θ表示参数集合,包括
Figure BDA0003648550790000138
Figure BDA0003648550790000139
Figure BDA00036485507900001310
Figure BDA00036485507900001317
分别表示第一层、第二层张量图卷积层的权重张量,W3为全连接层的权重矩阵,d为隐藏层即第二层张量图卷积层的宽度大小,C为最终节点分类任务的类别数目。
值得说明的是,与
Figure BDA00036485507900001318
不同,W3实际上是一个一维向量,用来聚合最后不同视角的节点表征信息。张量图卷积网络模型的具体结构框架如图8所示,其中模型输入为S100中得到的第二多视角增强图的第二邻接张量
Figure BDA00036485507900001319
和特征张量
Figure BDA00036485507900001320
在张量图卷积网络模型中,
Figure BDA00036485507900001321
分别表示第一层、第二层张量图卷积层的权重张量,权重张量实际上是模型训练过程中的可学习参数,在模型训练过程中通过不断学习来调整权重张量。第一层张量图卷积层中得到的第一特征张量
Figure BDA00036485507900001322
作为第二层张量图卷积层的输入,然后得到第二层张量图卷积层输出的第二特征张量
Figure BDA00036485507900001323
本实施例中,称
Figure BDA00036485507900001311
为一层张量图卷积层,其中,k=0或1;例如,当k=0时,
Figure BDA00036485507900001312
为第一层张量图卷积层。
将第二层张量图卷积层所得到的第二特征张量
Figure BDA00036485507900001324
作为节点表征张量,由于第二层张量图卷积层所得到的节点表征张量无法直接应用于后续的分类函数Softmax,因此,利用一层全连接层或者多层感知机MLP对第三个维度(深度)的数据进行线性组合得到表征矩阵X3。最后通过输出层例如Softmax函数对X3进行分类,从而得到图数据中每个节点的预测标签作为模型的输出。
本发明提供的基于张量图卷积网络的节点分类***,在图结构数据上进行随机边去除和增加并拓展至多个视角以减少增强所带来的方差(不稳定性),以此完成图结构数据的增强工作。本发明利用张量奇异值分解(t-SVD)算法完成污染图结构数据的去噪,以抵御对抗攻击或随机噪声的影响,提高模型鲁棒性。本发明在张量图卷积网络模型中提出一种新的图卷积算子,即利用张量t-product运算替代矩阵乘积,可以同时完成视角内和视角间的卷积操作,能够处理多视角图结构数据。
与现有的单视角增强方法相比,本发明所采用的多视角增强技术可以明显地降低增强方差,使得张量图卷积网络模型的输出结果更加稳定。
与GCN-SVD所采用的基于矩阵的奇异值分解方法相比,本发明基于张量的奇异值分解方法,在图结构数据预处理阶段可以捕获到高维度张量数据中不同维度之间的全局相关性,从而使得低秩近似后的数据更有价值。
与目前最流行的图卷积网络(GCN)相比,张量图卷积网络模型可以同时学习多视角图的单个视角内和不同视角间的信息,采用了一种全新的图卷积方式。
本发明采用多视角增强技术根据初始的图数据得到一个多视角增强图,可以明显地降低增强方差,增加数据的多样性,提高张量图卷积网络模型的泛化能力,使得张量图卷积网络模型的输出结果更加稳定,能从图数据预处理阶段提高整个张量图卷积网络模型的鲁棒性;利用新型的张量图卷积网络模型同时对多视角图数据结构在单个视角内和多个视角间进行图卷积操作,能同时学习多视角增强图的单个视角内和不同视角间的信息,可以捕获到多个视角间的相关性,能提高整个张量图卷积网络模型的鲁棒性,从而使得其能够在遭受人为对抗攻击或者噪声扰动的情况下依旧能保持相对稳定的性能。
请参阅图2,本发明还提供了一种基于张量图卷积网络的节点分类***的实施例,包括:
多视角增强图生成模块11,用于根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作,并通过低秩近似以得到一个多视角增强图;
其中,所述图数据包括图的邻接矩阵和特征矩阵,所述特征矩阵由图中所有节点的特征向量构成,所述多视角增强图包括邻接张量和特征张量,所述邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,所述特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;
节点分类模块22,用于将所述多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出所述图数据中各节点的预测分类结果。
具体的,多视角增强图生成模块根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图包括:
多视角增强图生成模块将图数据和得到的多个单视角增强图进行重构,得到第一多视角增强图,第一多视角增强图包括第一邻接张量和特征张量;
对第一邻接张量进行张量分解得到第二邻接张量;
基于第二邻接张量和特征张量生成第二多视角增强图,第二邻接张量为第二多视角增强图的邻接张量。
本发明提供的基于张量图卷积网络的节点分类***,采用多视角增强技术根据初始的图数据得到一个多视角增强图,可以明显地降低增强方差,增加数据的多样性,提高张量图卷积网络模型的泛化能力,使得张量图卷积网络模型的输出结果更加稳定,能从图数据预处理阶段提高整个张量图卷积网络模型的鲁棒性;利用新型的张量图卷积网络模型同时对多视角图数据结构在单个视角内和多个视角间进行图卷积操作,能同时学习多视角增强图的单个视角内和不同视角间的信息,可以捕获到多个视角间的相关性,能提高整个张量图卷积网络模型的鲁棒性,从而使得其能够在遭受人为对抗攻击或者噪声扰动的情况下依旧能保持相对稳定的性能。
本发明的具体实验范例如下:
(1)数据集
本实验选取了3个常用的学术引用图结构数据集以及1个博客数据集,分别是Cora、Cora-ML、Citeseer以及Polblogs。前面3个数据集的都是学术引用网络,图上的每个节点表示一篇论文,节点之间的连边表示论文之间的引用关系,节点的类别标签为论文所属的研究领域。
另外,每个节点的初始特征向量由该节点所对应论文的文本内容所转化成的词袋(bag-of-words),即该向量是一个0/1向量,将文本看作词的集合,0/1表示字典中对应单词的缺席或存在。Cora-ML是原始Cora数据集在机器学习领域最常用的论文集合所提取出来的子图。相比于Cora,Cora-ML图上的节点会有更多的非同类邻居节点。而Polblogs是一个关于美国政治的博客间的超链接定向网络,且未提供节点的特征矩阵,因此本实验使用其邻接矩阵加上相应大小的单位阵作为其特征矩阵。
值得注意的是,与前人对抗攻击场景下的图神经网络工作一致,本实验只选取上述4个数据集的最大连通分量作为实验数据,表1为4个基准数据集的最大连通的详细统计数据,如下所示:
表1
Figure BDA0003648550790000161
(2)对比方法
基于对抗攻击库DeepRobust,我们将本发明所提出的RT-GCN模型与目前图对抗攻击领域最先进的防御模型在4个数据集上进行比较,以评估其鲁棒性性能:
GCN是图神经网络领域最具代表性的模型,它定义了空间域上的图卷积算子,使图卷积变得简单高效。另外,该模型也是本发明所提出模型的一种特殊情况。
GAT是GCN的强化版本,它利用多头自我注意机制来为不同的邻居分配不同的权重,可以在信息聚合时很好地衡量不同邻居的信息价值,是鲁棒图神经网络领域中常用的一种方法。
GCN-SVD是根据图结构数据的低秩性使用奇异值分解方法对邻接矩阵进行低秩近似,从而完成去噪以得到原图的低秩分量,是一种常用的图结构数据预处理方法。
GCN-Jaccard和GCN-SVD都是图结构数据预处理方法,它们通过计算节点之间的Jaccard相似性或余弦相似性来重新衡量节点之间的相关性,并进行剪枝操作。
RGCN与其他图神经网络模型不同,它利用高斯分布来替代隐藏层的向量表征从而去吸收对抗攻击所带来的方差。对于高方差的边,它会相应地施以更高的惩罚。
ProGNN探索了图结构数据的三个重要性质,分别是低秩性、稀疏性和特征平滑性,然后对目标函数添加相应的正则项以保护这三个性质。它是一种端到端的方法,利用节点分类的损失同时指导图拓扑结构的学习和图神经网络模型参数的更新。
(3)评价指标
图神经网络模型的输出是图结构数据上的节点表征,为了评估这些所学得表征的优劣,常用的方法是将其用于节点分类任务中。因此,本发明的实验任务为经典的半监督节点分类任务,根据分类任务来评估节点表征的质量。将各个模型所学得的节点表征经过Softmax函数得到模型的预测结果。并且对于每个实验,本实验报告10次运行的平均性能以及结果方差。对于分类结果,本发明使用直观的分类准确率(Accuracy)作为评价指标,准确率越高,分类结果越好。
(4)数据集划分与参数设置
对于每个图结构数据集,本发明随机选择图数据上10%的节点为训练集进行训练,10%的节点为验证集进行验证,剩下的80%的节点作为测试集进行测试。实验中对比方法的所有参数都会根据验证集上的函数损失和分类准确率来调整的,以在大多数情况下能够获得更好的性能,或者与作者的原始实现相同。
(5)攻击方法
为了评估本发明所提出模型的鲁棒性,本发明采用无目标对抗攻击方法对初始图进行扰动:无目标攻击并没有要求指定的节点应该被图神经网络模型错误地分成哪个类别,只要其最终分类结果不是正确的即可。在这种情况下,模型的全局性能会受到严重影响。同样地,本发明使用图对抗攻击领域最成功的无目标攻击方法,Metattack。
(6)实验结果与分析
在实验中,本发明选择Metattack作为典型的无目标对抗攻击方法,并使用作者原始实现中的默认参数设置对目标图进行对抗攻击。为了衡量各个模型的节点分类任务性能,本发明使用分类准确率作为评价标准。实际上,Metattack有好几个不同的变体,而本发明只考虑最具破坏性的那一个,即Meta-Self。在实验中,Metattack的扰动率变化范围为0-25%,每5%进行一次实验。这些实验中所有模型的结果,即具有标准差的分类准确度,表2为各个模型在无目标攻击(Metattack)下的节点分类任务结果(准确率±标准差):
表2
Figure BDA0003648550790000181
从表2中可以得知,在0-25%之间的不同扰动率下,RT-GCN的分类准确率几乎在所有情况下都优于其他目前最先进的模型,这验证了本发明所提模型在抵抗无目标对抗攻击方面的有效性,即可以帮助提高图卷积网络的鲁棒性。具体地,本发明可以从中得到如下结论:
从整体上来看,RT-GCN节点分类准确率的标准差与其他模型相比一直保持在一个相当低的水平,这表明我们的模型具有良好的鲁棒性和稳定性。
RT-GCN在3个学术数据集上的性能优于目前最先进的模型ProGNN。虽然ProGNN从图结构数据的三个性质,低秩性、稀疏性和特征平滑性对扰动后的图进行了探索,但它只专注于单视角的图增强来学习原始结构,这可能会为学习节点表示引入增强方差和偶然性。但RT-GCN在Polblogs数据集上的表现不如ProGNN稳定,这是由于前者并非端到端模型,因此在第二阶段节点表征学习时受特征矩阵缺失的影响更大。
与数据预处理模型GCN-Jaccard和GCN-SVD相比,基于张量奇异值分解的图增强在多视角图增强方面显示出了其优越性。并且,同样是利用图结构数据的低秩性来防御对抗攻击,张量奇异值分解利用其全局结构信息的捕获能力融合了视角间的低秩信息。
与普通GCN相比,在扰动率为25%的时候,本发明的张量图卷积网络模型在4个数据集上分别提高了22%、24%、18%和24%的分类准确率,这在很大程度上体现了所提方法的有效性以及在模型鲁棒性上的提升。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于张量图卷积网络的节点分类方法,其特征在于,包括:
根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图;
其中,所述图数据包括图的邻接矩阵和特征矩阵,所述特征矩阵由图中所有节点的特征向量构成,所述多视角增强图包括邻接张量和特征张量,所述邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,所述特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;
将所述多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出所述图数据中各节点的预测分类结果。
2.根据权利要求1所述的基于张量图卷积网络的节点分类方法,其特征在于,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图包括:
将图数据和得到的多个单视角增强图进行重构,得到第一多视角增强图,所述第一多视角增强图包括第一邻接张量和特征张量;
对所述第一邻接张量进行张量分解得到第二邻接张量;
基于所述第二邻接张量和特征张量生成第二多视角增强图,所述第二邻接张量为所述第二多视角增强图的邻接张量。
3.根据权利要求2所述的基于张量图卷积网络的节点分类方法,其特征在于,对所述第一邻接张量进行张量分解得到第二邻接张量包括:
利用基于张量的奇异值分解方法对所述第一邻接张量进行张量分解,得到所述第一邻接张量的低秩近似值作为第二邻接张量。
4.根据权利要求2所述的基于张量图卷积网络的节点分类方法,其特征在于,所述张量图卷积网络模型包括输入层、二层张量图卷积层、全连接层和输出层,对所述张量图卷积网络模型的训练过程包括:
利用所述输入层将训练集中各图数据对应多视角增强图的邻接张量和特征张量输入到所述二层张量图卷积层;
利用所述二层张量图卷积层得到所述多视角增强图的节点表征张量;
利用所述全连接层根据所述节点表征张量得到节点表征矩阵;
利用所述输出层根据所述节点表征矩阵得到图数据中各节点的预测分类结果。
5.根据权利要求4所述的基于张量图卷积网络的节点分类方法,其特征在于,所述二层张量图卷积层包括第一层张量图卷积层和第二层张量图卷积层,利用所述二层张量图卷积层得到所述多视角增强图的节点表征张量包括:
利用所述第一层张量图卷积层对所述邻接张量的每个前切面进行对称归一化得到归一邻接张量,然后对所述归一邻接张量和所述特征张量进行张量运算得到第一特征张量;
利用所述第二层张量图卷积层对所述归一邻接张量和所述第一特征张量进行张量运算得到节点特征张量。
6.根据权利要求5所述的基于张量图卷积网络的节点分类方法,其特征在于,利用所述第一层张量图卷积层对所述归一邻接张量和所述特征张量进行张量运算得到第一特征张量包括:
所述第一层张量图卷积层利用
Figure FDA0003648550780000021
对所述归一邻接张量和所述特征张量进行张量运算得到第一特征张量;
其中,σ(·)表示非线性激活函数,
Figure FDA0003648550780000022
表示归一邻接张量,
Figure FDA0003648550780000028
表示特征张量,
Figure FDA0003648550780000023
表示第一层张量图卷积层的权重张量,*表示张量t-product运算,张量t-product运算是先对张量沿着第三个维度进行傅里叶变换将数据从原始空间域变换到傅里叶域,然后在傅里叶域中进行两个张量之间对应矩阵前切面的矩阵乘法,最后将得到的结果沿着第三个维度进行逆傅里叶变换回到原始的空域中作为张量t-product运算的结果,
Figure FDA0003648550780000026
表示第一特征张量。
7.根据权利要求6所述的基于张量图卷积网络的节点分类方法,其特征在于,利用所述第二层张量图卷积层对所述归一邻接张量和所述第一特征张量进行张量运算得到节点特征张量包括:
所述第二层张量图卷积层利用
Figure FDA0003648550780000024
对所述归一邻接张量和所述第一特征张量进行张量运算得到第二特征张量,将所述第二特征张量作为节点特征张量;
其中,
Figure FDA0003648550780000027
表示第二特征张量,
Figure FDA0003648550780000025
表示第二层张量图卷积层的权重张量。
8.根据权利要求1-7任一项所述的基于张量图卷积网络的节点分类方法,其特征在于,根据图数据生成多个不同视角的单视角增强图包括:
对图数据去除或添加随机边生成多个不同视角的单视角增强图。
9.一种基于张量图卷积网络的节点分类***,其特征在于,包括:
多视角增强图生成模块,用于根据图数据生成多个不同视角的单视角增强图,根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图;
其中,所述图数据包括图的邻接矩阵和特征矩阵,所述特征矩阵由图中所有节点的特征向量构成,所述多视角增强图包括邻接张量和特征张量,所述邻接张量的每个前切面表示对应视角的单视角增强图的邻接矩阵,所述特征张量的每个前切面表示对应视角的单视角增强图的特征矩阵;
节点分类模块,用于将所述多视角增强图的邻接张量和特征张量输入到训练好的张量图卷积网络模型中,输出所述图数据中各节点的预测分类结果。
10.根据权利要求9所述的基于张量图卷积网络的节点分类***,其特征在于,所述多视角增强图生成模块根据图数据和得到的多个单视角增强图进行张量化操作得到一个多视角增强图包括:
所述多视角增强图生成模块将图数据和得到的多个单视角增强图进行重构,得到第一多视角增强图,所述第一多视角增强图包括第一邻接张量和特征张量;
对所述第一邻接张量进行张量分解得到第二邻接张量;
基于所述第二邻接张量和特征张量生成第二多视角增强图,所述第二邻接张量为所述第二多视角增强图的邻接张量。
CN202210536635.8A 2022-05-17 2022-05-17 一种基于张量图卷积网络的节点分类方法及*** Pending CN114912529A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210536635.8A CN114912529A (zh) 2022-05-17 2022-05-17 一种基于张量图卷积网络的节点分类方法及***
PCT/CN2022/105119 WO2023221275A1 (zh) 2022-05-17 2022-07-12 一种基于张量图卷积网络的节点分类方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210536635.8A CN114912529A (zh) 2022-05-17 2022-05-17 一种基于张量图卷积网络的节点分类方法及***

Publications (1)

Publication Number Publication Date
CN114912529A true CN114912529A (zh) 2022-08-16

Family

ID=82769359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210536635.8A Pending CN114912529A (zh) 2022-05-17 2022-05-17 一种基于张量图卷积网络的节点分类方法及***

Country Status (2)

Country Link
CN (1) CN114912529A (zh)
WO (1) WO2023221275A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101468267B1 (ko) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
CN106934359B (zh) * 2017-03-06 2020-09-22 重庆邮电大学 基于高阶张量子空间学习的多视角步态识别方法及***
CN108280398A (zh) * 2017-12-26 2018-07-13 北京建筑大学 一种基于多视角融合的步态识别方法及***
CN109242007A (zh) * 2018-08-24 2019-01-18 华中科技大学鄂州工业技术研究院 一种基于张量的跨域异构大数据多视角聚类方法和装置
CN112488185B (zh) * 2020-11-27 2024-04-26 湖南大学 包含时空特性的车辆运行参数预测方法和***
CN112862092B (zh) * 2021-01-26 2021-11-26 中山大学 一种异构图卷积网络的训练方法、装置、设备和介质

Also Published As

Publication number Publication date
WO2023221275A1 (zh) 2023-11-23

Similar Documents

Publication Publication Date Title
Salehi et al. Graph attention auto-encoders
Luo et al. Learning to drop: Robust graph neural network via topological denoising
Zhu et al. A survey on graph structure learning: Progress and opportunities
Shi et al. Effective decoding in graph auto-encoder using triadic closure
CN116615736A (zh) 经由光卷积进行的动态图节点嵌入
Wang et al. Minimum error entropy based sparse representation for robust subspace clustering
Soni et al. Visualizing high-dimensional data using t-distributed stochastic neighbor embedding algorithm
Hewapathirana Change detection in dynamic attributed networks
Liu et al. Adaptive graph convolutional network for PolSAR image classification
Feng et al. A survey of visual neural networks: current trends, challenges and opportunities
CN115408605A (zh) 基于边信息和注意力机制的神经网络推荐方法及***
Yang et al. Efficient and persistent backdoor attack by boundary trigger set constructing against federated learning
Zhuang et al. Robust Node Representation Learning via Graph Variational Diffusion Networks
Zhuang et al. Fedwon: Triumphing multi-domain federated learning without normalization
Tian et al. Lower order information preserved network embedding based on non-negative matrix decomposition
Wei et al. GNN-ensemble: Towards random decision graph neural networks
CN114912529A (zh) 一种基于张量图卷积网络的节点分类方法及***
Raman et al. Multigraph attention network for analyzing company relations
Zhang et al. Understanding deep gradient leakage via inversion influence functions
Agakov et al. Discriminative mixtures of sparse latent fields for risk management
Li et al. Tensor-based reliable multiview similarity learning for robust spectral clustering on uncertain data
Hewapathirana et al. Combining information from multiple views for vertex-based change detection in dynamic networks: A comparative study
Miao et al. A Renovated CNN‐Based Model Enhances KGC Task Performance
Ko et al. Learning disentangled representations in signed directed graphs without social assumptions
CN117807237B (zh) 基于多元数据融合的论文分类方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination