CN117235584B - 图数据分类方法、装置、电子装置和存储介质 - Google Patents
图数据分类方法、装置、电子装置和存储介质 Download PDFInfo
- Publication number
- CN117235584B CN117235584B CN202311522727.1A CN202311522727A CN117235584B CN 117235584 B CN117235584 B CN 117235584B CN 202311522727 A CN202311522727 A CN 202311522727A CN 117235584 B CN117235584 B CN 117235584B
- Authority
- CN
- China
- Prior art keywords
- trained
- neural network
- graph
- network model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000003062 neural network model Methods 0.000 claims abstract description 249
- 239000011159 matrix material Substances 0.000 claims abstract description 144
- 230000009467 reduction Effects 0.000 claims abstract description 101
- 238000012549 training Methods 0.000 claims abstract description 91
- 238000012545 processing Methods 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims description 134
- 238000012360 testing method Methods 0.000 claims description 101
- 230000006870 function Effects 0.000 claims description 64
- 238000002372 labelling Methods 0.000 claims description 19
- 230000000694 effects Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 13
- 238000000354 decomposition reaction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种图数据分类方法、装置、电子装置和存储介质,其中,该图数据分类方法包括:获取图数据训练集;对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵;基于目标待训练图数据的节点属性特征以及降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;基于训练好的图神经网络模型对待分类图数据进行分类,得到待分类图数据的分类结果。通过本申请,解决了现有图神经网络模型对社交网络图数据的分类结果的准确度较低的问题,提高了图神经网络模型的鲁棒性,进而提高了图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性。
Description
技术领域
本申请涉及图数据分类技术领域,特别是涉及一种图数据分类方法、装置、电子装置和存储介质。
背景技术
随着大数据时代到来,人们被海量的数据所围绕,通常将不能用连续向量表示的非欧式空间数据称为图数据。图数据在现实社会中是广泛存在的,例如,在社交网络图数据中,用户被视作节点,用户间的关系被视作边,每个用户都有独自的属性特征信息,例如性别、年龄和爱好等。
图神经网络模型被广泛地应用于社交网络图数据的分类。但图神经网络模型的稳定性较低,容易被攻击者通过类白盒、黑盒模型攻击,增加或删减图数据的边或节点,使图神经网络模型的鲁棒性较低,进而使图神经网络模型对社交网络图数据的分类结果发生改变,导致图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性较低。
针对相关攻防技术中存在图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性较低的问题,目前还没有提出有效的解决方案。
发明内容
在本实施例中提供了一种图数据分类方法、装置、电子装置和存储介质,以解决相关攻防技术中图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性较低的问题。
第一个方面,在本实施例中提供了一种图数据分类方法,包括:
获取图数据训练集,所述图数据训练集中每一待训练图数据包括节点属性特征以及邻接矩阵,其中,所述待训练图数据为社交网络图数据,所述社交网络图数据中的单个节点表征一个用户,所述节点属性特征包括用户的年龄、性别、爱好以及职业中的至少一种,所述邻接矩阵表征用户之间的关联关系;
对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,所述目标待训练图数据为所述图数据训练集中的任一待训练图数据;
基于所述目标待训练图数据的节点属性特征以及所述降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;
基于所述训练好的图神经网络模型对待分类图数据进行分类,得到所述待分类图数据的分类结果,所述待分类图数据为待分类社交网络图数据,所述待分类社交网络图数据中的单个节点表征一个待分类用户,所述待分类社交网络图数据中包括待分类用户的年龄、性别、爱好以及职业中的至少一种,以及多个待分类用户之间的关联关系,所述待分类图数据的分类结果包括所述待分类社交网络图数据中每一待分类用户在社交网络平台中的活跃等级。
在其中的一些实施例中,所述对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,包括:
基于第一降维方法对所述目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵;
基于第二降维方法对所述目标待训练图数据中的邻接矩阵进行降维处理,得到第二降维目标邻接矩阵,所述降维目标邻接矩阵包括所述第一降维目标邻接矩阵以及所述第二降维目标邻接矩阵。
在其中的一些实施例中,所述待训练图神经网络模型包括第一图神经网络子模块以及第二图神经网络子模块,所述基于所述目标待训练图数据的节点属性特征以及所述降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型,包括:
基于所述目标待训练图数据中的节点属性特征与所述第一降维目标邻接矩阵,对所述第一图神经网络子模块进行训练,得到训练后的第一图神经网络子模块;
基于所述目标待训练图数据中的节点属性特征与所述第二降维目标邻接矩阵,对所述第二图神经网络子模块进行训练,得到训练后的第二图神经网络子模块;
基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块,得到所述训练好的图神经网络模型。
在其中的一些实施例中,所述基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块,得到所述训练好的图神经网络模型,包括:
基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块之间的散度,确定所述待训练图神经网络模型的目标损失函数;
基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型。
在其中的一些实施例中,所述基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块之间的散度,确定所述待训练图神经网络模型的目标损失函数,包括:
确定所述训练后的第一图神经网络子模块的输出层与所述训练后的第二图神经网络子模块的输出层之间的散度;
基于所述散度、所述训练后的第一图神经网络子模块的第一损失函数以及所述训练后的第二图神经网络子模块的第二损失函数确定所述目标损失函数。
在其中的一些实施例中,所述基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型,包括:
基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整,得到调整后的图神经网络模型;
获取图数据测试集,所述图数据测试集中包括每一待测试图数据的标注结果;
对所述图数据测试集以及所述调整后的图神经网络模型进行攻击,得到被攻击图神经网络模型以及被攻击测试集;
将所述被攻击测试集输入所述被攻击图神经网络模型中,得到所述图数据测试集的被攻击测试结果;
基于所述被攻击测试结果以及所述标注结果,确定所述被攻击图神经网络模型的准确度;
循环执行基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整的步骤,直至所述准确度大于或等于预设准确度时,将所述调整后的图神经网络模型确定为所述训练好的图神经网络模型。
在其中的一些实施例中,在所述准确度大于或等于预设准确度时,将所述调整后的图神经网络模型确定为所述训练好的图神经网络模型之前,还包括:
基于所述图数据训练集中的每一待训练图数据的节点属性特征以及邻接矩阵,对初始图神经网络模型进行训练,得到训练好的参考图神经网络模型;
将所述图数据测试集输入所述训练好的参考图神经网络模型中,得到所述图数据测试集的参考测试结果;
基于所述参考测试结果以及所述标注结果,确定所述训练好的参考图神经网络模型的参考准确度;
基于所述参考准确度确定所述预设准确度。
第二个方面,在本实施例中提供了一种图数据分类装置,包括:
获取模块,用于获取图数据训练集,所述图数据训练集中每一待训练图数据包括节点属性特征以及邻接矩阵,其中,所述待训练图数据为社交网络图数据,所述社交网络图数据中的单个节点表征一个用户,所述节点属性特征包括用户的年龄、性别、爱好以及职业中的至少一种,所述邻接矩阵表征用户之间的关联关系;
降维模块,用于对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,所述目标待训练图数据为所述图数据训练集中的任一待训练图数据;
模型训练模块,用于基于所述目标待训练图数据的节点属性特征以及所述降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;
图数据分类模块,用于基于所述训练好的图神经网络模型对待分类图数据进行分类,得到所述待分类图数据的分类结果,所述待分类图数据为待分类社交网络图数据,所述待分类社交网络图数据中的单个节点表征一个待分类用户,所述待分类社交网络图数据中包括待分类用户的年龄、性别、爱好以及职业中的至少一种,以及多个待分类用户之间的关联关系,所述待分类图数据的分类结果包括所述待分类社交网络图数据中每一待分类用户在社交网络平台中的活跃等级。
第三个方面,在本实施例中提供了一种电子装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一个方面所述的图数据分类方法。
第四个方面,在本实施例中提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一个方面所述的图数据分类方法。
与相关技术相比,在本实施例中提供的图数据分类方法,通过对目标待训练图数据中的邻接矩阵进行降维处理,从而使降维后的邻接矩阵更加完整地保留了原始图数据中节点和边的信息,并将降维处理后的邻接矩阵以及对应的节点属性特征用于对图神经网络数据进行训练,进而在图神经网络模型在训练过程中,能够有效地学习到原始图数据中的节点和边的信息,使训练好的图神经网络模型能够有效地防御攻击,也就是说,即便训练好的图神经网络模型被攻击,也能对待分类图数据进行准确的分类,提高了图神经网络模型的鲁棒性,进而,当鲁棒性较高的图神经网络模型在用于进行社交网络图数据分类时,也能得到准确的分类结果,因此,提高了图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本申请实施例提供的一种图数据分类方法的应用环境示意图;
图2是本申请实施例提供的一种图数据分类方法的流程图;
图3是本申请实施例提供的一种图数据分类方法的实施例的流程图;
图4是本申请实施例提供的一种图神经网络模型的训练原理示意图;
图5是本申请实施例提供的一种图数据分类装置的结构框图;
图6是本申请实施例提供的一种计算机设备的内部结构示意图。
具体实施方式
为更清楚地理解本申请的目的、技术方案和优点,下面结合附图和实施例,对本申请进行了描述和说明。
除另作定义外,本申请所涉及的技术术语或者科学术语应具有本申请所属技术领域具备一般技能的人所理解的一般含义。在本申请中的“一”、“一个”、“一种”、“该”、“这些”等类似的词并不表示数量上的限制,它们可以是单数或者复数。在本申请中所涉及的术语“包括”、“包含”、“具有”及其任何变体,其目的是涵盖不排他的包含;例如,包含一系列步骤或模块(单元)的过程、方法和***、产品或设备并未限定于列出的步骤或模块(单元),而可包括未列出的步骤或模块(单元),或者可包括这些过程、方法、产品或设备固有的其他步骤或模块(单元)。在本申请中所涉及的“连接”、“相连”、“耦接”等类似的词语并不限定于物理的或机械连接,而可以包括电气连接,无论是直接连接还是间接连接。在本申请中所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。通常情况下,字符“/”表示前后关联的对象是一种“或”的关系。在本申请中所涉及的术语“第一”、“第二”、“第三”等,只是对相似对象进行区分,并不代表针对对象的特定排序。
随着大数据时代到来,人们被海量的数据所围绕,通常将不能用连续向量表示的非欧式空间数据称为图数据。图数据在现实社会中是广泛存在的,例如,在社交网络图数据中,用户被视作节点,用户间的关系被视作边,每个用户都有独自的属性特征信息,例如性别、年龄和爱好等。
图神经网络模型被广泛地应用社交网络图数据的分类。但图神经网络模型的稳定性较低,容易被攻击者通过类白盒、黑盒模型攻击,增加或删减图数据的边或节点,使图神经网络模型的鲁棒性较低,进而使图神经网络模型对社交网络图数据的分类结果发生改变,导致图神经网络模型对社交网络图数据的分类结果的准确度较低。
因此,如何提高图神经网络模型对社交网络图数据的分类结果的准确度,是一个需要解决的问题。
本申请实施例提供的一种图数据分类方法,可以应用于如图1所示的应用环境中,图1是本申请实施例提供的一种图数据分类方法的应用环境示意图。其中,终端102通过网络与服务器104进行通信。数据存储***可以存储服务器104需要处理的数据。数据存储***可以集成在服务器104上,也可以放在云上或其他网络服务器上。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在本实施例中提供了一种图数据分类方法,图2是本申请实施例提供的一种图数据分类方法的流程图,该方法的执行主体可以是电子装置,可选的,电子装置可以是服务器,也可以是终端设备,但本申请不限于此。具体的,如图2所示,该流程包括如下步骤:
步骤S201,获取图数据训练集。
其中,图数据训练集中每一待训练图数据包括节点属性特征以及邻接矩阵。
示例性地,采集社交网络领域中的图数据,将采集的图数据作为图数据训练集。具体的,该图数据训练集中的图数据包括同构图数据和异构图数据。
并且,图训练集中的每一待训练图数据包括节点属性特征以及邻接矩阵。待训练图数据为社交网络图数据,社交网络图数据中的单个节点表征一个用户,节点属性特征包括用户的年龄、性别、爱好以及职业中的至少一种,邻接矩阵表征用户之间的关联关系。
具体的,社交网络图数据中的单个节点可以表征一个用户,对应的节点属性特征可以包括该用户的年龄、性别、爱好以及职业等属性信息,对应的邻接矩阵可以表征该用户与其他用户之间的关联关系,例如,该用户为A,且与同一社交网络中的用户B为家人,则在对应的图数据中,可以将A与B相连,表征用户A与用户B之间存在关联关系,进而通过邻接矩阵表征该关联关系。
步骤S202,对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵。
目标待训练图数据为图数据训练集中的任一待训练图数据。
进一步地,将图数据训练集中的任一待训练图数据确定为目标待训练图数据,并对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵。具体的,将目标待训练图数据中的邻接矩阵中高秩节点和边进行降维,得到对应的低秩节点和边组成的邻接矩阵,该低秩节点和边组成的邻接矩阵即为降维目标邻接矩阵。
步骤S203,基于目标待训练图数据的节点属性特征以及降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型。
进一步地,将目标待训练图数据对应的节点属性特征以及降维目标邻接矩阵作为输入,对待训练图神经网络模型进行训练,从而得到训练好的图神经网络模型。
其中,待训练图神经网络模型可以是未训练的图卷积神经网络(GraphConvolutional Network,GCN)、(Graph Sample and aggregate,GraphSage)、图注意力网络(graph attention networks,GAT)等各类图表示学习的神经网络中的一种或组合,在本申请实施例中,待训练图神经网络模型以GCN为例进行说明,在此不做限制。
步骤S204,基于训练好的图神经网络模型对待分类图数据进行分类,得到待分类图数据的分类结果。
将待分类图数据输入到训练好的图神经网络模型中,从而使训练好的图神经网络模型输出待分类图数据的分类结果。
其中,待分类图数据为待分类社交网络图数据,待分类社交网络图数据中的单个节点表征一个待分类用户,待分类社交网络图数据中包括待分类用户的年龄、性别、爱好以及职业中的至少一种,以及多个待分类用户之间的关联关系,待分类图数据的分类结果包括待分类社交网络图数据中每一待分类用户在社交网络平台中的活跃等级。
具体的,将待分类社交网络图数据输入到训练好的图神经网络模型中,可以得到该社交网络图数据中各节点用户所属的分类结果,具体的,该分类结果可以是每一待分类用户在社交网络平台中的活跃等级,具体的,活跃等级可以包括高度活跃等级,中度活跃等级以及低度活跃等级三种。
例如,在某一社交网络平台中,分类结果为:职业是老师的活跃等级为高度活跃等级、职业是学生的活跃等级是中度活跃等级,职业是工程师的活跃等级是低度活跃等级。
在上述实现过程中,对目标待训练图数据中的邻接矩阵进行降维处理,从而使降维后的邻接矩阵更加完整地保留了原始图数据中节点和边的信息,并将降维处理后的邻接矩阵以及对应的节点属性特征用于对图神经网络数据进行训练,进而在图神经网络模型在训练过程中,能够有效地学习到原始图数据中的节点和边的信息,使训练好的图神经网络模型能够有效地防御攻击,也就是说,即便训练好的图神经网络模型被攻击,也能对待分类图数据进行准确的分类,提高了图神经网络模型的鲁棒性,进而,当鲁棒性较高的图神经网络模型在用于进行社交网络图数据分类时,也能得到准确的分类结果,因此,提高了图神经网络模型对社交网络图数据的分类结果的稳定性和鲁棒性。
在其中的一些实施例中,对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,可以包括以下步骤:
步骤1:基于第一降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵。
步骤2:基于第二降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第二降维目标邻接矩阵。
降维目标邻接矩阵包括第一降维目标邻接矩阵以及第二降维目标邻接矩阵。
示例性地,分别采用两种不同的降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到对应的两个降维后的邻接矩阵。
具体的,采用第一降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵,其中,第一降维方法可以是矩阵分解算法,例如,特征值分解、奇异值分解(Singular Value Decomposition,SVD)、填充评分矩阵(SVD++)、非负矩阵分解(Nonnegative Matrix Factorization,NMF)以及拉普拉斯分解等矩阵分解算法中的一种或组合,也可以是其他矩阵分解算法,在此不做限制。
并且,采用第二降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第二降维目标邻接矩阵,其中,第二降维方法可以是图重建方法,例如,如TransE、TransM等。
在上述实现过程中,根据两种不同的降维方法分别对目标待训练图数据中的邻接矩阵进行降维处理,从而得到两种降维后的邻接矩阵,进而便于后续图神经网络模型训练过程中,基于两种降维后的邻接矩阵对待训练的图神经网络模型进行训练,有利于提高模型的鲁棒性。
在其中的一些实施例中,待训练图神经网络模型包括第一图神经网络子模块以及第二图神经网络子模块,基于目标待训练图数据的节点属性特征以及降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型,可以包括以下步骤:
步骤1:基于目标待训练图数据中的节点属性特征与第一降维目标邻接矩阵,对第一图神经网络子模块进行训练,得到训练后的第一图神经网络子模块。
步骤2:基于目标待训练图数据中的节点属性特征与第二降维目标邻接矩阵,对第二图神经网络子模块进行训练,得到训练后的第二图神经网络子模块。
步骤3:基于训练后的第一图神经网络子模块和训练后的第二图神经网络子模块,得到训练好的图神经网络模型。
示例性地,待训练图神经网络模型包括第一图神经网络子模块以及第二图神经网络子模块。
将目标待训练图数据中的节点属性特征与第一降维目标邻接矩阵作为输入,对待训练图神经网络模型中的第一图神经网络子模块进行训练,从而得到训练后的第一图神经网络子模块。同时,将目标待训练图数据中的节点属性特征与第二降维目标邻接矩阵作为输入,对待训练图神经网络模型中的第二图神经网络子模块进行训练,从而得到训练后的第二图神经网络子模块。
进一步地,根据训练后的第一图神经网络子模块与训练后的第二图神经网络子模块,得到训练好的图神经网络模型。具体的,在待训练图神经网络模型中,将训练后的第一图神经网络子模块与训练后的第二图神经网络子模块,进行相互融合训练,最终得到训练好的图神经网络模型。
在上述实现过程中,将目标待训练图数据中的节点属性特征与降维后的两个邻接矩阵分别组成模型训练时的两类输入图数据,并将该两类图数据分别输入待训练图神经网络模型中的两个子模块中,从而在对待训练图神经网络模型训练时,通过两个子模块相互融合训练,从而提高模型的防御性能,进而使训练好的图神经网络模型具有较高的鲁棒性,能够有效地对攻击进行防御。
在其中的一些实施例中,基于训练后的第一图神经网络子模块和训练后的第二图神经网络子模块,得到训练好的图神经网络模型,可以包括以下步骤:
步骤1:基于训练后的第一图神经网络子模块和训练后的第二图神经网络子模块之间的散度,确定待训练图神经网络模型的目标损失函数。
步骤2:基于目标损失函数对待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型。
示例性地,待训练图神经网络模型为,第一图神经网络子模块为/>,第二图神经网络子模块为/>。
若目标待训练图数据中的邻接矩阵为A1,对应的第一降维目标邻接矩阵为,对应的第二降维目标邻接矩阵为/>,目标待训练图数据中的节点属性特征为F,则将输入/>中,得到训练后的第一图神经网络子模块/>,将输入/>中,得到训练后的第二图神经网络子模块/>。
进一步地,确定训练后的第一图神经网络子模块与训练后的第二图神经网络子模块/>之间的散度,具体的,该散度可以是KL散度,也可以是JS散度,也可以是其他类型的散度,在此不做限制。
并根据该散度确定待训练图神经网络模型的目标损失函数,进而根据目标损失函数对待训练图神经网络模型进行训练,即根据目标损失函数对待训练图神经网络模型的结构参数进行调整,从而得到训练好的图神经网络模型。
在上述实现过程中,根据训练后的第一图神经网络子模块和训练后的第二图神经网络子模块之间的散度,确定待训练图神经网络模型的目标损失函数,并根据该目标损失函数对待训练图神经网络模型的结构参数进行调整,从而能够通过两个图神经网络子模块之间的分布差异控制待训练图神经网络模型的结构参数的调整,从而在模型的训练过程中,能够通过相互融合的方式学习到不同图神经网络子模型中的信息,使训练好的图神经网络模型能够有效地提高防御能力,从而提高模型的鲁棒性。
在其中的一些实施例中,基于训练后的第一图神经网络子模块和训练后的第二图神经网络子模块之间的散度,确定待训练图神经网络模型的目标损失函数,可以包括以下步骤:
步骤1:确定训练后的第一图神经网络子模块的输出层与训练后的第二图神经网络子模块的输出层之间的散度。
步骤2:基于散度、训练后的第一图神经网络子模块的第一损失函数以及训练后的第二图神经网络子模块的第二损失函数确定目标损失函数。
示例性地,分别确定训练后的第一图神经网络子模块的中间输出层/>,以及训练后的第二图神经网络子模块/>的中间输出层/>,进一步地,确定出中间输出层/>与中间输出层/>之间的KL散度。
并确定出训练后的第一图神经网络子模块的第一损失函数以及训练后的第二图神经网络子模块的第二损失函数,具体的,训练后的第一图神经网络子模块的第一损失函数可以是训练后的第一图神经网络子模块的交叉熵损失函数(Cross Entropy Loss,CE),训练后的第二图神经网络子模块的第二损失函数可以是训练后的第二图神经网络子模块的CE损失。
若训练后的第一图神经网络子模块的第一损失函数为,训练后的第二图神经网络子模块的第二损失函数为/>,则目标损失函数y可以为:
其中,为待训练图神经网络模型的系数,/>为中间输出层与中间输出层/>之间的KL散度。
在上述实现过程中,根据训练后的第一图神经网络子模块的第一损失函数、训练后的第二图神经网络子模块的第二损失函数,以及训练后的第一图神经网络子模块的输出层与训练后的第二图神经网络子模块的输出层之间的散度确定目标损失函数,从而使目标损失函数对待训练图神经网络模型的结构参数进行调整的过程中,不仅能够根据两个图神经网络子模块之间的分布差异进行模型参数调整,还能将两个图神经网络子模块的损失作为整体模型参数调整的依据,从而提高了训练好的图神经网络模型的精度和鲁棒性。
在其中的一些实施例中,基于目标损失函数对待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型,可以包括以下步骤:
步骤1:基于目标损失函数对待训练图神经网络模型的结构参数进行调整,得到调整后的图神经网络模型。
步骤2:获取图数据测试集,图数据测试集中包括每一待测试图数据的标注结果。
步骤3:对图数据测试集以及调整后的图神经网络模型进行攻击,得到被攻击图神经网络模型以及被攻击测试集。
步骤4:将被攻击测试集输入被攻击图神经网络模型中,得到图数据测试集的被攻击测试结果。
步骤5:基于被攻击测试结果以及标注结果,确定被攻击图神经网络模型的准确度。
步骤6:循环执行基于目标损失函数对待训练图神经网络模型的结构参数进行调整的步骤,直至准确度大于或等于预设准确度时,将调整后的图神经网络模型确定为训练好的图神经网络模型。
示例性地,图神经网络模型的训练过程是一个不断循环,从而达到模型参数最优的过程。
在通过目标损失函数对待训练图神经网络模型的结构参数进行调整的过程中,可以得到调整后的图神经网络模型。
进而可以通过图数据测试集对调整后的图神经网路模型进行测试,具体的,获取图数据测试集,图数据测试集中包括每一待测试图数据的标注结果,该标注结果表征对应的待测试图数据准确的分类结果。
进一步地,可以通过图神经网络模型攻击算法对图数据测试集以及调整后的图神经网络模型进行攻击,得到被攻击图神经网络模型以及被攻击测试集。具体的,攻击算法可以是拓扑攻击(Project Gradient Descent,PGD)以及投毒攻击Meta Attack等图网络全局攻击算法,也可以是其他攻击算法,在此不做限制。
具体的,若图数据测试集中待测试图数据包括测试节点属性特征F3以及测试邻接矩阵A3,调整后的图神经网络模型为,被攻击图神经网络模型为/>,被攻击测试集包括测试节点属性特征F3以及被攻击测试邻接矩阵/>。
进一步地,将测试节点属性特征F3以及被攻击测试邻接矩阵输入被攻击图神经网络模型/>中,得到被攻击测试结果。
需要说明的是,本申请实施例中,仅以图数据测试集中的邻接矩阵被攻击为例进行说明,在实际应用中,也可以是图数据测试集中的测试节点属性特征F3被攻击,得到被攻击测试集,也可以是图数据测试集中的测试节点属性特征F3以及测试邻接矩阵A3同时被攻击,得到被攻击测试集,在此不做限制。
根据被攻击测试结果与对应的标注结果,确定被攻击图神经网络模型的准确度m3,具体的,该准确度m3可以通过被攻击测试结果的准确率、精准率以及TOP-K准确率中的一种或组合,在此不做限制。
进一步地,将该准确度m3与预设准确度m,进行比较,若准确度m3大于或等于预设准确度m,则将调整后的图神经网络模型为训练好的图神经网络模型;若准确度m3小于预设准确度m,则循环执行根据目标损失函数对待训练图神经网络模型的结构参数进行调整的步骤,直至准确度m3大于或等于预设准确度m。
在上述实现过程中,通过对图数据测试集以及调整后的图神经网络模型进行攻击,并通过被攻击图神经网络模型对被攻击测试集进行测试,从而得到被攻击后的测试结果,并将被攻击后的测试结果与测试集的标注结果确定被攻击图神经网络模型的准确度,直到被攻击图神经网络模型的准确度大于或等于预设准确度时,表示被攻击图神经网络模型具有较高的防御能力,在用于对图数据分类时,能够得到准确地分类结果,并且将调整后的图神经网络模型确定为训练好的图神经网络模型,使训练好的图神经网络模型具有较高的防御性能,若被攻击图神经网络模型的准确度较低时,反复调整待训练图神经网络模型的结构参数,从而实现了待训练图神经网络模型的训练,确保了训练好的图神经网络模型的鲁棒性较高,能够有效地防御攻击,进而提高了图神经网络模型对社交网络图数据的分类结果的准确度。
在其中的一些实施例中,在准确度大于或等于预设准确度时,将调整后的图神经网络模型确定为训练好的图神经网络模型之前,还可以包括以下步骤:
步骤1:基于图数据训练集中的每一待训练图数据的节点属性特征以及邻接矩阵,对初始图神经网络模型进行训练,得到训练好的参考图神经网络模型。
步骤2:将图数据测试集输入训练好的参考图神经网络模型中,得到图数据测试集的参考测试结果。
步骤3:基于参考测试结果以及标注结果,确定训练好的参考图神经网络模型的参考准确度。
步骤4:基于参考准确度确定预设准确度。
示例性地,在将被攻击图神经网络模型的准确度与预设准确度进行对比之前,还可以通过未被攻击的图神经网络模型确定预设准确度。
具体的,通过图数据训练集对初始图神经网络模型进行训练,即将图数据训练集中的每一待训练图数据的节点属性特征以及邻接矩阵输入初始图神经网络模型,得到训练好的参考图神经网络模型。
需要说明的是,此处的图数据训练集与步骤S201中的图数据训练集可以相同,也可以不同,为了避免训练集不同对模型结构造成的差异,本申请实施例中,以图数据训练集与步骤S201中的图数据训练集可以相同为例进行说明。初始图神经网络模型为未经训练的GCN,对应的,训练好的参考图神经网络模型为。
进一步地,将图数据测试集输入该训练好的参考图神经网络模型中,得到图数据测试集的参考测试结果。
并将参考测试结果与图数据训练集的标准结果进行对比,从而确定出训练好的参考图神经网络模型的参考准确度m1,进而根据参考准确度m1确定预设准确度m。具体的,预设准确度可以等于参考准确度,也可以略小于参考准确度。
在上述实现过程中,通过图数据训练集对初始图神经网络模型进行训练,从而得到训练好的参考图神经网路模型,进而通过图数据测试集确定出训练好的参考图神经网络模型的准确度,并根据该准确度确定预设准确度,即预设准确度以未被攻击的图神经网络模型的准确度为确定依据,以使通过本申请方案训练得到的图神经网络模型即使被攻击,也能准确地对待分类图数据进行分类。
作为另一种实施例,也可以根据训练好的参考图神经网路模型被攻击后的准确度确定预设准确度,具体的,基于参考准确度确定预设准确度,可以包括:
对训练好的参考图神经网络模型以及图数据测试集进行攻击,得到被攻击参考图神经网络模型以及被攻击测试集,将被攻击测试集输入被攻击参考图神经网络模型中,得到被攻击参考测试结果,根据被攻击参考测试结果与标注结果,确定被攻击参考图神经网络模型的被攻击准确度,根据被攻击准确度以及参考准确度确定预设准确度。
作为一种示例,通过PGD攻击算法对训练好的参考图神经网络模型以及图数据测试集进行攻击,得到被攻击参考图神经网络模型以及被攻击测试集,其中,被攻击测试集包括测试节点属性特征F3以及被攻击测试邻接矩阵/>。
将测试节点属性特征F3以及被攻击测试邻接矩阵输入被攻击参考图神经网络模型/>中,得到被攻击参考测试结果,进而根据被攻击参考测试结果与标注结果,确定出被攻击参考图神经网络模型的被攻击准确度m2,根据被攻击准确度m2以及参考准确度m1确定预设准确度m,具体的,预设准确度m可以大于被攻击准确度m2且小于参考准确度m1。
在上述实现过程中,根据训练好的参考图神经网路模型被攻击后的准确度确定预设准确度,从而将预设准确度以被攻击后的模型的准确度为参考,有效地确定出预设准确度的下限。
在本实施例中还提供了一种图数据分类方法的实施例。图3是本申请实施例提供的一种图数据分类方法的实施例的流程图,如图3所示,该流程包括如下步骤:
步骤S301,基于两种不同的降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵以及第二降维目标邻接矩阵。
图4是本申请实施例提供的一种图神经网络模型的训练原理示意图,如图4所示,采用第一降维方法,如矩阵分解算法对目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵,采用第二降维方法,如图重建方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第二降维目标邻接矩阵/>。
步骤S302,基于第一降维目标邻接矩阵与对应的节点属性特征对第一图神经网络子模块进行训练,基于第二降维目标邻接矩阵以及对应的节点属性特征对第二图神经网络子模块进行训练,得到训练后的第一图神经网络子模块以及训练后的第二图神经网络子模块。
具体的,将第一降维目标邻接矩阵与对应的节点属性特征F输入第一图神经网络子模块/>中,同时,将第二降维目标邻接矩阵/>与对应的节点属性特征F输入第二图神经网络子模块/>中,从而得到训练后的第一图神经网络子模块以及训练后的第二图神经网络子模块/>。
步骤S303,基于训练后的第一图神经网络子模块的输出层与训练后的第二图神经网络子模块的输出层之间的散度、训练后的第一图神经网络子模块的第一损失函数以及训练后的第二图神经网络子模块的第二损失函数确定目标损失函数。
进一步地,确定训练后的第一图神经网络子模块的中间输出层/>与训练后的第二图神经网络子模块/>的中间输出层/>之间的散度/>。
并根据训练后的第一图神经网络子模块的第一损失函数为、训练后的第二图神经网络子模块的第二损失函数为/>以及/>构建目标损失函数y,即:
步骤S304,基于目标损失函数对待训练图神经网络模型的结构参数进行调整,直至模型收敛,得到训练好的图神经网络模型。
进一步地,根据目标损失函数对训练图神经网络模型的结构参数进行调整,得到调整后的图神经网络模型。对图数据测试集以及调整后的图神经网络模型进行攻击,得到被攻击图神经网络模型以及被攻击测试集,并将被攻击测试集输入被攻击图神经网络模型中,得到图数据测试集的被攻击测试结果,根据被攻击测试结果以及标注结果,确定被攻击图神经网络模型的准确度,当该准确度大于或等于预设准确度时,模型收敛,并将调整后的图神经网络模型为训练好的图神经网络模型。
步骤S305,将待分类图数据输入训练好的图神经网络模型中,得到待分类图数据的分类结果。
需要说明的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在本实施例中还提供了一种图数据分类装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。以下所使用的术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管在以下实施例中所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图5是本申请实施例提供的一种图数据分类装置的结构框图,如图5所示,该装置包括:
获取模块501,用于获取图数据训练集,图数据训练集中每一待训练图数据包括节点属性特征以及邻接矩阵,其中,待训练图数据为社交网络图数据,社交网络图数据中的单个节点表征一个用户,节点属性特征包括用户的年龄、性别、爱好以及职业中的至少一种,邻接矩阵表征用户之间的关联关系;
降维模块502,用于对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,目标待训练图数据为图数据训练集中的任一待训练图数据;
模型训练模块503,用于基于目标待训练图数据的节点属性特征以及降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;
图数据分类模块504,用于基于训练好的图神经网络模型对待分类图数据进行分类,得到待分类图数据的分类结果,待分类图数据为待分类社交网络图数据,待分类社交网络图数据中的单个节点表征一个待分类用户,待分类社交网络图数据中包括待分类用户的年龄、性别、爱好以及职业中的至少一种,以及多个待分类用户之间的关联关系,待分类图数据的分类结果包括待分类社交网络图数据中每一待分类用户在社交网络平台中的活跃等级。
在其中的一些实施例中,降维模块502具体用于:基于第一降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵;
基于第二降维方法对目标待训练图数据中的邻接矩阵进行降维处理,得到第二降维目标邻接矩阵,降维目标邻接矩阵包括第一降维目标邻接矩阵以及第二降维目标邻接矩阵。
在其中的一些实施例中,待训练图神经网络模型包括第一图神经网络子模块以及第二图神经网络子模块,模型训练模块503具体用于:
基于目标待训练图数据中的节点属性特征与第一降维目标邻接矩阵,对第一图神经网络子模块进行训练,得到训练后的第一图神经网络子模块;
基于目标待训练图数据中的节点属性特征与第二降维目标邻接矩阵,对第二图神经网络子模块进行训练,得到训练后的第二图神经网络子模块;
基于训练后的第一图神经网络子模块和训练后的第二图神经网络子模块,得到训练好的图神经网络模型。
在其中的一些实施例中,模型训练模块503具体用于:
基于训练后的第一图神经网络子模块和训练后的第二图神经网络子模块之间的散度,确定待训练图神经网络模型的目标损失函数;
基于目标损失函数对待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型。
在其中的一些实施例中,模型训练模块503具体用于:
确定训练后的第一图神经网络子模块的输出层与训练后的第二图神经网络子模块的输出层之间的散度;
基于散度、训练后的第一图神经网络子模块的第一损失函数以及训练后的第二图神经网络子模块的第二损失函数确定目标损失函数。
在其中的一些实施例中,模型训练模块503具体用于:
基于目标损失函数对待训练图神经网络模型的结构参数进行调整,得到调整后的图神经网络模型;
获取图数据测试集,图数据测试集中包括每一待测试图数据的标注结果;
对图数据测试集以及调整后的图神经网络模型进行攻击,得到被攻击图神经网络模型以及被攻击测试集;
将被攻击测试集输入被攻击图神经网络模型中,得到图数据测试集的被攻击测试结果;
基于被攻击测试结果以及标注结果,确定被攻击图神经网络模型的准确度;
循环执行基于目标损失函数对待训练图神经网络模型的结构参数进行调整的步骤,直至准确度大于或等于预设准确度时,将调整后的图神经网络模型确定为训练好的图神经网络模型。
在其中的一些实施例中,模型训练模块503还用于:
基于图数据训练集中的每一待训练图数据的节点属性特征以及邻接矩阵,对初始图神经网络模型进行训练,得到训练好的参考图神经网络模型;
将图数据测试集输入训练好的参考图神经网络模型中,得到图数据测试集的参考测试结果;
基于参考测试结果以及标注结果,确定训练好的参考图神经网络模型的参考准确度;
基于参考准确度确定预设准确度。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示,图6是本申请实施例提供的一种计算机设备的内部结构示意图。该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图数据分类方法。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种电子装置,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对专利保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (7)
1.一种图数据分类方法,其特征在于,包括:
获取图数据训练集,所述图数据训练集中每一待训练图数据包括节点属性特征以及邻接矩阵,其中,所述待训练图数据为社交网络图数据,所述社交网络图数据中的单个节点表征一个用户,所述节点属性特征包括用户的年龄、性别、爱好以及职业中的至少一种,所述邻接矩阵表征用户之间的关联关系;
对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,所述目标待训练图数据为所述图数据训练集中的任一待训练图数据;
所述对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,包括:基于第一降维方法对所述目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵;基于第二降维方法对所述目标待训练图数据中的邻接矩阵进行降维处理,得到第二降维目标邻接矩阵,所述降维目标邻接矩阵包括所述第一降维目标邻接矩阵以及所述第二降维目标邻接矩阵,其中,所述第一降维方法包括矩阵分解算法,所述第二降维方法包括图重建方法;
基于所述目标待训练图数据的节点属性特征以及所述降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;
所述待训练图神经网络模型包括第一图神经网络子模块以及第二图神经网络子模块,所述基于所述目标待训练图数据的节点属性特征以及所述降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型,包括:基于所述目标待训练图数据中的节点属性特征与所述第一降维目标邻接矩阵,对所述第一图神经网络子模块进行训练,得到训练后的第一图神经网络子模块;基于所述目标待训练图数据中的节点属性特征与所述第二降维目标邻接矩阵,对所述第二图神经网络子模块进行训练,得到训练后的第二图神经网络子模块;基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块,得到所述训练好的图神经网络模型;
所述基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块,得到所述训练好的图神经网络模型,包括:基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块之间的散度,确定所述待训练图神经网络模型的目标损失函数;基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型;
基于所述训练好的图神经网络模型对待分类图数据进行分类,得到所述待分类图数据的分类结果,所述待分类图数据为待分类社交网络图数据,所述待分类社交网络图数据中的单个节点表征一个待分类用户,所述待分类社交网络图数据中包括待分类用户的年龄、性别、爱好以及职业中的至少一种,以及多个待分类用户之间的关联关系,所述待分类图数据的分类结果包括所述待分类社交网络图数据中每一待分类用户在社交网络平台中的活跃等级。
2.根据权利要求1所述的图数据分类方法,其特征在于,所述基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块之间的散度,确定所述待训练图神经网络模型的目标损失函数,包括:
确定所述训练后的第一图神经网络子模块的输出层与所述训练后的第二图神经网络子模块的输出层之间的散度;
基于所述散度、所述训练后的第一图神经网络子模块的第一损失函数以及所述训练后的第二图神经网络子模块的第二损失函数确定所述目标损失函数。
3.根据权利要求1所述的图数据分类方法,其特征在于,所述基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型,包括:
基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整,得到调整后的图神经网络模型;
获取图数据测试集,所述图数据测试集中包括每一待测试图数据的标注结果;
对所述图数据测试集以及所述调整后的图神经网络模型进行攻击,得到被攻击图神经网络模型以及被攻击测试集;
将所述被攻击测试集输入所述被攻击图神经网络模型中,得到所述图数据测试集的被攻击测试结果;
基于所述被攻击测试结果以及所述标注结果,确定所述被攻击图神经网络模型的准确度;
循环执行基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整的步骤,直至所述准确度大于或等于预设准确度时,将所述调整后的图神经网络模型确定为所述训练好的图神经网络模型。
4.根据权利要求3所述的图数据分类方法,其特征在于,在所述准确度大于或等于预设准确度时,将所述调整后的图神经网络模型确定为所述训练好的图神经网络模型之前,还包括:
基于所述图数据训练集中的每一待训练图数据的节点属性特征以及邻接矩阵,对初始图神经网络模型进行训练,得到训练好的参考图神经网络模型;
将所述图数据测试集输入所述训练好的参考图神经网络模型中,得到所述图数据测试集的参考测试结果;
基于所述参考测试结果以及所述标注结果,确定所述训练好的参考图神经网络模型的参考准确度;
基于所述参考准确度确定所述预设准确度。
5.一种图数据分类装置,其特征在于,包括:
获取模块,用于获取图数据训练集,所述图数据训练集中每一待训练图数据包括节点属性特征以及邻接矩阵,其中,所述待训练图数据为社交网络图数据,所述社交网络图数据中的单个节点表征一个用户,所述节点属性特征包括用户的年龄、性别、爱好以及职业中的至少一种,所述邻接矩阵表征用户之间的关联关系;
降维模块,用于对目标待训练图数据中的邻接矩阵进行降维处理,得到降维目标邻接矩阵,所述目标待训练图数据为所述图数据训练集中的任一待训练图数据;
所述降维模块具体用于:基于第一降维方法对所述目标待训练图数据中的邻接矩阵进行降维处理,得到第一降维目标邻接矩阵;基于第二降维方法对所述目标待训练图数据中的邻接矩阵进行降维处理,得到第二降维目标邻接矩阵,所述降维目标邻接矩阵包括所述第一降维目标邻接矩阵以及所述第二降维目标邻接矩阵,其中,所述第一降维方法包括矩阵分解算法,所述第二降维方法包括图重建方法;
模型训练模块,用于基于所述目标待训练图数据的节点属性特征以及所述降维目标邻接矩阵对待训练图神经网络模型进行训练,得到训练好的图神经网络模型;
所述待训练图神经网络模型包括第一图神经网络子模块以及第二图神经网络子模块,所述模型训练模块具体用于:基于所述目标待训练图数据中的节点属性特征与所述第一降维目标邻接矩阵,对所述第一图神经网络子模块进行训练,得到训练后的第一图神经网络子模块;基于所述目标待训练图数据中的节点属性特征与所述第二降维目标邻接矩阵,对所述第二图神经网络子模块进行训练,得到训练后的第二图神经网络子模块;基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块,得到所述训练好的图神经网络模型;
所述模型训练模块具体用于:基于所述训练后的第一图神经网络子模块和所述训练后的第二图神经网络子模块之间的散度,确定所述待训练图神经网络模型的目标损失函数;基于所述目标损失函数对所述待训练图神经网络模型的结构参数进行调整,得到训练好的图神经网络模型;
图数据分类模块,用于基于所述训练好的图神经网络模型对待分类图数据进行分类,得到所述待分类图数据的分类结果,所述待分类图数据为待分类社交网络图数据,所述待分类社交网络图数据中的单个节点表征一个待分类用户,所述待分类社交网络图数据中包括待分类用户的年龄、性别、爱好以及职业中的至少一种,以及多个待分类用户之间的关联关系,所述待分类图数据的分类结果包括所述待分类社交网络图数据中每一待分类用户在社交网络平台中的活跃等级。
6.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至权利要求4中任一项所述的图数据分类方法。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至权利要求4中任一项所述的图数据分类方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311522727.1A CN117235584B (zh) | 2023-11-15 | 2023-11-15 | 图数据分类方法、装置、电子装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311522727.1A CN117235584B (zh) | 2023-11-15 | 2023-11-15 | 图数据分类方法、装置、电子装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117235584A CN117235584A (zh) | 2023-12-15 |
CN117235584B true CN117235584B (zh) | 2024-04-02 |
Family
ID=89086556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311522727.1A Active CN117235584B (zh) | 2023-11-15 | 2023-11-15 | 图数据分类方法、装置、电子装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117235584B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111795742A (zh) * | 2020-05-18 | 2020-10-20 | 南京林业大学 | 一种用于单幅rgb图像重建光谱的降维方法 |
WO2020248581A1 (zh) * | 2019-06-11 | 2020-12-17 | 中国科学院自动化研究所 | 图数据识别方法、装置、计算机设备和存储介质 |
CN112862093A (zh) * | 2021-01-29 | 2021-05-28 | 北京邮电大学 | 一种图神经网络训练方法及装置 |
CN114201572A (zh) * | 2022-02-15 | 2022-03-18 | 深圳依时货拉拉科技有限公司 | 基于图神经网络的兴趣点分类方法和装置 |
CN114897161A (zh) * | 2022-05-17 | 2022-08-12 | 中国信息通信研究院 | 一种基于掩码的图分类后门攻击防御方法、***、电子设备及存储介质 |
CN115222044A (zh) * | 2022-07-13 | 2022-10-21 | 深圳市腾讯信息技术有限公司 | 模型训练方法、图数据处理方法、装置、设备及存储介质 |
CN115965058A (zh) * | 2022-12-28 | 2023-04-14 | 连连(杭州)信息技术有限公司 | 神经网络训练方法、实体信息分类方法、装置及存储介质 |
CN116383441A (zh) * | 2022-12-26 | 2023-07-04 | 招联消费金融有限公司 | 社群检测方法、装置、计算机设备和存储介质 |
CN116665786A (zh) * | 2023-07-21 | 2023-08-29 | 曲阜师范大学 | 一种基于图卷积神经网络的rna分层嵌入聚类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11645524B2 (en) * | 2019-05-10 | 2023-05-09 | Royal Bank Of Canada | System and method for machine learning architecture with privacy-preserving node embeddings |
-
2023
- 2023-11-15 CN CN202311522727.1A patent/CN117235584B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020248581A1 (zh) * | 2019-06-11 | 2020-12-17 | 中国科学院自动化研究所 | 图数据识别方法、装置、计算机设备和存储介质 |
CN111795742A (zh) * | 2020-05-18 | 2020-10-20 | 南京林业大学 | 一种用于单幅rgb图像重建光谱的降维方法 |
CN112862093A (zh) * | 2021-01-29 | 2021-05-28 | 北京邮电大学 | 一种图神经网络训练方法及装置 |
CN114201572A (zh) * | 2022-02-15 | 2022-03-18 | 深圳依时货拉拉科技有限公司 | 基于图神经网络的兴趣点分类方法和装置 |
CN114897161A (zh) * | 2022-05-17 | 2022-08-12 | 中国信息通信研究院 | 一种基于掩码的图分类后门攻击防御方法、***、电子设备及存储介质 |
CN115222044A (zh) * | 2022-07-13 | 2022-10-21 | 深圳市腾讯信息技术有限公司 | 模型训练方法、图数据处理方法、装置、设备及存储介质 |
CN116383441A (zh) * | 2022-12-26 | 2023-07-04 | 招联消费金融有限公司 | 社群检测方法、装置、计算机设备和存储介质 |
CN115965058A (zh) * | 2022-12-28 | 2023-04-14 | 连连(杭州)信息技术有限公司 | 神经网络训练方法、实体信息分类方法、装置及存储介质 |
CN116665786A (zh) * | 2023-07-21 | 2023-08-29 | 曲阜师范大学 | 一种基于图卷积神经网络的rna分层嵌入聚类方法 |
Non-Patent Citations (4)
Title |
---|
Theoretical framework in graph embedding-based discriminant dimensionality reduction;Guodong Zhao等;《Signal Processing》;全文 * |
一种基于极大熵的快速无监督线性降维方法;王继奎等;《软件学报》;第34卷(第4期);全文 * |
基于图编码网络的社交网络节点分类方法;郝志峰;柯妍蓉;李烁;蔡瑞初;温雯;王丽娟;;计算机应用(第01期);全文 * |
基于流形学习与图神经网络的高光谱图像降维与分类研究;史世豪;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;第2023年卷(第6期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117235584A (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Oliva et al. | Multilevel thresholding segmentation based on harmony search optimization | |
WO2022042123A1 (zh) | 图像识别模型生成方法、装置、计算机设备和存储介质 | |
CN114549913A (zh) | 一种语义分割方法、装置、计算机设备和存储介质 | |
CN111639230B (zh) | 一种相似视频的筛选方法、装置、设备和存储介质 | |
CN116188878A (zh) | 基于神经网络结构微调的图像分类方法、装置和存储介质 | |
CN113298931B (zh) | 一种物体模型的重建方法、装置、终端设备和存储介质 | |
CN117235584B (zh) | 图数据分类方法、装置、电子装置和存储介质 | |
CN116258923A (zh) | 图像识别模型训练方法、装置、计算机设备和存储介质 | |
CN116524357A (zh) | 高压线路鸟巢检测方法、模型训练方法、装置及设备 | |
CN116012841A (zh) | 一种基于深度学习的开集图像场景匹配方法及装置 | |
CN115860099A (zh) | 神经网络模型的压缩方法、装置、计算机设备和存储介质 | |
CN113743533B (zh) | 一种图片聚类方法、装置及存储介质 | |
CN111428741B (zh) | 网络社区的发现方法、装置、电子设备及可读存储介质 | |
CN116501993B (zh) | 房源数据推荐方法及装置 | |
CN116976464A (zh) | 去偏置联邦学习训练方法、装置、计算机设备和存储介质 | |
CN116821817A (zh) | 基于联合树模型的数据预测方法、装置和计算机设备 | |
CN117390250A (zh) | 信息匹配方法、装置、计算机设备和存储介质 | |
CN116894964A (zh) | 后期融合物体图像聚类方法、装置和计算机设备 | |
CN114819076A (zh) | 网络蒸馏方法、装置、计算机设备、存储介质 | |
CN117634751A (zh) | 数据要素评估方法、装置、计算机设备以及存储介质 | |
CN116719994A (zh) | 媒体对象推荐方法、装置、计算机设备及存储介质 | |
CN116881450A (zh) | 资讯分类方法、装置、计算机设备、存储介质和程序产品 | |
CN115496158A (zh) | 对象价值预测方法、装置、计算机设备和存储介质 | |
CN116756426A (zh) | 项目推荐方法、装置、计算机设备和存储介质 | |
CN117593084A (zh) | 金融产品推送方法、装置、设备、存储介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |