CN112734034A - 模型训练方法、调用方法、装置、计算机设备和存储介质 - Google Patents

模型训练方法、调用方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN112734034A
CN112734034A CN202011642092.5A CN202011642092A CN112734034A CN 112734034 A CN112734034 A CN 112734034A CN 202011642092 A CN202011642092 A CN 202011642092A CN 112734034 A CN112734034 A CN 112734034A
Authority
CN
China
Prior art keywords
data
graph
neural network
structure data
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011642092.5A
Other languages
English (en)
Inventor
王俊
李朋勇
高鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202011642092.5A priority Critical patent/CN112734034A/zh
Priority to PCT/CN2021/084172 priority patent/WO2022141869A1/zh
Publication of CN112734034A publication Critical patent/CN112734034A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及人工智能领域,通过自动对目标图结构数据和对照图结构数据添加标签后输入图神经网络模型进行预训练,提高了模型的训练效率,并使得训练后的模型具有较高的泛化性。尤其涉及一种模型训练方法、调用方法、装置、计算机设备和存储介质,该方法包括:获取第一数据集,第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;确定目标图结构数据对应的对照图结构数据;根据对照图结构数据确定第二数据集,其中,第二数据集包括对照图结构数据对应的第二节点信息和第二属性标签;根据第一数据集与第二数据集对图神经网络模型进行迭代训练,直至图神经网络模型收敛。此外,本申请还涉及区块链技术,图神经网络模型可存储于区块链中。

Description

模型训练方法、调用方法、装置、计算机设备和存储介质
技术领域
本申请涉及人工智能领域,尤其涉及一种模型训练方法、调用方法、装置、计算机设备和存储介质。
背景技术
图结构数据是一种包含节点和边的数据,图神经网络是深度学习在图结构数据上的一个分支。现在许多学习任务在处理图结构数据,需要通过图神经网络模型学习和提取图结构数据的特征信息。
现有的一般是通过有监督的机器学习方法对图神经网络模型进行学习和训练,需要使用大量人工添加标签的图结构数据。但是在大多数情况下,很难获得大量携带标签的图结构数据,导致有监督的机器学习方法很难体现出强大的学习能力,从而降低了图神经网络模型的训练效率。
因此如何提高图神经网络模型的训练效率成为亟需解决的问题。
发明内容
本申请提供了一种模型训练方法、调用方法、装置、计算机设备和存储介质,通过自动对目标图结构数据和对照图结构数据添加标签并输入图神经网络模型进行预训练,提高了图神经网络模型的训练效率,并使得训练后的图神经网络模型具有较高的泛化性。
第一方面,本申请提供了一种模型训练方法,所述方法包括:
获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
确定所述目标图结构数据对应的对照图结构数据;
根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
第二方面,本申请提供了一种模型训练方法,所述方法包括:
获取预测任务对应的待预测图结构数据;
从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;
确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
第三方面,本申请还提供了一种模型训练装置,所述装置包括:
第一数据获取模块,用于获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
对照图结构数据确定模块,用于确定所述目标图结构数据对应的对照图结构数据;
第二数据获取模块,用于根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
模型训练模块,用于加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
第四方面,本申请还提供了一种计算机设备,所述计算机设备包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现如上述的模型训练方法或模型调用方法。
第五方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上述的模型训练方法或模型调用方法。
本申请公开了一种模型训练方法、调用方法、装置、计算机设备和存储介质,通过获取第一数据集,可以得到目标图结构数据对应的第一节点信息和自动添加的第一属性标签;通过确定目标图结构数据对应的对照图结构数据,并根据对照图结构数据确定第二数据集,可以得到对照图结构数据对应的第二节点信息和自动添加的第二属性标签,解决了图结构数据依赖人工添加标签的问题;通过根据第一数据集与第二数据集对图神经网络模型进行迭代训练,无须人工对第一数据集和第二数据集添加标签,提高了图神经网络模型的训练效率,以及提高图神经网络模型挖掘图结构数据的特征信息的拟合能力,从而使得训练后的图神经网络模型具有较高的泛化性。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种模型训练方法的示意性流程图;
图2是本申请实施例提供的一种图结构数据的示意图;
图3是本申请实施例提供的一种根据目标图结构数据生成对照图结构数据的示意图;
图4是本申请实施例提供的一种根据对照图结构数据确定第二数据集的子步骤的示意性流程图;
图5是本申请实施例提供的一种确定每一轮训练的训练样本数据的子步骤的示意性流程图;
图6是本申请实施例提供的一种对图神经网络模型进行迭代训练的子步骤的示意性流程图;
图7是本申请实施例提供的一种确定损失函数值的子步骤的示意性流程图;
图8是本申请实施例提供的一种模型调用方法的示意性流程图;
图9是本申请实施例提供的一种调用图神经网络模型进行分类预测的示意图;
图10是本申请实施例提供的一种模型训练装置的示意性框图;
图11是本申请实施例提供的一种计算机设备的结构示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
本申请的实施例提供了一种模型训练方法、调用方法、装置、计算机设备和存储介质。其中,该模型训练方法可以应用于服务器或终端中,实现自动对目标图结构数据和对照图结构数据添加标签后输入图神经网络模型进行预训练,提高了图神经网络模型的训练效率,并使得训练后的图神经网络模型具有较高的泛化性。
其中,服务器可以为独立的服务器,也可以为服务器集群。终端可以是智能手机、平板电脑、笔记本电脑和台式电脑等电子设备。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
如图1所示,模型训练方法包括步骤S10至步骤S40。
步骤S10、获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签。
需要说明的是,在本申请实施例中,通过获取自动添加不同属性标签的第一数据集和第二数据集,根据第一数据集和第二数据集对图神经网络模型进行训练,可以使得图神经网络模型在图结构数据没有人工添加标签的情况下,学习如何区分图结构数据的类型以及挖掘图结构数据的特征信息。因此,不仅可以提高图神经网络模型的训练效率,还可以训练后的图神经网络模型具有较高的泛化性。
示例性的,目标图结构数据可以包括但不限于社交网络图、分子结构图、交通网络图以及电子购物图等等。
其中,目标图结构数据可以包括至少一个图结构数据,每个图结构数据包括多个节点和各节点之间的边;其中,节点还称为顶点(Vertex)。需要说明的是,图结构数据是由顶点的有穷非空集合和顶点之间边的集合组成,通常表示为:G(V,E),其中,G表示一个图结构数据,V是图结构数据G中顶点的集合,E是图结构数据G中边的集合。在图结构数据中,任意两个顶点之间都可能有关系,顶点之间的逻辑关系用边来表示,边集可以是空的;因此可以用顶点表来表示图结构数据的顶点信息以及用邻接矩阵来表示图结构数据的各节点之间的连接关系。
示例性的,设图结构数据A=(V,E)有n个顶点,则可以用顶点表来表示图结构数据A的顶点的信息,如表1所示。
表1
i 0 1 2 n-1
Vexs[i] V<sub>1</sub> V<sub>2</sub> V<sub>3</sub> v<sub>n</sub>
示例性的,图结构数据的邻接矩阵是一个二维数组A.arcs[i][j],定义为:
Figure BDA0002880851670000051
式中,i表示数组的第i行,j表示数组第j列。
在一些实施例中,可以获取预设生成并存储至数据库的第一数据集,其中,第一数据集可以包括目标图结构数据对应的第一节点信息。
示例性的,第一节点信息包括目标图结构数据的邻接矩阵以及各节点的特征向量。
请参阅图2,图2是本申请实施例提供的一种图结构数据的示意图。如图2所示,图结构数据可以是分子结构图,分子结构图包括节点V1、节点V2、节点V3、节点V4以及节点V5;分子结构图中的各节点之间的连接关系,可以用邻接矩阵A.arcs[i][j]来表示,如下所示:
Figure BDA0002880851670000061
在上述邻接矩阵中,A.arcs[1][2]=1表示节点V1与节点V2之间存在边;A.arcs[1][3]=0表示节点V1与节点V3之间不存在边;A.arcs[1][4]=1表示节点V1与节点V4之间存在边。
在一些实施例中,可以预先对目标图结构数据进行向量化,得到目标图结构数据对应的节点特征向量。例如,可以根据one-hot编码(独热编码)对目标图结构数据中的各个节点进行编码,从而得到目标图结构数据对应的节点特征向量。
需要说明的是,这里的节点特征向量是指目标图结构数据中的各个节点对应的特征向量,并不是整个目标图结构数据对应的特征向量。
在本申请实施例中,第一数据集还可以包括目标图结构数据对应的第一属性标签。其中,第一属性标签为根据目标图结构数据的属性类型生成。
需要说明的是,在本申请实施例中,属性类型可以包括原始数据与构造数据两种类型。其中,原始数据是指图结构数据为原始的、未经修改的数据。构造数据是指图结构数据是对原始的图结构数据进行修改而得到的。
在本申请实例中,由于目标图结构数据为原始的图结构数据,因此可以生成目标图结构数据对应的第一属性标签;对于根据目标图结构数据进行修改得到的对照图结构数据,可以生成对照图结构数据对应的第二属性标签。
示例性的,第一属性标签可以用字段1来表示,第二属性标签用字段0来表示。
在一些实施方式中,在根据目标图结构数据的属性类型生成第一属性标签之后,根据第一节点信息和第一属性标签,确定第一数据集。示例性的,可以对第一节点信息标注第一属性标签,将携带第一属性标签的第一节点信息作为第一数据集。例如,第一节点信息标注字段1,得到携带字段1标签的第一数据集。
示例性的,当目标图结构数据为N个时,对应有N个携带第一属性标签的第一数据集。
通过对目标图结构数据进行向量化,可以得到目标图结构数据对应的节点特征向量,通过根据目标图结构数据的属性类型生成第一属性标签,可以得到携带第一属性标签的第一数据集。
步骤S20、确定所述目标图结构数据对应的对照图结构数据。
在一些实施例中,确定目标图结构数据对应的对照图结构数据,可以包括:基于预设的删除比例值,对目标图结构数据中的多个节点进行删除,得到目标图结构数据对应的对照图结构数据。
示例性的,删除比例值可以根据实际情况设定,具体数值在此不作限定。
例如,删除比例值可以是20%。例如,删除目标图结构数据的左侧或右侧20%的节点。
请参阅图3,图3是本申请实施例提供的一种根据目标图结构数据生成对照图结构数据的示意图。
示例性的,当目标图结构数据为N个时,生成的对照图结构数据对应有N个。
通过根据删除比例值对目标图结构数据中的节点进行删除,可以得到对照图结构数据,后续可以根据目标图结构数据对应的第一数据集和对照图结构数据对应的第二数据集构造正负样本,对图神经网络模型进行训练。
需要说明的是,由于对照图结构数据是对目标图结构数据进行修改而得到的,因此,对照图结构数据的属性类型为构造数据。
在一些实施例中,在确定目标图结构数据对应的对照图结构数据之后,还可以包括:根据对照图结构数据的属性类型生成第二属性标签。示例性的,第二属性标签对应的字段为0。
可以理解的是,通过根据对照图结构数据的属性类型生成第二属性标签,后续可以对对照图结构数据的第二数据集标注第二属性标签,以和目标图结构数据的第一数据集进行区分。
步骤S30、根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签。
请参阅图4,图4是本申请实施例提供的一种根据对照图结构数据确定第二数据集的子步骤的示意性流程图,具体步骤S30可以包括以下步骤S301至步骤S303。
步骤S301、对所述对照图结构数据进行向量化,得到所述对照图结构数据对应的节点特征向量。
示例性的,可以根据one-hot编码对对照图结构数据中的各个节点进行编码,得到对照图结构数据对应的特征向量。
步骤S302、将所述节点特征向量与所述对照图结构数据的邻接矩阵,确定为所述第二节点信息,其中,所述邻接矩阵用于表示所述对照图结构数据中的各节点之间的连接关系。
在本申请实施例中,可以根据对照图结构数据中的各节点之间的连接关系,生成对照图结构数据对应的邻接矩阵;然后根据对照图结构数据对应的邻接矩阵和特征向量,确定为第二节点信息。
步骤S303、获取根据所述对照图结构数据的属性类型生成的所述第二属性标签。
示例性的,由于在确定目标图结构数据对应的对照图结构数据之后,根据对照图结构数据的属性类型生成第二属性标签,因此可以获取对照图结构数据对应的第二属性标签。
步骤S304、根据所述第二节点信息与所述第二属性标签,确定所述第二数据集。
在一些实施例中,可以根据第二节点信息和第二属性标签,确定为第二数据集。示例性的,可以对第二节点信息标注第二属性标签,将携带第二属性标签的第二节点信息作为第二数据集。例如,第二节点信息标注字段0,得到携带字段0标签的第二数据集。
示例性的,当对照图结构数据为N个时,对应有N个携带第二属性标签的第二数据集。
通过对对照图结构数据进行向量化,可以得到对照图结构数据对应的节点特征向量,通过获取根据对照图结构数据的属性类型生成的第二属性标签,可以得到携带第二属性标签的第二数据集。
步骤S40、加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
需要说明的是,图神经网络模型是一种将图结构数据和神经网络进行结合的模型;图神经网络模型的输入通常是一个带节点或连边的图结构数据,通过对每个节点进行信息抽取,可以获得整个图结构数据的图特征向量。
其中,图特征向量用于表示图结构数据中的相邻节点之间的信息和整个图结构数据的信息。
示例性的,图神经网络可以包括但不限于图卷积网络(Graph ConvolutionNetworks,GCN)、图注意力网络(Graph Attention Networks)、图自编码器(GraphAutoencoders)、图生成网络(Graph Generative Networks)以及图时空网络(GraphSpatial-temporal Networks)等等。
在本申请实施例中,在根据第一数据集与第二数据集对图神经网络模型进行迭代训练之前,需要确定每一轮训练的训练样本数据。
请参阅图5,图5是本申请实施例提供的一种确定每一轮训练的训练样本数据的子步骤的示意性流程图,具体步骤S40可以包括以下步骤S401至步骤S403。
步骤S401、根据所述第一数据集或所述第二数据集确定一个锚点数据。
示例性的,可以依次从N个第一数据集中确定其中一个作为锚点数据,也可以依次从N个第二数据集中确定其中一个为锚点数据。因此锚点数据是携带第一属性标签的第一节点信息或携带第二属性标签的第二节点信息。
需要说明的是,锚点数据可以理解为模型训练过程中的真实值,用于后续计算正样本数据、负样本数据训练得到的图特征向量对应的损失函数值。
通过确定锚点数据,可以在图神经网络模型训练过程中,确定损失函数值,以调整图神经网络模型的参数。
步骤S402、从所述锚点数据所在的所述第一数据集/所述第二数据集选取一个正样本数据,以及从所述锚点数据不在的所述第二数据集/所述第一数据集选取至少一个负样本数据。
示例性的,若锚点数据为第一数据集中的携带第一属性标签的第一节点信息时,则从第一数据集中选取一个携带第一属性标签的第一节点信息作为正样本数据,从第二数据集中选取至少一个携带第二属性标签的第二节点信息作为负样本数据。
示例性的,若锚点数据为第二数据集中的携带第二属性标签的第二节点信息时,则从第二数据集中选取一个携带第二属性标签的第二节点信息作为正样本数据,从第一数据集中选取至少一个携带第一属性标签的第一节点信息作为负样本数据。
通过根据第一数据集与第二数据集构造正负样本,可以对图神经网络模型进行如何区分正样本和负样本,实现在图结构数据没有人工标注标签的情况下,提高图神经网络模型学习和挖掘不同的图结构数据的特征信息的拟合能力。
步骤S403、根据所述正样本数据与所述至少一个负样本数据,确定每一轮训练的训练样本数据。
示例性的,可以将根据正样本数据与至少一个负样本数据,确定为每一轮训练的训练样本数据。例如,训练样本数据包括一个携带第一属性标签的第一节点信息和至少一个携带第二属性标签的第二节点信息,或者包括一个携带第二属性标签的第二节点信息和至少一个携带第一属性标签的第一节点信息。
通过选取一个正样本数据和至少一个负样本数据作为每一轮训练的训练样本,可以使得根据交叉熵损失函数计算得到的损失函数值尽可能地小,以使图神经网络模型快速收敛。
请参阅图6,图6是步骤S40中根据第一数据集与第二数据集对图神经网络模型进行迭代训练的子步骤的示意性流程图,具体步骤S40可以包括以下步骤S404至步骤S406。
步骤S404、将当前轮训练样本数据输入所述图神经网络中进行节点信息更新,得到所述当前轮训练样本数据对应的多个图特征向量。
需要说明的是,节点信息更新是指对图结构数据对应的节点信息中的各节点进行信息聚合和信息更新,得到图结构数据对应的图特征向量。
其中,节点信息可以包括图结构数据的邻接矩阵以及各节点的特征向量。
示例性的,可以对训练样本数据中的每个节点信息进行节点信息更新。
在一些实施例中,将当前轮训练样本数据输入图神经网络中进行节点信息更新,可以包括:基于预设的消息函数,获取每个节点信息中的各节点对应的相邻节点的特征向量;基于预设的更新函数,根据相邻节点的特征向量对每个节点对应的特征向量进行更新,得到每个节点信息对应的图特征向量。
可以理解的是,由于节点信息用于表示图结构数据,因此节点信息对应的图特征向量可以作为图结构数据对应的图特征向量。
在本申请实施例中,可以基于前向传播机制,对图神经网络进行训练。其中,前向传播包括message passing(消息传递)阶段和readout(读取)阶段。示例性的,对于图结构数据G=(V,E),其中,V是所有节点,E是所有边,message passing(消息传递)阶段与readout(读取)阶段的计算公式,如下所示:
Figure BDA0002880851670000111
Figure BDA0002880851670000112
式中,Mt表示消息函数。Ut表示更新函数;
Figure BDA0002880851670000113
表示节点v在时间步t所接收到的信息;N(v)是节点v的所有邻结点;
Figure BDA0002880851670000114
是节点v在t时间步的特征向量;evw是节点v和节点w之间的边的特征向量。更新函数Ut用于将原节点状态
Figure BDA0002880851670000115
和信息
Figure BDA0002880851670000116
作为输入,得到新的节点状态
Figure BDA0002880851670000117
需要说明的是,在readout阶段中,需要计算一个特征向量用于整个图结构数据的特征向量,可以通过读取函数R实现,读取函数R如下所示:
Figure BDA0002880851670000118
其中,
Figure BDA0002880851670000119
是最终输出的图特征向量;T表示整个时间步数。
示例性的,将当前轮训练样本数据输入图神经网络中进行节点信息更新,可以得到当前轮训练样本数据对应的多个图特征向量。其中,多个图特征向量包括正样本数据对应的第一图特征向量和多个负样本数据对应的第二图特征向量。
通过基于消息函数与更新函数,可以当前轮训练样本数据进行节点信息更新,得到当前轮训练样本数据对应的多个图特征向量。
步骤S405、根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值。
请参阅图7,图7是本申请实施例提供的一种确定损失函数值的子步骤的示意性流程图,具体步骤S405可以包括以下步骤S4051至步骤S4054。
步骤S4051、基于预设的度量函数,确定所述正样本数据对应的第一图特征向量与所述锚点数据的特征向量之间的第一相似度,以及确定每个所述负样本数据对应的图特征向量与所述锚点数据对应的特征向量之间的第二相似度。
在本申请实施例中,通过训练图神经网络模型,目的是使得正样本数据与锚点数据之间的相似度尽可能大,使负样本数据与锚点数据之间的相似度尽可能小。
示例性的,预设的度量函数可以包括score函数;score函数用于评价两个特征间的相似性。score函数定义如下:
score(f(x),f(x+))>>score(f(x),f(x-))
式中,f(x)表示锚点数据的特征向量;x+是与x相似或相同的数据点,用于表示正样本数据;x-是与x不相似的数据点,用于表示负样本数据;f(x+)表示正样本数据对应的第一图特征向量;f(x-)表示负样本数据对应的第二图特征向量。
其中,锚点数据的特征向量可以是第一数据集/第二数据集对应的图结构数据中的全部节点特征向量的均值。
示例性的,可以通过score函数,计算正样本数据对应的第一图特征向量与锚点数据的特征向量之间的相似度,得到第一相似度;以及通过score函数确定每个负样本数据对应的图特征向量与锚点数据对应的特征向量之间的第二相似度。其中,第一相似度可以表示为δ1;第二相似度可以表示为δ2
通过度量函数,可以确定正样本数据与锚点数据之间的相似度,以及确定每个负样本数据与锚点数据之间的相似度,从而可以进一步确定正样本数据、负样本数据对应的预测概率。
步骤S4052、根据所述第一相似度和所述锚点数据对应的属性标签,确定所述正样本数据的第一预测概率,其中,所述属性标签为所述第一属性标签或所述第二属性标签。
需要说明的是,第一预测概率为正样本数据与锚点数据对应的属性标签为同一属性标签的概率。
示例性的,当锚点数据为第一数据集中的第一节点信息时,锚点数据对应的属性标签为第一属性标签;当锚点数据为第二数据集中的第二节点信息时,锚点数据对应的属性标签为第二属性标签。
示例性的,当锚点数据对应的属性标签为第一属性标签时,正样本数据对应的第一预测概率为第一相似度δ1
示例性的,当锚点数据对应的属性标签为第二属性标签时,正样本数据对应的第一预测概率为(1-δ1)。
可以理解的是,当正样本数据与锚点数据对应的属性标签为同一属性标签时,第一相似度越大,则第一预测概率越大;当正样本数据与锚点数据对应的属性标签为不同属性标签时,第一相似度越大,则第一预测概率越小。
步骤S4053、根据每个所述负样本数据对应的所述第二相似度和所述锚点数据对应的所述属性标签,确定每个所述负样本数据的第二预测概率。
需要说明的是,第二预测概率为负样本数据与锚点数据对应的属性标签为同一属性标签的概率。
示例性的,当锚点数据对应的属性标签为第一属性标签时,负样本数据对应的第二预测概率为第二相似度δ2
示例性的,当锚点数据对应的属性标签为第二属性标签时,负样本数据对应的第二预测概率为(1-δ2)。
可以理解的是,当负样本数据与锚点数据对应的属性标签为同一属性标签时,第二相似度越大,则第二预测概率越大;当负样本数据与锚点数据对应的属性标签为不同属性标签时,第二相似度越大,则第二预测概率越小。
步骤S4054、基于预设的损失函数,根据所述第一预测概率和多个所述第二预测概率,确定所述损失函数值。
示例性的,预设的损失函数可以包括交叉熵损失函数。其中,交叉熵损失函数,可以定义为:
Figure BDA0002880851670000131
式中,f(x)Tf(x+)表示正样本数据的第一预测概率;j表示第j个负样本数据;f(x)Tf(xj)表示负样本数据的第二预测概率;
Figure BDA0002880851670000132
表示全部负样本数据的第二预测概率之和。
可以理解的是,当第一预测概率越接近1、并且第二预测概率越接近0时,损失函数值越小。
步骤S406、若所述损失函数值大于预设的损失值阈值,则调整所述图神经网络模型的参数,并进行下一轮训练,直至得到的损失函数值小于或等于所述损失值阈值,结束训练,得到训练后的所述图神经网络模型,其中,训练后的所述图神经网络模型存储在区块链中。
示例性的,预设的损失值阈值可以根据实际情况进行设定,具体数值在此不作限定。
在一些实施例中,当损失函数值大于预设的损失值阈值时,可以采用反向传播算法计算图神经网络模型的梯度,采用梯度下降算法更新图神经网络模型的参数。
示例性的,梯度下降算法可以包括但不限于批量梯度下降法(Batch GradientDescent)、随机梯度下降法(Stochastic Gradient Descent)以及小批量梯度下降法(Mini-batch Gradient Descent)等等。
在更新图神经网络模型的参数后,进行下一轮的训练并计算每一轮的损失函数值。当计算得到的损失函数值小于或等于损失值阈值时,则训练结束,得到训练后的图神经网络模型。
需要强调的是,为进一步保证上述训练后的图神经网络模型的私密和安全性,上述训练后的图神经网络模型还可以存储于一区块链的节点中。
通过根据预设的损失函数和梯度下降算法对图神经网络模型进行参数更新,可以使得图神经网络模型快速收敛,进而提高了图神经网络模型的训练效率。
上述实施例提供的模型训练方法,通过对目标图结构数据进行向量化,可以得到目标图结构数据对应的节点特征向量,通过根据目标图结构数据的属性类型生成第一属性标签,可以得到携带第一属性标签的第一数据集;通过根据删除比例值对目标图结构数据中的节点进行删除,可以得到对照图结构数据,后续可以根据目标图结构数据对应的第一数据集和对照图结构数据对应的第二数据集构造正负样本,对图神经网络模型进行训练;通过对对照图结构数据进行向量化,可以得到对照图结构数据对应的节点特征向量,通过获取根据对照图结构数据的属性类型生成的第二属性标签,可以得到携带第二属性标签的第二数据集;通过确定锚点数据,可以在图神经网络模型训练过程中,确定损失函数值,以调整图神经网络模型的参数;通过根据第一数据集与第二数据集构造正负样本,可以对图神经网络模型进行如何区分正样本和负样本,实现在图结构数据没有人工标注标签的情况下,提高图神经网络模型学习和挖掘不同的图结构数据的特征信息的拟合能力;通过选取一个正样本数据和至少一个负样本数据作为每一轮训练的训练样本,可以使得根据交叉熵损失函数计算得到的损失函数值尽可能地小,以使图神经网络模型快速收敛;通过基于消息函数与更新函数,可以当前轮训练样本数据进行节点信息更新,得到当前轮训练样本数据对应的多个图特征向量;通过度量函数,可以确定正样本数据与锚点数据之间的相似度,以及确定每个负样本数据与锚点数据之间的相似度,从而可以进一步确定正样本数据、负样本数据对应的预测概率;通过根据预设的损失函数和梯度下降算法对图神经网络模型进行参数更新,可以使得图神经网络模型快速收敛,进而提高了图神经网络模型的训练效率。
请参阅图8,图8是本申请实施例提供的一种模型调用方法的示意性流程图。该模型调用方法,可以服务器或终端中,通过将预训练后的图神经网络输出的图特征向量输入目标预测模型中进行预测,提高了预测模型的预测效率。该模型调用方法,包括步骤S501至步骤S503。
步骤S501、获取预测任务对应的待预测图结构数据。
需要说明的是,在本申请实施例中,预训练后的图神经网络模型具有学习和挖掘不同的图结构数据的特征信息的拟合能力,可以应用于不同的下游任务中,不需要为每一个下游任务从零开始训练全新的预测模型,从而提高预测模型的预测效率。
示例性的,预测任务可以是分类预测、回归预测等任务。
示例性的,待预测图结构数据可以包括但不限于社交网络图、分子结构图、交通网络图以及电子购物图等等。
步骤S502、从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量。
需要说明的是,图神经网络模型为预训练后的模型,存储于区块链中。
示例性的,可以从区块链中调用预训练后的图神经网络模型,基于预设的消息函数和更新函数,将待预测图结构数据输入预训练后的图神经网络模型进行节点信息更新,得到待预测图结构数据对应的图特征向量。
示例性的,图特征向量可以用于二分类、多分类、多标签分类以及回归等预测任务中。
通过调用预训练后的图神经网络对待预测图结构数据进行节点更新,可以便捷地得到包含相邻节点和整个图结构数据的图特征向量,可以将图特征向量应用于不同下游任务的目标模型中。
步骤S503、确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
示例性的,目标预测模型可以包括但不限于多层感知机(Multi-LayerPerceptron,MLP)、随机森林、支持向量机(Support Vector Machine,SVM)等分类模型或者回归模型。
示例性的,当预测任务为二分类任务时,目标预测模型可以为多层感知机。例如,将待预测图结构数据对应的图特征向量输入多层感知机进行分类预测,得到预测结果。例如,预测结果可以是0或1。
请参阅图9,图9是本申请实施例提供的一种调用图神经网络模型进行分类预测的示意图。如图9所示,待预测图结构数据可以是化学分子的图结构数据,包括真实分子和虚假分子;将待预测图结构数据输入图神经网络模型进行节点信息更新,将输出的图特征向量输入目标预测模型中进行分类预测,得到预测结果。其中,预测结果包括真实分子和虚假分子。
通过将图特征向量输入目标预测模型中预测,可以避免为每一个下游任务从零开始训练全新的预测模型,提高了预测效率,实现了图结构数据的大规模、可复制的工业施展方式。
上述实施例提供的模型调用方法,通过调用预训练后的图神经网络对待预测图结构数据进行节点更新,可以便捷地得到包含相邻节点和整个图结构数据的图特征向量,后续将图特征向量应用于不同下游任务的目标模型中;通过将图特征向量输入目标预测模型中预测,可以避免为每一个下游任务从零开始训练全新的预测模型,提高了预测效率,实现了图结构数据的大规模、可复制的工业施展方式。
请参阅图10,图10是本申请的实施例还提供一种模型训练装置1000的示意性框图,该模型训练装置用于执行前述的模型训练方法。其中,该模型训练装置可以配置于服务器或终端中。
如图10所示,该模型训练装置1000,包括:第一数据获取模块1001、对照图结构数据确定模块1002、第二数据获取模块1003和模型训练模块1004。
第一数据获取模块1001,用于获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签。
对照图结构数据确定模块1002,用于确定所述目标图结构数据对应的对照图结构数据。
第二数据获取模块1003,用于根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签。
模型训练模块1004,用于加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
上述的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图11所示的计算机设备上运行。
请参阅图11,图11是本申请实施例提供的一种计算机设备的结构示意性框图。该计算机设备可以是服务器或终端。
请参阅图11,该计算机设备包括通过***总线连接的处理器和存储器,其中,存储器可以包括非易失性存储介质和内存储器。
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行任意一种模型训练方法。
应当理解的是,处理器可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,在一个实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;确定所述目标图结构数据对应的对照图结构数据;根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
在一个实施例中,所述目标图结构数据包括多个节点;所述处理器在实现确定所述目标图结构数据对应的对照图结构数据时,用于实现:
基于预设的删除比例值,对所述目标图结构数据中的多个节点进行删除,得到所述目标图结构数据对应的所述对照图结构数据。
在一个实施例中,所述处理器在实现根据所述对照图结构数据确定第二数据集,用于实现:
对所述对照图结构数据进行向量化,得到所述对照图结构数据对应的节点特征向量;将所述节点特征向量与所述对照图结构数据的邻接矩阵,确定为所述第二节点信息,其中,所述邻接矩阵用于表示所述对照图结构数据中的各节点之间的连接关系;获取根据所述对照图结构数据的属性类型生成的所述第二属性标签;根据所述第二节点信息与所述第二属性标签,确定所述第二数据集。
在一个实施例中,所述处理器在实现根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练之前,还用于实现:
根据所述第一数据集或所述第二数据集确定一个锚点数据;从所述锚点数据所在的所述第一数据集/所述第二数据集选取一个正样本数据,以及从所述锚点数据不在的所述第二数据集/所述第一数据集选取至少一个负样本数据;根据所述正样本数据与所述至少一个负样本数据,确定每一轮训练的训练样本数据。
在一个实施例中,所述处理器在实现根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛时,用于实现:
将当前轮训练样本数据输入所述图神经网络中进行节点信息更新,得到所述当前轮训练样本数据对应的多个图特征向量;根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值;若所述损失函数值大于预设的损失值阈值,则调整所述图神经网络模型的参数,并进行下一轮训练,直至得到的损失函数值小于或等于所述损失值阈值,结束训练,得到训练后的所述图神经网络模型,其中,训练后的所述图神经网络模型存储在区块链中。
在一个实施例中,所述图特征向量包括所述正样本数据对应的第一图特征向量和多个所述负样本数据对应的第二图特征向量;所述处理器在实现根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值时,用于实现:
基于预设的度量函数,确定所述正样本数据对应的第一图特征向量与所述锚点数据的特征向量之间的第一相似度,以及确定每个所述负样本数据对应的图特征向量与所述锚点数据对应的特征向量之间的第二相似度;根据所述第一相似度和所述锚点数据对应的属性标签,确定所述正样本数据的第一预测概率,其中,所述属性标签为所述第一属性标签或所述第二属性标签;根据每个所述负样本数据对应的所述第二相似度和所述锚点数据对应的所述属性标签,确定每个所述负样本数据的第二预测概率;基于预设的损失函数,根据所述第一预测概率和多个所述第二预测概率,确定所述损失函数值。
在一个实施例中,所述处理器在实现还用于实现:
获取预测任务对应的待预测图结构数据;从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现本申请实施例提供的任一项模型训练方法或模型调用方法。
其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字卡(Secure Digital Card,SD Card),闪存卡(Flash Card)等。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种模型训练方法,其特征在于,包括:
获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
确定所述目标图结构数据对应的对照图结构数据;
根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
2.根据权利要求1所述的模型训练方法,其特征在于,所述目标图结构数据包括多个节点;所述确定所述目标图结构数据对应的对照图结构数据,包括:
基于预设的删除比例值,对所述目标图结构数据中的多个节点进行删除,得到所述目标图结构数据对应的所述对照图结构数据。
3.根据权利要求1所述的模型训练方法,其特征在于,所述根据所述对照图结构数据确定第二数据集,包括:
对所述对照图结构数据进行向量化,得到所述对照图结构数据对应的节点特征向量;
将所述节点特征向量与所述对照图结构数据的邻接矩阵,确定为所述第二节点信息,其中,所述邻接矩阵用于表示所述对照图结构数据中的各节点之间的连接关系;
获取根据所述对照图结构数据的属性类型生成的所述第二属性标签;
根据所述第二节点信息与所述第二属性标签,确定所述第二数据集。
4.根据权利要求1所述的模型训练方法,其特征在于,所述根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练之前,还包括:
根据所述第一数据集或所述第二数据集确定一个锚点数据;
从所述锚点数据所在的所述第一数据集/所述第二数据集选取一个正样本数据,以及从所述锚点数据不在的所述第二数据集/所述第一数据集选取至少一个负样本数据;
根据所述正样本数据与所述至少一个负样本数据,确定每一轮训练的训练样本数据;
所述根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛,包括:
将当前轮训练样本数据输入所述图神经网络中进行节点信息更新,得到所述当前轮训练样本数据对应的多个图特征向量;
根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值;
若所述损失函数值大于预设的损失值阈值,则调整所述图神经网络模型的参数,并进行下一轮训练,直至得到的损失函数值小于或等于所述损失值阈值,结束训练,得到训练后的所述图神经网络模型,其中,训练后的所述图神经网络模型存储在区块链中。
5.根据权利要求4所述的模型训练方法,其特征在于,所述图特征向量包括所述正样本数据对应的第一图特征向量和多个所述负样本数据对应的第二图特征向量;所述根据所述当前轮训练样本数据对应的多个图特征向量与所述锚点数据对应的特征向量,确定损失函数值,包括:
基于预设的度量函数,确定所述正样本数据对应的第一图特征向量与所述锚点数据的特征向量之间的第一相似度,以及确定每个所述负样本数据对应的图特征向量与所述锚点数据对应的特征向量之间的第二相似度;
根据所述第一相似度和所述锚点数据对应的属性标签,确定所述正样本数据的第一预测概率,其中,所述属性标签为所述第一属性标签或所述第二属性标签;
根据每个所述负样本数据对应的所述第二相似度和所述锚点数据对应的所述属性标签,确定每个所述负样本数据的第二预测概率;
基于预设的损失函数,根据所述第一预测概率和多个所述第二预测概率,确定所述损失函数值。
6.根据权利要求1-5任一项所述的模型训练方法,其特征在于,所述第一属性标签为根据所述目标图结构数据的属性类型生成,所述第二属性标签为根据所述对照图结构数据的属性类型生成。
7.一种模型调用方法,其特征在于,所述模型为如权利要求1至6中任一项所述的图神经网络模型,所述方法包括:
获取预测任务对应的待预测图结构数据;
从区块链中调用图神经网络模型,将所述待预测图结构数据输入所述图神经网络模型进行节点信息更新,得到所述待预测图结构数据对应的图特征向量;
确定所述预测任务对应的目标预测模型,将所述图特征向量输入所述目标预测模型中进行预测,得到所述预测任务对应的预测结果。
8.一种模型训练装置,其特征在于,包括:
第一数据获取模块,用于获取第一数据集,其中,所述第一数据集包括目标图结构数据对应的第一节点信息和第一属性标签;
对照图结构数据确定模块,用于确定所述目标图结构数据对应的对照图结构数据;
第二数据获取模块,用于根据所述对照图结构数据确定第二数据集,其中,所述第二数据集包括所述对照图结构数据对应的第二节点信息和第二属性标签;
模型训练模块,用于加载待训练的图神经网络模型,根据所述第一数据集与所述第二数据集对所述图神经网络模型进行迭代训练,直至所述图神经网络模型收敛。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时实现:
如权利要求1至6任一项所述的模型训练方法;或
如权利要求7所述的模型调用方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现:
如权利要求1至6任一项所述的模型训练方法;或
如权利要求7所述的模型调用方法。
CN202011642092.5A 2020-12-31 2020-12-31 模型训练方法、调用方法、装置、计算机设备和存储介质 Pending CN112734034A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011642092.5A CN112734034A (zh) 2020-12-31 2020-12-31 模型训练方法、调用方法、装置、计算机设备和存储介质
PCT/CN2021/084172 WO2022141869A1 (zh) 2020-12-31 2021-03-30 模型训练方法、调用方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011642092.5A CN112734034A (zh) 2020-12-31 2020-12-31 模型训练方法、调用方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN112734034A true CN112734034A (zh) 2021-04-30

Family

ID=75609157

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011642092.5A Pending CN112734034A (zh) 2020-12-31 2020-12-31 模型训练方法、调用方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
CN (1) CN112734034A (zh)
WO (1) WO2022141869A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819154A (zh) * 2021-01-20 2021-05-18 上海上湖信息技术有限公司 一种应用于图学习领域的预训练模型的生成方法及装置
CN113435521A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 神经网络模型训练方法、装置及计算机可读存储介质
CN114818973A (zh) * 2021-07-15 2022-07-29 支付宝(杭州)信息技术有限公司 一种基于隐私保护的图模型训练方法、装置及设备
WO2023024408A1 (zh) * 2021-08-25 2023-03-02 平安科技(深圳)有限公司 用户特征向量确定方法、相关设备及介质
CN115965058A (zh) * 2022-12-28 2023-04-14 连连(杭州)信息技术有限公司 神经网络训练方法、实体信息分类方法、装置及存储介质
WO2023178793A1 (zh) * 2022-03-23 2023-09-28 平安科技(深圳)有限公司 双视角图神经网络模型的训练方法、装置、设备及介质
CN117609870A (zh) * 2024-01-23 2024-02-27 北京燧原智能科技有限公司 结构识别模型训练、模型结构识别方法、设备及介质
CN117785490A (zh) * 2024-02-27 2024-03-29 苏州元脑智能科技有限公司 一种图神经网络模型的训练架构、方法、***及服务器

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115221976B (zh) * 2022-08-18 2024-05-24 抖音视界有限公司 一种基于图神经网络的模型训练方法及装置
CN115293082B (zh) * 2022-09-30 2023-01-20 深圳鸿芯微纳技术有限公司 时序预测模型的训练、预测方法、装置、设备及存储介质
CN117993455A (zh) * 2022-10-26 2024-05-07 北京火山引擎科技有限公司 图神经网络的训练方法、训练***及异常账号识别方法
CN115860581B (zh) * 2023-02-28 2023-05-26 北京市农林科学院信息技术研究中心 农作物品种适宜性评价方法、装置、设备及存储介质
CN116245139B (zh) * 2023-04-23 2023-07-07 中国人民解放军国防科技大学 图神经网络模型训练方法和装置、事件检测方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443178B2 (en) * 2017-12-15 2022-09-13 Interntional Business Machines Corporation Deep neural network hardening framework
CN110705709B (zh) * 2019-10-14 2021-03-23 支付宝(杭州)信息技术有限公司 训练图神经网络模型的方法和装置
CN111626119B (zh) * 2020-04-23 2023-09-01 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819154A (zh) * 2021-01-20 2021-05-18 上海上湖信息技术有限公司 一种应用于图学习领域的预训练模型的生成方法及装置
CN112819154B (zh) * 2021-01-20 2024-05-28 上海上湖信息技术有限公司 一种应用于图学习领域的预训练模型的生成方法及装置
CN113435521A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 神经网络模型训练方法、装置及计算机可读存储介质
CN114818973A (zh) * 2021-07-15 2022-07-29 支付宝(杭州)信息技术有限公司 一种基于隐私保护的图模型训练方法、装置及设备
WO2023024408A1 (zh) * 2021-08-25 2023-03-02 平安科技(深圳)有限公司 用户特征向量确定方法、相关设备及介质
WO2023178793A1 (zh) * 2022-03-23 2023-09-28 平安科技(深圳)有限公司 双视角图神经网络模型的训练方法、装置、设备及介质
CN115965058A (zh) * 2022-12-28 2023-04-14 连连(杭州)信息技术有限公司 神经网络训练方法、实体信息分类方法、装置及存储介质
CN115965058B (zh) * 2022-12-28 2024-03-29 连连(杭州)信息技术有限公司 神经网络训练方法、实体信息分类方法、装置及存储介质
CN117609870A (zh) * 2024-01-23 2024-02-27 北京燧原智能科技有限公司 结构识别模型训练、模型结构识别方法、设备及介质
CN117609870B (zh) * 2024-01-23 2024-04-23 北京燧原智能科技有限公司 结构识别模型训练、模型结构识别方法、设备及介质
CN117785490A (zh) * 2024-02-27 2024-03-29 苏州元脑智能科技有限公司 一种图神经网络模型的训练架构、方法、***及服务器
CN117785490B (zh) * 2024-02-27 2024-05-10 苏州元脑智能科技有限公司 一种图神经网络模型的训练架构、方法、***及服务器

Also Published As

Publication number Publication date
WO2022141869A1 (zh) 2022-07-07

Similar Documents

Publication Publication Date Title
CN112734034A (zh) 模型训练方法、调用方法、装置、计算机设备和存储介质
US11227190B1 (en) Graph neural network training methods and systems
Possieri et al. Asymptotic stability in probability for stochastic Boolean networks
CN112085565B (zh) 基于深度学习的信息推荐方法、装置、设备及存储介质
JPH11328146A (ja) デ―タ集合の変数をモデル化する方法及び装置
CN109918499A (zh) 一种文本分类方法、装置、计算机设备及存储介质
US20220138502A1 (en) Graph neural network training methods and systems
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
CN115244587A (zh) 高效基础事实注释
CN112418292A (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CN115293919B (zh) 面向社交网络分布外泛化的图神经网络预测方法及***
CN111462088A (zh) 基于图卷积神经网络的数据处理方法、装置、设备及介质
CN112231416A (zh) 知识图谱本体更新方法、装置、计算机设备及存储介质
CN113158685A (zh) 文本的语义预测方法、装置、计算机设备和存储介质
CN110390014A (zh) 一种主题挖掘方法、装置及存储介质
CN110335165B (zh) 一种链路预测方法和装置
Sui et al. Learning 3-opt heuristics for traveling salesman problem via deep reinforcement learning
US20200074277A1 (en) Fuzzy input for autoencoders
CN114816808A (zh) 异常检测方法、装置、电子设备及计算机可读存储介质
CN111459780A (zh) 用户识别方法、装置、可读介质及电子设备
US20210248412A1 (en) Image element matching via graph processing
CN115438164A (zh) 问答方法、***、设备及存储介质
CN114550849A (zh) 基于量子图神经网络解决化学分子性质预测的方法
CN114241411A (zh) 基于目标检测的计数模型处理方法、装置及计算机设备
Qurashi et al. Soft relations applied to the substructures of quantale module and their approximation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40041537

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination