CN117218459B - 一种分布式节点分类方法及装置 - Google Patents

一种分布式节点分类方法及装置 Download PDF

Info

Publication number
CN117218459B
CN117218459B CN202311483982.XA CN202311483982A CN117218459B CN 117218459 B CN117218459 B CN 117218459B CN 202311483982 A CN202311483982 A CN 202311483982A CN 117218459 B CN117218459 B CN 117218459B
Authority
CN
China
Prior art keywords
node
nodes
order vector
graph
file system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311483982.XA
Other languages
English (en)
Other versions
CN117218459A (zh
Inventor
朱仲书
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202311483982.XA priority Critical patent/CN117218459B/zh
Publication of CN117218459A publication Critical patent/CN117218459A/zh
Application granted granted Critical
Publication of CN117218459B publication Critical patent/CN117218459B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例涉及一种分布式节点分类方法及装置,方法应用于分布式***的多台工作设备中任意的第一工作设备,包括:获取全图数据的第一子图数据,第一子图中的数据可以是隐私数据,然后,使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i‑1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中,然后,从所述分布式文件***中获取待分类的目标节点的K阶向量表示,将其输入到节点分类模型中,得到对于所述目标节点的分类结果。

Description

一种分布式节点分类方法及装置
技术领域
本说明书一个或多个实施例涉及图处理领域,尤其涉及一种分布式节点分类方法及装置。
背景技术
近年来,作为表达现实世界中数据间复杂关系的工具,图数据受到了越来越广泛的关注,其中一个重要的应用是使用图神经网络(Graph Neural Networks, GNNs)对图中节点进行建模,然后用训练好的模型预测节点是否具有某种属性,即节点分类。图数据可以是隐私数据,例如,用户在交易过程中产生的数据。
随着图数据的规模持续扩展以及图模型的不断复杂化,对十亿甚至百亿级别的图数据执行节点分类任务需要非常多的资源。由于GNN的本质上是以信息传递的范式来逐层执行计算的,传统按样本逐条计算的模式在模型预测阶段时会引入大量的重复计算,从而限制其扩展性。
发明内容
本说明书一个或多个实施例描述了一种分布式节点分类方法及装置,旨在结合图神经网络的计算特点,将计算过程中产生的中间结果存入分布式文件***中以重复使用,从而降低数据冗余,提高运行效率。
第一方面,提供了一种分布式节点分类方法,应用于分布式***的多台工作设备中任意的第一工作设备,包括:
获取全图数据的第一子图数据;
使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中;所述分布式文件***被所述多台工作设备共享;
从所述分布式文件***中获取待分类的目标节点的K阶向量表示,将其输入到节点分类模型中,得到对于所述目标节点的分类结果。
在一种可能的实施方式中,还包括:
对于所述第一子图中的任一节点,使用图采样算法从其全部一跳邻居节点中确定N个邻居节点。
在一种可能的实施方式中,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,包括:
从分布式文件***中获取各个节点及其N个邻居节点的i-1阶向量表示。
在一种可能的实施方式中,所述图采样算法包括:随机采样、均匀采样、按权重采样、按类型采样。
在一种可能的实施方式中,所述第一子图数据由分布式***中的多台工作设备对所述全图数据执行图切分算法划分得到。
在一种可能的实施方式中,所述图切分算法包括:METIS、分布式邻居扩展算法。
在一种可能的实施方式中,所述节点分类模型为多层神经网络MLP。
第二方面,提供了一种分布式节点分类装置,部署在分布式***的多台工作设备中任意的第一工作设备上,包括:
获取单元,配置为,获取全图数据的第一子图数据;
向量计算单元,配置为,使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中;所述分布式文件***被所述多台工作设备共享;
节点分类单元,配置为,从所述分布式文件***中获取待分类的目标节点的K阶向量表示,将其输入到节点分类模型中,得到对于所述目标节点的分类结果。
在一种可能的实施方式中,还包括:
邻居采样单元,配置为,对于所述第一子图中的任一节点,使用图采样算法从其全部一跳邻居节点中确定N个邻居节点。
第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面的方法。
第四方面,提供了一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面的方法。
本说明书实施例提出的一种分布式节点分类方法及装置,方法结合图神经网络的计算特点,将计算过程中产生的中间结果存入分布式文件***中以重复使用,从而降低数据冗余,提高运行效率和可扩展性,能够完成超大规模图数据的节点分类任务。
附图说明
为了更清楚地说明本说明书披露的多个实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书披露的多个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出根据一个实施例的常规GNN计算节点向量表示的示意图;
图2示出根据一个实施例的分布式节点分类方法的实施场景示意图;
图3示出根据一个实施例的分布式节点分类方法的流程图;
图4示出根据一个实施例的分布式节点分类装置的示意性框图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
在图推理中,节点分类任务是指根据已知的图结构和节点属性,预测某一待预测节点的是否具有某种特定的类型。例如,给定一个自然人节点,预测该自然人名下是否有住房。
链接预测任务依赖于对图中节点的编码表征。具体地,为进行链接预测,首先通过图神经网络GNN对图中节点进行编码,得到其编码表征;在预测时,根据两个给定节点的编码表征,利用预测网络,得到关于连接边的预测。
在常规的图神经网络GNN模型对节点的编码过程中,会批量采样图中每个节点的M跳邻居节点,然后使用M层GNN分别对每个节点进行聚合计算,得到每个节点的M阶向量表示。在这个过程中,对任意节点u的计算的中间结果会被直接丢弃,只保留节点u的最终的M阶向量表示。这样一来,在计算与节点u相邻的节点v的M阶向量表示时,便无法使用计算节点u的M阶向量表示时的中间结果,而是要从头开始重新计算一遍,从而效率低下,降低了整体的节点分类任务的效率。与此同时,批量采样图中每个节点的M跳邻居节点本身也会造成大量的数据冗余。
例如,图1示出根据一个实施例的常规GNN计算节点向量表示的示意图。如图1所示,使用2层GNN模型分别计算节点1和节点2的2阶向量表示。在对节点1和节点2分别进行2跳邻居子图采样时,节点3会同时被采样到节点1和节点2的2跳邻居子图中。在2层GNN模型计算节点1的2阶向量表示时,会产生对于节点3的1阶向量表示的中间计算结果,然而这个中间计算结果在完成节点1的2阶向量表示的计算后,便会被直接丢弃。后续计算节点2的2阶向量表示时,则又要重新计算一遍节点3的1阶向量表示,重复计算会导致整体的效率低下。进而影响后续节点分类任务的效率。
为了解决上述问题,图2示出根据一个实施例的分布式节点分类方法的实施场景示意图。在图2的示例中,用于进行节点分类任务的全图数据由图切分算法分割为多个子图,这些子图被分别发送给分布式***中的多台工作设备。任意一台工作设备上都运行着一个K层图神经网络GNN。其中,第1层GNN用于根据子图中的各个节点及其多个邻居节点的初始向量表示(0阶向量表示),计算各个节点的1阶向量表示,并存入分布式文件***中,该分布式文件***中的数据可以由分布式***中的多台工作设备共享。然后,第2层GNN在根据子图中的各个节点及其多个邻居节点的1阶向量表示计算2阶向量表示时,则无需从头开始计算,而是直接从分布式文件***中获取即可,然后将计算得到的2阶向量表示再次存入分布式文件***中,以此类推。第i层图神经网络从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,计算得到各个节点的i阶向量表示,然后存入分布式文件***中。最后,第K层GNN将计算得到的各个节点的K阶向量表示存入分布式文件***中,以供后续的节点分类模型使用。分布式***中的多台工作设备分别执行上述步骤,便可以得到全图中所有节点的K阶向量表示,并保存在分布式文件***中。
任意一台工作设备上还运行着节点分类模型,对于任意一个待分类的目标节点,从分布式文件***中获取该目标节点的K阶向量表示,并输入到节点分类模型中,得到对于该目标节点的分类结果,具体可以包括,该目标节点是否拥有目标属性。
以下结合具体的实施例,描述上述分布式节点分类方法的具体实施步骤。图3示出根据一个实施例的分布式节点分类方法的流程图,所述方法的执行主体可以为任何具有计算、处理能力的平台或服务器或设备集群等。需要说明的是,所述分布式***包含多台工作设备,图3仅展示了在任意的第一工作设备之上的实施步骤。分布式***中的其它工作设备上的实施步骤可以参照图3中的步骤推出。
图3示出根据一个实施例的分布式节点分类方法,应用于分布式***的多台工作设备中任意的第一工作设备,至少包括:步骤302,获取全图数据的第一子图数据;步骤306,使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中;所述分布式文件***被所述多台工作设备共享;步骤312,从所述分布式文件***中获取第一节点和第二节点的K阶向量表示,将其输入到节点分类模型中,得到对于第一节点和第二节点之间关于目标关系的预测结果。
首先,在步骤302,获取全图数据的第一子图数据。
第一子图数据可以是图结构数据,仅仅指示子图中节点的连接关系,而不包含节点的向量表示,以节约存储资源。节点的向量表示可以从分布式文件***中获取。
在一个实施例中,所述第一子图数据由分布式***中的多台工作设备对所述全图数据执行图切分算法划分得到。可以使用多种图切分算法对全图进行划分,例如METIS、分布式邻居扩展算法DistributedNE(Distributed Neighbor Expansion)等等。通过使用图切分算法,可以使得全图中位置相邻的节点被划分到同一个子图中,由此一来,在后续的步骤306中采样各个节点的邻居节点时,便可以直接从单台工作设备的子图中进行采样,减少了工作设备之间的通信,进而提高运行效率。
然后,在步骤306,使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中;所述分布式文件***被所述多台工作设备共享。
其中,任一节点的多个邻居节点为其直接邻居或一跳邻居节点。具体地,首先获取第一子图中各个节点及其多个邻居节点的初始向量表示(0阶向量表示),然后输入到第1层图神经网络中计算各个节点的1阶向量表示,并将各个节点的1阶向量表示存入分布式文件***中。初始向量表示可以是one-hot编码特征,也可以是文本或图片经由对应编码器编码得到的嵌入向量,这里不做限定。
然后,从分布式文件***中获取第一子图中各个节点及其多个邻居节点的1阶向量表示,并输入到第2层图神经网络中计算各个节点的2阶向量表示,并将各个节点的2阶向量表示存入分布式文件***中。
以此类推,第i轮模型处理包括,从分布式文件***中获取第一子图中各个节点及其多个邻居节点的i-1阶向量表示,并输入到第i层图神经网络中计算各个节点的i阶向量表示,并将各个节点的i阶向量表示存入分布式文件***中。
所述分布式文件***被多台工作设备共享。分布式***中的多台工作设备分别执行步骤302和步骤306,便可以得到全图中所有节点的K阶向量表示,并保存在分布式文件***中。
通过步骤302和步骤306使用分布式文件***缓存每层图神经网络GNN计算过程中产生的中间数据,各个节点的中间计算结果可以在计算不同节点时得到复用,还可以在多台工作设备间共享,由此消除了传统GNN中大量的重复计算。例如,以图1为例,当采用上述实施例的方案时,节点3的1阶向量表示会存储在分布式文件***中,供计算节点1以及节点2的2阶向量时读取使用。又例如,假定在全图数据中,节点A和节点B为二阶邻居,但被分别划分到第一工作设备和第二工作设备。则第一工作设备计算得到的节点A的中间阶向量,可以存入分布式文件***,被第二工作设备读取来计算节点B的更高阶向量。
此外,根据上述实施例,工作设备只需要采集第一子图中任一节点的一跳邻居节点,而非传统GNN中的采集N跳邻居节点,在采样过程中进一步减少了计算量。
在一些可能的实施方式中,在步骤306之前,所述方法还包括步骤304,对于所述第一子图中的任一节点,使用图采样算法从其全部一跳邻居节点中确定N个邻居节点。
其中,所述图采样算法可以包括:随机采样、均匀采样、按权重采样、按类型采样。
此时,步骤306的从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示具体包括:从分布式文件***中获取各个节点及其N个邻居节点的i-1阶向量表示。
通过使用图采样算法,可以防止在图数据规模过大时导致的数据膨胀。
最后,在步骤308,从所述分布式文件***中获取待分类的目标节点的K阶向量表示,将其输入到节点分类模型中,得到对于所述目标节点的分类结果。
节点分类模型的输出可以是一个概率值,指示所述目标节点拥有某个目标属性的概率,当概率值大于预设的第一阈值时,分类结果为目标节点有拥有该目标属性。
在一个实施例中,任一节点可以同时拥有多种属性,此时,节点分类模型的输出可以是对应于多种属性的多个概率值,根据每个属性的概率值和对应的预设阈值的比较结果,将概率值大于对应的预设阈值的多个属性确定为该节点的分类结果。
在一个实施例中,所述节点分类模型可以是多层神经网络MLP(Multi-LayerPerceptron)模型。
本说明书实施例的子图采样和模型推理可以以流水线的模式并发执行,无需预先产出每个节点的N跳邻居子图数据,从而节约了子图采样的耗时。另外,一跳邻居子图实时产出实时消费,也无需额外存储资源。同时,本方案将中间计算结果缓存到分布式文件***中,不依赖分布式计算的MapReduce框架,因此可以无缝适配各种图学习框架。
同时,本方案通过缓存中间结果的方式避免了传统GNN模型中大量的重复计算问题,从而提升了性能和扩展性。另外,由于多跳邻居的信息可以由缓存的中间结果表示,所以在执行子图采样时只需要一跳邻居即可,从而进一步减少了计算量。
根据另一方面的实施例,还提供一种分布式节点分类装置。图4示出根据一个实施例的分布式节点分类装置的示意性框图,该装置可以部署在任何具有计算、处理能力的设备、平台或设备集群中。如图4所示,所述装置400部署在分布式***的多台工作设备中任意的第一工作设备上,包括:
获取单元401,配置为,获取全图数据的第一子图数据;
向量计算单元403,配置为,使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中;所述分布式文件***被所述多台工作设备共享;
节点分类单元404,配置为,从所述分布式文件***中获取待分类的目标节点的K阶向量表示,将其输入到节点分类模型中,得到对于所述目标节点的分类结果。
在一些可能的实施方式中,还包括:
邻居采样单元402,配置为,对于所述第一子图中的任一节点,使用图采样算法从其全部一跳邻居节点中确定N个邻居节点。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行上述任一实施例所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现上述任一实施例所描述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者装置中还存在另外的相同要素。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (11)

1.一种分布式节点分类方法,应用于分布式***的多台工作设备中任意的第一工作设备,包括:
获取全图数据的第一子图数据;
使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中;所述分布式文件***被所述多台工作设备共享;所述各个节点的各阶向量表示可以在计算不同节点时得到复用;
从所述分布式文件***中获取待分类的目标节点的K阶向量表示,将其输入到节点分类模型中,得到对于所述目标节点的分类结果。
2.根据权利要求1所述的方法,还包括:
对于所述第一子图中的任一节点,使用图采样算法从其全部一跳邻居节点中确定N个邻居节点。
3.根据权利要求2所述的方法,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,包括:
从分布式文件***中获取各个节点及其N个邻居节点的i-1阶向量表示。
4.根据权利要求2所述的方法,其中,所述图采样算法包括:随机采样、均匀采样、按权重采样、按类型采样。
5.根据权利要求1所述的方法,其中,所述第一子图数据由分布式***中的多台工作设备对所述全图数据执行图切分算法划分得到。
6.根据权利要求5所述的方法,其中,所述图切分算法包括:METIS、分布式邻居扩展算法。
7.根据权利要求1所述的方法,其中,所述节点分类模型为多层神经网络MLP。
8.一种分布式节点分类装置,部署在分布式***的多台工作设备中任意的第一工作设备上,包括:
获取单元,配置为,获取全图数据的第一子图数据;
向量计算单元,配置为,使用K层图神经网络对所述第一子图数据中的全部节点进行K轮模型处理,得到各个节点的K阶向量表示,其中,第i轮模型处理包括,从分布式文件***中获取各个节点及其多个邻居节点的i-1阶向量表示,将其输入到第i层图神经网络中,得到各个节点的i阶向量表示,将所述各个节点的i阶向量表示存入所述分布式文件***中;所述分布式文件***被所述多台工作设备共享;所述各个节点的各阶向量表示可以在计算不同节点时得到复用;
节点分类单元,配置为,从所述分布式文件***中获取待分类的目标节点的K阶向量表示,将其输入到节点分类模型中,得到对于所述目标节点的分类结果。
9.根据权利要求8所述的装置,还包括:
邻居采样单元,配置为,对于所述第一子图中的任一节点,使用图采样算法从其全部一跳邻居节点中确定N个邻居节点。
10.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-7中任一项所述的方法。
11.一种计算设备,包括存储器和处理器,其中,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-7中任一项所述的方法。
CN202311483982.XA 2023-11-08 2023-11-08 一种分布式节点分类方法及装置 Active CN117218459B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311483982.XA CN117218459B (zh) 2023-11-08 2023-11-08 一种分布式节点分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311483982.XA CN117218459B (zh) 2023-11-08 2023-11-08 一种分布式节点分类方法及装置

Publications (2)

Publication Number Publication Date
CN117218459A CN117218459A (zh) 2023-12-12
CN117218459B true CN117218459B (zh) 2024-01-26

Family

ID=89051501

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311483982.XA Active CN117218459B (zh) 2023-11-08 2023-11-08 一种分布式节点分类方法及装置

Country Status (1)

Country Link
CN (1) CN117218459B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021082681A1 (zh) * 2019-10-29 2021-05-06 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法及装置
WO2021179838A1 (zh) * 2020-03-10 2021-09-16 支付宝(杭州)信息技术有限公司 一种基于异构图神经网络模型进行预测的方法和***
CN113867983A (zh) * 2021-09-14 2021-12-31 杭州海康威视数字技术股份有限公司 图数据挖掘方法、装置、电子设备及机器可读存储介质
CN116681104A (zh) * 2023-05-11 2023-09-01 中国地质大学(武汉) 分布式空间图神经网络的模型建立及实现方法
CN117235032A (zh) * 2023-11-08 2023-12-15 支付宝(杭州)信息技术有限公司 一种分布式链接预测方法及装置
CN117241215A (zh) * 2023-06-13 2023-12-15 南京蜘蛛网络科技有限公司 一种基于图神经网络的无线传感器网络分布式节点协作定位方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021082681A1 (zh) * 2019-10-29 2021-05-06 支付宝(杭州)信息技术有限公司 多方联合训练图神经网络的方法及装置
WO2021179838A1 (zh) * 2020-03-10 2021-09-16 支付宝(杭州)信息技术有限公司 一种基于异构图神经网络模型进行预测的方法和***
CN113867983A (zh) * 2021-09-14 2021-12-31 杭州海康威视数字技术股份有限公司 图数据挖掘方法、装置、电子设备及机器可读存储介质
CN116681104A (zh) * 2023-05-11 2023-09-01 中国地质大学(武汉) 分布式空间图神经网络的模型建立及实现方法
CN117241215A (zh) * 2023-06-13 2023-12-15 南京蜘蛛网络科技有限公司 一种基于图神经网络的无线传感器网络分布式节点协作定位方法
CN117235032A (zh) * 2023-11-08 2023-12-15 支付宝(杭州)信息技术有限公司 一种分布式链接预测方法及装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Cambricon-G: A Polyvalent Energy-Efficient Accelerator for Dynamic Graph Neural Networks;Xinkai Song et al.;IEEE;全文 *
Dynamic depth-width optimization for capsule graph convolutional network;Wu, SW et al.;FRONTIERS OF COMPUTER SCIENCE;全文 *
Optimizing Task Placement and Online Scheduling for Distributed GNN Training Acceleration;Luo, ZY et al.;IEEE;全文 *
图神经网络加速结构综述;李涵等;计算机研究与发展;第58卷(第06期);全文 *
大规模图神经网络研究综述;肖国庆等;http://kns.cnki.net/kcms/detail/11.1826.tp.20230817.0856.002.html;全文 *

Also Published As

Publication number Publication date
CN117218459A (zh) 2023-12-12

Similar Documents

Publication Publication Date Title
CN111382868B (zh) 神经网络结构搜索方法和神经网络结构搜索装置
CN114915630B (zh) 基于物联网设备的任务分配方法、网络训练方法及装置
CN117235032B (zh) 一种分布式链接预测方法及装置
CN110287820B (zh) 基于lrcn网络的行为识别方法、装置、设备及介质
CN111813539B (zh) 一种基于优先级与协作的边缘计算资源分配方法
CN113705811B (zh) 模型训练方法、装置、计算机程序产品及设备
CN115066694A (zh) 计算图优化
CN112580789B (zh) 训练图编码网络、预测交互事件的方法及装置
CN113988464A (zh) 基于图神经网络的网络链路属性关系预测方法及设备
US20230289618A1 (en) Performing knowledge graph embedding using a prediction model
CN115222046A (zh) 神经网络结构搜索方法、装置、电子设备及存储介质
KR102189811B1 (ko) 멀티 홉 이웃을 이용한 컨볼루션 학습 기반의 지식 그래프 완성 방법 및 장치
CN117218459B (zh) 一种分布式节点分类方法及装置
CN117539835A (zh) 一种图数据的分布式缓存方法及装置
CN113674152A (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
CN111258968B (zh) 企业冗余数据清理方法、装置及大数据平台
WO2023179609A1 (zh) 一种数据处理方法及装置
WO2023143570A1 (zh) 一种连接关系预测方法及相关设备
CN117223005A (zh) 加速器、计算机***和方法
CN115048425A (zh) 一种基于强化学习的数据筛选方法及其装置
CN110188219A (zh) 面向图像检索的深度强化去冗余哈希算法
CN115809372B (zh) 基于解耦不变学习的点击率预测模型的训练方法及装置
CN117875520B (zh) 基于动态图时空演化挖掘的公共安全事件预测方法及***
CN113657353B (zh) 公式识别方法、装置、电子设备及存储介质
CN117409209B (zh) 一种多任务感知的三维场景图要素分割与关系推理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant