CN114895985A - 一种面向基于采样的图神经网络训练的数据加载*** - Google Patents

一种面向基于采样的图神经网络训练的数据加载*** Download PDF

Info

Publication number
CN114895985A
CN114895985A CN202210641439.7A CN202210641439A CN114895985A CN 114895985 A CN114895985 A CN 114895985A CN 202210641439 A CN202210641439 A CN 202210641439A CN 114895985 A CN114895985 A CN 114895985A
Authority
CN
China
Prior art keywords
data
nodes
sampling
node
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210641439.7A
Other languages
English (en)
Other versions
CN114895985B (zh
Inventor
熊颖彤
翁楚良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202210641439.7A priority Critical patent/CN114895985B/zh
Publication of CN114895985A publication Critical patent/CN114895985A/zh
Application granted granted Critical
Publication of CN114895985B publication Critical patent/CN114895985B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44568Immediately runnable code
    • G06F9/44578Preparing or optimising for loading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种面向基于采样的图神经网络训练的数据加载***,该数据加载***包括:邻居节点采样器和数据传输器;邻居节点采样器,以深度学习框架Pytorch的Dataloader的输出为输入,利用采样算子采样邻居节点;数据传输器包含分类器、特征聚合器和数据管理器三部分;分类器对邻居节点采样器输出的节点进行分类,分为共享节点和非共享节点;数据管理器在GPU中维持上一个mini‑batch的特征数据,同时提供一种就地更新GPU中特征数据的方式;特征聚合器设计一个高性能的特征聚合算子从CPU获取非共享节点的特征;对于共享节点,数据传输器直接使用维持在GPU中的特征数据。本发明提高了采样效率,减少了不必要的数据传输,提高了数据传输吞吐。

Description

一种面向基于采样的图神经网络训练的数据加载***
技术领域
本发明属于软件开发技术领域,尤其涉及一种面向基于采样的图神经网络训练的数据加载***。
背景技术
随着数据的不断增长,数据间的关系愈加复杂,图神经网络得到了广泛的关注。不同于传统的擅长处理欧式空间数据的深度神经网络和专门处理图数据的传统图计算,图神经网络专注于处理非欧空间数据,将神经网络中的自动微分和传统图计算中的消息传递机制相结合,在图数据处理上具有较好的效果,并成功的应用在实际生产环境中,例如,社交网络、交通预测、推荐***等等。
为了提升图神经网络的学习能力和解决图神经网络在处理大图面临的内存限制问题,基于采样的图神经网络被广泛研究。主流的图采样方式可分为三类:基于节点采样、基于层采样和基于子图采样。然而这些采样方法仅从数学角度考虑,忽略了在***中的运行效率。另一方面,现有的深度学习框架例如Pytorch、TensorFlow等缺乏高效训练图神经网络的能力,学术界和工业界均不断提出图神经网络框架。目前具有代表性的图神经网络框架:DGL(DeepGraphLibrary)、PyG(Pytorch- Geometric)、AliGraph。这些图神经网络框架实现了众多的采样算法和图神经网络模型,为部署设计图神经网络模型带来了便利。通常情况下,实际生活中的图数据往往具有较大的规模,图神经网络框架面临着巨大的计算和存储压力。基于采样的图神经网络很好的缓解了大规模图数据带来的存储压力。在网络训练之前,基于采样的图神经网络限制聚合邻居节点的范围以此减少图数据的规模,从而缓解了存储压力。考虑到图数据中普遍存在的邻居***问题,图神经网络的网络结构相比于深度神经网络较小,同时随着GPU的算力不断增强,数据加载包括数据传输成为了图神经网络训练过程中的瓶颈。在分布式环境下,数据加载瓶颈愈加严重。
数据加载瓶颈问题增加了图神经网络端到端的训练时间,降低了整个图神经网络***的效率,无法充分利用GPU资源。为了提高数据加载效率,现有的部分技术针对图神经网络中的数据加载进行了优化。例如,DGL支持在GPU上的采样以此加速采样,然而此种采样方法需要将整个图加载到GPU,扩展性受到GPU显存容量的限制;Pytorch-Direct设计了一种CPU和GPU统一的张量类型,利用零拷贝技术直接从CPU端获取数据,忽略了不同mini-batch之间存在冗余的数据传输;Pagraph提前在GPU端缓存度高的节点减少CPU和GPU之间冗余的数据传输,而占用了部分珍贵的GPU显存资源;RBD充分利用不同mini-batch之间的共享数据,减少了冗余的数据传输,而对于未被共享的节点数据仍然需要从CPU端获取,同样存在一定的数据传输开销;Torch-quiver采用缓存热数据的方式提升数据传输效率,占用了额外的GPU显存资源。
综上所述,数据加载成为提升图神经网络训练效率的最大限制性因素。现有的技术在采样、数据传输分别进行了优化,但是均存在其他方面的缺点,图神经网络训练中的数据加载需要进一步优化。
发明内容
本发明结合图采样特性、数据传输特性以及图数据特征,实现了一个高效、易用、基于采样的图神经网络的数据加载***,目的是解决图神经网络训练过程中面临的数据加载(图采样和数据传输)瓶颈问题。
为解决上述技术问题,实现本发明目的的具体技术方案是:
一种面向基于采样的图神经网络训练的数据加载***,该***包括:邻居节点采样器和数据传输器,其中:
所述数据传输器包括分类器、特征聚合器和数据管理器;
所述邻居节点采样器与数据传输器中的分类器相连,利用采样算子采样得到当前mini-batch节点,同时采用一种CSR数组存储策略减少采样过程中的数据传输时延;
所述数据传输器中的分类器分别与邻居节点采样器和数据管理器相连,将邻居节点采样器采样得到的节点进行分类,分为共享节点和非共享节点;
所述数据传输器对不同类节点进行不同的处理:对于共享节点,直接使用GPU中维持的特征数据,对于非共享节点,利用特征聚合器获取其特征数据;
所述数据传输器中的数据管理器在GPU中维持一块可变大小的内存空间保存上一个mini-batch的特征数据并在每次训练迭代过程中就地更新该内存空间中的特征数据。
所述采样算子以每个节点的采样任务为基本单位开展并行采样,输出采样后得到的所有节点,形成一个mini-batch;
所述CSR数组存储策略,是根据CSR数组大小将CSR分别存储于shared memory、global memory和CPU memory中;当CSR数组存放于CPU memory时,邻居节点采样器使用零拷贝进一步减少数据传输时延。
数据传输器中的分类器对邻居节点采样器输出的节点进行分类,采用倒排索引的方式将当前mini-batch中待获取特征数据的节点分为两类:共享节点和非共享节点;
所述分类器对于上一个mini-batch和当前mini-batch的节点建立倒排索引,分别记录节点在两个mini-batch中的索引;根据索引个数将当前mini-batch节点分类为共享节点和非共享节点。
所述数据传输器的特征聚合器,首先利用零拷贝减少数据传输时延,其次将每个节点的特征聚合任务视为并行的基本单位展开并行加速;针对单个节点的特征聚合,内部以特征维度为单位继续开展并行。
所述数据传输器的数据管理器在GPU中维持一块可变大小的内存空间保存上一个mini-batch的特征数据,提供一种就地更新该特征数据的方式;若当前mini-batch的节点数多于上一个mini-batch的节点数,数据管理器对GPU中维持的内存空间扩容,反之则移除多余的空间;
所述就地更新内存空间的方式在于将非共享节点的索引进行排序,再分别替换GPU中内存空间中的特征数据。
本发明的有益效果是,通过上述一种面向基于采样的图神经网络数据加载***,减少了数据加载时延,提升了***的整体性能。
附图说明
图1是本发明实施例的数据加载***框图;
图2是本发明实施例的数据加载***使用流程图;
图3是本发明实施例的数据加载***中邻居节点采样器流程图;
图4是本发明实施例的数据加载***中数据传输器中处理不同类型数据流程图;
图5是本发明实施例的数据加载***中数据传输器中分类器流程图;
图6是本发明实施例的数据加载***中特征聚合流程图。
具体实施方式
下面结合实施例及附图,详细描述本发明的技术方案。
本发明的一种面向基于采样的图神经网络训练的数据加载***,结合图采样、数据传输特性以及图数据特征对数据加载进行优化。
一种面向基于采样的图神经网络的数据加载***,分别针对图采样和数据传输进行优化以此减少数据加载时延。所述***包括邻居节点采样器和数据传输器。邻居节点采样器,利用GPU强大的并行计算能力,并提供一种CSR存放策略提升采样速度;数据传输器包括分类器、特征聚合器和数据管理器,利用不同mini-batch之间存在重复采样节点的特性,分类器将当前mini-batch的节点分为共享节点和非共享节点;对于共享节点,无需重复传输其特征数据;对于非共享节点,利用特征聚合器从CPU获取特征数据;数据管理器在GPU中维持一块可变大小的内存空间保存上一个mini-batch的特征数据并采用就地更新的方式更新GPU中的特征数据;所述***提供简单易用的操作接口,包括sampler(采样)、重载操作符获取节点特征。
所述***中的邻居节点采样器将图采样过程从CPU迁移到GPU,在GPU端设计了一个高效的采样算子,利用GPU的高度并行性掩盖随机访存时延。采样算子以深度学习框架Pytorch中的Dataloader生成的种子节点为输入,输出对上述种子节点进行采样后的所有节点,形成一个mini-batch。采样算子以每个节点的采样任务为基本单位开展并行采样。邻居节点采样器提供一种CSR数组存储策略:根据CSR数组大小将CSR分别存储于sharedmemory、global memory和CPU memory中。对于CSR数组存放于CPU memory中,邻居节点采样器使用零拷贝技术进一步减少数据传输时延。
所述***中的数据传输器利用分类器将mini-batch中待获取特征数据的节点分为两类:共享节点和非共享节点。对于共享节点,数据传输器直接使用保存在GPU中的特征数据,减少CPU和GPU之间冗余的数据传输;对于非共享节点,数据传输器设计了一个高效的GPU端的特征聚合器,利用GPU的并行性减少从CPU获取特征数据的时延。分类器采用倒排索引的方式将mini-batch中待获取特征数据的节点分为两类。分类器对于上一个mini-batch和当前的mini-batch节点建立倒排索引,分别记录节点在两个mini-batch中的索引。根据索引个数将mini-batch节点分类为共享节点和非共享节点。数据传输器利用数据管理器在GPU中维持一块可变大小的内存空间,提供了一种就地更新该内存空间的方式。当目前mini-batch的节点数多于上一个mini-batch的节点数,数据传输器对GPU中的内存空间扩容,反之则移除多余的空间。所述就地更新内存空间的方式在于将非共享节点的索引进行排序,再分别替换GPU中内存空间中的特征数据。
所述***的使用步骤如下:
步骤A-1:利用Pytorch中的Dataloader生成mini-batch的种子节点;
步骤A-2:邻居节点采样器对种子节点进行高速采样,采样生成的全部邻居节点以及种子节点构成一个mini-batch;
步骤A-3:数据传输器获取mini-batch中节点的特征数据;
步骤A-4:开始训练。
实施例
本实施例的数据加载***,其框图参阅图1。实施例***中包含两个关键组件,邻居节点采样器和数据传输器。邻居节点采样器,采用CSR存放策略以及为每个节点的采样任务分配一个warp的GPU线程的方式,提高图采样的效率。数据传输器针对不同mini-batch之间存在共享数据的特性,减少了CPU到GPU之间冗余的数据传输,并针对非共享节点,设计了一个高效的特征聚合器,进一步提高数据传输的吞吐。实施例***提供简单易用的操作接口,包括sampler(采样)、重载操作符来获取节点特征,使得用户只需修改少量代码即可运行所述***并获得***性能提升。本发明实施例***的流程见图2,其包括如下步骤:
步骤101:利用深度学习框架Pytorch中的Dataloader生成种子节点;
步骤102:邻居节点采样器接收种子节点,生成采样后的节点,发送给数据传输器中的分类器;
步骤103:分类器依据收到的mini-batch节点与上一个mini-batch节点进行比较并分类,分类成共享节点和非共享节点;
步骤104:数据管理器在GPU中维持一块可变大小的空间保存上一个mini-batch的特征数据;
步骤105:数据传输器对于共享节点,直接使用保存在GPU中的特征数据;对于非共享节点,利用特征聚合器从CPU端获取数据;
步骤106:数据管理器就地更新维持在GPU中的特征数据;
步骤107:数据管理器将获取到的mini-batch的特征数据发送给模型,进行训练。
本发明实施例的邻居节点采样器,目的用于提高采样效率。邻居节点采样器将采样从CPU迁移到GPU,设计了一个高效的采样算子,利用GPU的高度并行性掩盖随机访存的时延。采样算子具体设计原则如下:对于一批种子节点而言,将每个节点的采样任务视为一个基本任务,每个warp负责一个基本任务,即一个节点的采样任务。在同一个warp中的每个线程分别负责采样种子节点的一个邻居。该设计使得同一个warp中的线程能够连续访存,从而减少GPU端发起的内存访问事物的数目,减少运行开销。由于图的结构信息通常以CSR或者CSC的方式存储以减少存储需求,图采样过程中每个线程需要访问CSR数组获得邻居节点。邻居节点采样器提出一种基于CSR的存放策略进一步减少采样时延。具体的,基于CSR的存放策略如下:
1、当size(CSR)<= size(sharedmemory):将CSR数组存放于sharedmemory中。此种方法访存时延最低。
2、当size(CSR) > size(shared memory) 同时 size(CSR) <= size(globalmemory):将CSR数组存放于global memory中。此时CSR依旧保存在GPU端,时延比从CPU端拉取数据更低。
3、当size(CSR) > size(global memory):此时GPU无法存放CSR数组,采用零拷贝的方式从CPU获取图结构信息,相比于直接从CPU端获取数据,降低了数据传输的时延。
本实施例邻居节点采样器的流程图如图3所示,其包括以下步骤:
步骤201:在***开始运行之前,计算CSR数组大小,依据CSR数组存放策略决定CSR的存放位置;
步骤202:对于输入的一批种子节点,每个节点分配一个warp;
步骤203:对于单个节点,warp中的每个线程负责采样其对应的种子节点的邻居节点;
步骤204:采样完成,形成mini-batch节点编号。
实施例中的数据传输器,目的用于提高数据传输的吞吐。数据传输器包含三部分:分类器、特征聚合器和数据管理器。数据管理器在GPU维持一块空间来保存上一个mini-batch的特征数据并在每次训练迭代过程中就地更新特征数据;分类器将要获取特征数据的节点分为两类。第一类为不同mini-batch之间共享的节点,数据传输器直接复用保存在GPU中的此类节点的特征数据,减少CPU到GPU之间的数据传输量。第二类为不同mini-batch之间非共享的节点,数据传输器设计了一个高效的特征聚合器减少从CPU获取这类节点的特征数据的时延。图4展示了本实施例数据传输器处理不同类型数据的流程,具体包括如下步骤:
步骤301:分类器对mini-batch节点进行分类;
步骤302:对于共享节点,数据传输器直接使用依旧保存在GPU上的数据;
步骤303:对于非共享节点,数据传输器利用特征聚合器从CPU端获取特征数据。
分类器采用倒排索引对两个不同mini-batch的节点进行分类,该倒排索引记录每个节点在两个相邻mini-batch中的索引。如果节点的倒排索引包含两个索引位置,则将其归类为共享节点;否则归类为非共享节点。在倒排索引的过程中,分类器会记录下共享节点的索引以及出现在两个mini-batch中非共享节点的索引,用于接下来的特征聚合过程。图5展示了本实施例数据传输器中分类器的实现流程图,具体包括如下步骤:
步骤401:为上一个mini-batch中的节点和当前mini-batch的节点建立倒排索引;
步骤402:根据倒排索引的数目对全部节点进行分类;具有两个索引的节点归类为共享节点,其余节点归类为非共享节点;
步骤403:记录共享节点的索引和非共享节点在两个mini-batch中的索引。
特征聚合器实现了一个高效的特征聚合算子。该聚合算子的主要设计思想如下:首先利用零拷贝技术将特征数据保存在CPU端的锁页内存中,减少在CPU端的一次内存搬运。对于待获取特征数据的节点,将每个节点的特征聚合视为一个基本任务,每个warp负责一个基本任务,即一个节点的特征聚合任务。在同一个warp中的每个线程分别负责聚合一个维度的特征数据。该设计使得同一个warp中的线程能够连续访存,从而进一步的减少访存时延,减少运行开销。由于不同mini-batch可能会存在节点数目不一致的情况,数据管理器在GPU中维护一个可动态调整大小的存放节点特征数据的数组,采用就地更新的方式更新在GPU中的节点特征数组。为实现就地更新的方式,数据管理器首先对处于两个mini-batch中的非共享节点的索引进行排序,在mini-batch变小的情况下,将原先mini-batch中后面多余的节点特征数据移除。排序后的索引能保证顺利有效的移除掉mini-batch中多余的节点特征数据。对于mini-batch变大的情况,将mini-batch数组进行扩容。上述就地更新方式使得最终获取到的mini-batch特征数据的顺序与最初的mini-batch节点顺序不一致,因此在获取特征数据后,需要将mini-batch的标签数据进行重排,使得标签数组和mini-batch特征数组相对应。本实施例特征聚合(特征聚合器和数据管理器配合使用)的流程图如图6所示,具体包括如下步骤:
步骤501:将CPU端特征数据分配至锁页内存;
步骤502:排序mini-batch中非共享节点的索引;
步骤503:如果当前mini-batch的节点数大于上一个mini-batch的节点数,对GPU端的mini-batch数组扩容;
步骤504:对于每个非共享节点,分别分配一个warp负责特征聚合;
步骤505:在同一个warp中的每个线程负责一个维度的特征聚合;
步骤506: 替换非共享节点特征数据;
步骤507: 非共享节点特征替换结束后,如果当前mini-batch节点的数目小于上一个mini-batch的节点数目,则移除GPU中mini-batch数组中多余的节点数据。

Claims (5)

1.一种面向基于采样的图神经网络训练的数据加载***,其特征在于,包括:
邻居节点采样器和数据传输器,其中:
所述数据传输器包括分类器、特征聚合器和数据管理器;
所述邻居节点采样器与数据传输器中的分类器相连,利用采样算子采样得到当前mini-batch节点,同时采用一种CSR数组存储策略减少采样过程中的数据传输时延;
所述数据传输器中的分类器分别与邻居节点采样器和数据管理器相连,将邻居节点采样器采样得到的节点进行分类,分为共享节点和非共享节点;
所述数据传输器对不同类节点进行不同的处理:对于共享节点,直接使用GPU中维持的特征数据,对于非共享节点,利用特征聚合器获取其特征数据;
所述数据传输器中的数据管理器在GPU中维持一块可变大小的内存空间保存上一个mini-batch的特征数据并在每次训练迭代过程中就地更新该内存空间中的特征数据。
2.如权利要求1所述的一种面向基于采样的图神经网络训练的数据加载***,其特征在于,所述采样算子以每个节点的采样任务为基本单位开展并行采样,输出采样后得到的所有节点,形成一个mini-batch;
所述CSR数组存储策略,是根据CSR数组大小将CSR分别存储于share dmemory、globalmemory和CPU memory中;当CSR数组存放于CPU memory时,邻居节点采样器使用零拷贝进一步减少数据传输时延。
3.如权利要求1所述的一种面向基于采样的图神经网络训练的数据加载***,其特征在于,数据传输器中的分类器对邻居节点采样器输出的节点进行分类,采用倒排索引的方式将当前mini-batch中待获取特征数据的节点分为两类:共享节点和非共享节点;
所述分类器对于上一个mini-batch和当前mini-batch的节点建立倒排索引,分别记录节点在两个mini-batch中的索引;根据索引个数将当前mini-batch节点分类为共享节点和非共享节点。
4.如权利要求1所述的一种面向基于采样的图神经网络训练的数据加载***,其特征在于,所述数据传输器的特征聚合器,首先利用零拷贝减少数据传输时延,其次将每个节点的特征聚合任务视为并行的基本单位展开并行加速;针对单个节点的特征聚合,内部以特征维度为单位继续开展并行。
5.如权利要求1所述的一种面向基于采样的图神经网络训练的数据加载***,其特征在于,所述数据传输器的数据管理器在GPU中维持一块可变大小的内存空间保存上一个mini-batch的特征数据,提供一种就地更新该特征数据的方式;若当前mini-batch的节点数多于上一个mini-batch的节点数,数据管理器对GPU中维持的内存空间扩容,反之则移除多余的空间;
所述就地更新内存空间的方式在于将非共享节点的索引进行排序,再分别替换GPU中内存空间中的特征数据。
CN202210641439.7A 2022-06-08 2022-06-08 一种面向基于采样的图神经网络训练的数据加载*** Active CN114895985B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210641439.7A CN114895985B (zh) 2022-06-08 2022-06-08 一种面向基于采样的图神经网络训练的数据加载***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210641439.7A CN114895985B (zh) 2022-06-08 2022-06-08 一种面向基于采样的图神经网络训练的数据加载***

Publications (2)

Publication Number Publication Date
CN114895985A true CN114895985A (zh) 2022-08-12
CN114895985B CN114895985B (zh) 2023-06-09

Family

ID=82727683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210641439.7A Active CN114895985B (zh) 2022-06-08 2022-06-08 一种面向基于采样的图神经网络训练的数据加载***

Country Status (1)

Country Link
CN (1) CN114895985B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116011551A (zh) * 2022-12-01 2023-04-25 中国科学技术大学 优化数据加载的图采样训练方法、***、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111324630A (zh) * 2020-03-04 2020-06-23 中科弘云科技(北京)有限公司 基于mpi的神经网络架构搜索并行化方法和设备
CN111400560A (zh) * 2020-03-10 2020-07-10 支付宝(杭州)信息技术有限公司 一种基于异构图神经网络模型进行预测的方法和***
CN112906982A (zh) * 2021-03-22 2021-06-04 哈尔滨理工大学 一种基于gnn-lstm结合的网络流量预测方法
US20210389491A1 (en) * 2020-06-12 2021-12-16 Saudi Arabian Oil Company Methods and systems for generating graph neural networks for reservoir grid models
CN113867983A (zh) * 2021-09-14 2021-12-31 杭州海康威视数字技术股份有限公司 图数据挖掘方法、装置、电子设备及机器可读存储介质
CN114048847A (zh) * 2021-11-16 2022-02-15 中国人民解放军国防科技大学 一种图神经网络数据缓存方法、装置、设备及存储介质
CN114048816A (zh) * 2021-11-16 2022-02-15 中国人民解放军国防科技大学 一种图神经网络数据采样方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111324630A (zh) * 2020-03-04 2020-06-23 中科弘云科技(北京)有限公司 基于mpi的神经网络架构搜索并行化方法和设备
CN111400560A (zh) * 2020-03-10 2020-07-10 支付宝(杭州)信息技术有限公司 一种基于异构图神经网络模型进行预测的方法和***
WO2021179838A1 (zh) * 2020-03-10 2021-09-16 支付宝(杭州)信息技术有限公司 一种基于异构图神经网络模型进行预测的方法和***
US20210389491A1 (en) * 2020-06-12 2021-12-16 Saudi Arabian Oil Company Methods and systems for generating graph neural networks for reservoir grid models
CN112906982A (zh) * 2021-03-22 2021-06-04 哈尔滨理工大学 一种基于gnn-lstm结合的网络流量预测方法
CN113867983A (zh) * 2021-09-14 2021-12-31 杭州海康威视数字技术股份有限公司 图数据挖掘方法、装置、电子设备及机器可读存储介质
CN114048847A (zh) * 2021-11-16 2022-02-15 中国人民解放军国防科技大学 一种图神经网络数据缓存方法、装置、设备及存储介质
CN114048816A (zh) * 2021-11-16 2022-02-15 中国人民解放军国防科技大学 一种图神经网络数据采样方法、装置、设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
李沐凡: "动态异构图神经网络及其在推荐***中的应用", 《中国优秀硕士学位论文全文数据库信息技术辑》 *
陈波冯;李靖东;卢兴见;沙朝锋;王晓玲;张吉: "基于深度学习的图异常检测技术综述", 《计算机研究与发展》 *
黄皓 李志方 王嘉伦 翁楚良: "基于GPU的关系型流处理***实现与优化", 《华东师范大学学报(自然科学版)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116011551A (zh) * 2022-12-01 2023-04-25 中国科学技术大学 优化数据加载的图采样训练方法、***、设备及存储介质
CN116011551B (zh) * 2022-12-01 2023-08-29 中国科学技术大学 优化数据加载的图采样训练方法、***、设备及存储介质

Also Published As

Publication number Publication date
CN114895985B (zh) 2023-06-09

Similar Documents

Publication Publication Date Title
CN110134636B (zh) 模型训练方法、服务器和计算机可读存储介质
US11354054B2 (en) Compaction via an event reference in an ordered event stream storage system
CN111460024B (zh) 基于Elasticsearch的实时业务***
CN111447083A (zh) 动态带宽和不可靠网络下的联邦学习架构及其压缩算法
CN110351336B (zh) 一种基于docker容器的边缘服务迁移方法
CN108280522A (zh) 一种插件式分布式机器学习计算框架及其数据处理方法
CN113391973B (zh) 一种物联网云容器日志收集方法及装置
CN114895985B (zh) 一种面向基于采样的图神经网络训练的数据加载***
CN112558869A (zh) 基于大数据遥感影像缓存方法
Zhang et al. Learning-based data transmissions for future 6G enabled industrial IoT: A data compression perspective
Zhou et al. TSEngine: Enable efficient communication overlay in distributed machine learning in WANs
CN113672583B (zh) 基于存储与计算分离的大数据多数据源分析方法及***
CN108536823B (zh) 一种物联网感知大数据的缓存设计和查询方法
CN114969083B (zh) 一种实时数据分析方法及***
Lv et al. A Survey of Graph Pre-processing Methods: From Algorithmic to Hardware Perspectives
CN113282568B (zh) 一种iot大数据实时时序流分析应用技术方法
CN111897784B (zh) 一种面向键值存储的近数据计算集群***
Yu et al. MoESys: A Distributed and Efficient Mixture-of-Experts Training and Inference System for Internet Services
An et al. Evaluating parallel R-tree implementations on a network of workstations
CN113961562A (zh) 基于海量数据的物联网数据存储处理分析***
CN113360576A (zh) 一种基于Flink Streaming的电网海量数据实时处理方法及装置
CN113051091A (zh) 一种进程级缓存数据同步方法和装置
WO2017186049A1 (zh) 信息处理方法和装置
CN115914410B (zh) 基于数据驱动的数字孪生仿真方法
Li et al. Application and performance optimization of MapReduce model in image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant