CN111178515A - 图神经网络的节点编码方法及节点编码终端、电子设备 - Google Patents

图神经网络的节点编码方法及节点编码终端、电子设备 Download PDF

Info

Publication number
CN111178515A
CN111178515A CN202010277812.6A CN202010277812A CN111178515A CN 111178515 A CN111178515 A CN 111178515A CN 202010277812 A CN202010277812 A CN 202010277812A CN 111178515 A CN111178515 A CN 111178515A
Authority
CN
China
Prior art keywords
graph neural
sampling
neural network
nodes
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010277812.6A
Other languages
English (en)
Inventor
刘世林
张学锋
康青杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Business Big Data Technology Co Ltd
Original Assignee
Chengdu Business Big Data Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Business Big Data Technology Co Ltd filed Critical Chengdu Business Big Data Technology Co Ltd
Priority to CN202010277812.6A priority Critical patent/CN111178515A/zh
Publication of CN111178515A publication Critical patent/CN111178515A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明实施例公开了一种图神经网络的节点编码方法及节点编码终端、电子设备,所述方法包括:确定所述至少两个图神经网络之间的特征交集,所述特征交集具有若干个节点;对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后均获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集中所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。本发明弥补了联邦学习在图神经网络数据上的应用的空缺。相比于仅用一方的图神经网络数据,本发明能利用更多的图信息,编码出更加客观的节点表征。

Description

图神经网络的节点编码方法及节点编码终端、电子设备
技术领域
本发明属于数据处理技术领域,具体的,本发明涉及一种图神经网络的节点编码方法、节点编码终端、电子设备。
背景技术
联邦学习是指在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算节点之间开展高效率的机器学习。
但是本公开的发明人在技术研究过程中发现,现有技术中至少存在以下问题:无论图像、文本还是表格化的规整数据,当下联邦学习所应用的样本的特征都是相对独立完整的,即样本之间不存在耦合。但是,当联邦学习处理的数据为网络数据时,由于网络数据中各个节点相互连接,节点不仅是分析的样本,而且也是相关节点的特征。节点之间相互耦合,其连接划定了节点的表征。而目前联邦学习数据处理中,各方的数据相互保密,若仅用一方的局部网络构建节点表征,必然失真。
发明内容
为了解决现有技术存在的若仅用一方的局部网络构建节点表征会导致失真的技术问题,本发明公开的实施例提供了一种图神经网络的节点编码方法、节点编码终端、电子设备。
为了达到上述目的,本申请的实施例所采用的技术方案如下:
一种图神经网络的节点编码方法,所述图神经网络为至少两个,所述节点编码方法包括:
确定所述至少两个图神经网络之间的特征交集,所述特征交集具有若干个节点;
对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集的所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。
所述至少两个图神经网络包括第一图神经网络和第二图神经网络,所述对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后均获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集的所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码的步骤,包括:
对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样,获取采样路径,并根据所述采样路径迭代更新所述任一者中所有节点的向量表征;
根据所述任一者的特征交集中所有节点的向量表征初始化所述第一图神经网络和第二图神经网络两者中的另一者的特征交集中的所有节点,得到特征交集中所有节点的向量表征;
对所述第一图神经网络和第二图神经网络两者中的所述另一者执行路径采样,获取采样路径,并根据所述采样路径迭代更新所述另一者中所有节点的向量表征;以及
根据所述另一者的特征交集中的所有节点的向量表征初始化所述任一者的特征交集中所有节点的向量表征,并返回对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样的步骤,直至编码结束。
在首次对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样前,使用随机值初始化所述任一者中特征交集中的所有节点,得到所有节点的向量表征的初始值。
所述执行路径采样,获得采样路径包括:
于所述第一图神经网络或第二图神经网络中,通过随机游走的方式执行路径采样若干次,得到若干条采样路径;以及
记录所有采样路径,并将所述采样路径输出为采样路径文本。
所述于所述第一图神经网络或第二图神经网络中,通过随机游走的方式执行路径采样若干次,得到若干条采样路径的步骤,包括:
确定路径起点,所述路径起点为第一图神经网络或第二图神经网络中任一节点;以及
于所述第一图神经网络或第二图神经网络中,通过随机游走的方式执行路径采样;返回确定所述路径起点步骤,直至路径采样结束。
所述根据所述采样路径迭代更新所述任一者中所有节点的向量表征的步骤,以及所述根据所述采样路径迭代更新所述另一者中所有节点的向量表征的步骤,均包括:
获取所述采样路径文本和所述节点的向量表征;以及
将所述采样路径文本和所述节点的向量表征发送至word2vec模型训练,迭代更新所述所有节点的向量表征。
第一图神经网络和第二图神经网络中其中一者具有所述节点的真实标签。
一种图神经网络的节点编码终端,包括:
接收单元,用于接收至少两个图神经网络;
获取单元,用于确定所述至少两个图神经网络之间的特征交集,所述特征交集具有若干个节点;以及
编码单元,用于对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集的所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。
一种电子设备,包括:
处理器;以及
存储器,用于存储计算机程序指令;
其中,当所述计算机程序由所述处理器加载并运行时,所述处理器执行如前所述的图神经网络的节点编码方法。
与现有技术相比,本公开的实施例具有以下有益效果:
在进行联邦学习的至少2个图神经网络中,通过对方图神经网络的信息,辅助调整特征交集中节点的向量表征。并将特征交集中的节点作为媒介,通过从对方图神经网络习得的节点向量表征,对特征交集中的节点进行特殊的初始化,从而达到信息交流的目的。通过信息交流后,基于多方数据对各方节点进行编码,且该编码得到的节点的编码表征也具有较高的一致性,同时节点的向量表征也更加客观。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一个实施例的节点编码方法应用场景的***构架图;
图2是本发明的一个实施例的节点编码方法的流程图;
图3为本发明的一个实施例的步骤S200的具体流程示意图;
图4为本发明的一个实施例的两个图神经网络示意图;
图5为本发明的一个实施例的节点编码终端的示意图;
图6为本发明的一个实施例的电子设备框架图;
图7为本发明的一个实施例的服务器框架图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
“机器学习”是人工智能的核心研究领域之一,而如何在保护数据隐私、满足合法合规要求的前提下继续进行机器学习,是机器学习领域现在关注的一个趋势,在此背景下,人们研究提出了“联邦学习”的概念。联邦学习利用技术算法加密建造的模型,联邦双方在不用给出己方数据的情况下,也可进行模型训练得到模型参数,联邦学习通过加密机制下的参数交换方式保护用户数据隐私,数据和模型本身不会进行传输,也不能反猜对方数据,因此在数据层面不存在泄露的可能,也不违反更严格的数据保护法案如《通用数据保护条例》(General Data Protection Regulation,GDPR)等,能够在较高程度保持数据完整性的同时,保障数据隐私。目前,业界较常见的联邦学习有:横向联邦学习和纵向联邦学习。横向联邦学习是建模时各方所用的数据特征维度相同,但各自拥有不同的样本和标签。纵向联邦学习里则是各方拥有一些可以对应的样本,但各自所掌握的特征维度不同。但是,当联邦学习处理的数据为网络数据时,由于网络数据中各个节点相互连接,节点不仅是分析的样本,而且也是相关节点的特征。节点之间相互耦合,其连接划定了节点的表征。而目前联邦学习数据处理中,各方的数据相互保密,若仅用一方的局部网络构建节点表征,必然失真。为了解决这一问题,提出本发明基于联邦学习的模型参数训练方法的各个实施例。
在本发明的实施例中,终端、电子设备和存储介质均可应用于图1所示的***构架中,该***构架中包括至少一个终端,每一个终端为一个数据拥有方。至少一个终端间通过建立联邦学习模型,彼此学习。
终端可以是移动电话、智能电话、笔记本电脑、数字广播接收器、个人数字助理(PDA)、平板电脑(PAD)等用户设备(User Equipment,UE)、手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其它处理设备、移动台(Mobile station,MS)等。
其中,每个数据拥有方各自所持有的样本数据为图神经网络数据,且每个数据拥有方持有的样本数据为各自的业务***运行产生的数据,其可以用一个网络来表示。网络中每一个节点彼此独立存在,同时又相互耦合。同时,某些样本数据可能还包含标签数据。
参阅图1和图4,下面以该***包含两个数据拥有方,即第一终端的第一图神经网络A和第二终端的第二图神经网络B为例进行节点编码。其中,第一图神经网络A和第二图神经网络B的样本数据维度不同,特征维度有部分重叠。第一图神经网络A为第一终端运行产生的图神经网络,包括M、N、J、E、H、L、K、P、I、Q以及R等相互耦接的节点,第二图神经网络B为第二终端运行产生的图神经网络,包括A、B、C、D、E、F、G、H、J以及O等相互耦接的节点。且第一图神经网络A和第二图神经网络B存在特征交集,即节点J、E和H。其中,第一图神经网络A和第二图神经网络B中其中一者具有所述节点的真实标签。
图2为本发明实施例提供的一种图神经网络的节点编码方法的流程示意图,所述方法包括:
步骤S100:确定第一图神经网络和第二图神经网络的特征交集,所述特征交集具有若干个节点。
在执行该步骤之前,第一终端和第二终端建立通信连接。由此,第一终端和第二终端分别根据第一图神经网络A和第二图神经网络B确定第一图神经网络A和第二图神经网络B的特征交集,即节点J、E和H(仅针对于图4所示的应用场景)。
步骤S200:对第一图神经网络和第二图神经网络交替执行路径采样若干次,且每次路径采样后均获取相应的采样路径,并根据所述采样路径迭代更新第一图神经网络和第二图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集中所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。
步骤S200即为编码的主要步骤,该步骤中是将纵向联邦学习应用于图神经网络的训练。通过对方图神经网络的信息,辅助调整特征交集中节点的向量表征。并将特征交集中的节点作为媒介,通过从对方图神经网络习得的节点向量表征,对特征交集中的节点进行特殊的初始化,从而达到信息交流的目的。通过信息交流后,基于多方数据对各方节点进行编码,且该编码得到的节点的编码表征也具有较高的一致性,同时节点的向量表征也更加客观。
该步骤中,第一终端和第二终端可通过第三终端交替采样两者的图神经网络,然后训练被执行路径采样操作的相应图神经网络中特征交集中的节点的向量表征,并更新迭代另一图神经网络中特征交集中的相应的节点的特征向量。
值得注意的是,在第一终端和第二终端的数据交互未违反法律的前提下,第一终端和第二终端可不依赖第三终端执行步骤200。此时,本发明实施例提供的节点编码方法省略了相应的数据交互中数据加密的环节,将全部算力投入到了模型的训练上,从而相较于一般的联邦学习,效率更高。
可选的,参阅图3,步骤S200具体包括以下步骤:
步骤S201:对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样,获取采样路径,并根据所述采样路径更新所述任一者中所有节点的向量表征。
该步骤中,将执行路径采样针对的图神经网络作为(或称之为)活跃网络。活跃网络的选择并不限制,可以是第一图神经网络A和第二图神经网络B两者中的任一者。例如,将第二图神经网络B作为活跃网络,从H出发采样得到其中一条路径:H -> D -> C -> B ->A,还可以得到路径:H -> D -> E ,或者从J出发得到其中一条路径:J -> O 。然后根据采样的这些路径获得的信息更新迭代第二图神经网络B中所有节点的向量表征。
可选的,为了可以使得路径采集搜集的信息更可能的多,所述步骤201包括以下步骤:
步骤S2011:于所述第一图神经网络或第二图神经网络中,通过随机游走的方式执行路径采样若干次,直至路径采样结束。路径采样结束的确认可以是采样次数达到设定阈值,也可以是活跃网络中的每个节点(孤立节点除外)在至少一条路径中出现过。
该步骤中,即于活跃网络中,不预先限定路径采样,在采集过程中,随机游走得到一条采样路径。采样路径的长度也不加以限制。例如,将第二图神经网络B作为活跃网络,从H出发沿节点间的耦接关系采样得到一条路径:H -> D -> G -> C。容易理解的,虽然是随机游走,但是每次路径采样所获得的采样路径不同。
具体的,所述步骤S2011包括以下步骤:
步骤S20111:确定路径起点,所述路径起点为活跃网络中的任一节点。
以任意节点为起点,获得的采样路径中为了包含特征交集中的所有节点,可能需要采样的路径量大,因此,作为优选实施方式,可以直接以特征交集中的任一节点为起点,以此来减小采样量。
步骤S20112:于所述活跃网络(第一图神经网络或第二图神经网络)中,通过随机游走的方式执行路径采样。
为了兼顾采样得到的路径中包含所有的节点,因此,在本步骤中,宜基于同一个起点采样完所有路径。例如,基于起点H:路径H -> D -> G -> C,路径H -> D -> C -> B ->A,等等。
返回步骤S20111,循环执行步骤S20111-S20112,且每次循环确定一个新的路径起点,直至完成路径采样。
需要说明的是,进行路径采样时,期望获得的路径中包含所有的节点,以便于对网络中所有的节点更新向量表征。但是请参阅图4,第一图神经网络中的节点H为孤立节点,其与任何一点节点都没有耦接关系,因此获得的所有路径中都不会有节点H,这在实际应用中是存在的,也是被允许的,孤立节点的存在也不影响本发明编码。某网络中存在孤立节点,虽然该节点的向量表征不会在该网络中更新,但是当切换活跃网络后,该节点的向量表征会在新的活跃网络中得到更新。
如步骤S2012:记录所有采样路径,并将所有采样路径输出为采样路径文本,更新活跃网络(所述任一者)中所有节点的向量表征。
本步骤中,具体地,将所述采样路径文本和所述节点的向量表征输入word2vec模型训练,迭代更新所有节点的向量表征。
即在该步骤中将前述步骤中的采样路径文本和需要更新迭代的节点的向量表征一起发送到word2vec模型,通过word2vec训练出各个节点的新的向量表征,并使用新的向量表征替换各个节点的旧的向量表征。
步骤202:根据所述任一者的特征交集中所有节点的向量表征初始化所述第一图神经网络和第二图神经网络两者中的另一者的特征交集中的所有节点,得到特征交集中所有节点的向量表征。
该步骤中,即切换活跃网络,并使用前一步训练出来的特征交集中节点的向量表征来初始化切换后的活跃网络中特征交集的所有节点,即通过从对方网络习得的节点表征,对相应节点表征进行特殊的初始化,达到信息交流的目的。
例如,更新完第二图神经网络B中的节点J、E和H的向量表征后,在次步骤中,第三终端将信息发送给第一终端,或者第一终端直接从第二终端接收到更新信息后,第一终端主动对第一图神经网络A中的节点J、E和H的向量表征进行同步更新。
步骤203:对所述第一图神经网络和第二图神经网络两者中的所述另一者执行路径采样,获取一批采样路径,并根据所述采样路径更新所述另一者中所有节点的向量表征。
在前一步将第一图神经网络中的节点J、E和H的向量表征进行同步更新后,第三终端或者第一终端基于更新后的第一图神经网络进行路径采样。路径采样以及节点的向量表征更新在前文已经详细叙述,此处不再赘述。
步骤204:根据所述另一者的特征交集中所有节点的向量表征初始化所述任一者的特征交集中所有节点的向量表征,并返回步骤S201,循环执行步骤S201-S204,直至完成编码。
此步骤中,再基于第一图神经网络A对第二图神经网络B中的节点J、E和H进行更新,然后返回对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样的步骤,直至编码结束。
较佳的,步骤201至步骤204循环执行的次数在于步骤201前设定,如循环执行K=18次。
此外,在首次对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样前,使用随机值初始化所述任一者中特征交集中的所有节点,得到所有节点的向量表征的初始值。
参阅图4,在一具体的实施场景中,该方法包括以下步骤:
1、使用随机值,初始化第一图神经网络和第二图神经网络的特征交集中的节点J、E和H,得到最初的节点向量:EjB= Ej0、EeB= Ee0、EhB= Eh0
2、将第二图神经网络B作为活跃网络,在第二图神经网络中,通过随机游走的方式,执行路径采样,得到一批采样路径。
3、将得到的一批采样路径输出为文本,利用word2vec的模型,训练出第二图神经网络B中各个节点的向量表征,并用新的向量更新各个节点的向量表征,即EjB= Ej1、EeB=Ee1、EhB=Eh1
4、切换活跃网络,将第一图神经网络A视为活跃网络,用前一步训练出的特征交集中各节点的向量表征,初始化第一图神经网络的对应节点: EjA =EjB= Ej1、EeA =EeB=Ee1、EhA =EhB=Eh1
5. 将步骤2-5重复k遍, EjA =EjB= EjK、EeA =EeB=EeK、EhA =EhB=EhK。完成节点编码。
本发明主要利用交集中的锚点,作为媒介,通过从对方网络习得的节点表征,对锚点表征进行特殊的初始化,达到信息交流的目的。例如通过b网络的信息,辅助调整锚点的表征,并进一步影响到a网络中的其他节点。在传递信息的同时,也确保了多个网络之间节点表征的一致性。
此处以一个具体的应用为例进一步阐述本发明的优势。在公司与银行方合作评估企业信用时,这种模式就发挥了显著的作用。
公司维护着全量的企业投资网络数据及企业基本信息,并定期执行更新,银行则拥有部分企业的详细的资金流水记录。公司的全量数据可以为合作行提供企业的背景信息,企业的资金流水则能很好地说明企业运作状况。但是庞大的全量数据不易于传输,合作行的资金流水又是机密数据,不可外泄。双方各拥有一套网络,公司的投资网、银行的交易网络。本发明利用深度学习,在投资网络上建模,将网络里的企业信息注入到节点的表征向量中。通过本方案,以共同牵涉的企业作为锚点,把企业基本信息提供给行方的资金流水网络模型,使之可以结合企业基本信息表征,做进一步学习和表征优化。反过来,银行方模型优化后提供的锚点表征,也为公司的投资网络模型提供了部分细节信息,以便对相关节点进行修正。成功实现在***露私密的前提下达到互利共赢。
为便于更好的实施本发明实施例的上述方案,下面还提供用于实施上述方案的相关终端。请参阅图5,本申请的实施例提供一种图神经网络的节点编码终端,包括:
接收单元501,用于接收第一图神经网络和第二图神经网络。
获取单元502,用于确定第一图神经网络和第二图神经网络的特征交集,所述特征交集具有若干个节点。
编码单元503,用于对第一图神经网络和第二图神经网络交替执行路径采样若干次,且每次路径采样后均获取相应的采样路径,并根据所述采样路径迭代更新第一图神经网络和第二图神经网络中所有节点的向量表征,完成节点编码。
此处需要说明的是,本实施例中是以两个图神经网络为例对本发明方法或终端进行阐述,但是容易理解的,本发明各个实施例所述方法或结构,同样适用于两个以上图神经网络的场景。更概括而言,本发明节点编码方法包括步骤:
确定所述至少两个图神经网络之间的特征交集,所述特征交集具有若干个节点;以及
对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集的所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。
本发明图神经网络的节点编码终端,包括:
接收单元,用于接收至少两个图神经网络;
获取单元,用于确定所述至少两个图神经网络之间的特征交集,所述特征交集具有若干个节点;以及
编码单元,用于对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后均获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集中所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。
请参阅图6,本申请的实施例还提供一种电子设备的结构框图,该设备可以是智能手机、平板电脑、笔记本电脑或者台式电脑等。电子设备可能被称为用于终端、便携式终端、台式终端等。
通常,电子设备包括:至少一个处理器301;以及存储器302,用于存储计算机程序指令。
处理器301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(CentralProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器301可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。处理器301还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作,使得图神经网络的节点编码模型可以自主训练学习,提高效率和准确度。
存储器302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器302中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所执行以实现本申请中方法实施例提供的图神经网络的节点编码方法。
在一些实施例中,终端还可选包括有:通信接口303和至少一个***设备。处理器301、存储器302和通信接口303之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与通信接口303相连。具体地,***设备包括:射频电路304、显示屏305和电源306中的至少一种。
通信接口303可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器301和存储器302。在一些实施例中,处理器301、存储器302和通信接口303被集成在同一芯片或电路板上;在一些其他实施例中,处理器301、存储器302和通信接口303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路304包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路304还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏305是触摸显示屏时,显示屏305还具有采集在显示屏305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器301进行处理。此时,显示屏305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏305可以为一个,电子设备的前面板;在另一些实施例中,显示屏305可以为至少两个,分别设置在电子设备的不同表面或呈折叠设计;在再一些实施例中,显示屏305可以是柔性显示屏,设置在电子设备的弯曲表面上或折叠面上。甚至,显示屏305还可以设置成非矩形的不规则图形,也即异形屏。显示屏305可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
电源306用于为电子设备中的各个组件进行供电。电源306可以是交流电、直流电、一次性电池或可充电电池。当电源306包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
图7示出了本申请一个实施例提供的服务器的结构示意图。该服务器用于实施上述实施例中提供的图神经网络的节点编码方法。具体来讲:
所述服务器包括中央处理单元(CPU)401、包括随机存取存储器(RAM)402和只读存储器(ROM)403的***存储器404,以及连接***存储器404和中央处理单元401的***总线405。所述服务器400还包括帮助计算机内的各个器件之间传输信息的基本输入/输出***(I/O***)406,和用于存储操作***413、应用程序414和其他程序模块415的大容量存储设备407。
所述基本输入/输出***406包括有用于显示信息的显示器408和用于用户输入信息的诸如鼠标、键盘之类的输入设备409。其中所述显示器408和输入设备409都通过连接到***总线405的输入输出控制器410连接到中央处理单元401。所述基本输入/输出***406还可以包括输入输出控制器410以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器410还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备407通过连接到***总线405的大容量存储控制器(未示出)连接到中央处理单元401。所述大容量存储设备407及其相关联的计算机可读介质为服务器400提供非易失性存储。也就是说,所述大容量存储设备407可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的***存储器404和大容量存储设备407可以统称为存储器。
根据本申请的各种实施例,所述服务器400还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器400可以通过连接在所述***总线405上的网络接口单元411连接到网络412,或者说,也可以使用网络接口单元411来连接到其他类型的网络或远程计算机***(未示出)。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本发明而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。

Claims (9)

1.一种图神经网络的节点编码方法,所述图神经网络为至少两个,其特征在于,所述节点编码方法包括:
确定所述至少两个图神经网络之间的特征交集,所述特征交集具有若干个节点;
对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集的所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。
2.根据权利要求1所述的图神经网络的节点编码方法,其特征在于,所述至少两个图神经网络包括第一图神经网络和第二图神经网络,所述对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集的所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码的步骤,包括:
对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样,获取采样路径,并根据所述采样路径迭代更新所述任一者中所有节点的向量表征;
根据所述任一者的特征交集中所有节点的向量表征初始化所述第一图神经网络和第二图神经网络两者中的另一者的特征交集中的所有节点,得到特征交集中所有节点的向量表征;
对所述第一图神经网络和第二图神经网络两者中的所述另一者执行路径采样,获取采样路径,并根据所述采样路径迭代更新所述另一者中所有节点的向量表征;
以及根据所述另一者的特征交集中的所有节点的向量表征初始化所述任一者的特征交集中所有节点的向量表征,并返回对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样的步骤,直至编码结束。
3.根据权利要求2所述的图神经网络的节点编码方法,其特征在于,在首次对所述第一图神经网络和第二图神经网络两者中的任一者执行路径采样前,使用随机值初始化所述任一者中特征交集中的所有节点,得到所有节点的向量表征的初始值。
4.根据权利要求2所述的图神经网络的节点编码方法,其特征在于,所述执行路径采样,获得采样路径包括:于所述第一图神经网络或第二图神经网络中,通过随机游走的方式执行路径采样若干次,得到若干条采样路径;以及记录所有采样路径,并将所述采样路径输出为采样路径文本。
5.根据权利要求4所述的图神经网络的节点编码方法,其特征在于,所述于所述第一图神经网络或第二图神经网络中,通过随机游走的方式执行路径采样若干次,得到若干条采样路径的步骤,包括:确定路径起点,所述路径起点为第一图神经网络或第二图神经网络中任一节点;以及
于所述第一图神经网络或第二图神经网络中,通过随机游走的方式执行路径采样;
返回确定所述路径起点步骤,直至路径采样结束。
6.根据权利要求4所述的图神经网络的节点编码方法,其特征在于,所述根据所述采样路径迭代更新所述任一者中所有节点的向量表征的步骤,以及所述根据所述采样路径迭代更新所述另一者中所有节点的向量表征的步骤,均包括:获取所述采样路径文本和所述节点的向量表征;以及将所述采样路径文本和所述节点的向量表征发送至word2vec模型训练,迭代更新所述所有节点的向量表征。
7.根据权利要求1所述的图神经网络的节点编码方法,其特征在于,第一图神经网络和第二图神经网络中其中一者具有所述节点的真实标签。
8.一种图神经网络的节点编码终端,其特征在于,包括:接收单元,用于接收至少两个图神经网络;获取单元,用于确定所述至少两个图神经网络之间的特征交集,所述特征交集具有若干个节点;以及编码单元,用于对所述至少两个图神经网络交替执行路径采样若干次,且每次路径采样后获得相应的采样路径,并根据所述采样路径迭代更新所述至少两个图神经网络中所有节点的向量表征,且以交替前的图神经网络中特征交集的所有节点更新后的向量表征,初始化交替后的图神经网络中特征交集的所有节点,完成节点编码。
9.一种电子设备,其特征在于,包括:处理器;以及存储器,用于存储计算机程序指令;
其中,当所述计算机程序由所述处理器加载并运行时,所述处理器执行如权利要求1-7任一项所述的图神经网络的节点编码方法。
CN202010277812.6A 2020-04-10 2020-04-10 图神经网络的节点编码方法及节点编码终端、电子设备 Pending CN111178515A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010277812.6A CN111178515A (zh) 2020-04-10 2020-04-10 图神经网络的节点编码方法及节点编码终端、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010277812.6A CN111178515A (zh) 2020-04-10 2020-04-10 图神经网络的节点编码方法及节点编码终端、电子设备

Publications (1)

Publication Number Publication Date
CN111178515A true CN111178515A (zh) 2020-05-19

Family

ID=70655187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010277812.6A Pending CN111178515A (zh) 2020-04-10 2020-04-10 图神经网络的节点编码方法及节点编码终端、电子设备

Country Status (1)

Country Link
CN (1) CN111178515A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553470A (zh) * 2020-07-10 2020-08-18 成都数联铭品科技有限公司 适用于联邦学习的信息交互***及方法
CN111597401A (zh) * 2020-05-20 2020-08-28 腾讯科技(深圳)有限公司 基于图关系网络的数据处理方法、装置、设备及介质
CN112149808A (zh) * 2020-09-28 2020-12-29 上海交通大学 拓展单机图神经网络训练至分布式训练方法、***及介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597401A (zh) * 2020-05-20 2020-08-28 腾讯科技(深圳)有限公司 基于图关系网络的数据处理方法、装置、设备及介质
CN111553470A (zh) * 2020-07-10 2020-08-18 成都数联铭品科技有限公司 适用于联邦学习的信息交互***及方法
CN112149808A (zh) * 2020-09-28 2020-12-29 上海交通大学 拓展单机图神经网络训练至分布式训练方法、***及介质
CN112149808B (zh) * 2020-09-28 2022-10-14 上海交通大学 拓展单机图神经网络训练至分布式训练方法、***及介质

Similar Documents

Publication Publication Date Title
CN111178515A (zh) 图神经网络的节点编码方法及节点编码终端、电子设备
WO2020199693A1 (zh) 一种大姿态下的人脸识别方法、装置及设备
CN111259446A (zh) 基于联邦迁移学习的参数处理方法、设备及存储介质
CN113409134A (zh) 基于联邦学习的企业融资授信方法及装置
CN114186256A (zh) 神经网络模型的训练方法、装置、设备和存储介质
CN109711342B (zh) 人脸识别方法及装置
CN115688731A (zh) 银行业务指标生成方法、装置、电子设备及存储介质
CN104407995B (zh) 基于缓存一致性的控制***和方法
CN104375963B (zh) 基于缓存一致性的控制***和方法
CN111949187B (zh) 电子白板内容编辑共享方法、***、设备以及服务器
CN112434746A (zh) 基于层次化迁移学习的预标注方法及其相关设备
CN113886688B (zh) 对象的关联关系预测方法、装置、终端设备以及存储介质
CN112148836A (zh) 多模态信息处理方法、装置、设备及存储介质
CN113225234B (zh) 资产探测方法、装置、终端设备以及计算机可读存储介质
CN103870959A (zh) 批量电子交易的处理方法及电子签名设备
CN203014831U (zh) 一种电子签名设备、客户端及***
CN114298895A (zh) 图像真实感风格迁移方法、装置、设备及存储介质
CN114610911A (zh) 多模态知识本征表示学习方法、装置、设备及存储介质
CN114663710A (zh) 轨迹识别方法、装置、设备及存储介质
CN104516472A (zh) 处理器和数据处理方法
CN114528893A (zh) 机器学习模型训练方法、电子设备及存储介质
CN112199584A (zh) 个性化推荐方法及终端设备、推荐设备、存储介质
CN115859229A (zh) 基于协同签名的软件授权方法、***及存储介质
CN115796305B (zh) 一种纵向联邦学习的树模型训练方法及装置
CN114220156A (zh) 结构化人脸识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200519