CN112069412A - 信息推荐方法、装置、计算机设备及存储介质 - Google Patents
信息推荐方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112069412A CN112069412A CN202010951346.5A CN202010951346A CN112069412A CN 112069412 A CN112069412 A CN 112069412A CN 202010951346 A CN202010951346 A CN 202010951346A CN 112069412 A CN112069412 A CN 112069412A
- Authority
- CN
- China
- Prior art keywords
- information
- data
- node
- graph
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/288—Entity relationship models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请是关于一种信息推荐方法、装置、计算机设备及存储介质,涉及数据检索技术领域。所述方法包括:获取数据图;基于数据图进行T轮分割,获得数据子图;基于数据子图的分割轮数,对数据子图进行图表示学习,得到数据子图中的各个信息节点对应的子图节点向量;基于各个信息节点对应的子图节点向量,得到至少两个信息节点对应的信息节点向量;基于目标信息节点对应的信息节点向量,以及所述至少两个信息节点对应的信息节点向量,获取推荐信息节点;向所述目标信息节点对应的终端,发送所述推荐信息节点对应的推荐信息。上述方案,通过人工智能对分割后得到的数据子图进行图表示学习,在提高图表示学习效率的同时,保证了推荐信息的准确性。
Description
技术领域
本申请涉及数据检索技术领域,特别涉及一种信息推荐方法、装置、计算机设备及存储介质。
背景技术
随着网络服务的发展,每天社交服务、论坛、新闻通信等在线服务都会产生大量的数据,通过人工智能技术对这些数据进行分析,可以充分利用其内在价值。
在相关技术中,往往通过图形数据库对具有关联性的数据进行存储,图形数据库是一种非关系型数据库,它应用图形理论存储实体之间的关系信息。而对图形数据库中以图形理论存储的关系信息时,往往采取参数服务器式的分布式计算架构进行图表示学习,参数服务器架构中有多台机器作为servers(数据节点)用来存储共享数据;另外的多台机器作为workers(计算节点)用来做数据计算。
然而,上述相关技术中的方案,在数据分析的过程中,需要servers与workers进行大量的通信和数据交换,遍历数据图中的所有信息节点,数据处理效率较低。
发明内容
本申请实施例提供了一种信息推荐方法、装置、计算机设备及存储介质,可以利用通过对分割后的子图进行图表示学习,能够较大程度的保留原有数据图的信息,在提高图表示学习效率的同时,保证了推荐信息的准确性,该技术方案如下:
一方面,提供了一种信息推荐方法,所述方法包括:
获取数据图;所述数据图包含至少两个信息节点与连接所述至少两个信息节点的边;
基于所述数据图进行T轮分割,获得数据子图;所述数据子图包括目标边界子图与T组分割子图;第i组的所述分割子图是对第i-1轮分割后得到的所述边界子图进行再分割得到的;第i-1轮分割后得到的所述边界子图是由第i-1组的所述分割子图的边界节点连接得到的;所述目标边界子图是第T轮分割后得到的所述边界子图;2≤i≤T,且i、T为整数;
基于所述数据子图的分割轮数,对所述数据子图进行图表示学习,得到数据子图中的各个信息节点对应的子图节点向量;
基于所述数据子图中的各个信息节点对应的子图节点向量,得到所述至少两个信息节点对应的信息节点向量;
基于目标信息节点对应的信息节点向量,以及所述至少两个信息节点对应的信息节点向量,从所述至少两个信息节点中获取推荐信息节点;
向所述目标信息节点对应的终端,发送所述推荐信息节点对应的推荐信息。
另一方面,提供了一种信息推荐装置,所述装置包括:
数据图获取模块,用于获取数据图;所述数据图包含至少两个信息节点与连接所述至少两个信息节点的边;
数据图分割模块,用于基于所述数据图进行T轮分割,获得数据子图;所述数据子图包括目标边界子图与T组分割子图;第i组的所述分割子图是对第i-1轮分割后得到的所述边界子图进行再分割得到的;第i-1轮分割后得到的所述边界子图是由第i-1组的所述分割子图的边界节点连接得到的;所述目标边界子图是第T轮分割后得到的所述边界子图;2≤i≤T,且i、T为整数;
图表示学习模块,用于基于所述数据子图的分割轮数,对所述数据子图进行图表示学习,得到数据子图中的各个信息节点对应的子图节点向量;
信息节点向量获取模块,用于基于所述数据子图中的各个信息节点对应的子图节点向量,得到所述至少两个信息节点对应的信息节点向量;
推荐节点获取模块,用于基于目标信息节点对应的信息节点向量,以及所述至少两个信息节点对应的信息节点向量,从所述至少两个信息节点中获取推荐信息节点;
推荐信息发送模块,用于向所述目标信息节点对应的终端,发送所述推荐信息节点对应的推荐信息。
在一种可能的实现方式中,所述数据图分割模块,包括:
分割参数获取单元,用于在第j轮分割时,获取分割参数;所述分割参数用于指示第j轮分割得到的所述分割子图的数量;
第一数据图分割单元,用于响应于j为1,基于所述分割参数,对所述数据图进行分割,获得第1组的所述分割子图以及第1轮分割后得到的所述边界子图;
第二数据图分割单元,用于响应于2≤j≤T,且j为整数,基于所述分割参数,对第j-1轮分割得到的所述边界子图进行分割,获得第j组的所述分割子图以及第j轮分割后得到的所述边界子图。
在一种可能的实现方式中,所述分割参数获取单元,用于,
响应于j为1,获取预设的所述分割参数;
响应于2≤j≤T,基于第j-1轮分割得到的所述边界子图中的信息节点个数,获取所述分割参数。
在一种可能的实现方式中,所述图表示学习模块,包括:
向量长度确定单元,用于基于所述数据子图的分割轮数,确定所述数据子图的向量长度值;所述向量长度值用于指示所述数据子图中的各个信息节点对应的子图节点向量的长度;
图表示学习单元,用于基于所述向量长度值,对所述数据子图进行图表示学习,得到所述数据子图中的各个信息节点对应的子图节点向量。
在一种可能的实现方式中,所述向量长度确定单元,还用于,
基于向量分割参数,与所述数据子图的分割轮数,确定所述数据子图的向量长度值;所述向量分割参数用于指示每一轮分割后获得的所述分割子图的向量长度值,与所述边界子图的向量长度值的比值。
在一种可能的实现方式中,所述向量长度确定单元,包括:
第一向量长度确定子单元,用于响应于分割轮数N为1,基于所述向量分割参数,将预设的初始向量长度值进行分割,确定第一轮分割获得的数据子图的向量长度值;
第二向量长度确定子单元,用于响应于2≤N≤T,且N为整数,基于所述向量分割参数,将第N-1轮分割获得的边界子图的向量长度值进行分割,确定所述第N轮分割获得的数据子图的向量长度值。
在一种可能的实现方式中,所述子图节点向量的长度是所述子图节点向量中包含的元素个数。
在一种可能的实现方式中,所述信息节点向量获取模块,包括:
初始化向量构建单元,用于构建所述数据子图中各个信息节点对应的初始化节点向量;
向量融合单元,用于将所述数据子图中各个信息节点对应的所述子图节点向量,与所述数据子图中各个信息节点对应的初始化节点向量进行融合,得到所述至少两个信息节点对应的信息节点向量。
在一种可能的实现方式中,所述向量融合单元,包括:
融合段确定子单元,用于基于所述数据子图的分割轮数,确定向量融合段;所述向量融合段为,所述数据子图中各个信息节点对应的所述初始化节点向量中,与所述数据子图中各个信息节点对应的所述子图节点向量的融合部分;
向量融合子单元,用于基于所述向量融合段,将所述数据子图中各个信息节点对应的所述子图节点向量,与所述数据子图中各个信息节点对应的初始化节点向量进行融合;得到所述至少两个信息节点对应的信息节点向量。
在一种可能的实现方式中,所述推荐节点获取模块,用于,
获取所述至少两个信息节点的信息节点向量;
将所述目标信息节点向量与所述至少两个信息节点的信息节点向量进行比较,获取所述目标信息节点向量与所述至少两个信息节点的信息节点向量的余弦相似度;
基于所述余弦相似度,在所述至少两个信息节点获取所述推荐信息节点。
在一种可能的实现方式中,所述推荐节点获取模块,还用于,
获取至少两个信息节点的信息节点向量;
将所述至少两个信息节点的信息节点向量与所述目标信息节点向量输入信息推荐模型,输出推荐信息节点向量;所述信息推荐模型是基于样本推荐数据训练得到的机器学习模型;所述样本推荐数据是与所述信息节点向量以及推荐信息节点向量同类型的数据;
将所述推荐信息节点向量对应的信息节点获取为推荐信息节点。
在一种可能的实现方式中,所述目标边界子图的信息节点数量小于阈值。
再一方面,提供了一种计算机设备,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述的信息推荐方法。
又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述信息推荐方法。
又一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述信息推荐方法。
本申请提供的技术方案可以包括以下有益效果:
通过将数据图进行递归分割成多个子图,即先将数据图分割成多个分割子图与一个边界子图,再对边界子图进行分割,最终分割出多组分割子图以及目标边界子图,且多组分割子图与目标边界子图中的信息节点存在部分重合,通过对该多组分割子图与目标边界子图分别进行图表示学习,得出每个子图中的各个信息节点对应的子图节点向量,再根据各个信息节点对应的一个或多个子图节点向量,融合得到各个信息节点对应的信息节点向量,并基于该信息节点向量进行信息的推荐,上述方案,通过对分割后的子图进行图表示学习,学习出的信息节点向量,能够较大程度的保留原有数据图的信息,在提高图表示学习效率的同时,保证了图表示学习出的信息节点向量的准确性,也保证了推荐信息的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据一示例性实施例示出的一种信息推荐***的结构示意图。
图2是根据一示例性实施例示出的一种信息推荐方法的流程示意图。
图3是根据一示例性实施例示出的一种对数据图进行图分割的示意图。
图4是根据一示例性实施例示出的一种信息推荐方法的方法流程图。
图5示出了图4所示实施例涉及的一种将数据图进行递归图分割的示意图。
图6示出了图4所示实施例涉及的一种基于递归图分割的大规模图表示学习算法。
图7示出了图4所示实施例涉及的一种在某一游戏的道具推荐示意图。
图8示出了图4所示实施例涉及的道具推荐效果对比图。
图9示出了图4所示实施例涉及的一种在某一游戏的师徒推荐示意图。
图10示出了图4所示实施例涉及的师徒推荐效果对比图。
图11示出了图4所示实施例涉及的运行时间对比图。
图12是根据一实施例示出的一种信息推荐框架示意图。
图13是根据一示例性实施例示出的一种人体图像分割装置的结构方框图。
图14是根据一示例性实施例示出的计算机设备的结构框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在对本申请所示的各个实施例进行说明之前,首先对本申请涉及到的几个概念进行介绍:
1)人工智能(Artificial Intelligence,AI)
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
2)图形数据库(Graph Database,GD)
图形数据库是NoSQL(非关系型)数据库的一种类型。它应用图形理论存储实体之间的关系信息。图形数据库是一种非关系型数据库,它应用图形理论存储实体之间的关系信息。最常见例子就是社会网络中人与人之间的关系。关系型数据库用于存储“关系型”数据的效果并不好,其查询复杂、缓慢、超出预期,而图形数据库的独特设计恰恰弥补了这个缺陷。在一个图形数据库中,最主要的组成有两种,结点集和连接结点的关系(有的也称泡泡和箭头)。结点集就是图中一系列结点的集合,比较接近于关系数据库中所最常使用的表,而关系则是图形数据库所特有的组成。
3)分布式计算(Distributed Computation,DC)
分布式计算是一种计算方法,和集中式计算是相对的。随着计算技术的发展,有些应用需要非常巨大的计算能力才能完成,如果采用集中式计算,需要耗费相当长的时间来完成。分布式计算将该应用分解成许多小的部分,分配给多台计算机进行处理。这样可以节约整体计算时间,大大提高计算效率。
4)机器学习(Machine Learning,ML)
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
在对本申请所示的各个实施例进行说明之前,再对本申请涉及到的几个术语进行介绍:
分割子图:对于图分割将G=(V,E)的节点集合分成的k个子集,每个子集Vi形成G的一个分割子图Gi=(Vi,Ei),其中1≤i≤k,Ei是E的子集,并且Ei的边端点来自于Vi,也就是Ei={(u,v)|(u,v)∈E,u∈Vi,v∈Vi}。
边界子图:构建于边界节点的子图称为边界子图,表示为Gb=(Vb,Eb),其中Eb={(u,v)|(u,v)∈E,u∈Vb,v∈Vb}。
图表示学习算法:将图G=(V,E)里的每个节点映射到一个d维的特征向量,使得d远远小于G的节点数量,并且可以一定程度上在特征向量里保留图的结构特性,也就是说在G上面的距离越近的节点,其特征向量在d维空间中的距离越近。其中,d是一个用户定义的超参数。
节点表示特征向量:通过图表示学习算法计算得到的图中每个节点的d维特征向量。
图1是根据一示例性实施例示出的一种信息推荐***的结构示意图。该***包括:服务器120以及用户终端140。
服务器120是一台服务器,或者包括若干台服务器,或者是若干台服务器组成的分布式计算机集群,或者是一个虚拟化平台,或者是一个云计算服务中心等,本申请不做限制。
用户终端140可以是具有查询语句输入功能以及网络接入功能的终端设备,比如,终端可以是手机、平板电脑、电子书阅读器、智能眼镜、智能手表、智能电视、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。用户终端140的数量不做限定。
其中,终端140中可以安装有客户端,该客户端可以是视频客户端、即时通信客户端、浏览器客户端、教育客户端等。本申请实施例不限定客户端的软件类型。
用户终端140与服务器120之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
可选的,该***还可以包括管理设备(图1未示出),该管理设备与服务器120之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible MarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
请参考图2,其是根据一示例性实施例示出的一种信息推荐方法的流程示意图。该方法可以由计算机设备执行,该计算机设备可以是服务器,其中,该服务器可以是上述图1所示的实施例中的服务器120。如图2所示,该信息推荐方法的流程可以包括如下步骤:
步骤21,获取数据图;该数据图包含至少两个信息节点与连接该至少两个信息节点的边。
在一种可能的实现方式中,该数据图是数据库中的数据建模成的图形。
其中,信息节点是以数据库中的数据信息构建的节点,信息节点之间的边代表着信息节点之间的关系。
例如,该数据图可以是以商品数据库中的数据构建的数据图,在该商品数据库中,至少存在商品数据以及用户数据,各个商品数据对应的各个信息节点之间的边,可以代表该各个商品之间的类别、相似度、关联性等关系;用户数据对应的信息节点之间的边,可以代表该各个用户对应的历史购物的相似度;用户数据对应的信息节点与该商品数据对应的信息节点之间的边,代表着该用户浏览或购买过该商品。
又例如,该数据图也可以是以某个社交软件中各个用户数据构建的数据图,该各个信息节点是该各个用户对应的社交信息,该各个信息节点的边是该各个用户之间的社交关系。
步骤22,基于该数据图进行T轮分割,获得数据子图,该数据子图包括目标边界子图与T组分割子图;第i组的该分割子图是对第i-1轮分割后得到的该边界子图进行再分割得到的;第i-1轮分割后得到的该边界子图是由第i-1组的该分割子图的边界节点连接得到的;该目标边界子图是第T轮分割后得到的该边界子图;2≤i≤T,且i、T为整数。
其中,该第i-1组的各个分割子图的边界节点,是该第i-1组的分割子图在被分割之前(即在第i-2轮分割后得到的边界子图中),与第i-1组中的其他分割子图中包含的信息节点连接的节点。
该目标边界子图是基于该数据图进行第T轮分割后得出的边界子图,也就是说该目标边界子图是最后一次分割得到的边界子图,该目标边界子图是第T组的各个分割子图的边界节点连接得到的。该T组分割子图与该目标边界子图都是基于该数据图进行T轮分割得到的,即分割子图和目标边界子图中分别包含数据图中的部分信息节点以及连接该部分信息节点的边。
由于目标边界子图是第T组的各个分割子图的边界节点连接得到的,因此目标边界子图中的边界节点,同时存在于在第T组的各个分割子图中;同理,第i组的分割子图中的边界节点连接构成了第i组的边界子图,且该边界子图可以通过若干次分割,被分割成目标边界子图与若干个分割子图,即第i组的分割子图中的边界节点,也可以同时存在于其他组的分割子图中。
步骤23,基于该数据子图的分割轮数,对该数据子图进行图表示学习,得到数据子图中的各个信息节点对应的子图节点向量。
其中,上述基于该数据子图的分割轮数,对该数据子图进行图表示学习,是指对数据子图中的各个子图(包括分割子图和目标边界子图)分别进行图表示学习,即将数据子图里的每个节点映射到一个d维的向量中,并且向量的维数d远远小于数据子图中的节点数量。通过一个较低维数的向量表示数据子图中的节点,压缩了数据子图中的数据特征,并且可以一定程度上在向量里保留图的结构特性。
其中,该数据子图中的目标边界子图是基于该数据图进行第T轮分割后得到的边界子图,即该目标边界子图的分割轮数为T。
在一种可能的实现方式中,对该T组分割子图与该目标边界子图分别进行图表示学***台中进行,即分布式计算平台的多个计算设备同时对T组分割子图以及目标边界子图进行学习,得到该T组分割子图与该目标边界子图中各个信息节点对应的子图节点数量,使图表示学习的过程更加高效。
步骤24,基于该数据子图中的各个信息节点对应的子图节点向量,得到该至少两个信息节点对应的信息节点向量。
由于该数据子图中的该T组分割子图中任意一组分割子图的边界节点,组成了对应该组的边界子图,且除了目标边界子图之外,其它边界子图被分割为了下一组的分割子图,因此,该T组分割子图与该目标边界子图中各个信息节点中的边界节点,可能出现了多次,因此,一个信息节点对应的子图节点向量可能是一个向量,也可能是多个向量。
步骤25,基于目标信息节点对应的信息节点向量,以及该至少两个信息节点对应的信息节点向量,从该至少两个信息节点中获取推荐信息节点。
在一种可能的实现方式中,上述目标信息节点是上述至少两个信息节点中的任意一个信息节点;推荐信息节点是上述至少两个信息节点中,除了目标信息节点之外的至少一个信息节点。
步骤26,向目标信息节点对应的终端,发送该推荐信息节点对应的推荐信息。
综上所述,在本申请实施例所示的方案中,先将数据图分割成多个分割子图与一个边界子图,再对边界子图进行递归分割,从而分割出多组分割子图以及目标边界子图,且多组分割子图与目标边界子图中的信息节点存在部分重合,通过对该多组分割子图与目标边界子图分别进行图表示学习,得出每个子图中的各个信息节点对应的子图节点向量,再根据各个信息节点对应的一个或多个子图节点向量,得到各个信息节点对应的信息节点向量。通过上述方案,可以使得通过分割后的子图学习出的信息节点向量,能够较大程度的保留原有数据图的信息,在提高图表示学习效率的同时,保证了图表示学习出的信息节点向量的准确性,也保证了推荐信息的准确性。
请参考图3,其是根据一示例性实施例示出的一种对数据图进行图分割的示意图。
如图3所示,数据图301中包含信息节点,以及连接该各个信息节点的边;分割子图302至分割子图304是根据该数据图301进行一次图分割,获得的三个分割子图,在分割子图302中边界节点为V4,在分割子图303中边界节点为V5,在分割子图304中边界节点为V8和V10;即边界节点为,该分割子图中的多个信息节点中,在分割前的数据图中与属于其他分割子图的信息节点相连的节点。根据该各个边界节点以及该各个边界节点在分割前的数据图中的分割边,可以构建边界子图305。在对该数据图进行一次图分割产生的各个数据子图中,所有的边界节点都同时出现在该边界节点对应的分割子图以及边界子图中。
在本申请实施例中,图分割是指将数据图301中包含的信息节点集合划分成K个大小均衡且互不重叠的子集(分割子图302至分割子图304),其中K可以是一个用户定义的超参数,例如K可以等于3,分割出了分割子图302至304三个大小均衡且互不重叠的子集。分割边是指原数据图的边中,连接被分割以得到不同子集的边,而边界节点为分割边连接的节点,因此边界子图为边界节点与连接边界节点的分割边构成的数据子图。
请参考图4,其是根据一示例性实施例示出的一种信息推荐方法的方法流程图。该方法可以由计算机设备执行,该计算机设备可以是服务器,其中,该服务器可以是中心服务器和多台节点服务器组成的分布式计算机集群。如图4所示,该文件内容识别方法可以包括如下步骤:
步骤401,获取数据图。
在一种可能的实现方式中,该数据图可以是预先存储在中心服务器中的数据图,或者,该数据图可以是基于中心服务器与节点服务器中存储的数据构建的实体以及实体关系组成的信息图。该实体是中心服务器中存储的数据对应的数据对象。
在一种可能的实现方式中,该数据图可以是超图(Hypergraph),即该数据图的每一个实体,可以通过一条边与任意个数的实体相连,即该实体可以同时与多个其他实体构建同一类型的联系。
步骤402,基于该数据图进行T轮分割,获得数据子图。
其中,对该数据图进行T轮分割,获得数据子图的过程是在中心服务器中进行的。
在一种可能的实现方式中,通过上述图3所示实施例中该分割方法,基于该数据图进行T轮递归地分割,分割方式如下所示:
首先对数据图进行分割,得到分割后的若干个大小均衡且互不重叠的分割子图,再根据该各个分割子图中的边界节点以及该分割前数据图的分割边,构建边界子图;
将该边界子图作为新的待分割数据图进行递归分割,直至达到某一预设条件为止。
在一种可能的实现方式中,上述预设条件是T轮分割后得出的分割子图总数大于某一阈值。
在另一种可能的实现方式中,上述预设条件是,第T次分割得出的该各个分割子图的边界节点构成的边界子图中的信息节点个数小于某一阈值。
在一种可能的实现方式中,在第j轮分割时,获取分割参数;该分割参数用于指示第j轮分割得到的该分割子图的数量;响应于j为1,基于该分割参数,对该数据图进行分割,获得第1组的该分割子图以及第1轮分割后得到的该边界子图;响应于2≤j≤T,且j为整数,基于该分割参数,对第j-1轮分割得到的该边界子图进行分割,获得第j组的该分割子图以及第j轮分割后得到的该边界子图。
当中心服务器基于该数据图进行第一轮分割时,中心服务器根据分割参数,确定第一轮分割出的分割子图的数量,并基于该第一轮分割出的分割子图的数量,对数据图进行分割,分割出与该分割参数对应数量的分割子图,并根据该分割子图中各个边界节点,构建第一轮分割后的边界子图,并将该第一轮分割后得到的边界子图作为下一轮分割过程的待分割数据图。
当中心服务器基于该数据图进行第j轮分割时,中心服务器根据分割参数确定第j轮分割得到的分割子图的数量,并基于该数量,对上一轮(第j-1轮)分割得到的该边界子图进行分割,分割出与该分割参数对应数量的分割子图。
在一种可能的实现方式中,该目标边界子图的信息节点数量小于阈值。
在一种可能的实现方式中,响应于j为1,中心服务器获取预设的该分割参数;响应于2≤j≤T,基于第j-1轮分割得到的该边界子图中的信息节点个数,获取该分割参数。
其中,响应于j为1时,中心服务器获取到的预设的该分割参数是用户预先设置的分割参数,用户可以通过设置该分割参数的大小,控制第一次分割出的分割子图的数目。
在一种可能的实现方式中,对于一个固定大小的数据图,用户可以通过预设分割参数,控制第一次分割出的分割子图(第一组分割子图)的数目,从而控制第一次分割出的分割子图的大小。
在一种可能的实现方式中,响应于2≤j≤T,根据该分割参数,对第j-1轮分割得到的该边界子图进行再分割,得到第j组边界子图的大小与第一组分割子图大小相同或者趋近于相同,该分割参数是基于第j-1轮分割得到的该边界子图的信息节点个数获取的。
例如,用户在中心服务器中预设分割参数K1,K1为基于该数据图进行第一次分割得到的第一组分割子图数量。
中心服务器根据该预设的分割参数K1,对该数据图进行第一次分割,得到数量为K1的第一组分割子图;根据该K1个第一组分割子图中的边界节点,连接得到该第一轮分割后得到的边界子图;
其中为第一轮分割后得到的边界子图中的信息节点的数量,V为数据图中的信息节点的数量。第二轮分割的分割参数与第一轮分割的分割参数的比值,与第二轮待分割的边界子图中信息节点的数量和数据图中信息节点的数量的比值相同,因此通过上述公式,第二轮分割后得出的第二组分割子图,与第一轮分割后得出的第一组分割子图的大小相同或者趋近于相同。
根据该第二轮分割的分割参数K2,将第一轮分割后得到的边界子图进行分割,得到K2个第二组分割子图,并根据该K2个第二组分割子图的边界节点,连接得到该第二轮分割后得到的边界子图。
同理,当对第j轮分割后得到的边界子图进行再分割时,中心服务器根据第j-1轮分割后得到的边界子图中的信息节点数量计算出第j轮分割的分割参数Kj。
后续过程与上述过程相同,此处不再赘述,通过上述分割参数的获取方法,通过T轮分割得到的T组分割子图的大小是相同或者近似相同的。
请参考图5,其示出了本申请实施例涉及的一种将数据图进行递归图分割的示意图。
如图5所示,首先对数据图G进行第一轮分割,获得第一组分割子图G1 (1)至Gk1 (1),基于该第一组分割子图中的边界节点,获取该第一轮分割后得到的边界子图Gb (1),对边界子图Gb (1)进行再分割(第二轮分割),获得第二组分割子图G1 (2)至Gk2 (2),再基于该第一组分割子图中的边界节点,获取该第一轮分割后得到的边界子图Gb (2),基于每轮分割后得到的边界子图,重复上述对边界子图进行再分割的步骤,经过T个轮次的分割,最后得出所有的分割子图G1 (1)至Gk1 (1),G1 (2)至Gk2 (2)……G1 (T)至GkT (T),Gb (T),即最后得出的所有子图中,包含T组分割子图以及一个目标边界子图。
在一种可能的实现方式中,可以通过JA-BE-JA算法,对该数据图进行图分割。
其中,上述JA-BE-JA算法是一种考虑无向图(数据图)中各个信息节点以及边的集合的图分割算法。在基于JA-BE-JA算法对该数据图进行分割时,为了保证分割后的数据子图保留的数据特征更多,需要找寻分割过程中,分割更少的边的分割方法,分割的边越少,对该数据图进行分割后的数据特征损失越少,分割质量越高。
步骤403,基于该数据子图的分割轮数,确定该数据子图的向量长度值。
其中,中心服务器基于该数据子图的分割轮数,确定该数据子图的向量长度值。
该向量长度值用于指示该数据子图中的各个信息节点对应的子图节点向量的长度。并且,上述数据子图的向量长度值,是指数据子图中的各个分割子图以及目标边界子图,分别对应的子图节点向量的向量长度值。
在一种可能的实现方式中,基于向量分割参数,与该数据子图的分割轮数,确定该数据子图的向量长度值;该向量分割参数用于指示每一轮分割后获得的该分割子图的向量长度值,与该边界子图的向量长度值的比值。
在一种可能的实现方式中,响应于分割轮数N为1,基于该向量分割参数,将该预设的初始向量长度值进行分割,确定第一轮分割获得的数据子图的向量长度值。
响应于2≤N≤T,且N为整数,基于该向量分割参数,将第N-1轮分割获得的边界子图的向量长度值进行分割,确定该第N轮分割获得的数据子图的向量长度值。
例如,如图5所示的数据图G,中心服务器通过第一轮分割,将该数据图G分割成第一组分割子图,并根据该第一组分割子图中的边界节点,获得第一轮分割后得到的边界子图。由于第一组分割子图G1 (1)至Gk1 (1)的节点互不重叠,且第一组分割子图都是根据该数据图分割得到的同样类型的数据子图,因此可以认为,该第一组分割子图中的各个数据子图包含相同数量的数据特征,因此为第一组分割子图G1 (1)至Gk1 (1)设置相同的向量长度值。
而在对该数据图进行分割的过程中,由于将数据图分割成第一组分割子图,切断了各个分割子图之间的联系,因此第一组分割子图中相对于原数据图来说,缺少了各个分割子图之间的数据特征,因此通过各个分割子图的边界节点,连接构成一个边界子图,通过该边界子图还原该数据图分割过程损失的那部分数据特征。因此,可以认为,分割前的数据图中的数据特征被分割为第一组分割子图中的数据特征与该边界子图中的数据特征。
因此为数据图G设置一个向量长度值为d的节点特征向量,在经过第一轮分割后,该数据图G的向量长度值划分为第一组分割子图的向量长度值d1与第一轮分割后得到的边界子图的向量长度值d2,其中d1+d2=d,换句话说,可以通过向量分割参数δ将边界子图的向量长度值设置为其中0<δ<1。那么,第一组分割子图的向量长度值为
而后,在基于该数据图进行第二轮分割的过程中,即对该第一轮分割得到的边界子图进行分割时,该边界子图的向量长度值为δd,而通过对该边界子图进行分割(第二轮分割)得到的第二组分割子图中,同样只包含该第一轮分割后得到的边界子图的部分数据特征,而该第二组分割子图中的边界节点连接而成的第二轮分割后得到的边界子图,包含了该第一轮分割后得到的边界子图的其余部分数据特征,因此,与第一轮向量长度值的分割过程相同,可以根据δ对该第一轮分割后得到的边界子图对应的向量长度值进行分割,分割后得到的第二轮分割子图的向量长度值为而第二轮分割后得到的边界子图的向量长度值为
同理,对于第j轮分割得到的子图的向量长度值可以用d(j,q)来表示。其中当q=0,是分割子图;当q=1,是边界子图。值得注意的是,递归图分割的最终结果会返回一个边界子图,表示为其中r是最大轮次。那么第j轮分割得到的子图的向量长度值可以表示为:
在上述公式中,由于第T轮(最后一轮)分割得到的目标边界子图会保留,其他轮分割后得到的边界子图会继续执行递归分割操作,分割为分割子图以及目标边界子图,因此其他轮分割得到的边界子图可以将其向量长度值置零。并且,由于上述d(j,q)可以推出,T组的分割子图对应的向量长度值以及目标边界子图的向量长度值的和等于数据图对应的向量长度值,即:
在一种可能的实现方式中,该子图节点向量的长度是该子图节点向量中包含的元素个数。
该子图节点向量的长度指该子图节点向量中包含的元素个数。例如,该子图节点向量的长度为5,即该子图节点向量的向量长度值也为5,则代表该子图节点向量中包含5个元素,例如(A1,A2,A3,A4,A5)。
步骤404,基于该向量长度值,对该数据子图进行图表示学习,得到该数据子图中的各个信息节点对应的子图节点向量。
其中,该图表示学习过程是在该分布式计算机集群中的节点服务器中进行的。
在一种可能的实现方式中,该数据子图中的T组分割子图与目标边界子图,分别通过不同的节点服务器进行图表示学习,得到该数据子图中的各个信息节点对应的子图节点向量。
在一种可能的实现方式中,节点服务器通过深度游走deep walk算法对该数据子图进行图表示学习,得到该数据子图中的各个信息节点对应的子图节点向量。
其中,deep walk算法,预先设置需要进行图表示学习的数据图的大小、以及采样窗口的尺寸、输出向量的维度、以每个节点开始的路径数量和每条路径的长度等参数,然后对数据图中的每个顶点进行随机排序,对于每一个顶点,通过随机游走的方法,在数据图中走过一串节点,产生一串节点组成的序列,而后通过word2vec算法将高维的节点序列映射为低维的节点向量,即通过矩阵的线性变换将该高维的节点序列转换为较低维度的节点向量,并通过大规模的训练数据,确定将该高维的节点序列转换为较低维度的节点向量的最优矩阵,并且转换出的节点向量充分考虑了相邻节点的向量特征。
另一种可能的实现方式中,节点服务器通过word2vec算法对该数据子图进行图表示学习,得到该数据子图中的各个信息节点对应的子图节点向量。
其中,节点服务器通过该word2vec将每个节点建模成一个高维的节点序列(节点向量)来表示,再通过基于矩阵的线性变换,将该高维的节点序列转换为较低维度的节点向量,并通过大规模的训练数据,确定将该高维的节点序列转换为较低维度的节点向量的最优矩阵,并且转换出的节点向量充分考虑了相邻节点的向量特征。
步骤405,构建该数据子图中各个信息节点对应的初始化节点向量。
其中,该初始化节点向量是通过中心服务器构建的。
在一种可能的实现方式中,该初始化节点向量f(v)的向量长度为d,且向量中的每个元素都初始化为0,即该初始化向量可以表示为(0,0,0……0)。
步骤406,将该数据子图中各个信息节点对应的该子图节点向量,与该数据子图中各个信息节点对应的初始化节点向量进行融合,得到该至少两个信息节点对应的信息节点向量。
在一种可能的实现方式中,基于该数据子图的分割轮数,确定向量融合段;该向量融合段为,该数据子图中各个信息节点对应的该初始化节点向量中,与该数据子图中各个信息节点对应的该子图节点向量的融合部分。
其中,向量融合段是根据该子图节点向量的向量长度以及该子图节点向量在该初始化节点向量中的起始位置得到的。由于该子图节点向量的向量长度可以通过分割轮数直接获得,获取起始位置,便可以得出该子图节点向量与该初始化节点向量的向量融合段。
由上述公式可知,当子图节点向量对应的数据子图的分割轮数越大时,其起始位置越大,即在初始化向量中的起始位置越靠后。
在一种可能的实现方式中,中心服务器基于该向量融合段,将该数据子图中各个信息节点对应的该子图节点向量,与该数据子图中各个信息节点对应的初始化节点向量进行融合,得到该至少两个信息节点对应的信息节点向量。
在一种可能的实现方式中,将fj,q(v)中的每个元素,以s(j,q)为起始位置,写入f(v)。例如,fj,q(v)的向量元素集合可以表示为(1,2,3),而f(v)的向量元素集合可以表示为(1,2,3,4,5,6,7),s(j,q)起始位置为5,此时,f(v)的向量元素集合中位置为5的元素开始逐个赋值为X里的元素,即融合后的向量元素集合可以表示为(1,2,3,4,1,2,3)。
由于对于一个信息节点,可能有多个子图节点向量与其对应,因此,通过赋值的方式,将不同长度的向量,通过不同的向量融合段进行融合,融合出的向量能够同时具有多个不同轮数分割出的数据子图的向量特征。
在另一种可能的实现方式中,中心服务器基于权重参数与该向量融合段,将该数据子图中各个信息节点对应的该子图节点向量,与该数据子图中各个信息节点对应的初始化节点向量进行融合,得到该至少两个信息节点对应的信息节点向量。
在向量融合过程中,中心服务器通过权重参数,将该初始化节点向量与该信息节点对应的向量融合段的向量元素进行加权融合,适当保留已经融入f(v)中的信息节点的特征。即当该信息节点存在多个子图节点向量时,将初始化节点向量与该信息节点对应的向量融合段的向量元素进行加权融合的过程中,尽可能减少了与该初始化节点向量先融合的向量元素的数据特征的损失,保留了与该信息节点对应的各个子图节点向量的数据特征,因此融合出的信息节点向量更加符合该信息节点的数据特征。
在另一种可能的实现方式中,中心服务器将该数据子图中各个信息节点对应的该子图节点向量,与该数据子图中各个信息节点对应的初始化节点向量输入向量融合模型,得到该至少两个信息节点对应的信息节点向量。
该向量融合模型是根据向量融合样本集训练得到的机器学习模型,该向量融合样本集中包含样本节点向量以及融合节点向量,该样本节点向量是与该子图节点向量以及初始化节点向量同类型的向量,该融合节点向量是与该至少两个信息节点对应的信息节点向量同类型的向量。
步骤407,基于目标信息节点对应的信息节点向量,以及该至少两个信息节点对应的信息节点向量,从该至少两个信息节点中获取推荐信息节点。
在一种可能的实现方式中,获取该至少两个信息节点的信息节点向量;将该目标信息节点向量与该至少两个信息节点的信息节点向量进行比较,获取该目标信息节点向量与该至少两个信息节点的信息节点向量的余弦相似度;基于该余弦相似度,在该至少两个信息节点获取该推荐信息节点。
对于目标信息节点v,f(v)表示目标信息节点的特征向量。通过比较该目标信息节点与该至少两个信息节点的信息节点向量f(u)的余弦相似度s(u,v)。
当两个节点的余弦相似度值越大,则表示这个两个节点的相关性越大,将相关性大的一个或几个信息节点获取为推荐信息节点。
在另一种可能的实现方式中,获取至少两个信息节点的信息节点向量;将该至少两个信息节点的信息节点向量与该目标信息节点向量输入信息推荐模型,输出推荐信息节点向量;该信息推荐模型是基于样本推荐数据训练得到的机器学习模型;该样本推荐数据是与该信息节点向量以及推荐信息节点向量同类型的数据;将该推荐信息节点向量对应的信息节点获取为推荐信息节点。
步骤408,向该目标信息节点对应的终端,发送该推荐信息节点对应的推荐信息。
在本申请实施例中,先将一个数据图分割多个分割子图和一个边界子图,并且对边界图递归地分割形成多个分割子图,最终使得分割后的每个子图较小,可以在单个机器上运行图表示学***台同时对每个子图分别运行图表示学习算法。通过子图所在的递归层级,设置每个子图的向量长度值的大小,使得可以根据子图编码(给予不同子图的标号)将每个节点在不同数据子图上的子图节点向量融合成信息节点向量。
在Spark分布式计算平台上实现的基于递归图分割的大规模图表示学习计算框架中,在将数据图图分割成多个子图,使得节点的特征向量也可以被划分成多个模块,请参考图6,其示出了本申请实施例涉及的一种基于递归图分割的大规模图表示学习算法。如图6所示,具体来说,该计算框架包括以下3个阶段的计算:
1)通过分布式递归图分割,生成多个子图。
将输入图进行递归分割,使得边界图也被递归分割为多个较小的子图。
2)并行分别对每个子图运行图表示算法。
对所有子图进行图表示学习的计算,获得每个节点在不同子图的表示学习特征向量。
3)聚合所有子图上的节点表征向量(子图节点向量)。
将所有特征向量进行拼接,得到最终的特征向量。
以上的计算框架的优点包括以下几点:
(1)子图较小,适合分布式计算中每台机器独立计算,从而达到较高的并行;
(2)每台机器单独计算子图节点的表征向量,不需要太多的机器之间的通信交互,减少了网络通信的代价;
(3)由于使用图分割,使得连接紧密的节点分配到同一个分区,然后基于这个分区的子图计算得到的子图更能刻画出这些节点之间的紧密关系;
(4)边界子图保留不同分区之间的关系,不仅保留了图分割切分的边信息,而且也刻画出了节点在整个图上全局的连接信息。
而本申请采用的递归图分割方法,与传统图分割算法不同主要体现在两个方面:
(1)利用边界子图,采用递归分割的方式,将边界子图分割多个子图,直到当前计算轮次的边界子图较小;(2)基于递归计算的图分割可以展示出图中节点的层次化结构关系。
具体来说,递归图算法通过多个轮次的迭代计算,每轮计算中将当前图分为若干个分割子图和1个边界子图。如果这个轮次的边界子图足够大,也就是说这个边界子图的边数超过一个机器可以处理的数量,表示为m,则将这个边界子图继续进行分割。一个机器可处理的边数量m可计算为m=M/Δ,其中M是机器可用内存大小,Δ是处理一条边的空间代价。如果一条边的节点用8个字节的长整型数字表示,而一个边有两个节点,其空间代价是16个字节。
本申请采用Spark分布式计算平台可以处理大规模图的表示学习问题,不需要计算节点之间的大量通信,并且提出了递归图分割的概念和方法,以及在子图的节点向量融合上,通过子图编码,即根据每一个节点对应的数据子图所在的分割轮数给予相应的编号,较为高效地完成一个节点在所有子图的向量融合。另一方面,通过图分割将连接紧密的节点聚集在子图中,可以更好地刻画节点的局部特性,赋予节点特征向量更多的图结构信息。并且,通过递归图分割算法,使得图表示学习算法可以在子图上面进行计算,从而避免了大规模的机器通信,同时也减轻了图遍历的需求和代价。
由于大部分大数据都可以表示为图,比如用户与道具的购买或者互动关系、社交网络等,并且图表示学习提取了每个节点的特征向量,因此,根据本申请示出的图表示学习算法得到的特征向量可以作为下游应用的输入,比如链路预测(link prediction)和节点分类(node classification)。链路预测是指通过已知的网络节点和网络结构等信息预测网络中尚未产生连接的两个节点之间产生链接的可能性,而节点分类是指通过已知的网络节点对应的类别和网络结构,对未知类别的网络节点进行类型预测,链路预测和节点分类均可以应用于信息推荐场景中。本申请还可以应用在游戏里的多种场景,包括好友推荐、基于社交的道具推荐、用户画像等。
例如,请参考图7,其示出了本申请实施例涉及的一种在某一游戏的道具推荐示意图。
如图7所示,在某一游戏中,用户在结束一局游戏之后,会看到一个弹出的道具推荐页面,向该用户展示N个可能感兴趣的游戏道具。用户可以在这个页面上挑选喜欢的道具,从而进行购买。在计算每个用户的推荐道具时,可以分别构建用户和道具的特征,并且将玩家购买道具作为正样本,将玩家看到过道具但没有购买该道具作为负样本,将正负样本以及玩家和道具特征输入到机器学习模型中进行训练,从而得到一个玩家与道具相关性的预测模型。当利用本申请涉及的,该基于递归图分割的图表示学习算法来计算用户社交网络中每个用户的信息节点对应的信息节点向量,并将这个特征向量作为玩家特征的一部分。在线上实验中,采用XGBoost(极端梯度提升)模型,但是对比了采用了本技术方案得到的节点特征向量(即通过图表示学习算法得到的图中每个节点的d维特征向量)和没有加上本技术方案的节点特征向量,分别表示为XGBoost+和XGBoost-。在本次实验中,通过购买率来衡量两个方法的效果,也就是购买的人数除以曝光的人数。图8示出了一种本申请实施例涉及的道具推荐效果对比图,如图8所示,本技术方案提升了原有方案相对10.99%。,验证发现在模型训练和预测中加上图表示特征后,玩家的购买率提升10.99%。
图9示出了本申请实施例所涉及的一种在某一游戏的师徒推荐示意图。如图9所示,在某一游戏中,用户可以与其他任意用户建立师徒关系,从而可以一起完成一些游戏任务来获取游戏奖励。通过构建用户之间的社交网络和互动关系网络,比如游戏好友关系、玩家之间互相点赞和对局的关系,并且在这个网络作为数据图,运行基于递归图分割的图表示学习算法,得到每个节点的特征向量。图10示出了本申请实施例所涉及的师徒推荐效果对比图。如图10所示,在线上实验中,采用了上述步骤407中描述的余弦相似度的方案,计算该用户对应的信息节点与其他用户的信息节点之间的余弦相似度,并取出相似度最高的前N个作为推荐结果。在线上实验中,对比了采用本技术方案的节点特征向量的kNN算法(k近邻算法)与现有的技术方案个性化网页排序算法(Personalized PageRank,PPR),本申请所涉及方案对比PPR在点击率上相对提升8.58%,在通过率上面相对提升7.62%。
数据集 | 节点数量 | 边数量 |
UK2002 | 18,484,053 | 298,113,385 |
41,652,230 | 1,468,365,182 | |
Friendster | 68,349,466 | 2,586,147,869 |
表1:公开实验数据集
本申请实施例涉及方案还在表1所示的公开数据集中与现有的分布式图表示学习算法也就是PBG(Pytorch-BigGraph)进行了对比,如图11所示,其示出了本申请实施例所涉及的运行时间对比图,如图11所示,本申请涉及的技术方案,在运行时间上快于PBG,相对提升倍数可达3倍左右。
综上所述,在本申请实施例所示的方案中,先将数据图分割成多个分割子图与一个边界子图,再对边界子图进行递归分割,从而分割出多组分割子图以及目标边界子图,且多组分割子图与目标边界子图中的信息节点存在部分重合,通过对该多组分割子图与目标边界子图分别进行图表示学习,得出每个子图中的各个信息节点对应的子图节点向量,再根据各个信息节点对应的一个或多个子图节点向量,得到各个信息节点对应的信息节点向量。通过上述方案,可以使得通过分割后的子图学习出的信息节点向量,能够较大程度的保留原有数据图的信息,在提高图表示学习效率的同时,保证了图表示学习出的信息节点向量的准确性,也保证了推荐信息的准确性。
请参考图12,其是根据一实施例示出的一种信息推荐框架示意图。如图12所示:
服务器1210从服务器中的数据图存储器1211中读取数据图1212,经过第一轮分割将该数据图1212分割成第一组的分割子图1213以及该第一组分割子图中的边界节点连接而成的边界子图1214,再对该边界子图1214进行递归地分割过程,最终得到一共T组的分割子图和目标边界子图。
将该最终得到的T组分割子图和目标边界子图,输入分布式节点计算设备1215中,并根据各个子图对应的分割轮数进行图表示学习,得到各个子图中,长度与分割轮数成反相关的,各个信息节点的向量,且由于各个子图可能存在同样的信息节点,即一个信息节点可能同时在多个子图中同时存在,因此一个信息节点可能通过图表示学习,在不同子图中构建出多个与该信息节点对应的子图节点向量。
服务器为每个节点设置一个初始化向量,以便信息节点对应的信息节点向量进行融合。以第一节点1216为例,服务器为第一节点1216设置第一初始化向量,该第一初始化向量是长度为N(即元素个数为N),所有元素都置零的向量,将第一节点1216对应的一个或多个子图节点向量(例如向量1-1与向量1-2),根据各个子图节点向量对应的子图的分割轮数,拼接进第一初始化向量,得到与所述第一节点对应的第一向量(即信息节点向量)。
服务器获取与该终端1220对应的目标信息节点1221,根据该目标信息节点1221对应的目标信息节点向量1222,以及通过信息节点向量融合流程得出的各个信息节点向量,筛选出推荐的信息节点向量,并将该推荐的信息节点向量对应的信息节点的信息获取为推荐信息1223发送给终端1220。
图13是根据一示例性实施例示出的一种人体图像分割装置的结构方框图。该人像识别装置可以实现图2或图4所示实施例提供的方法中的全部或者部分步骤。该人像识别装置可以包括:
数据图获取模块1301,用于获取数据图;所述数据图包含至少两个信息节点与连接所述至少两个信息节点的边;
数据图分割模块1302,用于基于所述数据图进行T轮分割,获得数据子图;所述数据子图包括目标边界子图与T组分割子图;第i组的所述分割子图是对第i-1轮分割后得到的所述边界子图进行再分割得到的;第i-1轮分割后得到的所述边界子图是由第i-1组的所述分割子图的边界节点连接得到的;所述目标边界子图是第T轮分割后得到的所述边界子图;2≤i≤T,且i、T为整数;
图表示学习模块1303,用于基于所述数据子图的分割轮数,对所述数据子图进行图表示学习,得到数据子图中的各个信息节点对应的子图节点向量;
信息节点向量获取模块1304,用于基于所述数据子图中的各个信息节点对应的子图节点向量,得到所述至少两个信息节点对应的信息节点向量;
推荐节点获取模块1305,用于基于目标信息节点对应的信息节点向量,以及所述至少两个信息节点对应的信息节点向量,从所述至少两个信息节点中获取推荐信息节点;
推荐信息发送模块1306,用于向所述目标信息节点对应的终端,发送所述推荐信息节点对应的推荐信息。
在一种可能的实现方式中,所述数据图分割模块1302,包括:
分割参数获取单元,用于在第j轮分割时,获取分割参数;所述分割参数用于指示第j轮分割得到的所述分割子图的数量;
第一数据图分割单元,用于响应于j为1,基于所述分割参数,对所述数据图进行分割,获得第1组的所述分割子图以及第1轮分割后得到的所述边界子图;
第二数据图分割单元,用于响应于2≤j≤T,且j为整数,基于所述分割参数,对第j-1轮分割得到的所述边界子图进行分割,获得第j组的所述分割子图以及第j轮分割后得到的所述边界子图。
在一种可能的实现方式中,所述分割参数获取单元,用于,
响应于j为1,获取预设的所述分割参数;
响应于2≤j≤T,基于第j-1轮分割得到的所述边界子图中的信息节点个数,获取所述分割参数。
在一种可能的实现方式中,所述图表示学习模块1303,包括:
向量长度确定单元,用于基于所述数据子图的分割轮数,确定所述数据子图的向量长度值;所述向量长度值用于指示所述数据子图中的各个信息节点对应的子图节点向量的长度;
图表示学习单元,用于基于所述向量长度值,对所述数据子图进行图表示学习,得到所述数据子图中的各个信息节点对应的子图节点向量。
在一种可能的实现方式中,所述向量长度确定单元,还用于,
基于向量分割参数,与所述数据子图的分割轮数,确定所述数据子图的向量长度值;所述向量分割参数用于指示每一轮分割后获得的所述分割子图的向量长度值,与所述边界子图的向量长度值的比值。
在一种可能的实现方式中,所述向量长度确定单元,包括:
第一向量长度确定子单元,用于响应于分割轮数N为1,基于所述向量分割参数,将预设的初始向量长度值进行分割,确定第一轮分割获得的数据子图的向量长度值;
第二向量长度确定子单元,用于响应于2≤N≤T,且N为整数,基于所述向量分割参数,将第N-1轮分割获得的边界子图的向量长度值进行分割,确定所述第N轮分割获得的数据子图的向量长度值。
在一种可能的实现方式中,所述子图节点向量的长度是所述子图节点向量中包含的元素个数。
在一种可能的实现方式中,所述信息节点向量获取模块1304,包括:
初始化向量构建单元,用于构建所述数据子图中各个信息节点对应的初始化节点向量;
向量融合单元,用于将所述数据子图中各个信息节点对应的所述子图节点向量,与所述数据子图中各个信息节点对应的初始化节点向量进行融合,得到所述至少两个信息节点对应的信息节点向量。
在一种可能的实现方式中,所述向量融合单元,包括:
融合段确定子单元,用于基于所述数据子图的分割轮数,确定向量融合段;所述向量融合段为,所述数据子图中各个信息节点对应的所述初始化节点向量中,与所述数据子图中各个信息节点对应的所述子图节点向量的融合部分;
向量融合子单元,用于基于所述向量融合段,将所述数据子图中各个信息节点对应的所述子图节点向量,与所述数据子图中各个信息节点对应的初始化节点向量进行融合;得到所述至少两个信息节点对应的信息节点向量。
在一种可能的实现方式中,所述推荐节点获取模块1305,用于,
获取所述至少两个信息节点的信息节点向量;
将所述目标信息节点向量与所述至少两个信息节点的信息节点向量进行比较,获取所述目标信息节点向量与所述至少两个信息节点的信息节点向量的余弦相似度;
基于所述余弦相似度,在所述至少两个信息节点获取所述推荐信息节点。
在一种可能的实现方式中,所述推荐节点获取模块1305,还用于,
获取至少两个信息节点的信息节点向量;
将所述至少两个信息节点的信息节点向量与所述目标信息节点向量输入信息推荐模型,输出推荐信息节点向量;所述信息推荐模型是基于样本推荐数据训练得到的机器学习模型;所述样本推荐数据是与所述信息节点向量以及推荐信息节点向量同类型的数据;
将所述推荐信息节点向量对应的信息节点获取为推荐信息节点。
在一种可能的实现方式中,所述目标边界子图的信息节点数量小于阈值。
综上所述,在本申请实施例所示的方案中,先将数据图分割成多个分割子图与一个边界子图,再对边界子图进行递归分割,从而分割出多组分割子图以及目标边界子图,且多组分割子图与目标边界子图中的信息节点存在部分重合,通过对该多组分割子图与目标边界子图分别进行图表示学习,得出每个子图中的各个信息节点对应的子图节点向量,再根据各个信息节点对应的一个或多个子图节点向量,得到各个信息节点对应的信息节点向量。通过上述方案,可以使得通过分割后的子图学习出的信息节点向量,能够较大程度的保留原有数据图的信息,在提高图表示学习效率的同时,保证了图表示学习出的信息节点向量的准确性,也保证了推荐信息的准确性。
图14是根据一示例性实施例示出的计算机设备1400的结构框图。该计算机设备1400可以是图1所示***中的用户终端或者服务器。
通常,计算机设备1400包括有:处理器1401和存储器1402。
处理器1401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1401也可以包括主处理器和协处理器。在一些实施例中,处理器1401可以在集成有GPU(Graphics Processing Unit,图像处理器),处理器1401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1401所执行以实现本申请上述方法实施例中的全部或者部分步骤。
在一些实施例中,计算机设备实现为用户终端时,该计算机设备1400还可选包括有:***设备接口1403和至少一个***设备。处理器1401、存储器1402和***设备接口1403之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口1403相连。可选的,***设备包括:射频电路1404、显示屏1405、摄像头组件1406、音频电路1407、定位组件1408和电源1409中的至少一种。
***设备接口1403可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器1401和存储器1402。
射频电路1404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。可选地,射频电路1404包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1404可以通过至少一种无线通信协议来与其它计算机设备进行通信。在一些实施例中,射频电路1404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1405用于显示UI(User Interface,用户界面)。当显示屏1405是触摸显示屏时,显示屏1405还具有采集在显示屏1405的表面或表面上方的触摸信号的能力。
摄像头组件1406用于采集图像或视频。在一些实施例中,摄像头组件1406还可以包括闪光灯。
音频电路1407可以包括麦克风和扬声器。在一些实施例中,音频电路1407还可以包括耳机插孔。
定位组件1408用于定位计算机设备1400的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。
电源1409用于为计算机设备1400中的各个组件进行供电。
在一些实施例中,计算机设备1400还包括有一个或多个传感器1410。该一个或多个传感器1410包括但不限于:加速度传感器1411、陀螺仪传感器1412、压力传感器1413、指纹传感器1414、光学传感器1415以及接近传感器1416。
本领域技术人员可以理解,图14中示出的结构并不构成对计算机设备1400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括计算机程序(指令)的存储器,上述程序(指令)可由计算机设备的处理器执行以完成本申请各个实施例所示的方法。例如,所述非临时性计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各个实施例所示的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (15)
1.一种信息推荐方法,其特征在于,所述方法包括:
获取数据图;所述数据图包含至少两个信息节点与连接所述至少两个信息节点的边;
基于所述数据图进行T轮分割,获得数据子图;所述数据子图包括目标边界子图与T组分割子图;第i组的所述分割子图是对第i-1轮分割后得到的所述边界子图进行再分割得到的;第i-1轮分割后得到的所述边界子图是由第i-1组的所述分割子图的边界节点连接得到的;所述目标边界子图是第T轮分割后得到的所述边界子图;2≤i≤T,且i、T为整数;
基于所述数据子图的分割轮数,对所述数据子图进行图表示学习,得到所述数据子图中的各个信息节点对应的子图节点向量;
基于所述数据子图中的各个信息节点对应的子图节点向量,得到所述至少两个信息节点对应的信息节点向量;
基于目标信息节点对应的信息节点向量,以及所述至少两个信息节点对应的信息节点向量,从所述至少两个信息节点中获取推荐信息节点;所述目标信息节点是所述至少两个信息节点中的一个信息节点;所述推荐信息节点是所述至少两个信息节点中除所述目标信息节点之外的至少一个信息节点;
向所述目标信息节点对应的终端,发送所述推荐信息节点对应的推荐信息。
2.根据权利要求1所述的方法,其特征在于,所述基于所述数据图进行T轮分割,获得数据子图,所述数据子图包括目标边界子图与T组分割子图,包括:
在第j轮分割时,获取分割参数;所述分割参数用于指示第j轮分割得到的所述分割子图的数量;
响应于j为1,基于所述分割参数,对所述数据图进行分割,获得第1组的所述分割子图以及第1轮分割后得到的所述边界子图;
响应于2≤j≤T,且j为整数,基于所述分割参数,对第j-1轮分割得到的所述边界子图进行分割,获得第j组的所述分割子图以及第j轮分割后得到的所述边界子图。
3.根据权利要求2所述的方法,其特征在于,所述在第j轮分割时,获取分割参数;所述分割参数用于指示第j轮分割得到的所述分割子图的数量,包括:
响应于j为1,获取预设的所述分割参数;
响应于2≤j≤T,基于第j-1轮分割得到的所述边界子图中的信息节点个数,获取所述分割参数。
4.根据权利要求1所述的方法,其特征在于,基于所述数据子图的分割轮数,对所述数据子图进行图表示学习,得到所述数据子图中的各个信息节点对应的子图节点向量,包括:
基于所述数据子图的分割轮数,确定所述数据子图的向量长度值;所述向量长度值用于指示所述数据子图中的各个信息节点对应的子图节点向量的长度;
基于所述向量长度值,对所述数据子图进行图表示学习,得到所述数据子图中的各个信息节点对应的子图节点向量。
5.根据权利要求4所述的方法,其特征在于,所述基于所述数据子图的分割轮数,确定所述数据子图的向量长度值,包括:
基于向量分割参数,与所述数据子图的分割轮数,确定所述数据子图的向量长度值;所述向量分割参数用于指示每一轮分割后获得的所述分割子图的向量长度值,与所述边界子图的向量长度值的比值。
6.根据权利要求5所述的方法,其特征在于,所述基于向量分割参数,与所述数据子图的分割轮数,确定所述数据子图的向量长度值,还包括:
响应于分割轮数N为1,基于所述向量分割参数,将预设的初始向量长度值进行分割,确定第一轮分割获得的数据子图的向量长度值;
响应于2≤N≤T,且N为整数,基于所述向量分割参数,将第N-1轮分割获得的边界子图的向量长度值进行分割,确定所述第N轮分割获得的数据子图的向量长度值。
7.根据权利要求4所述的方法,所述子图节点向量的长度是所述子图节点向量中包含的元素个数。
8.根据权利要求1所述的方法,其特征在于,基于所述数据子图中各个信息节点对应的所述子图节点向量,得到所述至少两个信息节点对应的信息节点向量,包括:
构建所述数据子图中各个信息节点对应的初始化节点向量;
将所述数据子图中各个信息节点对应的所述子图节点向量,与所述数据子图中各个信息节点对应的初始化节点向量进行融合,得到所述至少两个信息节点对应的信息节点向量。
9.根据权利要求8所述的方法,其特征在于,所述将所述数据子图中各个信息节点对应的所述子图节点向量,与所述数据子图中各个信息节点对应的初始化节点向量进行融合,得到所述至少两个信息节点对应的信息节点向量,包括:
基于所述数据子图的分割轮数,确定向量融合段;所述向量融合段为,所述数据子图中各个信息节点对应的所述初始化节点向量中,与所述数据子图中各个信息节点对应的所述子图节点向量的融合部分;
基于所述向量融合段,将所述数据子图中各个信息节点对应的所述子图节点向量,与所述数据子图中各个信息节点对应的初始化节点向量进行融合;得到所述至少两个信息节点对应的信息节点向量。
10.根据权利要求1所述的方法,其特征在于,基于目标信息节点对应的信息节点向量,以及所述至少两个信息节点对应的信息节点向量,从所述至少两个信息节点中获取推荐信息节点,包括:
获取所述至少两个信息节点的信息节点向量;
将所述目标信息节点向量与所述至少两个信息节点的信息节点向量进行比较,获取所述目标信息节点向量与所述至少两个信息节点的信息节点向量的余弦相似度;
基于所述余弦相似度,在所述至少两个信息节点获取所述推荐信息节点。
11.根据权利要求1所述的方法,其特征在于,基于目标信息节点对应的目标信息节点向量,在所述至少两个信息节点获取推荐信息节点,包括:
获取至少两个信息节点的信息节点向量;
将所述至少两个信息节点的信息节点向量与所述目标信息节点向量输入信息推荐模型,输出推荐信息节点向量;所述信息推荐模型是基于样本推荐数据训练得到的机器学习模型;所述样本推荐数据是与所述信息节点向量以及推荐信息节点向量同类型的数据;
将所述推荐信息节点向量对应的信息节点获取为推荐信息节点。
12.根据权利要求1至11任一所述的方法,其特征在于,所述目标边界子图的信息节点数量小于阈值。
13.一种信息推荐装置,其特征在于,所述装置包括:
数据图获取模块,用于获取数据图;所述数据图包含至少两个信息节点与连接所述至少两个信息节点的边;
数据图分割模块,用于基于所述数据图进行T轮分割,获得数据子图;所述数据子图包括目标边界子图与T组分割子图;第i组的所述分割子图是对第i-1轮分割后得到的所述边界子图进行再分割得到的;第i-1轮分割后得到的所述边界子图是由第i-1组的所述分割子图的边界节点连接得到的;所述目标边界子图是第T轮分割后得到的所述边界子图;2≤i≤T,且i、T为整数;
图表示学习模块,用于基于所述数据子图的分割轮数,对所述数据子图进行图表示学习,得到数据子图中的各个信息节点对应的子图节点向量;
信息节点向量获取模块,用于基于所述数据子图中的各个信息节点对应的子图节点向量,得到所述至少两个信息节点对应的信息节点向量;
推荐节点获取模块,用于基于目标信息节点对应的信息节点向量,以及所述至少两个信息节点对应的信息节点向量,从所述至少两个信息节点中获取推荐信息节点;
推荐信息发送模块,用于向所述目标信息节点对应的终端,发送所述推荐信息节点对应的推荐信息。
14.一种计算机设备,其特征在于,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至12任一所述的信息推荐方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至12任一所述的信息推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010951346.5A CN112069412B (zh) | 2020-09-11 | 2020-09-11 | 信息推荐方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010951346.5A CN112069412B (zh) | 2020-09-11 | 2020-09-11 | 信息推荐方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112069412A true CN112069412A (zh) | 2020-12-11 |
CN112069412B CN112069412B (zh) | 2023-08-04 |
Family
ID=73696041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010951346.5A Active CN112069412B (zh) | 2020-09-11 | 2020-09-11 | 信息推荐方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112069412B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784996A (zh) * | 2020-12-31 | 2021-05-11 | 杭州海康威视数字技术股份有限公司 | 一种基于图表征的机器学习方法及*** |
CN113609377A (zh) * | 2021-07-02 | 2021-11-05 | 清华大学 | 信息推荐方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6154220A (en) * | 1998-10-19 | 2000-11-28 | Microsoft Corporation | Rectilinear layout |
DE102007044380A1 (de) * | 2007-09-17 | 2009-03-19 | Siemens Ag | Verfahren zum rechnergestützten Lernen eines probabilistischen Netzes |
US20180330331A1 (en) * | 2017-05-10 | 2018-11-15 | Accenture Global Solutions Limited | Processing relationally mapped data to generate contextual recommendations |
CN110032682A (zh) * | 2019-04-17 | 2019-07-19 | 腾讯科技(上海)有限公司 | 一种信息推荐列表生成方法、装置及设备 |
CN110321446A (zh) * | 2019-07-08 | 2019-10-11 | 深圳市华云中盛科技有限公司 | 相关数据推荐方法、装置、计算机设备及存储介质 |
-
2020
- 2020-09-11 CN CN202010951346.5A patent/CN112069412B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6154220A (en) * | 1998-10-19 | 2000-11-28 | Microsoft Corporation | Rectilinear layout |
DE102007044380A1 (de) * | 2007-09-17 | 2009-03-19 | Siemens Ag | Verfahren zum rechnergestützten Lernen eines probabilistischen Netzes |
US20180330331A1 (en) * | 2017-05-10 | 2018-11-15 | Accenture Global Solutions Limited | Processing relationally mapped data to generate contextual recommendations |
CN110032682A (zh) * | 2019-04-17 | 2019-07-19 | 腾讯科技(上海)有限公司 | 一种信息推荐列表生成方法、装置及设备 |
CN110321446A (zh) * | 2019-07-08 | 2019-10-11 | 深圳市华云中盛科技有限公司 | 相关数据推荐方法、装置、计算机设备及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784996A (zh) * | 2020-12-31 | 2021-05-11 | 杭州海康威视数字技术股份有限公司 | 一种基于图表征的机器学习方法及*** |
CN112784996B (zh) * | 2020-12-31 | 2023-06-02 | 杭州海康威视数字技术股份有限公司 | 一种基于图表征的机器学习方法及*** |
CN113609377A (zh) * | 2021-07-02 | 2021-11-05 | 清华大学 | 信息推荐方法、装置、电子设备及存储介质 |
CN113609377B (zh) * | 2021-07-02 | 2022-11-22 | 清华大学 | 信息推荐方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112069412B (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110659723B (zh) | 基于人工智能的数据处理方法、装置、介质及电子设备 | |
CN113139628B (zh) | 样本图像的识别方法、装置、设备及可读存储介质 | |
CN112035743B (zh) | 数据推荐方法、装置、计算机设备以及存储介质 | |
CN116664719B (zh) | 一种图像重绘模型训练方法、图像重绘方法及装置 | |
CN115457531A (zh) | 用于识别文本的方法和装置 | |
CN113761153A (zh) | 基于图片的问答处理方法、装置、可读介质及电子设备 | |
CN116580257A (zh) | 特征融合模型训练及样本检索方法、装置和计算机设备 | |
CN111078940A (zh) | 图像处理方法、装置、计算机存储介质及电子设备 | |
CN114298122A (zh) | 数据分类方法、装置、设备、存储介质及计算机程序产品 | |
WO2023231753A1 (zh) | 一种神经网络的训练方法、数据的处理方法以及设备 | |
CN112069412B (zh) | 信息推荐方法、装置、计算机设备及存储介质 | |
CN113515669A (zh) | 基于人工智能的数据处理方法和相关设备 | |
CN115131698A (zh) | 视频属性确定方法、装置、设备及存储介质 | |
CN114358109A (zh) | 特征提取模型训练、样本检索方法、装置和计算机设备 | |
CN112668608A (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
CN116030466B (zh) | 图像文本信息识别与处理方法、装置及计算机设备 | |
JP7479507B2 (ja) | 画像処理方法及び装置、コンピューター機器、並びにコンピュータープログラム | |
CN113822291A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN114332472A (zh) | 一种基于图神经网络的数据处理方法及装置 | |
CN113822293A (zh) | 用于图数据的模型处理方法、装置、设备及存储介质 | |
CN113515668A (zh) | 视频聚类方法及装置 | |
CN114692715A (zh) | 一种样本标注方法及装置 | |
CN112749711A (zh) | 视频获取方法和装置及存储介质 | |
Lu et al. | Action recognition based on adaptive region perception | |
CN116798052B (zh) | 文本识别模型的训练方法和装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40035254 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |