CN114925279A - 推荐模型训练方法、推荐方法以及装置 - Google Patents

推荐模型训练方法、推荐方法以及装置 Download PDF

Info

Publication number
CN114925279A
CN114925279A CN202210635074.7A CN202210635074A CN114925279A CN 114925279 A CN114925279 A CN 114925279A CN 202210635074 A CN202210635074 A CN 202210635074A CN 114925279 A CN114925279 A CN 114925279A
Authority
CN
China
Prior art keywords
sample
interaction
users
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210635074.7A
Other languages
English (en)
Other versions
CN114925279B (zh
Inventor
肖林辰
邓佳佶
于飞
许涛
陆鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202210635074.7A priority Critical patent/CN114925279B/zh
Priority claimed from CN202210635074.7A external-priority patent/CN114925279B/zh
Publication of CN114925279A publication Critical patent/CN114925279A/zh
Application granted granted Critical
Publication of CN114925279B publication Critical patent/CN114925279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供推荐模型训练方法、推荐方法以及装置,其中推荐模型训练方法包括:获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;确定少交互样本用户的嵌入编码;利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型,提高模型准确性。

Description

推荐模型训练方法、推荐方法以及装置
技术领域
本说明书实施例涉及计算机技术领域,特别涉及一种推荐模型训练方法。本说明书一个或者多个实施例同时涉及一种推荐方法、一种推荐模型训练装置、一种推荐装置、一种计算设备以及一种计算机可读存储介质。
背景技术
随着计算机技术的发展,二分图嵌入在用户推荐、广告、搜索等多领域都被广泛运用。二分图是包含两种实体(用户-项目)的图,任意一条边的两个节点分别属于两种实体。
传统推荐***基于用户-项目的历史交互信息训练,但是训练获得的推荐模型,推荐效果仍然不够理想,因此,亟需一种准确的推荐模型训练方案。
发明内容
有鉴于此,本说明书实施例提供了一种推荐模型训练方法。本说明书一个或者多个实施例同时涉及一种推荐方法、一种推荐模型训练装置、一种推荐装置、一种计算设备、一种计算机可读存储介质以及一种计算机程序,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种推荐模型训练方法,包括:
获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;
根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;
利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;
确定少交互样本用户的嵌入编码;
利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;
利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
根据本说明书实施例的第二方面,提供了一种推荐方法,包括:
获取待推荐对象,其中,待推荐对象包括待推荐用户或待推荐项目;
将待推荐对象输入训练后的推荐模型,获得推荐结果,其中,推荐模型为利用如本说明书实施例第一方面提供的推荐模型训练方法训练得到。
根据本说明书实施例的第三方面,提供了一种推荐模型训练装置,包括:
第一获取模块,被配置为获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;
筛选模块,被配置为根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;
计算模块,被配置为利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;
确定模块,被配置为确定少交互样本用户的嵌入编码;
设置模块,被配置为利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;
训练模块,被配置为利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
根据本说明书实施例的第四方面,提供了一种推荐装置,包括:
第二获取模块,被配置为获取待推荐对象;
推荐模块,被配置为将待推荐对象输入训练后的推荐模型,获得推荐结果,其中,推荐模型为利用如本说明书实施例第一方面提供的推荐模型训练方法训练得到。
根据本说明书实施例的第五方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现本说明书实施例第一方面或第二方面所提供的方法的步骤。
根据本说明书实施例的第六方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现本说明书实施例第一方面或第二方面所提供的方法的步骤。
根据本说明书实施例的第七方面,提供了一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行本说明书实施例第一方面或第二方面所提供的方法的步骤。
本说明书一个实施例提供的推荐模型训练方法,获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;确定少交互样本用户的嵌入编码;利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。通过将若干个样本用户划分为多交互样本用户和少交互样本用户,实现了对样本用户的针对性处理,充分利用多交互样本用户与样本项目的交互信息,获得具有强表达性的嵌入编码,进一步利用交互图训练基于图神经网络的初始推荐模型,使得初始推荐模型快速收敛,生成准确性高的推荐模型。
附图说明
图1是本说明书一个实施例提供的推荐模型训练方法的应用场景示意图;
图2是本说明书一个实施例提供的应用于购物场景中的一种***架构示意图;
图3是本说明书一个实施例提供的一种推荐模型训练方法的流程图;
图4是本说明书一个实施例提供的一种推荐方法的流程图;
图5是本说明书一个实施例提供的一种用户与项目之间的交互示意图;
图6是本说明书一个实施例提供的一种推荐模型训练中嵌入编码的计算过程示意图;
图7是本说明书一个实施例提供的一种推荐模型训练方法以及推荐方法的处理过程流程图;
图8是本说明书一个实施例提供的一种推荐模型训练装置的结构示意图;
图9是本说明书一个实施例提供的一种推荐装置的结构示意图;
图10是本说明书一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本说明书一个或多个实施例涉及的名词术语进行解释。
二分图:二分图是指包含两种实体(用户,项目)的图,任意一条边的两个节点分别属于两种实体。
少交互样本用户:在本说明书一个或多个实施例中,少交互样本用户是指与样本项目交互信息较少的用户,可以根据预设阈值确定。
多交互样本用户:在本说明书一个或多个实施例中,多交互样本用户是指与样本项目交互信息较多的用户,可以根据预设阈值确定,多交互样本用户也可以理解为富交互样本用户。
在本说明书中,提供了一种推荐模型训练方法,本说明书一个或者多个实施例同时涉及一种推荐方法、一种推荐模型训练装置、一种推荐装置、一种计算设备、一种计算机可读存储介质以及一种计算机程序,在下面的实施例中逐一进行详细说明。
随着计算机技术的发展,二分图嵌入在用户推荐、广告、搜索等多领域都被广泛运用。二分图是包含两种实体(用户,项目)的图,任意一条边的两个节点分别属于两种实体。
传统推荐***基于用户-项目的历史交互信息训练,通常在二分图中,不同节点之间的交互信息差异很大,对于较为稀疏的节点,由于用户节点本身没有很多产品交互行为,会导致该用户在模型训练中未被充分训练,导致预测准确性不高,推荐效果往往不够理想,因此,亟需一种准确的推荐模型训练方案。
为了提高推荐模型的普适性以及准确性,本说明书实施例一个或多个实施例提供了一种基于多交互样本用户为基础,结合用户-项目二分图预训练的方法,该方案可以针对少交互样本用户,进行准确推荐,并且,本说明书提出的方案,对应用场景不作限定,可以适用于任何二分图中,是一种通用的推荐模型训练方案。
具体地,本说明书一个实施例提供的推荐模型训练方法,获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;确定少交互样本用户的嵌入编码;利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。通过将若干个样本用户划分为多交互样本用户和少交互样本用户,实现了对样本用户的针对性处理,充分利用多交互样本用户与样本项目的交互信息,获得具有强表达性的嵌入编码,进一步利用交互图训练基于图神经网络的初始推荐模型,使得初始推荐模型快速收敛,生成准确性高的推荐模型。
参见图1,图1示出了本说明书一个实施例提供的推荐模型训练方法的应用场景示意图。如图1所示,该推荐***包括客户端和服务端;
客户端,被配置为向服务端发送若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;
服务端,被配置为获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;确定少交互样本用户的嵌入编码;利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
进一步地,服务端可以将训练后的推荐模型发送至客户端,以使客户端应用训练后的推荐模型进行推荐;或者,服务端还可以接收客户端发送的待推荐对象,利用训练后的推荐模型生成推荐结果,将推荐结果发送至客户端。
应用本说明书实施例的方案,获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;确定少交互样本用户的嵌入编码;利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。通过将若干个样本用户划分为多交互样本用户和少交互样本用户,实现了对样本用户的针对性处理,充分利用多交互样本用户与样本项目的交互信息,获得具有强表达性的嵌入编码,进一步利用交互图训练基于图神经网络的初始推荐模型,使得初始推荐模型快速收敛,生成准确性高的推荐模型。
本说明书实施例提供的一个或多个实施例,可以应用于购物场景,参见图2,图2示出了本说明书一个实施例提供的应用于购物场景中的一种***架构示意图,该***可以包括服务端210以及多个客户端200。多个客户端200之间通过服务端210可以建立通信连接,在购物场景中,服务端210即用来在多个客户端200之间提供推荐服务,多个客户端200可以分别作为发送端或接收端,通过服务端210实现实时推荐。
用户可以通过客户端200可与服务端210进行交互以接收其它客户端200发送的数据,或将数据发送至其它客户端200等。在购物场景中,可以是用户通过客户端200向服务端210发布待推荐对象以进行推荐服务请求,服务端200基于该推荐服务请求,生成推荐结果,并将该推荐结果推送至其他建立通信的客户端中。
其中,客户端200与服务端210之间通过网络建立连接。网络为客户端与服务端之间提供了通信链路的介质。网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
客户端200可以为浏览器、APP(Application,应用程序)、或网页应用如H5(HyperText Markup Language5,超文本标记语言第5版)应用、或轻应用(也被称为小程序,一种轻量级应用程序)或云应用等,客户端200可以基于服务端提供的相应服务的SDK(Software Development Kit,软件开发工具包),如基于RTC SDK开发获得等。客户端200可以部署在电子设备中,需要依赖设备运行或者设备中的某些app而运行等。电子设备例如可以具有显示屏并支持信息浏览等,如可以是个人移动终端如手机、平板电脑、个人计算机等。在电子设备中通常还可以配置各种其它类应用,例如人机对话类应用、模型训练类应用、文本处理类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
服务端210可以包括提供各种服务的服务器,例如为多个客户端提供推荐服务的服务器,又如为客户端上使用的模型提供支持的用于后台训练的服务器,又如对客户端发送的数据进行处理的服务器等。
需要说明的是,服务端210可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。服务器也可以是云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(CDN,Content Delivery Network)、以及大数据和人工智能平台等基础云计算服务的云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。
值得说明的是,本说明书实施例中提供的推荐模型训练一般由服务端执行,但是,在本说明书的其它实施例中,客户端也可以与服务端具有相似的功能,从而执行本说明书实施例所提供的推荐模型训练。在其它实施例中,本说明书实施例所提供的推荐模型训练还可以是由客户端与服务端共同执行。
参见图3,图3示出了本说明书一个实施例提供的一种推荐模型训练方法的流程图,具体包括以下步骤:
步骤302:获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息。
本说明书一个或多个实施例中,为了提高训练后的推荐模型的准确性以及普适性,可以获取大量训练样本,利用大量训练样本对初始推荐模型进行训练,以生成更为准确的推荐模型。
具体地,样本项目是指与样本用户具有交互关系的项目,项目也可以理解为产品,包括但不限于物品、商品、广告、搜索信息等,具体根据实际情况进行选择,本说明书实施例对此不做任何限定。若干个可以指多个,也可以指一个,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。样本用户与样本项目的交互信息是指样本用户与样本项目在交互的过程中产生的信息,可以是交互次数,也可以是交互满意度,还可以是交互时间等等,具体根据实际情况进行选择,本说明书实施例对此不做任何限定。一般情况下,获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息可以是人工输入大量样本用户,样本项目以及交互信息,也可以是从其他数据获取设备或者数据库中读取大量样本用户,样本项目以及交互信息,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
需要说明的是,样本用户与样本项目之间的交互可以是一对一的关系,一个用户只能与一个样本项目进行交互,例如用户1购买了商品A,用户2购买了商品B;样本用户与样本项目之间的交互也可以是一对多的关系,一个样本用户可以与多个样本项目进行交互,例如用户1购买了商品A和商品B,用户2购买了商品C和商品D;样本用户与样本项目之间的交互还可以是多对多的关系,一个样本用户可以与多个样本项目交互,同时一个样本项目也可以与多个样本用户进行交互,例如用户1购买了商品A和商品B,用户2购买了商品B和商品C。具体根据实际情况进行选择,本说明书实施例对此不做任何限定。
步骤304:根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户。
本说明书一个或多个实施例中,在获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息之后,进一步地,为了能对照顾到与样本项目交互信息少的交互样本用户,可以将若干个样本用户划分为多交互样本用户以及少交互样本用户,分别对多交互样本用户和少交互样本用户进行处理。
具体地,多交互样本用户是指与样本项目交互信息较多的用户,少交互样本用户是指与样本项目交互信息较少的用户,在实际应用中,可以根据预设阈值将样本用户划分为多交互样本用户和少交互样本用户。
需要说明的是,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
本说明书一种可选的实施方式中,可以预先设置交互信息筛选条件,筛选条件可以是筛选阈值,样本用户与样本项目的交互信息大于该交互信息筛选阈值时,将该交互信息对应的样本用户作为多交互样本用户;样本用户与样本项目的交互信息小于或等于该交互信息筛选阈值时,将该交互信息对应的样本用户作为少交互样本用户。
示例性地,假设样本用户与样本项目的交互信息为交互时间,预先设置交互信息筛选条件为2分钟,若样本用户与样本项目的交互时间为3分钟,判断3分钟大于交互信息筛选条件2分钟,则确定该样本用户为多交互样本用户;若样本用户与样本项目的交互时间为1分钟,判断1分钟小于交互信息筛选条件2分钟,则确定该样本用户为少交互样本用户;若样本用户与样本项目的交互时间为2分钟,判断2分钟等于交互信息筛选条件2分钟,则确定该样本用户为少交互样本用户。
本说明书另一种可选的实施方式中,可以计算样本用户与样本项目的交互信息占全体用户总交互信息的交互比例,根据交互比例阈值,进一步从样本用户中筛选出多交互样本用户以及少交互样本用户,在交互信息为交互次数的情况下,可以根据样本用户与样本项目的交互次数,计算交互次数占全体用户交互次数集合的交互比例,根据交互比例确定多交互样本用户以及少交互样本用户,也即,上述根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户的步骤,可以包括以下步骤:
针对若干个样本用户和若干个样本项目,计算交互次数占全体用户交互次数集合的交互比例;
根据交互比例,确定多交互样本用户以及少交互样本用户。
具体地,全体用户可以理解为获取到的若干个样本用户,交互次数集合包括若干个样本用户与若干个样本项目的交互次数。
实际应用中,可以预先设置超参数ρ(0<ρ<1),将交互次数在ρ分为以上的用户作为少交互样本用户(NKU,Non-Key User),其他用户作为多交互样本用户(KU,Key User),多交互样本用户具体可以利用以下公式(1)获得:
SKU={u∈G|Du>Percentile(ρ,DG)} (1)
其中,S是多交互样本用户的集合,u指样本用户,G是全体样本用户集合,Du是样本用户u和项目的交互次数,ρ是多交互样本用户的比例,DG是全体用户的交互次数集合。
需要说明的是,利用公式(1)计算获得多交互样本用户的集合之后,在若干个样本用户中去除多交互样本用户,剩余的即为少交互样本用户。
应用本说明书实施例的方案,在获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息之后,针对干个样本用户和若干个样本项目,计算交互次数占全体用户交互次数集合的交互比例,根据交互比例,确定多交互样本用户以及少交互样本用户,提高了筛选划分结果的准确性,使得后续可以准确对样本用户进行针对性处理。
步骤306:利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码。
本说明书一个或多个实施例中,在获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息,根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户之后,进一步地,可以利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码。
实际应用中,嵌入编码可以理解为嵌入(Embedding)表示,获取多交互样本用户的嵌入编码以及样本项目的嵌入编码的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
本说明书一种可选的实施方式中,可以利用one-hot编码获得多交互样本用户的嵌入编码以及样本项目的嵌入编码。one-hot编码,又称为一位有效编码,主要是采用N位状态寄存器来对N个状态进行编码,每个状态都有独立的寄存器位,并且在任意时候只有一位有效。one-hot编码是分类变量作为二进制向量的表示。
示例性地,比如在推荐***里,商家有5件商品,Embedding就是5维向量,第一个商品的Embedding就是[1,0,0,0,0]。
本说明书另一种可选的实施方式中,可以获取训练后的深度模型,或者预先训练生成深度模型,将多交互样本用户与样本项目的交互信息输入深度模型中,获得多交互样本用户的嵌入编码以及样本项目的嵌入编码,也即,上述利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码的步骤,可以包括以下步骤:
将多交互样本用户与样本项目的交互信息输入预先设置的深度模型中,获得多交互样本用户的嵌入编码以及样本项目的嵌入编码。
具体地,预先设置的深度模型包括但不限于Wide&Deep模型、DeepFM模型,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
示例性地,DeepFM模型包含两部分:因子分解机部分与神经网络部分,分别负责低阶特征的提取和高阶特征的提取。这两部分共享同样的嵌入层输入。通过嵌入层(embedding layer),尽管不同field的长度不同(不同离散变量的取值个数可能不同),但是embedding之后向量的长度均为K(提前设定好的embedding-size)。
应用本说明书实施例的方案,获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码,充分利用多交互样本用户与样本项目的交互信息,获得具有强表达性的嵌入编码,进一步提高了推荐模型的准确性。
步骤308:确定少交互样本用户的嵌入编码。
本说明书一个或多个实施例中,在获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息,根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户,利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码之后,进一步地,可以确定少交互样本用户的嵌入编码。
实际应用中,确定少交互样本用户的嵌入编码的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
本说明书一种可选的实施方式中,可以采用随机初始化的方式生成少交互样本用户的嵌入编码。
示例性地,假设少交互样本用户的嵌入编码为二维(x1,x2),随机初始化可以理解为将x1,x2随机从(-1,1)的区间进行采样。
本说明书另一种可选的实施方式中,可以采用相邻节点池化的方式生成少交互样本用户的嵌入编码,也即,上述确定少交互样本用户的嵌入编码的步骤,可以包括以下步骤:
确定与少交互样本用户相邻的多交互样本用户,其中,少交互样本用户与多交互样本用户有共同交互的样本项目;
对相邻的多交互样本用户的嵌入编码进行池化,生成少交互样本用户的嵌入编码。
需要说明的是,由于与少交互样本用户进行交互的样本项目,也可以被多交互样本用户交互,因此,可以利用多交互样本用户的嵌入编码,生成少交互样本用户的嵌入编码,其中,少交互样本用户与多交互样本用户有共同交互的样本项目。
具体地,加权池化的计算公式如以下公式(2):
Figure BDA0003681751640000101
其中,ev是节点v的嵌入编码,N(v)表示节点v的所有相邻节点,wi是加权的权重(如果是平均池化,wi都相同),hi是相邻节点的嵌入编码,n表示有n个节点,i表示第i个节点。
示例性地,假设少交互样本用户有两个相邻的多交互样本用户,这两个多交互样本用户的嵌入分别为(-2,0)和(-1,1),则可以对这两个相邻的多交互样本用户的嵌入进行平均加权,生成少交互样本用户的嵌入为(-1.5,0.5)。
应用本说明书实施例的方案,确定与少交互样本用户相邻的多交互样本用户,其中,少交互样本用户与多交互样本用户有共同交互的样本项目,对相邻的多交互样本用户的嵌入编码进行池化,生成少交互样本用户的嵌入编码,提高了少交互样本用户的嵌入编码的准确性,进一步提高了推荐模型的准确性。
步骤310:利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边。
本说明书一个或多个实施例中,在获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息,根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户,利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码,确定少交互样本用户的嵌入编码之后,进一步地,可以利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息。
本说明书一种可选的实施方式中,在设置交互图的节点的特征信息之前,还可以构建交互图并设置交互图中各节点的初始特征信息,也即,上述利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息的步骤之前,还可以包括以下步骤:
将若干个样本用户和若干个样本项目,确定为交互图中的各节点,并将样本用户与样本项目的交互信息确定为交互图中的边;
基于交互图中的各节点和交互图中的边构建交互图;
分别获取若干个样本用户和若干个样本项目的属性信息,并将属性信息确定为交互图中各节点的初始特征信息。
需要说明的是,在获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息之后,可以将若干个样本用户和若干个样本项目,确定为交互图中的各节点,并将样本用户与样本项目的交互信息确定为交互图中的边,此时,获得了节点和边,可以基于交互图中的各节点和交互图中的边构建交互图。构建交互图之后,可以分别获取若干个样本用户和若干个样本项目的属性信息,将样本用户的属性信息确定为样本用户的初始特征信息,将样本项目的属性信息确定为样本项目的初始特征信息。
具体地,样本用户的属性信息是指样本用户自身的属性信息,包括但不限于样本用户的工作、工号等,样本项目的属性信息是指样本项目自身的属性信息,包括但不限于样本项目的种类、价格等,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
应用本说明书实施例的方案,将若干个样本用户和若干个样本项目,确定为交互图中的各节点,并将样本用户与样本项目的交互信息确定为交互图中的边,基于交互图中的各节点和交互图中的边构建交互图,分别获取若干个样本用户和若干个样本项目的属性信息,并将属性信息确定为交互图中各节点的初始特征信息,提高了构建交互图的准确性,进一步提高了推荐模型的准确性。
实际应用中,可以直接将多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码添加至交互图中对应的各节点的初始特征信息中,生成各节点的特征信息,也即,上述利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息的步骤,可以包括以下步骤:
分别将多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码分别添加至交互图中对应的各节点的初始特征信息中,生成各节点的特征信息。
需要说明的是,交互图中各节点的初始特征信息也即各节点的属性信息。示例性地,假设交互图中多交互样本用户1的初始特征信息为工号28,则可以将该多交互样本用户1的嵌入编码1添加至多交互样本用户1的初始特征信息中,生成多交互样本用户1的特征信息为“工号28+嵌入编码1”。以相同的方式,将交互图中所有节点的初始特征信息进行更新,生成各节点的特征信息。
应用本说明书实施例的方案,分别将多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码分别添加至交互图中对应的各节点的初始特征信息中,生成各节点的特征信息,在各节点的初始特征信息中添加了强表达性的嵌入编码,提高了训练后的推荐模型的准确性与普适性。
实际应用中,还可以根据实际需求对各节点的初始特征信息进行筛选,将多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码分别添加至交互图中对应的各节点的筛选后的初始特征信息中,生成各节点的特征信息。由于对初始特征信息进行了筛选,进一步可以提高后续训练过程的训练效率。
步骤312:利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
本说明书一个或多个实施例中,在设置交互图的节点的特征信息之后,进一步地,可以利用构建的交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
具体地,图神经网络(GNN,Graph Neural Networks)是一种直接作用于图结构上的神经网络。
应用本说明书实施例的方案,获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;确定少交互样本用户的嵌入编码;利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。通过将若干个样本用户划分为多交互样本用户和少交互样本用户,实现了对样本用户的针对性处理,充分利用多交互样本用户与样本项目的交互信息,获得具有强表达性的嵌入编码,进一步利用交互图训练基于图神经网络的初始推荐模型,使得初始推荐模型快速收敛,生成准确性高的推荐模型。
实际应用中,利用标准GNN模型(i.e.GCN,GAN,GraphSage)训练图神经网络,可以将交互图输入初始推荐模型,对初始推荐模型进行训练,得到训练后的推荐模型,也即,上述利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型的步骤,可以包括以下步骤:
将交互图输入初始推荐模型,对初始推荐模型进行训练,得到训练后的推荐模型;
其中,训练的目标是最小化第一损失值与第二损失值,第一损失值根据样本用户与样本项目是否交互的预测结果与实际交互关系确定,第二损失值根据样本用户与样本项目之间相关度的预测结果与实际相关度确定。
具体地,实际交互关系是指交互图中样本用户与样本项目之间实际的交互关系,可以为0或1,0表示样本用户与样本项目没有交互关系,1表示样本用户与样本项目有交互关系,当然,1也可以表示样本用户与样本项目没有交互关系,0也可以表示样本用户与样本项目没有交互关系,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
其中,样本用户与样本项目之间的相关度是指样本用户与样本项目之间的相关程度,也可以理解为打分数值,打分数值利用打分函数确定,打分函数为score(u,v),即为用户与项目的点乘,具体利用以下公式(3)计算得到,节点v在第K+1步的嵌入编码利用以下公式(4)计算得到,节点u在第K+1步的嵌入编码利用以下公式(5)计算得到:
Figure BDA0003681751640000121
Figure BDA0003681751640000122
Figure BDA0003681751640000123
其中,u是节点v的相邻节点,
Figure BDA0003681751640000131
表示节点u在第K步时的嵌入编码,
Figure BDA0003681751640000132
表示节点v在第K步时的嵌入编码,V是交互图中所有的样本项目节点,U是交互图中所有的样本用户节点,AGGR函数是聚合函数,比如平均函数、max函数等,COMBINE(x,y)可以是ReLU(Linear(Concatx,y))),N(v)表示节点v的相邻节点,N(u)表示节点u的相邻节点。
应用本说明书实施例的方案,通过最小化第一损失值进而第二损失值,使得最终训练获得的推荐模型更加准确,普适性更高。
参见图4,图4示出了本说明书一个实施例提供的一种推荐方法的流程图,具体包括以下步骤:
步骤402:获取待推荐对象,其中,待推荐对象包括待推荐用户或待推荐项目;
步骤404:将待推荐对象输入训练后的推荐模型,获得推荐结果,其中,推荐模型为利用上述推荐模型训练方法训练得到。
本说明书一个或多个实施例中,由于推荐是双向的,因此,待推荐对象可以是待推荐用户,也可以是待推荐项目。在待推荐对象为待推荐用户的情况下,推荐结果可以是目标项目;在待推荐对象为待推荐项目的情况下,推荐结果可以是目标用户,当然,推荐结果还可以携带具体的相关度与交互关系。
应用本说明书实施例的方案,获取待推荐对象,其中,待推荐对象包括待推荐用户或待推荐项目,将待推荐对象输入训练后的推荐模型,获得推荐结果,其中,推荐模型为利用上述推荐模型训练方法训练得到,提高了推荐结果的准确性。
参见图5,图5示出了本说明书一个实施例提供的一种用户与项目之间的交互示意图,用户User包括少交互样本用户(NKU,Non-Key User),和多交互样本用户(KU,KeyUser),实线表示多交互样本用户与项目Item之间的交互信息,虚线表示少交互样本用户与项目Item之间的交互信息,由图5可知,多交互样本用户与项目Item之间的交互信息较多,少交互样本用户与项目Item之间的交互信息较少。
参见图6,图6示出了本说明书一个实施例提供的一种推荐模型训练中嵌入编码的计算过程示意图。通过获取多交互样本用户(KU)的用户ID、用户工作等信息,生成用户ID嵌入、用户工作嵌入等用户嵌入信息,获取样本产品的产品品类、产品ID等信息,生成产品品类嵌入、产品ID嵌入等产品嵌入信息。将用户嵌入与产品嵌入输入Wide&Deep模型、DeepFM模型等深度模型中,获得多交互样本用户的嵌入编码以及样本项目的嵌入编码。
下述结合附图7,以本说明书提供的推荐模型训练方法在购物场景的应用为例,对所述推荐模型训练方法进行进一步说明。其中,图7示出了本说明书一个实施例提供的一种推荐模型训练方法以及推荐方法的处理过程流程图,具体包括以下步骤:
步骤702:获取若干个样本买家,若干个样本商品,以及样本买家与样本商品的购买次数。
需要说明的是,为了提高推荐模型的准确性,训练推荐模型的过程中,可以获取购物场景下的若干个样本买家,若干个样本商品,以及样本买家与样本商品的购买次数。
步骤704:根据购买次数,从若干个样本买家中筛选出多交互样本买家以及少交互样本买家。
步骤706:利用多交互样本买家与样本商品的购买次数,计算多交互样本买家的嵌入编码以及样本商品的嵌入编码。
步骤708:确定少交互样本买家的嵌入编码。
步骤710:利用多交互样本买家的嵌入编码,样本商品的嵌入编码,以及少交互样本买家的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本买家以及样本商品为节点,根据购买次数确定边。
步骤712:利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
步骤714:获取待推荐买家。
具体地,待推荐买家是指浏览购物软件时,需要获得推荐商品的用户。
步骤716:将待推荐买家输入训练后的推荐模型,获得推荐商品。
具体地,将待推荐买家输入训练后的推荐模型,即可获得向该待推荐买家推荐的商品,如口红,包包等。
应用本说明书实施例的方案,由于嵌入是用户和项目信息的一个Dense表征,对少交互样本用户而言,在传统深度学习模型中,因为交互比较少,无法被充分训练,导致少交互样本用户的嵌入表征能力不强。由于图学习在捕捉高阶关系时效果比较好(比如少交互样本用户1和多交互样本用户1都和产品1有过交互,少交互样本用户1和多交互样本用户1之间的关系可以被捕捉),因此,本说明书实施例提供的推荐模型训练方法,先通过传统深度模型充分训练,得到部分用户和商品的嵌入编码,通过图模型将这部分信息传导至所有节点进行训练,充分利用传统深度推荐模型表达力强的优点,训练得出具有强表达性的嵌入,并结合图神经网络捕捉高阶图结构信息(如果两个用户节点中相隔K-hop),加快图学习模型收敛速度,推荐产品给少交互用户。
与上述方法实施例相对应,本说明书还提供了推荐模型训练装置实施例,图8示出了本说明书一个实施例提供的一种推荐模型训练装置的结构示意图。如图8所示,该装置包括:
第一获取模块802,被配置为获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;
筛选模块804,被配置为根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;
计算模块806,被配置为利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;
确定模块808,被配置为确定少交互样本用户的嵌入编码;
设置模块810,被配置为利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;
训练模块812,被配置为利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
可选地,交互信息包括交互次数;筛选模块804,进一步被配置为针对若干个样本用户和若干个样本项目,计算交互次数占全体用户交互次数集合的交互比例;根据交互比例,确定多交互样本用户以及少交互样本用户。
可选地,计算模块806,进一步被配置为将多交互样本用户与样本项目的交互信息输入预先设置的深度模型中,获得多交互样本用户的嵌入编码以及样本项目的嵌入编码。
可选地,确定模块808,进一步被配置为确定与少交互样本用户相邻的多交互样本用户,其中,其中,少交互样本用户与多交互样本用户有共同交互的样本项目;对相邻的多交互样本用户的嵌入编码进行池化,生成少交互样本用户的嵌入编码。
可选地,该装置还包括:构建模块,被配置为将若干个样本用户和若干个样本项目,确定为交互图中的各节点,并将样本用户与样本项目的交互信息确定为交互图中的边;基于交互图中的各节点和交互图中的边构建交互图;分别获取若干个样本用户和若干个样本项目的属性信息,并将属性信息确定为交互图中各节点的初始特征信息。
可选地,设置模块810,进一步被配置为分别将多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码分别添加至交互图中对应的各节点的初始特征信息中,生成各节点的特征信息。
可选地,训练模块812,进一步被配置为将交互图输入初始推荐模型,对初始推荐模型进行训练,得到训练后的推荐模型;其中,训练的目标是最小化第一损失值与第二损失值,第一损失值根据样本用户与样本项目是否交互的预测结果与实际交互关系确定,第二损失值根据样本用户与样本项目之间相关度的预测结果与实际相关度确定。
应用本说明书实施例的方案,获取若干个样本用户,若干个样本项目,以及样本用户与样本项目的交互信息;根据交互信息,从若干个样本用户中筛选出多交互样本用户以及少交互样本用户;利用多交互样本用户与样本项目的交互信息,计算多交互样本用户的嵌入编码以及样本项目的嵌入编码;确定少交互样本用户的嵌入编码;利用多交互样本用户的嵌入编码,样本项目的嵌入编码,以及少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,交互图中以样本用户以及样本项目为节点,根据交互信息确定边;利用交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。通过将若干个样本用户划分为多交互样本用户和少交互样本用户,实现了对样本用户的针对性处理,充分利用多交互样本用户与样本项目的交互信息,获得具有强表达性的嵌入编码,进一步利用交互图训练基于图神经网络的初始推荐模型,使得初始推荐模型快速收敛,生成准确性高的推荐模型。
上述为本实施例的一种推荐模型训练装置的示意性方案。需要说明的是,该推荐模型训练装置的技术方案与上述的推荐模型训练方法的技术方案属于同一构思,推荐模型训练装置的技术方案未详细描述的细节内容,均可以参见上述推荐模型训练方法的技术方案的描述。
与上述方法实施例相对应,本说明书还提供了推荐装置实施例,图9示出了本说明书一个实施例提供的一种推荐装置的结构示意图。如图9所示,该装置包括:
第二获取模块902,被配置为获取待推荐对象;
推荐模块904,被配置为将待推荐对象输入训练后的推荐模型,获得推荐结果,其中,推荐模型为利用如上述推荐模型训练方法训练得到。
应用本说明书实施例的方案,获取待推荐对象,其中,待推荐对象包括待推荐用户或待推荐项目,将待推荐对象输入训练后的推荐模型,获得推荐结果,其中,推荐模型为利用上述推荐模型训练方法训练得到,提高了推荐结果的准确性。
上述为本实施例的一种推荐装置的示意性方案。需要说明的是,该推荐装置的技术方案与上述的推荐方法的技术方案属于同一构思,推荐装置的技术方案未详细描述的细节内容,均可以参见上述推荐方法的技术方案的描述。
图10示出了本说明书一个实施例提供的一种计算设备1000的结构框图。该计算设备1000的部件包括但不限于存储器1010和处理器1020。处理器1020与存储器1010通过总线1030相连接,数据库1050用于保存数据。
计算设备1000还包括接入设备1040,接入设备1040使得计算设备1000能够经由一个或多个网络1060通信。这些网络的示例包括公用交换电话网(PSTN,Public SwitchedTelephone Network)、局域网(LAN,Local Area Network)、广域网(WAN,Wide AreaNetwork)、个域网(PAN,Personal Area Network)或诸如因特网的通信网络的组合。接入设备1040可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC,NetworkInterface Card))中的一个或多个,诸如IEEE802.11无线局域网(WLAN,Wireless LocalArea Networks)无线接口、全球微波互联接入(Wi-MAX,World Interoperability forMicrowave Access)接口、以太网接口、通用串行总线(USB,Universal Serial Bus)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC,Near Field Communication)接口,等等。
在本说明书的一个实施例中,计算设备1000的上述部件以及图10中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图10所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备1000可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备1000还可以是移动式或静止式的服务器。
其中,处理器1020用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述推荐模型训练方法或推荐方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的推荐模型训练方法或推荐方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述推荐模型训练方法或推荐方法的技术方案的描述。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述推荐模型训练方法或推荐方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的推荐模型训练方法或推荐方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述推荐模型训练方法或推荐方法的技术方案的描述。
本说明书一实施例还提供一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述推荐模型训练方法或推荐方法的步骤。
上述为本实施例的一种计算机程序的示意性方案。需要说明的是,该计算机程序的技术方案与上述的推荐模型训练方法或推荐方法的技术方案属于同一构思,计算机程序的技术方案未详细描述的细节内容,均可以参见上述推荐模型训练方法或推荐方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书实施例并不受所描述的动作顺序的限制,因为依据本说明书实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书实施例的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。

Claims (12)

1.一种推荐模型训练方法,包括:
获取若干个样本用户,若干个样本项目,以及所述样本用户与所述样本项目的交互信息;
根据所述交互信息,从所述若干个样本用户中筛选出多交互样本用户以及少交互样本用户;
利用所述多交互样本用户与所述样本项目的交互信息,计算所述多交互样本用户的嵌入编码以及所述样本项目的嵌入编码;
确定所述少交互样本用户的嵌入编码;
利用所述多交互样本用户的嵌入编码,所述样本项目的嵌入编码,以及所述少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,所述交互图中以所述样本用户以及所述样本项目为节点,根据所述交互信息确定边;
利用所述交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
2.根据权利要求1所述的方法,所述交互信息包括交互次数;所述根据所述交互信息,从所述若干个样本用户中筛选出多交互样本用户以及少交互样本用户的步骤,包括:
针对所述若干个样本用户和所述若干个样本项目,计算所述交互次数占全体用户交互次数集合的交互比例;
根据所述交互比例,确定所述多交互样本用户以及少交互样本用户。
3.根据权利要求1所述的方法,所述利用所述多交互样本用户与所述样本项目的交互信息,计算所述多交互样本用户的嵌入编码以及所述样本项目的嵌入编码的步骤,包括:
将所述多交互样本用户与所述样本项目的交互信息输入预先设置的深度模型中,获得所述多交互样本用户的嵌入编码以及所述样本项目的嵌入编码。
4.根据权利要求1所述的方法,所述确定所述少交互样本用户的嵌入编码的步骤,包括:
确定与所述少交互样本用户相邻的多交互样本用户,其中,所述少交互样本用户与所述多交互样本用户有共同交互的样本项目;
对所述相邻的多交互样本用户的嵌入编码进行池化,生成所述少交互样本用户的嵌入编码。
5.根据权利要求1所述的方法,所述利用所述多交互样本用户的嵌入编码,所述样本项目的嵌入编码,以及所述少交互样本用户的嵌入编码,设置交互图的节点的特征信息的步骤之前,还包括:
将所述若干个样本用户和所述若干个样本项目,确定为交互图中的各节点,并将所述样本用户与所述样本项目的交互信息确定为所述交互图中的边;
基于所述交互图中的各节点和所述交互图中的边构建交互图;
分别获取所述若干个样本用户和所述若干个样本项目的属性信息,并将所述属性信息确定为所述交互图中各节点的初始特征信息。
6.根据权利要求1所述的方法,所述利用所述多交互样本用户的嵌入编码,所述样本项目的嵌入编码,以及所述少交互样本用户的嵌入编码,设置交互图的节点的特征信息的步骤,包括:
分别将所述多交互样本用户的嵌入编码,所述样本项目的嵌入编码,以及所述少交互样本用户的嵌入编码分别添加至所述交互图中对应的各节点的初始特征信息中,生成所述各节点的特征信息。
7.根据权利要求1所述的方法,所述利用所述交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型的步骤,包括:
将所述交互图输入所述初始推荐模型,对所述初始推荐模型进行训练,得到训练后的推荐模型;
其中,所述训练的目标是最小化第一损失值与第二损失值,所述第一损失值根据所述样本用户与所述样本项目是否交互的预测结果与实际交互关系确定,所述第二损失值根据所述样本用户与所述样本项目之间相关度的预测结果与实际相关度确定。
8.一种推荐方法,包括:
获取待推荐对象,其中,所述待推荐对象包括待推荐用户或待推荐项目;
将所述待推荐对象输入训练后的推荐模型,获得推荐结果,其中,所述推荐模型为利用如权利要求1-7任一项所述的方法训练得到。
9.一种推荐模型训练装置,包括:
第一获取模块,被配置为获取若干个样本用户,若干个样本项目,以及所述样本用户与所述样本项目的交互信息;
筛选模块,被配置为根据所述交互信息,从所述若干个样本用户中筛选出多交互样本用户以及少交互样本用户;
计算模块,被配置为利用所述多交互样本用户与所述样本项目的交互信息,计算所述多交互样本用户的嵌入编码以及所述样本项目的嵌入编码;
确定模块,被配置为确定所述少交互样本用户的嵌入编码;
设置模块,被配置为利用所述多交互样本用户的嵌入编码,所述样本项目的嵌入编码,以及所述少交互样本用户的嵌入编码,设置交互图的节点的特征信息,其中,所述交互图中以所述样本用户以及所述样本项目为节点,根据所述交互信息确定边;
训练模块,被配置为利用所述交互图训练基于图神经网络的初始推荐模型,获得训练后的推荐模型。
10.一种推荐装置,包括:
第二获取模块,被配置为获取待推荐对象;
推荐模块,被配置为将所述待推荐对象输入训练后的推荐模型,获得推荐结果,其中,所述推荐模型为利用如权利要求1-7任一项所述的方法训练得到。
11.一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至7或权利要求8任意一项所述方法的步骤。
12.一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至7或权利要求8任意一项所述方法的步骤。
CN202210635074.7A 2022-06-07 推荐模型训练方法、推荐方法以及装置 Active CN114925279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210635074.7A CN114925279B (zh) 2022-06-07 推荐模型训练方法、推荐方法以及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210635074.7A CN114925279B (zh) 2022-06-07 推荐模型训练方法、推荐方法以及装置

Publications (2)

Publication Number Publication Date
CN114925279A true CN114925279A (zh) 2022-08-19
CN114925279B CN114925279B (zh) 2024-07-23

Family

ID=

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110046952A (zh) * 2019-01-30 2019-07-23 阿里巴巴集团控股有限公司 一种推荐模型的训练方法及装置、一种推荐方法及装置
CN110879864A (zh) * 2019-10-29 2020-03-13 南京大学 一种基于图神经网络和注意力机制的上下文推荐方法
US10650432B1 (en) * 2016-11-28 2020-05-12 Amazon Technologies, Inc. Recommendation system using improved neural network
CN111723292A (zh) * 2020-06-24 2020-09-29 携程计算机技术(上海)有限公司 基于图神经网络的推荐方法、***、电子设备及存储介质
CN112035683A (zh) * 2020-09-30 2020-12-04 北京百度网讯科技有限公司 用户交互信息处理模型生成方法和用户交互信息处理方法
US20210174164A1 (en) * 2019-12-09 2021-06-10 Miso Technologies Inc. System and method for a personalized search and discovery engine
CN113240490A (zh) * 2021-05-18 2021-08-10 中国人民大学 一种基于图神经网络的智能服务交易推荐方法及***
US20210248513A1 (en) * 2020-09-02 2021-08-12 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for training online prediction model, device and storage medium
US20210248449A1 (en) * 2020-02-12 2021-08-12 Jianing Sun Recommender system using bayesian graph convolution networks
US20210312290A1 (en) * 2020-11-16 2021-10-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method for recommending object, computing device and computer-readable storage medium
CN113538079A (zh) * 2020-04-17 2021-10-22 北京金山数字娱乐科技有限公司 一种推荐模型的训练方法及装置、一种推荐方法及装置
CN113761388A (zh) * 2021-07-26 2021-12-07 清华大学 一种推荐方法、装置、电子设备及存储介质
SG11202107143QA (en) * 2020-05-27 2021-12-30 Baidu online network technology beijing co ltd Voice packet recommendation method and apparatus, device and storage medium
CN114065048A (zh) * 2021-11-25 2022-02-18 西安电子科技大学 基于多异构图图神经网络的物品推荐方法
CN114461871A (zh) * 2021-12-21 2022-05-10 北京达佳互联信息技术有限公司 推荐模型训练方法、对象推荐方法、装置及存储介质
CN114491263A (zh) * 2022-01-27 2022-05-13 浙江大学 推荐模型训练方法及装置、推荐方法及装置
CN114519145A (zh) * 2022-02-22 2022-05-20 哈尔滨工程大学 一种基于图神经网络挖掘用户长短期兴趣的序列推荐方法

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650432B1 (en) * 2016-11-28 2020-05-12 Amazon Technologies, Inc. Recommendation system using improved neural network
CN110046952A (zh) * 2019-01-30 2019-07-23 阿里巴巴集团控股有限公司 一种推荐模型的训练方法及装置、一种推荐方法及装置
CN110879864A (zh) * 2019-10-29 2020-03-13 南京大学 一种基于图神经网络和注意力机制的上下文推荐方法
US20210174164A1 (en) * 2019-12-09 2021-06-10 Miso Technologies Inc. System and method for a personalized search and discovery engine
US20210248449A1 (en) * 2020-02-12 2021-08-12 Jianing Sun Recommender system using bayesian graph convolution networks
CN113538079A (zh) * 2020-04-17 2021-10-22 北京金山数字娱乐科技有限公司 一种推荐模型的训练方法及装置、一种推荐方法及装置
SG11202107143QA (en) * 2020-05-27 2021-12-30 Baidu online network technology beijing co ltd Voice packet recommendation method and apparatus, device and storage medium
CN111723292A (zh) * 2020-06-24 2020-09-29 携程计算机技术(上海)有限公司 基于图神经网络的推荐方法、***、电子设备及存储介质
US20210248513A1 (en) * 2020-09-02 2021-08-12 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for training online prediction model, device and storage medium
CN112035683A (zh) * 2020-09-30 2020-12-04 北京百度网讯科技有限公司 用户交互信息处理模型生成方法和用户交互信息处理方法
US20210209446A1 (en) * 2020-09-30 2021-07-08 Beijing Baidu Netcom Science And Technology Co., Ltd. Method for generating user interactive information processing model and method for processing user interactive information
US20210312290A1 (en) * 2020-11-16 2021-10-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method for recommending object, computing device and computer-readable storage medium
CN113240490A (zh) * 2021-05-18 2021-08-10 中国人民大学 一种基于图神经网络的智能服务交易推荐方法及***
CN113761388A (zh) * 2021-07-26 2021-12-07 清华大学 一种推荐方法、装置、电子设备及存储介质
CN114065048A (zh) * 2021-11-25 2022-02-18 西安电子科技大学 基于多异构图图神经网络的物品推荐方法
CN114461871A (zh) * 2021-12-21 2022-05-10 北京达佳互联信息技术有限公司 推荐模型训练方法、对象推荐方法、装置及存储介质
CN114491263A (zh) * 2022-01-27 2022-05-13 浙江大学 推荐模型训练方法及装置、推荐方法及装置
CN114519145A (zh) * 2022-02-22 2022-05-20 哈尔滨工程大学 一种基于图神经网络挖掘用户长短期兴趣的序列推荐方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李淑芝;余乐陶;邓小鸿;李志军;: "结合Skip-gram和加权损失函数的神经网络推荐模型", 计算机工程与应用, no. 19 *

Similar Documents

Publication Publication Date Title
CN110428058B (zh) 联邦学习模型训练方法、装置、终端设备及存储介质
CN111368219B (zh) 信息推荐方法、装置、计算机设备以及存储介质
Bickel et al. A nonparametric view of network models and Newman–Girvan and other modularities
CN112035743B (zh) 数据推荐方法、装置、计算机设备以及存储介质
CN111291170B (zh) 一种基于智能客服的会话推荐方法及相关装置
CN106354856B (zh) 基于人工智能的深度神经网络强化搜索方法和装置
CN111008335B (zh) 一种信息处理方法、装置、设备及存储介质
US11244153B2 (en) Method and apparatus for processing information
CN112925973B (zh) 数据处理方法和装置
CN113379449B (zh) 多媒体资源召回方法、装置、电子设备以及存储介质
CN113051480A (zh) 资源推送方法、装置、电子设备及存储介质
CN115660116A (zh) 基于稀疏适配器的联邦学习方法及***
CN110059172B (zh) 基于自然语言理解的推荐答案的方法和装置
CN111767953B (zh) 用于训练物品编码模型的方法和装置
CN111667018B (zh) 一种对象聚类的方法、装置、计算机可读介质及电子设备
WO2022162677A1 (en) Distributed machine learning with new labels using heterogeneous label distribution
CN113450167A (zh) 一种商品推荐方法和装置
CN113516524B (zh) 用于推送信息的方法和装置
CN111787042A (zh) 用于推送信息的方法和装置
CN112100507B (zh) 对象推荐的方法、计算设备和计算机可读存储介质
CN115564532A (zh) 序列推荐模型的训练方法及装置
CN114925279A (zh) 推荐模型训练方法、推荐方法以及装置
CN114925279B (zh) 推荐模型训练方法、推荐方法以及装置
CN111459990B (zh) 对象处理方法、***及计算机可读存储介质和计算机设备
CN114780847A (zh) 一种对象信息处理、信息推送方法、装置和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant