CN115470397B - 内容推荐方法、装置、计算机设备和存储介质 - Google Patents

内容推荐方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN115470397B
CN115470397B CN202110651154.7A CN202110651154A CN115470397B CN 115470397 B CN115470397 B CN 115470397B CN 202110651154 A CN202110651154 A CN 202110651154A CN 115470397 B CN115470397 B CN 115470397B
Authority
CN
China
Prior art keywords
sample
content
content recommendation
model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110651154.7A
Other languages
English (en)
Other versions
CN115470397A (zh
Inventor
王良栋
张博
刘书凯
丘志杰
饶君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202110651154.7A priority Critical patent/CN115470397B/zh
Publication of CN115470397A publication Critical patent/CN115470397A/zh
Application granted granted Critical
Publication of CN115470397B publication Critical patent/CN115470397B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种内容推荐方法、装置、计算机设备和存储介质,方法包括:响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;将用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;获取训练确定的内容推荐增量模型输出的推荐内容;其中,内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,目标分享回流量根据通过训练确定的内容推荐全量模型确定。上述方法中利用训练好的内容推荐全量模型可以输出较为准确的目标分享回流量,内容推荐增量模型基于较少的数据进行训练,模型更新较快,在增量模型中结合训练好的全量模型输出的目标分享回流量,训练的增量模型可以推荐更加精准的个性化内容。

Description

内容推荐方法、装置、计算机设备和存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种内容推荐方法、装置、计算机设备和存储介质。
背景技术
在推荐***的召回阶段可以理解为根据用户的历史行为数据,为用户在海量的信息中粗选一批待推荐的内容,挑选出一个小的候选集的过程。推荐***中,通常依赖诸多数据进行分析和训练,以得到更加精准的个性化推荐。在诸多数据分析中,用户回流数据是其中之一。
在结合回流数据进行个性化内容推荐时,目前所采用的方法,通常是将每日产生的所有数据通过内容推荐全量模型进行训练,并通过训练得到的模型来预估新内容所能产生的回流数据,然后内容推荐全量模型基于预估的回流数据进行内容推荐。然而这种方式中所需的样本数据的获取及整合有延时,模型更新较慢,使用这类型模型推荐的内容效果较差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提升推荐效果的内容推荐方法、装置、计算机设备和存储介质。
一种内容推荐方法,所述方法包括:
响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;
将所述用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;
获取所述训练确定的内容推荐增量模型输出的推荐内容;其中,所述内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,所述目标分享回流量根据通过训练确定的内容推荐全量模型确定。
一种内容推荐装置,所述装置包括:
获取模块,用于响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;
输入模块,用于将所述用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;
结果获取模块,用于获取所述训练确定的内容推荐增量模型输出的推荐内容;其中,所述内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,所述目标分享回流量根据通过训练确定的内容推荐全量模型确定。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;
将所述用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;
获取所述训练确定的内容推荐增量模型输出的推荐内容;其中,所述内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,所述目标分享回流量根据通过训练确定的内容推荐全量模型确定。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;
将所述用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;
获取所述训练确定的内容推荐增量模型输出的推荐内容;其中,所述内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,所述目标分享回流量根据通过训练确定的内容推荐全量模型确定。
上述内容推荐方法、装置、计算机设备和存储介质,对于待推荐用户,获取其用户画像、用户历史行为序列,将用户画像和用户历史行为序列输入到通过训练确定的内容推荐增量模型中,获取内容推荐增量模型输出的推荐内容;其中,内容推荐增量模型是基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定的,而目标分享回流量又是从通过训练确定的内容推荐全量模型获得。上述方法中的内容推荐全量模型可以基于较完整的数据进行训练,训练好的内容推荐全量模型可以输出较为准确的目标分享回流量,而内容推荐增量模型可以基于较少的数据进行训练,模型更新较快,同时内容推荐增量模型结合训练好的内容推荐全量模型输出的目标分享回流量,训练得到的增量模型可以推荐更加精准的个性化内容。
附图说明
图1为一个实施例中内容推荐方法的应用环境图;
图2为一个实施例中内容推荐方法的流程示意图;
图3为一个实施例中内容推荐增量模型的训练过程的流程示意图;
图4为一个实施例中基于第一样本用户信息以及通过训练确定的内容推荐全量模型,获取目标分享回流量流程示意图;
图5为一个实施例中内容推荐全量模型的训练过程的流程示意图;
图6为一个具体实施例中全量模型的结构示意图;
图7为一个具体实施例中增量模型的结构示意图;
图8为一个实施例中内容推荐装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的内容推荐方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。响应于终端102触发的内容推荐事件时,获取对应的待推荐用户,获取其对应的用户画像、用户历史行为序列等信息,将用户画像和用户历史行为序列输入到通过训练确定的内容推荐增量模型中,获取内容推荐增量模型输出的推荐内容;其中,内容推荐增量模型是基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定的,而目标分享回流量又是从通过训练确定的内容推荐全量模型获得。其中,内容推荐增量模型和内容推荐全量模型可以是在服务器104中训练确定并存储。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
在一个实施例中,如图2所示,提供了一种内容推荐方法,以该方法应用于图1中的服务器为例进行说明,可以理解地,在另一些实施例中,上述方法也可以应用于图1中的终端。在本实施例中,上述方法包括步骤S210至步骤S230。
步骤S210,响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列。
其中,内容推荐事件表示需要进行内容推荐的事件;在一个实施例中,内容推荐事件可以根据实际情况进行自定义。例如在一个具体实施例中,当检测到目标应用程序启动事件时,判定为监测到内容推荐事件;其中,目标应用程序可以是内容浏览应用程序,如视频播放应用程序、新闻事件应用程序等,也可以是内容浏览小程序等等。在另一个具体实施例中,当检测到内容加载操作时,判定为监测到内容推荐事件;在本实施例中,内容加载操作也可以根据实际情况进行定义,例如在应用程序中的首页向下滑动以请求加载更多内容,等等。在一个实施例中,内容可以表示图片、视频、音频、文章等等不同的内容,用户可以在终端中浏览内容。
待推荐用户表示需要进行内容推荐的用户;在一个实施例中,在监听到内容推荐事件时,获取内容推荐事件对应的需要进行内容推荐的用户,然后根据用户获取相关的用户信息,包括用户画像、用户历史行为序列等等;进一步地,可以通过获取用户标识作为待推荐用户。
用户画像又称用户角色,作为一种勾画目标用户、联系用户诉求与设计方向的有效工具,用户画像在各领域得到了广泛的应用。在本实施例中,用户历史行为序列表示用户与内容相关联的历史行为序列;进一步地,在一个实施例中,用户历史行为序列可以包括用户浏览内容的内容浏览记录、对于浏览的各内容的浏览操作记录(如转发、点赞、评论、收藏等等)等信息。更进一步地,待推荐用户的用户画像、用户历史行为记录可以从预设数据库中获取,预设数据库中存储了各用户的相关用户信息;在其它实施例中,待推荐用户的用户画像、用户历史行为记录也可以从待推荐用户所在终端的数据库中获取,终端的数据库中存储了所在终端对应用户的相关用户信息。在其它实施例中,待推荐用户的用户画像、用户历史行为记录也可以通过其它方式获取。
在一个具体实施例中,用户在终端打开内容浏览应用程序首页,或者在内容浏览应用程序首页请求加载更多内容时,服务器判定为监测到内容推荐事件,响应于该内容推荐事件获取对应的用户标识,并根据用户标识获取该待推荐用户的用户画像、用户历史行为记录。
步骤S220,将用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型。
其中,增量模型表示以增量数据为基础构建的模型,增量数据表示一段时间内更新的数据。与内容推荐增量模型对应的模型包括全量模型,全量模型表示以全量数据为基础构建的模型,全量数据表示所有的数据。在一个实施例中,增量数据与全量数据为相对的概念,增量数据表示一小段时间内(如1小时)更新的数据,而全量数据表示一大段时间内(如8天)更新的数据。在本实施例中,增量模型用于对用户进行内容推荐,记为内容推荐增量模型。
在本实施例中,内容推荐增量模型是预先经过训练确定的,而内容推荐增量模型的训练过程将在后续实施例中详细描述,在此不再赘述。
步骤S230,获取训练确定的内容推荐增量模型输出的推荐内容;其中,内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,目标分享回流量根据通过训练确定的内容推荐全量模型确定。
其中,推荐场景中,用户分享一个视频到群聊或者单聊中,可能被点击从而进入新用户到推荐场景;本实施例中的分享回流量表示一次用户分享后能带入多少用户到访,分享回流量对于推荐场景影响较大,尤其对日活量。
内容推荐增量模型在训练好后,可以用于为用户进行内容推荐,在本实施例中,将获取的待推荐用户的用户画像、用户历史行为序列输入训练确定的内容推荐增量模型,即可获取到内容推荐增量模型输出的推荐内容。
在本实施例中,内容推荐增量模型是基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定的,而目标分享回流量表示的是由训练好的内容推荐全量模型的输出结果。在一个实施例中,目标分享回流量表示训练好的内容推荐全量模型对于输入的数据输出的预估分享回流量;由于内容推荐全量模型已经通过训练,输出的预估分享回流量较为接近真实可能的分享回流量,因此在本实施例中,利用训练好的内容推荐全量模型的输出结果中的目标分享回流量作为内容推荐增量模型的伪标签,对于内容推荐增量模型进行训练。
进一步地,在一个具体实施例中,通过训练确定的内容推荐全量模型的输入数据为内容推荐增量模型的样本数据;即在对内容推荐增量模型进行训练时,首先获取样本数据,将样本数据输入训练好的内容推荐全量模型,获取输出结果中的目标分享回流量,将目标分享回流量作为内容推荐增量模型的输入进行训练。在一个实施例中,将目标分享回流量作为内容推荐增量模型的输入进行训练,具体是将目标分享回流量作为内容推荐增量模型的伪标签进行训练。伪标签表示将测试集中判断结果正确的置信度高的样本加入到训练集中,在本实施例中用训练好的全量模型输出的预估结果作为增量模型的训练样本数据。
进一步地,通过训练确定的全量模型用于辅助训练内容推荐增量模型,在本实施例中记为内容推荐全量模型。对于全量模型的训练过程也将在后续实施例中详细描述,在此不再赘述。
在一个实施例中,内容推荐增量模型与内容推荐全量模型的基础架构相同。
进一步地,在一个实施例中,通过训练确定的增量模型输出推荐内容的过程包括:根据用户画像、用户历史行为序列,确定分享目标预测向量、播放目标预测向量以及预测分享回流量,将分享目标预测向量、播放目标预测向量以及预测分享回流量合并,得到一个推荐向量,根据该推荐向量在预设数据库中进行匹配,选择相似度较大的内容作为推荐内容。其中,预设数据库中存储了内容属性嵌入、内容嵌入、用户行为嵌入、上下文环境嵌入,内容属性嵌入、内容嵌入、用户行为嵌入、上下文环境嵌入是在增量模型的训练过程中确定并存储的。
进一步地,在一个具体实施例中,将分享目标预测向量、播放目标预测向量以及预测分享回流量合并,得到一个推荐向量,包括:将预测分享回流量与分享目标预测向量的乘积,计算播放目标预测向量与乘积的和值,作为推荐向量。
上述内容推荐方法,对于待推荐用户,获取其用户画像、用户历史行为序列,将用户画像和用户历史行为序列输入到通过训练确定的内容推荐增量模型中,获取内容推荐增量模型输出的推荐内容;其中,内容推荐增量模型是基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定的,而目标分享回流量又是从通过训练确定的内容推荐全量模型获得。上述方法中的内容推荐全量模型可以基于较完整的数据进行训练,训练好的内容推荐全量模型可以输出较为准确的目标分享回流量,而内容推荐增量模型可以基于较少的数据进行训练,模型更新较快,同时内容推荐增量模型结合训练好的内容推荐全量模型输出的目标分享回流量,训练得到的增量模型可以推荐更加精准的个性化内容。
在一个实施例中,如图3所示,内容推荐增量模型的训练过程包括步骤S310至步骤S340。
步骤S310,获取第一样本用户信息,第一样本用户信息包括:第一样本用户画像、第一样本用户行为序列。
其中,样本用户信息表示用于训练模型的样本信息,具体包括用户的画像、用户行为序列,在本实施例中,分别记为第一样本用户画像、第一样本用户行为序列。在一个实施例中,用于训练内容推荐增量模型的第一样本信息为第一历史时间段内的用户信息,第一历史时间段可以根据实际情况进行设置,例如设置为1小时、5小时、8小时等等。需要说明的是,在本申请的实施例中,所涉及“第一”、“第二”仅用于区分命名,并不表示任何实际含义。
步骤S320,基于第一样本用户信息以及通过训练确定的内容推荐全量模型,获取目标分享回流量。
其中,内容推荐增量模型是基于目标分享回流量确定的,而目标分享回流量是训练好的内容推荐全量模型输出的,而在本实施例中,基于第一样本用户信息和训练好的内容推荐全量模型,得到目标分享回流量。
进一步地,在一个实施例中, 如图4所示,基于第一样本用户信息以及通过训练确定的内容推荐全量模型,获取目标分享回流量,包括步骤S321至步骤S323。其中:
步骤S321,根据第一样本用户行为序列,得到第一样本用户行为序列中各内容的第一样本内容属性。
其中,内容的属性可以用于反映内容的信息,一个内容的属性通常包含多个,比如内容的标签,内容类别等属性;例如内容为视频时,内容的属性可以是视频的分类、二级分类信息,如标签,实体,多媒体属性,标题分词等。
在一个实施例中,用户行为序列中包含了用户对于内容的浏览记录,根据用户行为序列可以获知用户行为序列中出现的各内容,进而可以得到各用户行为序列中各内容的内容属性。在本实施例中,用户行为序列和内容属性用于训练内容推荐增量模型,因此分别记为第一样本用户行为序列、第一样本内容属性。
步骤S322,将第一样本用户信息、第一样本内容属性输入通过训练确定的内容推荐全量模型。
由于内容推荐全量模型已经通过训练,对于输入的第一样本用户信息、第一样本内容属性,可以输出对应的目标分享回流量;训练的内容推荐全量模型的目的是在用户与内容进行交互时,尽可能准确的预测该内容被用户分享后所能得到的回流量数据。
步骤S323,获取通过训练确定的内容推荐全量模型输出的目标分享回流量。
在一个实施例中,将第一样本用户信息、第一样本内容属性输入训练好的内容推荐全量模型之后,内容推荐全量模型基于第一样本用户信息(第一样本用户画像、第一样本用户行为序列)输出第一目标分享回流量、基于第一样本内容属性输出第二目标分享回流量。
进一步地,在一个具体实施例中,内容推荐全量模型基于第一样本用户信息输出第一目标分享回流量,包括:根据第一样本用户画像、第一样本用户行为序列,得到对应的全量样本画像向量、全量样本序列向量;将各全量样本画像向量合并得到全量样本画像综合向量,将各全量样本序列向量合并得到全量样本序列综合向量;基于全量样本画像综合向量、全量样本序列综合向量经过注意力机制的处理,得到全量内容属性综合向量;将全量样本画像综合向量、全量样本序列综合向量以及全量内容属性进行综合,得到全量用户综合向量,对全量用户综合向量进行多目标优化处理,得到全量用户行为预估结果,以及第一全量预估分享回流量,即第一目标分享回流量。内容推荐全量模型基于第一样本内容属性输出第二目标分享回流量,包括:对第一样本内容属性经过注意力机制的处理,再经过全连接层的处理,得到第二预估分享回流量,即第二目标分享回流量。在一个实施例中,全量用户行为预估结果包括全量预估分享内容向量、全量预估播放内容向量。进一步地,全量预估分享内容向量表示全量模型预测的用户倾向于分享的内容的向量,全量预估播放内容向量表示全量模型预测的用户倾向于播放的内容的向量。在一个实施例中,多目标是指包括了点击目标以外的时长、分享、点赞、评论、回流量等其他跟用户体验息息相关的推荐指标。
需要说明的是,本实施例中“全量样本画像向量”、“全量样本序列向量”、“全量样本画像综合向量”、“全量样本序列综合向量”等中的“全量”仅用于表示是全量模型中涉及的参数。
进一步地,在一个实施例中,训练好的全量模型将各全量样本画像向量合并得到全量样本画像综合向量,将各全量样本序列向量合并得到全量样本序列综合向量,可以通过任意一种方式实现。在一个实施例中,对于各全量样本用户画像进行加权平均,得到全量样本画像综合向量;对于各全量样本序列向量进行加权平均,得到全量样本序列综合向量。更进一步地,在一个具体实施例中,可以利用一层transformer层得到全量样本画像综合向量;可以利用两层加权transformer层得到全量样本序列综合向量。
在一个实施例中,第一样本用户画像中的各样本用户画像对应的向量经过transformer层的处理,输出一个综合向量,即本实施例中的全量样本画像综合向量。第一样本用户行为序列中的各用户行为序列对应的向量经过两层transformer层的处理,输出一个综合向量,即本实施例中的全量样本序列综合向量。第一样本用户行为序列中涉及的各内容的内容属性,通过注意力机制的处理,输出一个综合向量,即本实施例中的全量内容属性综合向量。
本实施例中,将用于训练内容推荐增量模型的第一样本用户信息,以及基于第一样本用户信息得到的各样本内容属性,输入到训练好的内容推荐全量模型,获取全量模型输出的对应的预估分享回流量作为目标分享回流量,用于训练增量模型。由于全量模型的训练过程中使用的数据较为全面,训练好的全量模型对于输入数据输出对应的预估分享回流量与真实分享回流量较为接近,因此用全量模型输出的预估回流量作为内容推荐增量模型的训练样本数据,有助于帮助训练得到效果更好的内容推荐增量模型。
步骤S330,基于第一样本用户信息计算第一采样损失,基于第一样本用户信息、目标分享回流量计算第一分享回流量损失。
其中,计算采样损失、分享回流量损失时采用的损失函数可以是任意一种损失函数。
在一个实施例中,基于第一样本用户信息计算第一采样损失,基于第一样本用户信息、目标分享回流量计算第一分享回流量损失,包括:将第一样本用户信息输入预设增量模型,预设增量模型基于第一样本用户信息进行预估,得到中间增量用户行为预估结果和中间增量分享回流量预估结果;而根据第一样本用户信息可以得到对应的标注信息,根据该中间增量用户行为预估结果和标注信息可以计算对应的用户行为对应的损失函数值(本实施例中记为第一采样损失);根据中间增量分享回流量预估结果和目标分享回流量可以确定分享回流量对应的损失函数值(本实施例中记为第一分享回流量损失)。在一个具体实施例中,中间增量用户行为预估结果包括中间增量分享内容向量、中间增量播放内容向量;相应地,第一样本用户信息对应的标注信息包括:分享内容标注、播放内容标注。
进一步地,在其中的一个实施例中,将第一样本用户信息输入预设增量模型,预设增量模型基于第一样本用户信息进行预估,得到中间增量用户行为预估结果和中间增量分享回流量预估结果,包括步骤:预设增量模型根据第一样本用户画像、第一样本用户行为序列,得到对应的增量样本画像向量、增量样本序列向量;将各增量样本画像向量合并得到增量样本画像综合向量,将各增量样本序列向量合并得到增量样本序列综合向量;基于增量样本画像综合向量、增量样本序列综合向量经过注意力机制的处理,得到增量内容属性综合向量;将增量样本画像综合向量、增量样本序列综合向量以及增量内容属性进行综合,得到增量用户综合向量,对增量用户综合向量进行多目标优化处理,得到中间增量用户行为预估结果,以及中间增量分享回流量预估结果。
需要说明的是,本实施例中“增量样本画像向量”、“增量样本序列向量”、“增量样本画像综合向量”、“增量样本序列综合向量”等中的“增量”仅用于表示是增量模型中涉及的结果。
进一步地,在一个实施例中,预设增量模型将各增量样本画像向量合并得到增量样本画像综合向量,将各增量样本序列向量合并得到增量样本序列综合向量,可以通过任意一种方式实现。在一个实施例中,对于各增量样本用户画像进行加权平均,得到增量样本画像综合向量;对于各增量样本序列向量进行加权平均,得到增量样本序列综合向量。更进一步地,在一个具体实施例中,可以利用一层transformer层得到增量样本画像综合向量;可以利用两层加权transformer层得到增量样本序列综合向量。
在一个实施例中,第一样本用户画像中的各样本用户画像对应的向量经过transformer层的处理,输出一个综合向量,即本实施例中的增量样本画像综合向量。第一样本用户行为序列中的各用户行为序列对应的向量经过两层transformer层的处理,输出一个综合向量,即本实施例中的增量样本序列综合向量。第一样本用户行为序列中涉及的各内容的内容属性,通过注意力机制的处理,输出一个综合向量,即本实施例中的增量内容属性综合向量。
步骤S340,根据第一采样损失、第一分享回流量损失对预设增量模型进行训练,得到训练确定的内容推荐增量模型。
进一步地,在根据第一样本用户信息、目标分享回流量确定两部分损失函数值(第一采样损失、第一分享回流量损失)之后,基于损失函数值可以调整预设增量模型的参数,然后重复这个过程直至达到模型训练的停止条件(可以根据实际情况自定义成任意一种条件),最终根据达到模型训练的停止条件时的模型参数,得到训练好的内容推荐增量模型。
本实施例中,详细描述了如何训练得到内容推荐增量模型,将用于训练增量模型的第一样本用户信息输入到训练好的内容推荐全量模型,获取全量模型输出的目标分享回流量作为增量模型的输入进行训练,由于训练好的内容推荐全量模型预测得到的目标分享回流量接近于真实分享回流量,基于目标分享回流量训练得到内容推荐增量模型的推荐效果更好。
在一个实施例中,采用正则化方式对于目标分享回流量进行约束。
正则化就是针对特征,针对模型的一种限制算法。在一个实施例中,可以采用任意一种正则化方式对目标分享回流量进行约束;例如L1正则化方式、L2正则化方式等等。进一步地,正则化的具体过程为任意一种现有技术,在此不再赘述。
头部内容的回流量不会轻易的变化,所以用于锚定参考基准最为合适,因此在本实施例中采用正则化方式对目标分享回流量进行约束。其中,头部内容表示出现在样本用户行为序列中出现频次较高的内容;在一个具体实施例中,可以设置为出现频次大于预设阈值的内容判定为头部内容;在其他实施例中,也可以设置为其他条件从样本用户行为序列中确定头部内容。
在本实施例中,把训练好的全量模型中两部分对分享回流量的预测数据进行正则化处理,目的是为了使得在训练增量模型时,从训练好的全量模型中获取目标分享回流量时,不会因数据偏差过大而导致最终训练后产生过大误差。上述方法采用正则化对目标分享回流量进行约束,可减小增量模型训练过程的误差。
在一个实施例中,如图5所示,内容推荐全量模型的训练过程包括步骤S510至步骤S540。
步骤S510,获取第二样本用户信息,第二样本用户信息包括第二样本用户画像、第二样本用户行为序列,以及样本分享回流量。
第二样本用户信息表示用于训练全量模型的样本信息,具体包括用户的画像、用户行为序列。在一个实施例中,用于训练内容推荐增量模型的第一样本信息为第二历史时间段内的用户信息,第二历史时间段可以根据实际情况进行设置,例如设置为1天、5天、8天等等。
样本分享回流量为对于已经发生的内容分享事件进行回流量统计得到的实际回流量数值;在一个实施例中,根据第二样本用户信息中第二样本历史行为序列中内容分享事件对应的分享回流量,即样本分享回流量。其中,统计内容分享事件对应的分享回流量数值可以通过任意一种方式实现。
步骤S520,确定第二样本用户行为序列中各内容的第二样本内容属性。
在一个实施例中,用户行为序列中包含了用户对于内容的浏览记录,根据用户行为序列可以获知用户行为序列中出现的各内容,进而可以得到各用户行为序列中各内容的内容属性。
步骤S530,基于第二样本用户信息计算第二采样损失,基于第二样本用户信息、第二样本内容属性和样本分享回流量计算第二分享回流量损失。
其中,计算采样损失、分享回流量损失时采用的损失函数可以是任意一种损失函数。与增量模型的训练过程类似的,在训练全量模型时,对于输入到预设全量模型的第二样本用户信息、第二样本内容属性,预设全量模型基于第二样本用户信息、第二样本内容属性进行预估,得到中间全量用户行为预估结果和中间全量分享回流量预估结果;而根据第二样本用户信息可以得到对应的标注信息,根据该中间全量用户行为预估结果和标注信息可以计算对应的用户行为对应的损失函数值(本实施例中记为第二采样损失);根据中间全量分享回流量预估结果和样本分享回流量可以确定分享回流量对应的损失函数值(本实施例中记为第二分享回流量损失)。
其中,预设全量模型中基于第二样本用户信息、第二样本内容属性预估得到中间全量分享回流量预估结果,包括:基于第二样本用户信息进行预估得到的第一中间全量分享回流量预估结果,基于第二样本内容属性预估得到的第二中间全量分享回流量预估结果。
进一步地,基于第二样本用户信息进行预估得到第一中间全量分享回流量预估结果,包括:预设全量模型根据第二样本用户画像、第二样本用户行为序列,得到对应的全量样本画像向量、全量样本序列向量;将各全量样本画像向量合并得到全量样本画像综合向量,将各全量样本序列向量合并得到全量样本序列综合向量;基于全量样本画像综合向量、全量样本序列综合向量经过注意力机制的处理,得到全量内容属性综合向量;将全量样本画像综合向量、全量样本序列综合向量以及全量内容属性进行综合,得到全量用户综合向量,对全量用户综合向量进行多目标优化处理,得到第一中间全量分享回流量预估结果。
基于第二样本内容属性预估得到第二中间全量分享回流量预估结果,包括:将第二样本内容属性经过注意力机制的处理,以及全连接层,得到第二中间全量分享回流量预估结果。
本实施例中,认为分享回流量也与内容属性有关,而且相对稳定,因此在本实施例中增加了根据内容属性来预测用户分享内容以后的分享回流量。进一步地,本实施例中预设全量模型中对于分享回流量的预估分为两部分,第一部分是根据样本用户信息确定,第二部分是根据样本内容属性确定,根据两部分分享回流量的预估结果计算第二分享回流量损失,通过不断优化第二分享回流量损失函数以获取更加精准的预测。
步骤S540,根据第二采样损失、第二分享回流量损失对预设增量模型进行训练,得到训练确定的内容推荐增量模型。
进一步地,在根据第二样本用户信息、样本分享回流量确定预设全量模型的两部分损失函数值(第二采样损失、第二分享回流量损失)之后,基于损失函数值可以调整预设增量模型的参数,然后重复这个过程直至达到模型训练的停止条件(可以根据实际情况自定义成任意一种条件),最终根据达到模型训练的停止条件时的模型参数,得到训练好的内容推荐全量模型。
在一个实施例中,第一样本用户信息包括第一历史时间段内的用户信息,第二样本用户信息包括第二历史时间段内的用户信息;第一历史时间段小于第二历史时间段。
其中,第一历史时间段、第二历史时间段均可以根据实际情况进行设置。在一个具体实施例中,第一历史时间段可以设置为小时级别,如8小时;第二历史时间段可以设置为天级别,如5天、8天等。
相关技术中,对于多目标序列召回模式下,训练模型基于当日所有数据进行训练,但数据的获取及整合有延时,模型更新较慢。例如在全量模型下,预测Item回流量所需要数据的统计周期为一天,导致模型无法做到在线学习和实时更新。经过实验,天级更新下,策略拟合前一天的数据,在当日的表现效果较差。若采用实时学习的增量模型,对于无法实时获取的Lable(标签,样本中包含不同字段的属性,例如用户年龄、性别、视频播放量等)无法处理,或是通常将其随机初始化为某个值进行训练,训练后所得到的结果准确性低。例如在使用增量模型时,输入数据缺少回流量这一类别,无法直接使用原有模型进行训练。为此,本申请提供一种内容推荐方法。
本申请还提供一种应用场景,该应用场景应用上述的内容推荐方法。具体地,该内容推荐方法在该应用场景的应用如下:
响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列等信息,将用户画像、用户历史行为序列输入到训练好的增量模型中,得到增量模型输出的TopK的推荐内容。其中增量模型是根据样本用户画像、样本用户行为序列以及目标分享回流量训练得到,而目标分享回流量是基于训练好的全量模型得到。其中,增量模型为小时级别的更新,全量模型为天级的更新。其中:
在全量模型的基础上设计出了增量模型,如图6所示为本实施例中全量模型的结构示意图,如图7所示为增量模型的结构示意图。下面对于全量模型和增量模型中的部分模块进行介绍:
对于在全量模型的多目标优化层中引入分享回流量预估模块,可以通过训练产生用户分享内容(item)后的分享回流量。全量模型中的输入数据包含用户画像、行为序列(即用户最近观看的内容)和内容属性。其中,对于用户画像和用户行为序列进行直接建模,分别对应图6所示的用户画像模块、用户行为序列模块。由于用户行为序列存在不断更新的可能性,这部分的预测结果具有动态性,用户行为随着用户点击视频会不断发生变化,***会随时进行反馈,这样提供的推荐结果更具有实时性,推荐结果不固定,有更好的个性化。
对于图6所示结构中的属性回流量预测(AttrWgtTask)模块,为全量模型增加的辅助任务,旨在通过Item属性(内容属性)预估分享回流量的大小(对应上述第二目标分享回流量)。在本实施例中,认为内容的分享回流量与Item属性有相对稳定的关联关系。因此在本实施例中,通过Item的属性来预测用户分享Item后的回流量。而用户信息预测分享回流量(Wgt Unit)模块则根据用户画像、用户行为序列来预估分享回流量(对应上述第一目标分享回流量)。进一步地,全量模型中的Wgt Unit产生的数据将和AttrWgtTask模块产生的数据一起计算最终的分享回流量损失(Wgt Loss,对应上述第二分享回流量损失)(图6所示Item反馈表示样本分享回流量),通过不断优化Wgt Loss以获取更加精准的预测,该预测量将作为增量模型中,输入样本召回量的pseudo-label(伪标签)(填入图7所示Item反馈中),使得增量模型可以使用在线进行训练。
在增量模型中引入属性正则化(ItemEmbedReg)模块;在本实施例中,认为头部视频的回流量不会轻易的变化,所以用于锚定参考基准最为合适。在本实施例中,对于Wgtunit和AttrWgtTask模块预测的数据进行正则化处理,目的是为了使增量模型从全量模型中获取目标分享回流量作为训练时用到的伪标签时,不会因数据偏差过大而导致最终训练后产生过大误差。
在一个实施例中,对于利用训练好的全量模型输出的目标分享回流量用于增量模型的训练的过程,可以称为知识蒸馏。
知识蒸馏(Knowledge Distillation,KD)的核心思想是通过迁移知识,从而通过训练好的大模型得到更加适合推理的小模型。知识蒸馏的核心思想是Teacher-Student(T-S)模型,其中Teacher是知识的输出者,Student是知识的接受者,即使用soft target辅助hard target一起训练,其中soft target来自于大模型的预测输出。
这样做的优势在于:相较于hard target,soft target所包含的信息熵更大,拥有不同类之间关系的信息[2]。例如在处理视频多分类问题时,尽管该视频被分类为类别A,但对于其它类别,它仍具有小概率的表达,软化(soft)过程,即在计算损失函数(lossfunction)时放大这些小概率值所携带的信息。简单来说,知识蒸馏是一种简单弥补分类问题监督信号不足的办法。
在本实施例中,Teacher网络(Net-T)的对数用表示,Student网络(Net-S)的对数用/>表示; />是Net-T在参数/>下softmax输出在第/>类上的值, />是Net-S在参数/>下softmax输出在第/>类上的值;在第/>类上的ground truth(标注数据)值表示为,正标签取1,负标签取0;总标签数量记为 />
通用的知识蒸馏过程分为两个阶段:原始模型训练和精简模型训练。第一阶段是训练Net-T,对Net-T不作任何关于模型架构、参数量、是否集成方面的限制,即使用原始数据和模型进行训练并计算软化后的softmax函数。
其中,T是温度,是一个超参数;vi和vj是多分类softmax表达式的模型参数。
第二阶段训练Net-S,即蒸馏Net-T的知识到Net-S。蒸馏过程的目标函数由distill loss(对应soft target)和student loss(对应hard target)加权得到:
Net-T和Net-S同时输入transfer set(这里可以直接复用训练Net-T用到的training set),用Net-T产生的softmax distribution(softmax分布,with hightemperature,T值较高)来作为soft target,Net-S在相同温度条件下的softmax输出和soft target的cross entropy(交叉熵)就是Loss函数的第一部分 />,即:
Net-S在的条件下的softmax输出和ground truth的cross entropy就是Loss函数的第二部分 />,即:
其中, 为标准softmax函数。而标准softmax函数也即/>时的特殊分布,/>的大小改变的是Net-S训练过程中对负标签的关注程度:温度较低时,对负标签的关注,尤其是那些显著低于平均值的负标签的关注较少;而温度较高时,负标签相关的值会相对增大,Net-S会相对多地关注到负标签。
上述方法,将数据蒸馏技术应用于内容推荐中,旨在使模型能实时参与数据训练,填补增量数据对于分享回流量数据的缺失。在全量模型的基础上设计出了增量模型,通过改造全量模型以及在增量模型上增加模块,保证填充的数据能尽可能的准确,使得结果更加精准。通过Wgt Unit模块学习训练用户分享 Item 后回流量,通过AttrWgtTask模块在全量模型训练时建立Item属性与回流量目标的关系;还通过在增量模型中添加ItemEmbedReg模块引入正则化,确保数据不会因异常波动而产生过大的偏差,以提高模型的鲁棒性。通过三个模块对于用户画像、用户行为序列和Item属性的全方位的刻画建模,使得从全量模型的回流量数据向增量模型蒸馏的时候更加的准确稳定。
本申请还提供一种应用场景,该应用场景应用上述的内容推荐方法。具体地,该内容推荐方法在该应用场景的应用于微信应用程序中的“看一看”。“看一看”推荐体统由:召回逻辑,初选逻辑,rank逻辑组成;其中召回逻辑作用:依据特定用户的画像信息,按照各种精准个性化,泛个性化,热度等维度进行数据(document)拉取(召回);初选逻辑负责对大量召回结果按照特定规则(例如:用户文档相关性,时效性,地域,多样性等)进行初步筛选,以减少rank计算规模;rank按照点击率预估模型来对最终结果排序,呈现给用户。上述方法“看一看”中的主要应用方案如下:
知识蒸馏:基于知识蒸馏技术和思想,将全量模型中的召回量数据应用于增量模型,使得增量模型可以利用全量模型中为样本产生的pseudo-label进行训练,以达到实时训练的目的,为保证数据预测的稳定性。
正则化:同时采用正则化对预测产出的数据进行处理,以保证不同的Item在召回预测时有相对稳定的参考量,同时确保小时级增量模型的稳定。
应该理解的是,虽然上述实施例中所涉及的各流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述实施例中所涉及的各流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图8所示,提供了一种内容推荐装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:获取模块810、输入模块820和结果获取模块830,其中:
获取模块810,用于响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;
输入模块820,用于将用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;
结果获取模块830,用于获取训练确定的内容推荐增量模型输出的推荐内容;其中,内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,目标分享回流量根据通过训练确定的内容推荐全量模型确定。
上述内容推荐装置,对于待推荐用户,获取其用户画像、用户历史行为序列,将用户画像和用户历史行为序列输入到通过训练确定的内容推荐增量模型中,获取内容推荐增量模型输出的推荐内容;其中,内容推荐增量模型是基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定的,而目标分享回流量又是从通过训练确定的内容推荐全量模型获得。上述装置中的内容推荐全量模型可以基于较完整的数据进行训练,训练好的内容推荐全量模型可以输出较为准确的目标分享回流量,而内容推荐增量模型可以基于较少的数据进行训练,模型更新较快,同时内容推荐增量模型结合训练好的内容推荐全量模型输出的目标分享回流量,训练得到的增量模型可以推荐更加精准的个性化内容。
在一个实施例中,上述装置还包括:增量模型训练模块,包括:第一样本获取子模块、目标分享回流量获取子模块、损失计算子模块和第一调整子模块,其中:
第一样本获取子模块,用于获取第一样本用户信息,第一样本用户信息包括:第一样本用户画像、第一样本用户行为序列;目标分享回流量获取子模块,用于基于第一样本用户信息以及通过训练确定的内容推荐全量模型,获取目标分享回流量;第一损失计算子模块,用于基于第一样本用户信息计算第一采样损失,基于第一样本用户信息、目标分享回流量计算第一分享回流量损失;第一调整子模块,用于根据第一采样损失、第一分享回流量损失对预设增量模型进行训练,得到训练确定的内容推荐增量模型。
在一个实施例中,上述装置的目标分享回流量获取子模块,包括:内容属性确定单元,用于根据第一样本用户行为序列,得到第一样本用户行为序列中各内容的第一样本内容属性;输入单元,用于将第一样本用户信息、第一样本内容属性输入通过训练确定的内容推荐全量模型;结果获取单元,用于获取通过训练确定的内容推荐全量模型输出的目标分享回流量。
在一个实施例中,内容推荐全量模型输出的目标分享回流量包括:第一目标分享回流量和第二目标分享回流量;其中,第一目标分享回流量基于第一样本用户画像、用户行为序列确定;第二目标分享回流量基于第一样本内容属性确定。
在一个实施例中,上述装置的增量模型训练模块还包括:正则化子模块,用于采用正则化方式对于目标分享回流量进行约束。
在一个实施例中,上述装置还包括:全量模型训练模块,包括:第二样本获取子模块,用于获取第二样本用户信息,第二样本用户信息包括第二样本用户画像、第二样本用户行为序列,以及样本分享回流量;内容属性确定子模块,用于确定第二样本用户行为序列中各内容的第二样本内容属性;第二损失计算子模块,用于基于第二样本用户信息计算第二采样损失,基于第二样本用户信息、第二样本内容属性和样本分享回流量计算第二分享回流量损失;第二调整子模块,用于根据第二采样损失、第二分享回流量损失对预设全量模型进行训练,得到训练确定的内容推荐全量模型。
在一个实施例中,第一样本用户信息包括第一历史时间段内的用户信息,第二样本用户信息包括第二历史时间段内的用户信息;第一历史时间段小于第二历史时间段。
关于内容推荐装置的具体实施例可以参见上文中对于内容推荐方法的实施例,在此不再赘述。上述内容推荐装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储内容属性嵌入、内容嵌入等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种内容推荐方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种内容推荐方法,其特征在于,所述方法包括:
响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;
将所述用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;
获取所述训练确定的内容推荐增量模型输出的推荐内容;其中,所述内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,所述目标分享回流量根据通过训练确定的内容推荐全量模型确定;
其中,所述内容推荐增量模型的训练过程包括步骤:获取第一样本用户信息,所述第一样本用户信息包括:第一样本用户画像、第一样本用户行为序列;根据所述第一样本用户行为序列,得到所述第一样本用户行为序列中各内容的第一样本内容属性;将所述第一样本用户信息、第一样本内容属性输入所述通过训练确定的内容推荐全量模型;获取所述通过训练确定的内容推荐全量模型输出的目标分享回流量;基于所述第一样本用户信息计算第一采样损失,基于所述第一样本用户信息、目标分享回流量计算第一分享回流量损失;根据所述第一采样损失、第一分享回流量损失对预设增量模型进行训练,得到所述训练确定的内容推荐增量模型;
其中,所述内容推荐全量模型的训练过程包括步骤:获取第二样本用户信息,所述第二样本用户信息包括第二样本用户画像、第二样本用户行为序列,以及样本分享回流量;确定所述第二样本用户行为序列中各内容的第二样本内容属性;基于所述第二样本用户信息计算第二采样损失,基于所述第二样本用户信息、第二样本内容属性和样本分享回流量计算第二分享回流量损失;根据所述第二采样损失、第二分享回流量损失对预设全量模型进行训练,得到所述训练确定的内容推荐全量模型。
2.根据权利要求1所述的内容推荐方法,其特征在于,所述内容推荐全量模型输出的目标分享回流量包括:第一目标分享回流量和第二目标分享回流量;其中,所述第一目标分享回流量基于所述第一样本用户画像、用户行为序列确定;所述第二目标分享回流量基于所述第一样本内容属性确定。
3.根据权利要求1所述的内容推荐方法,其特征在于,采用正则化方式对于所述目标分享回流量进行约束。
4.根据权利要求1所述的内容推荐方法,其特征在于,所述第一样本用户信息包括第一历史时间段内的用户信息,所述第二样本用户信息包括第二历史时间段内的用户信息;所述第一历史时间段小于所述第二历史时间段。
5.一种内容推荐装置,其特征在于,所述装置包括:
获取模块,用于响应于内容推荐事件,获取待推荐用户的用户画像、用户历史行为序列;
输入模块,用于将所述用户画像、用户历史行为序列输入通过训练确定的内容推荐增量模型;
结果获取模块,用于获取所述训练确定的内容推荐增量模型输出的推荐内容;其中,所述内容推荐增量模型基于样本用户画像、样本用户历史行为序列以及目标分享回流量训练确定,所述目标分享回流量根据通过训练确定的内容推荐全量模型确定;
增量模型训练模块,包括:第一样本获取子模块、目标分享回流量获取子模块、损失计算子模块和第一调整子模块,所述目标分享回流量获取子模块包括内容属性确定单元、输入单元和结果获取单元;其中:
所述第一样本获取子模块,用于获取第一样本用户信息,所述第一样本用户信息包括:第一样本用户画像、第一样本用户行为序列;
所述内容属性确定单元,用于根据所述第一样本用户行为序列,得到所述第一样本用户行为序列中各内容的第一样本内容属性;
所述输入单元,用于将所述第一样本用户信息、第一样本内容属性输入所述通过训练确定的内容推荐全量模型;获取所述通过训练确定的内容推荐全量模型输出的目标分享回流量;
所述结果获取单元,用于第一损失计算子模块,用于基于所述第一样本用户信息计算第一采样损失,基于所述第一样本用户信息、目标分享回流量计算第一分享回流量损失;
所述第一调整子模块,用于根据所述第一采样损失、第一分享回流量损失对预设增量模型进行训练,得到所述训练确定的内容推荐增量模型;
全量模型训练模块,包括第二样本获取子模块、内容属性确定子模块、第二损失计算子模块和第二调整子模块;其中:
所述第二样本获取子模块,用于获取第二样本用户信息,所述第二样本用户信息包括第二样本用户画像、第二样本用户行为序列,以及样本分享回流量;
所述内容属性确定子模块,用于确定所述第二样本用户行为序列中各内容的第二样本内容属性;
所述第二损失计算子模块,用于基于所述第二样本用户信息计算第二采样损失,基于所述第二样本用户信息、第二样本内容属性和样本分享回流量计算第二分享回流量损失;
所述第二调整子模块,用于根据所述第二采样损失、第二分享回流量损失对预设全量模型进行训练,得到所述训练确定的内容推荐全量模型。
6.根据权利要求5所述的内容推荐装置,其特征在于,所述内容推荐全量模型输出的目标分享回流量包括:第一目标分享回流量和第二目标分享回流量;其中,所述第一目标分享回流量基于所述第一样本用户画像、用户行为序列确定;所述第二目标分享回流量基于所述第一样本内容属性确定。
7.根据权利要求5所述的内容推荐装置,其特征在于,增量模型训练模块还包括:正则化子模块,所述正则化子模块用于采用正则化方式对于所述目标分享回流量进行约束。
8.根据权利要求5所述的内容推荐装置,其特征在于,所述第一样本用户信息包括第一历史时间段内的用户信息,所述第二样本用户信息包括第二历史时间段内的用户信息;所述第一历史时间段小于所述第二历史时间段。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任一项所述的方法的步骤。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法的步骤。
CN202110651154.7A 2021-06-10 2021-06-10 内容推荐方法、装置、计算机设备和存储介质 Active CN115470397B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110651154.7A CN115470397B (zh) 2021-06-10 2021-06-10 内容推荐方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110651154.7A CN115470397B (zh) 2021-06-10 2021-06-10 内容推荐方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN115470397A CN115470397A (zh) 2022-12-13
CN115470397B true CN115470397B (zh) 2024-04-05

Family

ID=84364458

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110651154.7A Active CN115470397B (zh) 2021-06-10 2021-06-10 内容推荐方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN115470397B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117851672A (zh) * 2024-01-08 2024-04-09 中国林业科学研究院资源信息研究所 基于用户行为的林草资源数据查询推送方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203518A (zh) * 2016-03-16 2017-09-26 阿里巴巴集团控股有限公司 在线***个性化推荐的方法、***以及装置、电子设备
WO2019001359A1 (zh) * 2017-06-30 2019-01-03 众安信息技术服务有限公司 数据处理方法和数据处理装置
CN111461826A (zh) * 2020-03-30 2020-07-28 京东数字科技控股有限公司 信息推送方法和装置、存储介质和电子装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203518A (zh) * 2016-03-16 2017-09-26 阿里巴巴集团控股有限公司 在线***个性化推荐的方法、***以及装置、电子设备
WO2019001359A1 (zh) * 2017-06-30 2019-01-03 众安信息技术服务有限公司 数据处理方法和数据处理装置
CN111461826A (zh) * 2020-03-30 2020-07-28 京东数字科技控股有限公司 信息推送方法和装置、存储介质和电子装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大数据挖掘技术的图书馆移动用户行为分析;孙慧;;现代电子技术;20200915(18);第172-175页 *

Also Published As

Publication number Publication date
CN115470397A (zh) 2022-12-13

Similar Documents

Publication Publication Date Title
CN111538912B (zh) 内容推荐方法、装置、设备及可读存储介质
US20210027160A1 (en) End-to-end deep collaborative filtering
Zhao et al. Deep reinforcement learning for page-wise recommendations
WO2021159776A1 (zh) 基于人工智能的推荐方法、装置、电子设备及存储介质
CN111382361B (zh) 信息推送方法、装置、存储介质和计算机设备
CN110781321B (zh) 一种多媒体内容推荐方法及装置
CN111966914B (zh) 基于人工智能的内容推荐方法、装置和计算机设备
CN111191092B (zh) 标签确定方法和标签确定模型训练方法
CN110795657B (zh) 文章推送及模型训练方法、装置、存储介质和计算机设备
CN110717099B (zh) 一种推荐影片的方法及终端
CN110941764A (zh) 对象推荐方法、装置、计算机设备和存储介质
CN111858969B (zh) 多媒体数据推荐方法、装置、计算机设备和存储介质
CN115048586B (zh) 一种融合多特征的新闻推荐方法及***
CN112149604A (zh) 视频特征提取模型的训练方法、视频推荐方法及装置
CN116935170A (zh) 视频处理模型的处理方法、装置、计算机设备和存储介质
CN115470397B (zh) 内容推荐方法、装置、计算机设备和存储介质
CN115482021A (zh) 多媒体信息推荐方法、装置、电子设备及存储介质
CN114817692A (zh) 确定推荐对象的方法、装置和设备及计算机存储介质
CN114443671A (zh) 推荐模型的更新方法、装置、计算机设备和存储介质
Zeng et al. User Personalized Recommendation Algorithm Based on GRU Network Model in Social Networks
CN113538030B (zh) 一种内容推送方法、装置及计算机存储介质
CN114359803A (zh) 视频处理方法、装置、设备、介质和计算机程序产品
Shashikala et al. Enhanced Movie Recommendation System Using Temporal Gradient Entropy
Ni et al. An improved sequential recommendation model based on spatial self-attention mechanism and meta learning
CN118377973A (zh) 用户意图感知的会话推荐方法与***、存储介质和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant