CN112733043B - 评论推荐方法及装置 - Google Patents

评论推荐方法及装置 Download PDF

Info

Publication number
CN112733043B
CN112733043B CN202110337269.9A CN202110337269A CN112733043B CN 112733043 B CN112733043 B CN 112733043B CN 202110337269 A CN202110337269 A CN 202110337269A CN 112733043 B CN112733043 B CN 112733043B
Authority
CN
China
Prior art keywords
comment
text
recommendation
target
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110337269.9A
Other languages
English (en)
Other versions
CN112733043A (zh
Inventor
王皓
周宇超
黄义棚
刘智静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202110337269.9A priority Critical patent/CN112733043B/zh
Publication of CN112733043A publication Critical patent/CN112733043A/zh
Application granted granted Critical
Publication of CN112733043B publication Critical patent/CN112733043B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种评论推荐方法及装置,所述方法包括:获取用户针对评论对象提交的待发表评论文本;调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,其中,所述目标评论预测模型包括评论文本与预设评论推荐分的对应关系;在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表;基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表。本申请结合自然语言处理技术,可以在保证评论区评论质量相对较高的前提下,实现新发布的优质评论的精准推荐,保证新发布的优质评论能够获得一定的曝光和互动,从而提高用户参与评论的意愿。

Description

评论推荐方法及装置
技术领域
本申请涉及互联网技术领域,尤其涉及评论推荐方法及装置。
背景技术
随着互联网技术的飞速发展,除了传统的广播、电视之外,互联网成为一种更为重要的获取资讯的传播渠道,人们习惯于从互联网上获取资讯,并且通常习惯于在互联网上发表相关评论、分享心得或体会,同时用户评论本身也成为一种重要的资讯,人们从其他用户发表的评论可以获得更多贴近需要的资讯。
现有媒体场景的评论排序通常是通过对现有评论的互动热度(如用户主动点赞、回复)进行排序获得,但在实践中发现,上述方式会导致后期新发表的评论难以获得曝光机会,从而可能导致优质评论被埋没在评论区中,进而会降低用户参与评论的意愿。
发明内容
本申请所要解决的技术问题在于,提供一种评论推荐方法、装置、设备及存储介质,能够解决相关技术中存在的上述问题。
为了解决上述技术问题,一方面,本申请提供了一种评论推荐方法,所述方法包括:获取用户针对评论对象提交的待发表评论文本;调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,其中,所述目标评论预测模型包括评论文本与预设评论推荐分的对应关系;在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表;基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表。
另一方面,本申请提供了一种评论推荐装置,所述装置包括:待发表评论文本获取模块,用于获取用户针对评论对象提交的待发表评论文本;评论推荐分预测模块,用于调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,其中,所述目标评论预测模型包括评论文本与预设评论推荐分的对应关系;当前评论列表获取模块,用于在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表;目标评论列表生成模块,用于基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表。
另一方面,本申请提供了一种电子设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行如上述的方法。
另一方面,本申请提供了一种计算机存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行如上述的方法。
另一方面,本申请提供了一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各种可选实施方式中提供的方法。
在本申请实施例中,通过获取用户针对评论对象提交的待发表评论文本,调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表,基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表。如此,可以根据第一评论推荐分的高低决定待发表评论文本在目标评论列表中的位置,从而不仅可以避免前期曝光已经积累到的优质评论被淘汰,还可以使得新发布的优质评论能够获得一定的曝光和互动,而不会被埋没在评论区中,也即,本申请可以在保证评论区评论质量相对较高的前提下,新发布的优质评论能够获得一定的曝光和互动,从而提高用户参与评论的意愿。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本申请实施例提供的硬件环境示意图;
图2是本申请实施例提供的一种评论推荐方法的流程图;
图3是本申请实施例提供的一种评论推荐方法中基于第一评论推荐分将待发表评论文本添加至当前评论列表的方法的流程图;
图4是本申请实施例提供的一种应用场景图;
图5是本申请实施例提供的一种评论推荐方法中基于评论推荐池中每条评论文本的评论推荐分从评论推荐池中选取目标评论文本的方法的流程图;
图6是本申请实施例提供的一种评论推荐方法中基于第一评论推荐分将待发表评论文本添加至当前评论列表的另一方法的流程图;
图7是本申请实施例提供的一种评论推荐方法中移除评论推荐池中评论文本的方法的流程图;
图8是本申请实施例提供的一种评论推荐方法中基于评论推荐池中每条评论文本的评论推荐分从评论推荐池中选取目标评论文本的另一方法的流程图;
图9是本申请实施例提供的一种评论推荐方法中更新目标评论预测模型的方法的示意图;
图10是本申请实施例提供的目标评论预测模型的结构示意图;
图11是本申请实施例提供的一种评论推荐方法的具体实施例的流程图;
图12是本申请实施例提供的一种评论推荐装置的结构示意图;
图13是本申请实施例提供的一种评论推荐设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
人工智能(Artificial Intelligence, AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing, NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
本申请实施例提供了一种评论推荐方法,可选地,在本申请实施例中,上述的评论推荐方法可以应用于如图 1 所示的服务器101和用户终端102所构成的硬件环境中。其中,用户可以在用户终端102上针对评论对象编写待发表评论文本,所述服务器101可以获取用户终端102上提交的待发表评论文本,并可以执行本申请实施例提供的评论推荐方法,并在生成目标评论列表后将所述目标评论列表发送至所述用户终端102。
其中,服务器101可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
如图 1 所示,服务器101和用户终端102之间分别通过网络进行连接,上述网络包括但不限于:广域网、城域网或局域网。
作为一个可能的实施方式,服务器101和用户终端102均可以是区块链***中的节点设备,能够将获取到以及生成的信息共享给区块链***中的其他节点设备,实现多个节点设备之间的信息共享。区块链***中的多个节点设备可以配置有同一条区块链,该区块链由多个区块组成,并且前后相邻的区块具有关联关系,使得任一区块中的数据被篡改时都能通过下一区块检测到,从而能够避免区块链中的数据被篡改,保证区块链中数据的安全性和可靠性。
现有媒体场景的评论排序通常是通过对现有评论的互动热度(如用户主动点赞、回复)进行排序获得,但在实践中发现,由于先发表的评论会获得更长的曝光时间,并因此获得更高的互动量,从而导致先发表的评论聚集在评论区头部,并使得后期新发表的评论难以获得曝光机会,从而可能导致优质评论被埋没在评论区中,进而会降低用户参与评论的意愿。
为了解决上述问题,如果对评论区的评论做时间衰减,也就是说,在一定的衰减周期内,一条评论距离发表的时间越长,其推荐权重就越低,从而使得部分新评论可以得到曝光。
但时间衰减系数难以控制。如果允许时间衰减的幅度较大,则前期曝光已经积累到的优质评论都会被淘汰,头部评论区的总体质量会降低;如果允许衰减的幅度较小,则难以使新评论露出,头部评论区固定的问题依然存在。
基于此,本申请实施例提供的方案涉及人工智能的自然语言处理技术,以下对本申请实施例提供的一种评论推荐方法进行说明,如图2所示,所述方法包括:
步骤S201:获取用户针对评论对象提交的待发表评论文本;
在本申请实施例中,所述评论对象主要指用户在网络平台上已经发表的内容,比如已经发表的视频或文章等。所述待发表评论文本为用户对所述评论对象进行评论操作时产生的信息。
所述待发表评论文本可以为英文文本,也可以为中文文本,本申请实施例对此不进行具体限定。
步骤S203:调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,其中,所述目标评论预测模型包括评论文本与预设评论推荐分的对应关系;
在本申请实施例中,可以预先建立初始评论预测模型,所述初始评论预测模型包括语义编码网络层,并可以利用训练文本集(包括多个训练评论文本)及其对应的评论推荐分标签对所述初始评论预测模型进行训练,从而得到包括评论文本与预设评论推荐分的对应关系的所述目标评论推荐模型。
所述第一评论推荐分能够用于表征所述待发表评论文本在发表后的用户互动度,也即,表征了待发表评论文本的评论质量。可以理解的是,所述第一评论推荐分越高,说明在所述待发表评论文本发表后,用户与该评论文本的互动度越高,如待发表评论文本会得到用户更多的点赞和/或回复,也说明待发表评论文本的评论质量更高;所述第一评论推荐分越低,说明在所述待发表评论文本发表后,用户与该评论文本的互动度越低,如待发表评论文本会得到用户较少的点赞和/或回复,也说明待发表评论文本的评论质量越低。
所述评论推荐分标签具体可以通过如下方式确定:获取每条所述训练评论文本的互动数据(包括针对训练评论文本的点赞、回复和转发等)和总曝光次数,基于所述互动数据与总曝光次数的比值(即单次曝光时的互动)确定所述训练评论文本的评论推荐分标签。
例如,某一条训练评论文本的总曝光次数是10000,点赞次数是100,回复次数是100,那么互动数据为200,那么与该训练评论文本对应的评论推荐分标签可以设置为0.02。
需要说明的是,在一条评论文本被任一用户拉取一次后,该条评论文本就算曝光了一次,某一评论文本的总曝光次数是指该评论文本被网络上所有用户拉取曝光的总次数。例如,评论文本1被用户A拉取一次,被用户B拉取一次,被用户C拉取一次,那么该评论文本1的总曝光次数为3。
并且,用户在拉取到该评论文本后,并不一定就会与该评论文本进行互动,例如,只有用户A对该评论文本1点赞了,用户B和用户C既没有点赞,也没有对该评论文本1进行评论,那么互动数据为1;又如,如果用户A对该评论文本1既进行了点赞,又进行了评论,用户B和用户C既没有点赞,也没有对该评论文本1进行评论,那么互动数据为2。
在实际应用中,由于用户基数巨大,所以总曝光次数也比较大,通常情况下,互动数据与总曝光次数的比值能有千分之几就算评论文本的质量比较好了,因此,通常情况下,针对各个训练评论文本,其互动数据与总曝光次数的比值会介于0至1之间,如果直接采用互动数据与总曝光次数的比值作为评论推荐分标签,评论推荐分标签也会介于0至1之间。
当然,对于一些特殊情形,例如,大量用户在拉取到一条热门的评论文本时,既对其进行点赞,又对其进行评论,使得该热门的评论文本的互动数据与曝光次数的比值大于1,此时,可以对各个训练评论文本的互动数据与曝光次数的比值进行归一化处理,将归一化处理后的数值作为评论推荐分标签,从而可以加快初始评论预测模型的收敛速度。
步骤S205:在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表;
在本申请实施例中,所述当前评论列表中可以包括一个或多个已发表评论文本。
步骤S207:基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表。
在本申请实施例中,所述目标评论列表中既包括了所述待发表评论文本,也包括了所述当前评论列表中的各个已发表评论文本。
所述第一评论推荐分的高低决定了所述待发表评论文本在所述目标评论列表中的排列位置,即在第一评论推荐分较高时,获得在目标评论列表中较为靠前的位置,在第一评论推荐分较低时,获得在目标评论列表中较为靠后的位置。
在本申请实施例中,通过获取用户针对评论对象提交的待发表评论文本,调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表,基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表。如此,可以根据第一评论推荐分的高低决定待发表评论文本在目标评论列表中的位置,从而不仅可以避免前期曝光已经积累到的优质评论被淘汰,还可以使得新发布的优质评论能够获得一定的曝光和互动,而不会被埋没在评论区中,也即,在保证评论区评论质量相对较高的前提下,还可以使新发布的优质评论能够获得一定的曝光和互动,从而有助于帮助业务发现更多优质评论,并让用户能够通过评论区进行有效沟通,收到其他用户的反馈,进而激发用户参与评论的意愿,增加用户对产品的粘性。
在一些实施例中,如图3所示,所述基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表可以包括:
步骤S301:在所述第一评论推荐分大于或等于预设推荐分数时,将所述待发表评论文本添加至评论推荐池中;
步骤S303:基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本;
步骤S305:将所述目标评论文本***所述当前评论列表中的预设推荐位置,得到响应于所述评论拉取请求的目标评论列表。
在本申请实施例中,所述预设推荐分数可以基于用户的需求设定,在所述第一评论推荐分大于等于预设推荐分数时,说明与所述第一评论推荐分对应的待发表评论文本为质量相对较好的评论文本,即在发表后能获得较多用户互动的评论文本,因此,将这部分质量较好的评论文本加入到评论推荐池中,该过程也相当于对待发表评论文本进行了初步筛选。
所述目标评论文本可以为所述评论推荐池中的一条或多条评论文本。所述预设推荐位置可以为在目标评论列表中指定的较为靠前的位置,如图4所示,可以将目标评论列表中的第3个评论位置设置为预设推荐位置,如此,可以将目标评论文本设置在目标评论列表中较为靠前的位置,从而增加目标评论文本的曝光机会。
在实际应用中,每当用户发表一条评论,线上***会将该评论推送给模型,利用模型计算出推荐分数,对于同一评论对象如同一篇文章,只存储分数较高的评论,分数低的评论不进入新评论推荐池。如此,可以从所述新评论推荐池中选取一个或几个所述目标评论文本,并将目标评论文本***所述预设推荐位置。在实际线上运营过程中,可以动态调整所述预设推荐位置以及所述目标评论文本的数量。
在一个具体的实施例中,所述当前评论列表中还可以包括热评区,所述热评区位于所述当前评论列表的顶部,所述预设推荐位置位于所述热评区之后并与所述热评区相邻的位置,当获取一个或多个所述目标评论文本后,将所述目标评论文本***所述预设推荐位置,得到所述目标评论列表。
例如,热评区中包含两条热评,在将某一目标评论文本A***所述预设推荐位置后,该目标评论文本A将位于目标评论列表中的第3个位置。
在本申请实施例中,通过预先设置一个预设推荐位置,并将评论推荐分大于等于预设推荐分数的待发表评论文本***该预设推荐位置上,从而可以在保证评论区评论质量相对较高的前提下,新发布的优质评论能够获得一定的曝光和互动,从而提高用户参与评论的意愿。
在一些实施例中,步骤S203中可以基于评论推荐池中各条评论文本的评论推荐分对各条评论文本进行排序,并将排序在最前面的一条或几条评论文本确定为目标评论文本。但是,这种选取方式容易导致评论推荐池中大部分评论文本难以被选取为目标评论文本,而这部分评论文本实际可能为质量较好的评论文本。基于此,如图5所示,所述基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本(即步骤S203)可以包括:
步骤S501:基于所述评论推荐池中每条评论文本的评论推荐分计算所述评论推荐池中每条评论文本的曝光概率;
步骤S503:根据所述评论推荐池中每条评论文本的曝光概率从所述评论推荐池中选取目标评论文本。
具体的,所述评论推荐池中第i条评论文本的曝光概率pi的计算公式可以如下所示:
Figure 961777DEST_PATH_IMAGE001
其中,si为所述评论推荐池中第i条评论文本的评论推荐分,sj为所述评论推荐池中第j条评论文本的评论推荐分,n为所述评论推荐池评论文本的总条数。
在实际应用中,通过基于所述评论推荐池中每条评论文本的曝光概率从所述评论推荐池中选取目标评论文本,可以使得所述评论推荐池内的评论文本均能基于其评论推荐分获得一定的曝光机会。如此,当一些评论文本的评论推荐分较低(如排在倒数第三位)但实际质量却较好时,也能依靠其本身较好的质量在某一次或某几次曝光时获得用户大量的互动,并可以据此占据评论列表中较为靠前的位置。也即,通过本申请实施例,可以避免埋没部分评论推荐分不太高但实际质量较好的评论文本,提高了评论推荐的可靠性。
在一些实施例中,如图6所示,所述基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表还可以包括:
步骤S601:获取所述当前评论列表中各个已发表评论文本的用户互动信息和第二评论推荐分;
步骤S603:基于所述用户互动信息和所述第二评论推荐分确定所述当前评论列表中各个所述已发表评论文本的推荐度;
步骤S605:基于所述第一评论推荐分确定所述待发表评论文本的推荐度;
步骤S607:基于推荐度的大小对所述待发表评论文本和各个所述已发表评论文本进行排序,得到响应于所述评论拉取请求的目标评论列表。
在本申请实施例中,所述已发表评论文本的用户互动信息是指针对已发表评论文本的互动数据如点赞和评论数据,所述第二评论推荐分是指所述已发表评论文本在发表之前通过所述目标评论预测模型进行预测得到的推荐分数。
具体的,可以利用现有的归一化方法对所述用户互动信息、所述第二评论推荐分和所述第一评论推荐分进行归一化处理,得到对应的归一化数值,并根据预设加权值,对各个所述已发表评论文本的归一化数值进行加权求和处理,得到与各个已发表评论文本对应的推荐值,并根据预设加权值对所述待发表评论文本的归一化数值进行加权求和处理,得到与所述待发表评论文本对应的推荐值。
其中,用户互动信息和评论推荐分可以根据需求设置不同的预设加权值,例如,用户互动信息的第一预设加权值可以设置为0.4,评论推荐分的第二预设加权值可以设置为0.6。
归一化的过程可以为,可以将单个评论文本的特征分为两个特征:用户互动信息和评论推荐分,首先分别对该用户互动信息和评论推荐分进行对数化处理,然后,利用极小值极大值法,对该用户互动信息和评论推荐分进行归一化处理,得到对应的归一化数值。
例如,对所有评论文本(包括各个已发表评论文本和待发表评论文本)的第2个特征值(即评论推荐分)进行对数化处理,获取对应的对数值;然后,对单条评论文本如待发表评论文本的第2个特征值的对数值进行极大极小值处理,可以得到与待发表评论文本的第2个特征值(即第一评论推荐分)对应的归一化数值。可以理解的是,在进行归一化处理后,能够实现多个特征值的量纲的统一。
当然,本申请实施例还可以通过其他现有的归一化方式对评论文本的多个特征值进行归一化,此处不再赘述。
在本申请实施例中,可以按照推荐度由高到低的顺序对所有的评论文本进行排序,由于推荐度的计算结合了用户互动信息和评论推荐分两个特征维度,从而可以避免前期已经积累到的优质评论沉入底部,还能使新发表的评论文本有足够的曝光机会。
在一些实施例中,如图7所示,所述方法还可以包括:
步骤S701:对所述评论推荐池中每条评论文本的每次曝光进行记录;
步骤S703:将曝光次数满足预设曝光条件的评论文本从所述评论推荐池中移除。
在本申请实施例中,所述预设曝光条件可以设置为在预设时间段内的曝光次数需要大于等于预设曝光次数,例如,可以设置为在近24小时内的曝光次数需要大于等于一定曝光次数,从而可以在任一评论文本在预设时间段内的曝光次数大于等于预设曝光次数时,确定任一评论文本的曝光满足预设曝光条件,并从所述评论推荐池中移除相应的评论文本。
步骤S703中,具体可以在所述评论推荐池中任一评论文本的曝光满足预设曝光条件时,立即从所述评论推荐池中移除相应的评论文本。
当然,在所述评论推荐池中任一评论文本的曝光满足预设曝光条件时,也可以不立即从所述评论推荐池中移除相应的评论文本,而是在同时满足其他一些特定条件时,才从所述评论推荐池中移除相应的评论文本。
例如,可以在所述评论推荐池中任一评论文本的曝光满足预设曝光条件且接收到用户的评论拉取请求时,从所述评论推荐池中移除相应的评论文本。
再如,可以在所述评论推荐池中任一评论文本的曝光满足预设曝光条件且有新的评论文本进行评论推荐池时,从所述评论推荐池中移除相应的评论推荐文本。
又如,还可以在评论推荐池中满足预设曝光条件的评论文本的数量达到预定存储数量时,从评论推荐池中移除相应的评论推荐文本。其中,预定存储数量可以根据实际需求进行设定,例如,将预定存储数量设置为10个,那么在评论推荐池中满足预设曝光条件的评论文本的数量到达10个时,从评论推荐池中移除相应的评论推荐文本,如此,可以对满足预设曝光条件的评论推荐文本进行批量移除。
在实际应用中,当任一评论文本的曝光满足预设曝光条件,说明已给予该评论文本较多的曝光机会,如果该评论文本确实为质量较好的文本,那么应该在多次曝光后获得用户较多的互动操作,例如,获得用户较多的点赞和评论,并可以据此占据评论列表中较为靠前的位置,因此,即使在从所述评论推荐池中移除该评论文本后,用户依然可以较为容易的在评论列表中发现该评论文本;相反,如果该评论文本实际为质量较差的文本,那么不管再额外增加多少次曝光机会,也不会有效的增加用户的互动操作,甚至还会占用其余评论文本的曝光机会。本申请通过从评论推荐池中移除曝光满足预设曝光条件的评论文本,可以在保证新发布的优质评论能够获得一定的曝光和互动的基础上,合理利用每次曝光机会,提高评论推荐的有效性。
在一些特殊情形下,如从推荐池中移除曝光次数满足预设曝光条件的评论文本的情形下,所述评论推荐池中将会沉积越来越多的低分评论文本,当低分评论文本的数量逐渐增多,所述评论推荐池中较低分文本的总体曝光概率将会逐渐大于池中高分文本总体曝光概率,进而使得在用户进行拉取时,随机返回评论推荐池中具有较低分数的评论文本的概率较大,而这将不利于用户获取优质评论。
例如,在移除高曝光次数文本之前,所述评论推荐池中包括评论推荐分为90分、89分、88分、83分和80分的5个评论文本,由于评论推荐分为90的评论文本的曝光概率较大,其被曝光的次数也较大,从而也较容易从评论推荐池中移除,假设评论推荐分为90的评论文本从所述评论推荐池中移除,而与此同时,评论推荐池中又新进了两个新的评论文本,考虑到评论文本的评论推荐分的随机性,假设两个新的评论文本中一个评论文本的推荐分为较高的90,一个评论文本的推荐分为较低的81,这样,所述评论推荐池中将会包括评论推荐分为90分、89分、88分、83分、81分和80分的6个评论文本,显而易见,评论推荐池中较低分文本的比例(6个中有3个低分,即50%的比例)相比于之前(5个中有2个低分,即40%的比例)有所提升,并且,如果继续上述移除高曝光评论文本和新进评论文本的操作,评论推荐池中较低分文本的比例还会继续上升,进而使得评论推荐池中较低分文本的总体曝光概率逐渐大于池中高分文本总体曝光概率,当在用户进行拉取时,总是随机返回评论推荐池中具有较低分数的评论文本,而这将不利于用户获取优质评论。
基于此,在一些实施例中,如图8所示,所述基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本(即步骤S203)还可以包括:
步骤S801:基于所述评论推荐池中每条评论文本的评论推荐分,对所述评论推荐池中每条评论文本按评论推荐分由高至低依次排序;
步骤S803:将前预设数量个评论文本确定为预选评论文本;
步骤S805:基于所述预选评论文本的评论推荐分计算每条所述预选评论文本的曝光概率;
步骤S807:根据每条所述预选评论文本的曝光概率从所述预选评论文本中选取目标评论文本。
具体的,第i条预选评论文本的曝光概率pi的计算公式可以如下所示:
Figure 672113DEST_PATH_IMAGE002
其中,si为第i条预选评论文本的评论推荐分,sj为第j条预选评论文本的评论推荐分,n为从所述评论推荐池中确定的预选评论文本的总条数。
在实际应用中,通过将评论推荐池中前预设名次(如前50名)的评论文本确定为预选评论文本,并基于每条所述预选评论文本的曝光概率从所述预选评论文本中选取目标评论文本,一方面可以使得所述评论推荐池中排名在预设名次内的评论文本均能基于其评论推荐分获得一定的曝光机会,例如,当设置预设名次为前50,所述评论推荐池中评论推荐分在前50的评论文本均可以获得一定的曝光机会,例如,当一些评论文本的评论推荐分较低(如排在第49位)但实际质量却较好时,也能依靠其本身较好的质量在某一次或某几次曝光时获得用户大量的互动,并可以据此占据评论列表中较为靠前的位置;另一方面,保证了评论推荐池中高分文本的总体曝光概率大于评论推荐池中较低分文本的总体曝光概率,避免了在用户进行拉取时总是随机返回评论推荐池中具有较低分数的评论文本的问题,从而保证用户能够获取优质评论。在一些实施例中,如图9所示,所述方法还可以包括:
步骤S901:定期拉取历史高曝光评论文本以及与所述历史高曝光评论文本对应的历史互动数据和历史曝光数据;
步骤S903:基于所述历史互动数据和历史曝光数据,计算与所述历史高曝光评论文本对应的历史评论推荐分;
步骤S905:以所述历史高曝光评论文本作为所述目标评论预测模型的输入、以所述历史评论推荐分作为所述目标评论预测模型的输出,对所述目标评论预测模型进行更新。
在本申请实施例中,所述历史高曝光评论文本可以是指已经发表的被用户拉取次数大于等于一定拉取次数阈值的评论文本,所述历史高曝光评论文本可以为一个,也可以为多个,与所述历史高曝光评论文本对应的历史互动数据可以包括针对历史高曝光评论文本的点赞和回复,与所述历史高曝光评论文本对应的历史曝光数据可以包括所述历史高曝光评论文本的历史总曝光次数。
所述历史评论推荐分的计算方式与步骤S203中的计算方式类似,即可以基于所述历史互动数据与所述历史总曝光次数的比值确定所述历史高曝光评论文本的历史评论推荐分。同理,为了加快模型收敛,也可以对计算得到的历史评论推荐分进行如步骤S203中所述的归一化处理,此处不再赘述。
在本申请实施例中,历史高曝光评论文本是单独基于评论推荐分、或同时基于用户互动信息和评论推荐分两个特征确定,其大概率反应了高质量评论文本所应具有的特征,因此,利用历史高曝光评论文本及其对应的历史互动数据和历史曝光数据对所述目标评论预测模型进行再训练,可以使得更新后的所述目标评论预测模型能够更加准确的识别出高质量的评论文本,提高了评论推荐的准确性。
在一些实施例中,在所述调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分的步骤之前,所述方法还可以包括:
步骤一:构建初始评论预测模型,所述初始评论预测模型包括语义编码网络层,所述语义编码网络层包括并列设置的第一语义编码子网络和第二语义编码子网络;
步骤二:获取训练文本集,所述训练文本集包括多个训练文本对以及对应的评论推荐分标签,每个所述训练文本对包括训练标题文本和训练评论文本;
步骤三:以所述训练标题文本作为所述第一语义编码子网络的输入、以所述训练评论文本作为所述第二语义编码子网络的输入、以所述评论推荐分标签作为所述初始评论预测模型的输出,对所述初始评论预测模型进行训练,得到所述目标评论预测模型。
在本申请实施例中,所述第一语义编码子网络和所述第二语义编码子网络可以是BERT神经网络,BERT神经网络是谷歌提出的一种基于Transformer(变换器)的预训练神经网络,通过用大量的基础语料进行无监督训练,产生预训练参数集合。根据应用场景的不同,如在使用中文较多的评论场景下,BERT神经网络可以为利用中文评论语料预训练的中文口语BERT模型。
由于BERT神经网络采用了多层Transformer对文本进行双向学习,且Transformer采用一次性读取方式对文本进行提取,因此可以更准确地学习到文本中词之间的上下文关系,对语境的理解更加深刻,即双向训练的语言模型对语境的理解会比单向的语言模型更深刻,从而能够准确地对文本进行特征抽取。
当然,所述第一语义编码子网络和所述第二语义编码子网络可以是其他类似的网络如TextCNN(TextConvolutional Neural Networks,基于卷积神经网络的文本分类模型)、RNN(Recurrent Neural Network, 循环神经网络)、其他类Transformer模型,并且,BERT神经网络也可以使用其他模式如句子对输入模式,本申请对此不作限制。
其中,步骤二中的所述训练标题文本可以是指评论对象如文章的标题,所述训练评论文本可以是指针对评论对象的已发表评论文本如在文章后的评论。
在本申请实施例中,通过构建包括第一语义编码子网络和第二语义编码子网络的初始评论预测模型,并以训练标题文本作为所述第一语义编码子网络的输入、以训练评论文本作为所述第二语义编码子网络的输入、以所述评论推荐分标签作为所述初始评论预测模型的输出对所述初始评论预测模型进行训练,可以使得训练得到的目标评论预测模型中同时包括评论对象的标题、评论文本与预设评论推荐分三者之间的对应关系,从而在利用所述目标评论预测模型进行时,能够同时基于所述评论对象的标题和所述对象的待发表评论文本对所述待发表评论文本进行预测,从而增加了评论推荐的准确性。
在一些实施例中,所述以所述训练标题文本作为所述第一语义编码子网络的输入、以所述训练评论文本作为所述第二语义编码子网络的输入、以所述评论推荐分标签作为所述初始评论预测模型的输出,对所述初始评论预测模型进行训练,得到所述目标评论预测模型可以包括:
步骤一:利用所述第一语义编码子网络对所述训练标题文本进行编码处理,得到初始标题文本特征向量序列;利用所述第二语义编码子网络对所述训练评论文本进行编码处理,得到初始评论文本特征向量序列;
步骤二:对所述初始标题文本特征向量序列进行处理,得到对应的第一注意力权重;对所述初始评论文本特征向量序列进行处理,得到对应的第二注意力权重;
步骤三:对所述第一注意力权重和所述初始标题文本特征向量序列进行矩阵相乘运算,得到第一中间特征向量序列;对所述第二注意力权重和所述初始评论文本特征向量序列进行矩阵相乘运算,得到第二中间特征向量序列;
步骤四:对所述第一中间特征向量序列和所述第二中间特征向量序列进行融合处理,得到融合特征向量序列;
步骤五:基于所述融合特征向量序列对所述训练评论文本进行预测,得到预测分数;
步骤六:基于所述预测分数和所述评论推荐分标签对所述初始评论预测模型的模型参数进行调整,得到所述目标评论预测模型。
在一个具体的实施例中,如图10所示,所述初始评论预测模型包括第一语义编码子网络1001、第二语义编码子网络1002、注意力层1003、第一乘法运算单元1004、第二乘法运算单元1005、全连接层1006和分类器(未示出),所述第一语义编码子网络和所述第二语义编码子网络并列设置,所述注意力层分别与所述第一语义编码子网络和所述第二语义编码子网络连接,所述第一乘法运算单元、第二乘法运算单元并列设置,所述第一乘法运算单元、第二乘法运算单元分别与所述注意力层连接,所述全连接层分别与所述第一乘法运算单元和所述第二乘法运算单元连接。
如图所示,本申请实施例首先利用第一语义编码子网络对所述训练标题文本(序列长度
Figure 39641DEST_PATH_IMAGE003
)进行编码处理,得到初始标题文本特征向量序列A(大小为
Figure 281266DEST_PATH_IMAGE004
),并利用所述第二语义编码子网络对所述训练评论文本(序列长度
Figure 556390DEST_PATH_IMAGE005
)进行编码处理,得到初始评论文本特征向量序列B(大小为
Figure 386811DEST_PATH_IMAGE006
)。
在得到所述初始标题文本特征向量序列和所述初始评论文本特征向量序列后,将两者分别输入所述注意力层,分别得到与所述初始标题文本特征向量序列对应的第一注意力权重
Figure 721978DEST_PATH_IMAGE007
Figure 388583DEST_PATH_IMAGE008
Figure 467397DEST_PATH_IMAGE009
,以及与所述初始评论文本特征向量序列对应的第二注意力权重
Figure 152325DEST_PATH_IMAGE010
Figure 923972DEST_PATH_IMAGE011
,其中,
Figure 874610DEST_PATH_IMAGE012
表示计算一个张量(如张量
Figure 694799DEST_PATH_IMAGE013
)的某个维度上元素的最大值,A为初始标题文本特征向量序列,B为初始评论文本特征向量序列,W为参数矩阵。
接着,利用所述第一乘法运算单元对所述第一注意力权重和所述初始标题文本特征向量序列进行矩阵相乘运算(即
Figure 47283DEST_PATH_IMAGE014
),得到第一中间特征向量序列
Figure 176782DEST_PATH_IMAGE015
;并利用所述第二乘法运算单元对所述第二注意力权重和所述初始评论文本特征向量序列进行矩阵相乘运算(即
Figure 614716DEST_PATH_IMAGE016
),得到第二中间特征向量序列
Figure 973017DEST_PATH_IMAGE017
本申请实施例将注意力机制结合到自然语言处理任务中,结合了注意力机制的初始评论预测模型在训练过程中高度关注特定目标的特征信息,并且能有效针对不同的目标调整网络参数,挖掘更多隐藏特征信息。
注意力机制源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。上述机制通常被称为注意力机制。注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也即注意力焦点,而后对这一区域投入更多注意力资源,以获取更多需要关注的目标的细节信息,而抑制其他无用信息。
可见,注意力机制主要有两个方面:一是决定需要关注输入的哪部分;二是分配有限的信息处理资源给重要的部分。其中,深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,核心目标也是从众多信息中选择出对当前任务更关键的信息。
在得到所述第一中间特征向量序列和所述第二中间特征向量序列后,利用全连接层对所述第一中间特征向量序列和所述第二中间特征向量序列进行融合处理,得到融合特征向量序列。
具体的,可以使用concat()方法对所述第一中间特征向量序列和所述第二中间特征向量序列进行拼接处理,拼接后可以得到
Figure 445586DEST_PATH_IMAGE018
,而后对拼接后的特征向量序列进行线性变换处理,即将拼接后的特征向量序列乘以一个权重系数
Figure 559036DEST_PATH_IMAGE019
,并加上一个偏置值
Figure 671217DEST_PATH_IMAGE020
,得到变换后的融合特征向量序列
Figure 833208DEST_PATH_IMAGE021
在得到融合特征向量序列之后,将所述融合特征向量序列输入分类器,利用分类器对所述训练评论文本进行预测,得到预测分数,公式如下:
Figure 894705DEST_PATH_IMAGE022
在得到与所述训练评论文本对应的预测分数后,基于所述预测分数和所述评论推荐分标签对所述初始评论预测模型的模型参数进行调整,得到所述目标评论预测模型。
具体的,可以使用AdamW损失函数来判断初始评论预测模型是否收敛,损失函数的公式可以如下:
Figure 366006DEST_PATH_IMAGE023
其中,s为真实的预测分数,s’为预先设置的评论推荐分标签,p为低质量评论标志位,是根据其所命中的具体策略人为确定的超参数。当训练中使用的评论文本是一条被机器或人工判定的低质量评论文本时,则p>0;当评论文本为正常评论文本,则p=0,惩罚项对损失函数无影响。
需要说明的是,在对初始评论预测模型进行训练时,可以设置较大的学习率,而在得到目标评论预测模型并在对目标评论预测模型进行线上更新时,可以设置较小的迭代次数和学习率。
在本申请实施例中,通过所述初始评论预测模型,并以训练标题文本作为所述第一语义编码子网络的输入、以训练评论文本作为所述第二语义编码子网络的输入、以所述评论推荐分标签作为所述初始评论预测模型的输出对所述初始评论预测模型进行训练,可以使得训练得到的目标评论预测模型中同时包括评论对象的标题、评论文本与预设评论推荐分三者之间的对应关系,从而在利用所述目标评论预测模型进行时,能够同时基于所述评论对象的标题和所述对象的待发表评论文本对所述待发表评论文本进行预测,从而增加了评论推荐的准确性。
为进一步说明本申请上述实施例,如图11所示,本申请还提供了一个具体实施例,所述方法可以包括:
步骤S1101:从互动数据存储中定期抽取历史高曝光评论文本及与其对应的历史互动数据和历史曝光数据;
步骤S1102:基于所述历史高曝光评论文本、所述历史互动数据和所述历史曝光数据更新目标评论预测模型;
具体的,可以参见如图9所示的实施例,先基于所述历史互动数据和历史曝光数据,计算与所述历史高曝光评论文本对应的历史评论推荐分,而后以所述历史高曝光评论文本作为所述目标评论预测模型的输入、以所述历史评论推荐分作为所述目标评论预测模型的输出,对所述目标评论预测模型进行更新。
在本申请实施例中,利用历史高曝光评论文本及其对应的历史互动数据和历史曝光数据对所述目标评论预测模型进行再训练,可以使得更新后的所述目标评论预测模型能够更加准确的识别出高质量的评论文本,提高了评论推荐的准确性。
步骤S1103:将用户发表评论输入更新得到的目标评论预测模型中;
步骤S1104:通过所述目标评论预测模型输出与用户发表评论对应的评论推荐分;
步骤S1105:在用户发表评论的评论推荐分大于等于预设推荐分数时,将用户发表评论存入评论推荐池中;
步骤S1106:从互动数据存储中获取所述评论推荐池中各个评论文本的曝光次数;
步骤S1107:将所述评论推荐池中曝光次数满足预设曝光条件的评论文本移除;
需要说明的是,步骤S1106、S1107和步骤S1105并不限定先后顺序,步骤S1106、S1107可以与步骤S1105同步进行,即在用户发表评论存入评论推荐池的同时,也可以同时执行从评论推荐池中移除评论文本的操作。
在本申请实施例中,通过从评论推荐池中移除曝光满足预设曝光条件的评论文本,可以在保证新发布的优质评论能够获得一定的曝光和互动的基础上,合理利用每次曝光机会,提高评论推荐的有效性。
步骤S1108:当接收到用户的评论拉取请求时,从所述评论推荐池中获取当前文章下前预设名次(如前50名)的高分评论文本;
步骤S1109:将当前文章下前预设名次的高分评论文本输入随机返回器,得到随机返回的目标评论文本;
其中,所述随机返回器可以基于输入其中的每条评论文本的评论推荐分计算每条评论文本的曝光概率,并基于每条评论文本的曝光概率从输入其中的评论文本中选取目标评论文本。
例如,当将当前文章下前50名的高分评论文本输入随机返回器时,随机返回器可以基于输入其中的50个评论文本的评论推荐分分别计算该50个评论文本的曝光概率,并可以基于该50个评论文本的曝光概率从该50个评论文本中选取目标评论文本。
如此,一方面可以使得所述评论推荐池中排名在预设名次内的评论文本均能基于其评论推荐分获得一定的曝光机会,例如,当设置预设名次为前50,所述评论推荐池中评论推荐分在前50的评论文本均可以获得一定的曝光机会,例如,当一些评论文本的评论推荐分较低(如排在第49位)但实际质量却较好时,也能依靠其本身较好的质量在某一次或某几次曝光时获得用户大量的互动,并可以据此占据评论列表中较为靠前的位置;另一方面,使得在从评论推荐池中移除曝光次数满足预设曝光条件的情形下,评论推荐池中高分文本的总体曝光概率能够大于评论推荐池中较低分文本的总体曝光概率,避免了在用户进行拉取时总是随机返回评论推荐池中具有较低分数的评论文本的问题,从而保证用户能够获取优质评论。
步骤S1110:将目标评论文本与高热评论列表拼接,得到目标推荐列表,并向用户推送;
步骤S1111:获取用户与所述目标推荐列表的互动数据和曝光数据;
步骤S1112:将用户的互动数据和曝光数据存储到互动数据存储中。
在步骤S1112中,通过在互动数据存储中存储相关数据,一方面可以便于后续从互动数据存储中获取所述评论推荐池中各个评论文本的曝光次数,以便于基于曝光次数从所述评论推荐池中移除评论文本;另一方面,存储到互动数据存储中的互动数据即会成为步骤S1101中所述的历史互动数据,存储到互动数据存储中的曝光数据即会成为步骤S1101中所述的历史曝光数据,从而便于后续通过所述历史互动数据和所述历史曝光数据对所述目标评论预测模型进行更新。通过本申请实施例,不仅可以避免前期曝光已经积累到的优质评论被淘汰,还可以使得新发布的优质评论能够获得一定的曝光和互动,而不会被埋没在评论区中,也即,在保证评论区评论质量相对较高的前提下,还可以使新发布的优质评论能够获得一定的曝光和互动,从而有助于帮助业务发现更多优质评论,并让用户能够通过评论区进行有效沟通,收到其他用户的反馈,进而激发用户参与评论的意愿,增加用户对产品的粘性。
未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的方法。
本申请实施例还提供了一种评论推荐装置1200,请参见图12,所述装置1200可以包括:
待发表评论文本获取模块1210,用于获取用户针对评论对象提交的待发表评论文本;
评论推荐分预测模块1220,用于调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,其中,所述目标评论预测模型包括评论文本与预设评论推荐分的对应关系;
当前评论列表获取模块1230,用于在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表;
目标评论列表生成模块1240,用于基于所述第一评论推荐分将所述待发表评论文本添加至所述当前评论列表中,得到响应于所述评论拉取请求的目标评论列表。
在一些实施例中,所述目标评论列表生成模块可以包括:
待发表评论文本添加子模块,用于在所述第一评论推荐分大于或等于预设推荐分数时,将所述待发表评论文本添加至评论推荐池中;
目标评论文本选取子模块,用于基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本;
目标评论列表生成子模块,用于将所述目标评论文本***所述当前评论列表中的预设推荐位置,得到响应于所述评论拉取请求的目标评论列表。
在一些实施例中,所述目标评论列表生成模块还可以包括:
当前评论列表信息获取子模块,用于获取所述当前评论列表中各个已发表评论文本的用户互动信息和第二评论推荐分;
已发表评论文本推荐度确定子模块,用于基于所述用户互动信息和所述第二评论推荐分确定所述当前评论列表中各个所述已发表评论文本的推荐度;
待发表评论文本推荐度确定子模块,用于基于所述第一评论推荐分确定所述待发表评论文本的推荐度;
所述目标评论列表子模块还用于基于推荐度的大小对所述待发表评论文本和各个所述已发表评论文本进行排序,得到响应于所述评论拉取请求的目标评论列表。
在一些实施例中,所述目标评论文本选取子模块可以包括:
曝光概率计算单元,用于基于所述评论推荐池中每条评论文本的评论推荐分计算每条评论文本的曝光概率;
目标评论文本确定单元,用于根据所述评论推荐池中每条评论文本的曝光概率从所述评论推荐池中选取目标评论文本。
在一些实施例中,所述装置还可以包括:曝光记录模块,用于对所述评论推荐池中每条评论文本的每次曝光进行记录;
评论文本移除模块,用于将曝光次数满足预设曝光条件的评论文本从所述评论推荐池中移除。
在一些实施例中,所述目标评论文本选取子模块可以包括:排名计算单元,用于基于所述评论推荐池中每条评论文本的评论推荐分,对所述评论推荐池中每条评论文本按评论推荐分由高至低依次排序;
预选评论文本确定单元,用于将前预设数量个评论文本确定为预选评论文本;
曝光概率计算单元还用于基于所述预选评论文本的评论推荐分计算每条所述预选评论文本的曝光概率;
目标评论文本确定单元还用于根据每条所述预选评论文本的曝光概率从所述预选评论文本中选取目标评论文本。
在一些实施例中,所述装置还可以包括:
历史数据拉取模块,用于定期拉取历史高曝光评论文本以及与所述历史高曝光评论文本对应的历史互动数据和历史曝光数据;
历史评论推荐分计算模块,用于基于所述历史互动数据和历史曝光数据,计算与所述历史高曝光评论文本对应的历史评论推荐分;
目标评论预测模型更新模块,用于以所述历史高曝光评论文本作为所述目标评论预测模型的输入、以所述历史评论推荐分作为所述目标评论预测模型的输出,对所述目标评论预测模型进行更新。
在一些实施例中,所述装置还可以包括:
初始评论预测模型构建模块,用于构建初始评论预测模型,所述初始评论预测模型包括语义编码网络层,所述语义编码网络层包括并列设置的第一语义编码子网络和第二语义编码子网络;
训练文本集获取模块,用于获取训练文本集,所述训练文本集包括多个训练文本对以及对应的评论推荐分标签,每个所述训练文本对包括训练标题文本和训练评论文本;
训练模块,用于以所述训练标题文本作为所述第一语义编码子网络的输入、以所述训练评论文本作为所述第二语义编码子网络的输入、以所述评论推荐分标签作为所述初始评论预测模型的输出,对所述初始评论预测模型进行训练,得到所述目标评论预测模型。
在一些实施例中,所述训练模块可以包括:
第一训练子模块,用于利用所述第一语义编码子网络对所述训练标题文本进行编码处理,得到初始标题文本特征向量序列;利用所述第二语义编码子网络对所述训练评论文本进行编码处理,得到初始评论文本特征向量序列;
第二训练子模块,用于对所述初始标题文本特征向量序列进行处理,得到对应的第一注意力权重;对所述初始评论文本特征向量序列进行处理,得到对应的第二注意力权重;
第三训练子模块,用于对所述第一注意力权重和所述初始标题文本特征向量序列进行矩阵相乘运算,得到第一中间特征向量序列;利用所述第二乘法运算单元对所述第二注意力权重和所述初始评论文本特征向量序列进行矩阵相乘运算,得到第二中间特征向量序列;
第四训练子模块,用于对所述第一中间特征向量序列和所述第二中间特征向量序列进行融合处理,得到融合特征向量序列;
第五训练子模块,用于基于所述融合特征向量序列对所述训练评论文本进行预测,得到预测分数;
第六训练子模块,用于基于所述预测分数和所述评论推荐分标签对所述初始评论预测模型的模型参数进行调整,得到所述目标评论预测模型。
本申请实施例还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行如本实施例上述任一方法。
本申请实施例还提供了一种电子设备,其结构图请参见图13,该设备1300可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(centralprocessing units,CPU)1322(例如,一个或一个以上处理器)和存储器1332,一个或一个以上存储应用程序1342或数据1344的存储介质1330(例如一个或一个以上海量存储设备)。其中,存储器1332和存储介质1330可以是短暂存储或持久存储。存储在存储介质1330的程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对设备中的一系列指令操作。更进一步地,中央处理器1322可以设置为与存储介质1330通信,在设备1300上执行存储介质1330中的一系列指令操作。设备1300还可以包括一个或一个以上电源1326,一个或一个以上有线或无线网络接口1350,一个或一个以上输入输出接口1358,和/或,一个或一个以上操作***1341,例如,Windows ServerTM等等。本实施例上述的任一方法均可基于图13所示的设备进行实施。
本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤和顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的***或中断产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如,并行处理器或者多线程处理的环境)。
本实施例中所示出的结构,仅仅是与本申请方案相关的部分结构,并不构成对本申请方案所应用于其上的设备的限定,具体的设备可以包括比示出的更多或更少的部件,或者组合某些部件,或者具有不同的部件的布置。应当理解到,本实施例中所揭露的方法、装置等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分仅仅为一种逻辑功能的划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元模块的间接耦合或通信连接。
基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请实施例还提供了一种计算机程序产品或计算机程序,所述计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各种可选实施方式中提供的评论推荐方法。
本领域技术人员还可以进一步意识到,结合本说明书所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但这种实现不应认为超出本申请的范围。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种评论推荐方法,其特征在于,所述方法包括:
获取用户针对评论对象提交的待发表评论文本;
调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,所述第一评论推荐分表征所述待发表评论文本在发表后的评论推荐分,其中,所述目标评论预测模型通过训练评论文本以及与所述训练评论文本对应的评论推荐分标签训练得到,所述评论推荐分标签表征所述训练评论文本的互动数据与总曝光次数的比值;
在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表;
在所述第一评论推荐分大于或等于预设推荐分数时,将所述待发表评论文本添加至评论推荐池中;
基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本;
将所述目标评论文本***所述当前评论列表中的预设推荐位置,得到响应于所述评论拉取请求的目标评论列表;
其中,所述基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本,包括:
基于所述评论推荐池中每条评论文本的评论推荐分计算所述评论推荐池中每条评论文本的曝光概率;根据所述评论推荐池中每条评论文本的曝光概率从所述评论推荐池中选取目标评论文本;或,基于预选评论文本的评论推荐分计算所述预选评论文本的曝光概率;根据所述预选评论文本的曝光概率从所述预选评论文本中选取目标评论文本。
2.根据权利要求1所述的评论推荐方法,其特征在于,所述方法还包括:
对所述评论推荐池中每条评论文本的每次曝光进行记录;
将曝光次数满足预设曝光条件的评论文本从所述评论推荐池中移除。
3.根据权利要求1所述的评论推荐方法,其特征在于,所述基于预选评论文本的评论推荐分计算所述预选评论文本的曝光概率之前,所述方法还包括:
基于所述评论推荐池中每条评论文本的评论推荐分,对所述评论推荐池中每条评论文本按评论推荐分由高至低依次排序;
将前预设数量个评论文本确定为所述预选评论文本。
4.根据权利要求1所述的评论推荐方法,其特征在于,所述将所述目标评论文本***所述当前评论列表中的预设推荐位置,得到响应于所述评论拉取请求的目标评论列表,包括:
获取所述当前评论列表中各个已发表评论文本的用户互动信息和第二评论推荐分;
基于所述用户互动信息和所述第二评论推荐分确定所述当前评论列表中各个所述已发表评论文本的推荐度;
基于所述第一评论推荐分确定所述目标评论文本的推荐度;
基于推荐度的大小对所述目标评论文本和各个所述已发表评论文本进行排序,得到响应于所述评论拉取请求的目标评论列表。
5.根据权利要求1所述的评论推荐方法,其特征在于,所述方法还包括:
定期拉取历史高曝光评论文本以及与所述历史高曝光评论文本对应的历史互动数据和历史曝光数据;
基于所述历史互动数据和历史曝光数据,计算与所述历史高曝光评论文本对应的历史评论推荐分;
以所述历史高曝光评论文本作为所述目标评论预测模型的输入、以所述历史评论推荐分作为所述目标评论预测模型的输出,对所述目标评论预测模型进行更新。
6.根据权利要求1所述的评论推荐方法,其特征在于,在所述调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分的步骤之前,所述方法还包括:
构建初始评论预测模型,所述初始评论预测模型包括语义编码网络层,所述语义编码网络层包括并列设置的第一语义编码子网络和第二语义编码子网络;
获取训练文本集,所述训练文本集包括多个训练文本对以及对应的评论推荐分标签,每个所述训练文本对包括训练标题文本和训练评论文本;
以所述训练标题文本作为所述第一语义编码子网络的输入、以所述训练评论文本作为所述第二语义编码子网络的输入、以所述评论推荐分标签作为所述初始评论预测模型的输出,对所述初始评论预测模型进行训练,得到所述目标评论预测模型。
7.根据权利要求6所述的评论推荐方法,其特征在于,所述以所述训练标题文本作为所述第一语义编码子网络的输入、以所述训练评论文本作为所述第二语义编码子网络的输入、以所述评论推荐分标签作为所述初始评论预测模型的输出,对所述初始评论预测模型进行训练,得到所述目标评论预测模型包括:
利用所述第一语义编码子网络对所述训练标题文本进行编码处理,得到初始标题文本特征向量序列;利用所述第二语义编码子网络对所述训练评论文本进行编码处理,得到初始评论文本特征向量序列;
对所述初始标题文本特征向量序列进行处理,得到对应的第一注意力权重;对所述初始评论文本特征向量序列进行处理,得到对应的第二注意力权重;
对所述第一注意力权重和所述初始标题文本特征向量序列进行矩阵相乘运算,得到第一中间特征向量序列;利用第二乘法运算单元对所述第二注意力权重和所述初始评论文本特征向量序列进行矩阵相乘运算,得到第二中间特征向量序列;
对所述第一中间特征向量序列和所述第二中间特征向量序列进行融合处理,得到融合特征向量序列;
基于所述融合特征向量序列对所述训练评论文本进行预测,得到预测分数;
基于所述预测分数和所述评论推荐分标签对所述初始评论预测模型的模型参数进行调整,得到所述目标评论预测模型。
8.一种评论推荐装置,其特征在于,所述装置包括:
待发表评论文本获取模块,用于获取用户针对评论对象提交的待发表评论文本;
评论推荐分预测模块,用于调用目标评论预测模型对所述待发表评论文本进行预测,得到对应的第一评论推荐分,所述第一评论推荐分表征所述待发表评论文本在发表后的评论推荐分,其中,所述目标评论预测模型通过训练评论文本以及与所述训练评论文本对应的评论推荐分标签训练得到,所述评论推荐分标签表征所述训练评论文本的互动数据与总曝光次数的比值;
当前评论列表获取模块,用于在接收到用户的评论拉取请求时,获取所述评论对象的当前评论列表;
目标评论列表生成模块,用于在所述第一评论推荐分大于或等于预设推荐分数时,将所述待发表评论文本添加至评论推荐池中;基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本;将所述目标评论文本***所述当前评论列表中的预设推荐位置,得到响应于所述评论拉取请求的目标评论列表;
其中,所述基于所述评论推荐池中每条评论文本的评论推荐分从所述评论推荐池中选取目标评论文本,包括:基于所述评论推荐池中每条评论文本的评论推荐分计算所述评论推荐池中每条评论文本的曝光概率;根据所述评论推荐池中每条评论文本的曝光概率从所述评论推荐池中选取目标评论文本;或,基于预选评论文本的评论推荐分计算所述预选评论文本的曝光概率;根据所述预选评论文本的曝光概率从所述预选评论文本中选取目标评论文本。
9.一种计算机存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行如权利要求1至7中任意一项所述的评论推荐方法。
10.一种电子设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行如权利要求1至7中任意一项所述的评论推荐方法。
CN202110337269.9A 2021-03-30 2021-03-30 评论推荐方法及装置 Active CN112733043B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110337269.9A CN112733043B (zh) 2021-03-30 2021-03-30 评论推荐方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110337269.9A CN112733043B (zh) 2021-03-30 2021-03-30 评论推荐方法及装置

Publications (2)

Publication Number Publication Date
CN112733043A CN112733043A (zh) 2021-04-30
CN112733043B true CN112733043B (zh) 2021-07-23

Family

ID=75597097

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110337269.9A Active CN112733043B (zh) 2021-03-30 2021-03-30 评论推荐方法及装置

Country Status (1)

Country Link
CN (1) CN112733043B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361264A (zh) * 2021-06-25 2021-09-07 上海哔哩哔哩科技有限公司 数据处理方法及装置
CN114139046B (zh) * 2021-10-29 2023-03-24 北京达佳互联信息技术有限公司 对象推荐方法、装置、电子设备及存储介质
CN114881020A (zh) * 2022-07-12 2022-08-09 成都晓多科技有限公司 基于交叉注意力和门机制的评论质量识别模型及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105493119A (zh) * 2013-06-24 2016-04-13 朴吉珠 基于智能手机的互动广告输出***
CN111046941A (zh) * 2019-12-09 2020-04-21 腾讯科技(深圳)有限公司 一种目标评论检测方法、装置、电子设备和存储介质
CN111310079A (zh) * 2020-02-14 2020-06-19 腾讯科技(深圳)有限公司 评论信息排序方法、装置、存储介质及服务器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107807936A (zh) * 2016-09-09 2018-03-16 腾讯科技(深圳)有限公司 评论信息排序方法及装置
CN109271646B (zh) * 2018-09-04 2022-07-08 腾讯科技(深圳)有限公司 文本翻译方法、装置、可读存储介质和计算机设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105493119A (zh) * 2013-06-24 2016-04-13 朴吉珠 基于智能手机的互动广告输出***
CN111046941A (zh) * 2019-12-09 2020-04-21 腾讯科技(深圳)有限公司 一种目标评论检测方法、装置、电子设备和存储介质
CN111310079A (zh) * 2020-02-14 2020-06-19 腾讯科技(深圳)有限公司 评论信息排序方法、装置、存储介质及服务器

Also Published As

Publication number Publication date
CN112733043A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN108959396B (zh) 机器阅读模型训练方法及装置、问答方法及装置
CN112733043B (zh) 评论推荐方法及装置
CN109783817B (zh) 一种基于深度强化学习的文本语义相似计算模型
CN110234018B (zh) 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN111930894B (zh) 长文本匹配方法及装置、存储介质、电子设备
CN111709493B (zh) 对象分类方法、训练方法、装置、设备及存储介质
CN113705811B (zh) 模型训练方法、装置、计算机程序产品及设备
CN110795944A (zh) 推荐内容处理方法及装置、情感属性确定方法及装置
US11423307B2 (en) Taxonomy construction via graph-based cross-domain knowledge transfer
CN110245310B (zh) 一种对象的行为分析方法、装置及存储介质
CN111898369A (zh) 文章标题生成方法、模型的训练方法、装置和电子设备
CN112257841A (zh) 图神经网络中的数据处理方法、装置、设备及存储介质
CN110166802A (zh) 弹幕处理方法、装置及存储介质
CN113704460A (zh) 一种文本分类方法、装置、电子设备和存储介质
CN113761156A (zh) 人机交互对话的数据处理方法、装置、介质及电子设备
CN116610218A (zh) Ai数字人的交互方法、装置及***
CN114490926A (zh) 一种相似问题的确定方法、装置、存储介质及终端
CN111897943A (zh) 会话记录搜索方法、装置、电子设备及存储介质
CN113741759B (zh) 评论信息的展示方法、装置、计算机设备和存储介质
CN113761933A (zh) 检索方法、装置、电子设备及可读存储介质
CN115248894A (zh) 一种信息推荐方法、装置和计算机可读存储介质
CN112149426A (zh) 阅读任务处理方法及相关设备
CN118228718B (zh) 编码器处理方法、文本处理方法及相关设备
CN117649117B (zh) 处置方案的确定方法、装置以及计算机设备
CN113032685B (zh) 基于社交关系的对象推送方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40041569

Country of ref document: HK