CN112231569B - 新闻推荐方法、装置、计算机设备及存储介质 - Google Patents
新闻推荐方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112231569B CN112231569B CN202011148692.6A CN202011148692A CN112231569B CN 112231569 B CN112231569 B CN 112231569B CN 202011148692 A CN202011148692 A CN 202011148692A CN 112231569 B CN112231569 B CN 112231569B
- Authority
- CN
- China
- Prior art keywords
- vector
- news
- single entity
- vectors
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 239000013598 vector Substances 0.000 claims abstract description 217
- 239000013604 expression vector Substances 0.000 claims abstract description 99
- 238000000605 extraction Methods 0.000 claims abstract description 48
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000004931 aggregating effect Effects 0.000 claims abstract description 9
- 230000007246 mechanism Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 14
- 230000002776 aggregation Effects 0.000 claims description 11
- 238000004220 aggregation Methods 0.000 claims description 11
- 238000013145 classification model Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 235000002020 sage Nutrition 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2455—Query execution
- G06F16/24553—Query execution of query operations
- G06F16/24554—Unary operations; Data partitioning operations
- G06F16/24556—Aggregation; Duplicate elimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/288—Entity relationship models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例属于人工智能技术领域,可应用于智慧政务和/或医疗科技领域中,涉及一种新闻推荐方法、装置、计算机设备及存储介质,包括将接收到的新闻文档输入预设的初始推荐模型的语义提取模型中,获得语义特征表示向量;计算新闻文档中单实体的实体特征表示向量;聚合所有实体特征表示向量,获得聚合表示向量;处理聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果;计算初始推荐模型的损失函数值,并迭代训练初始推荐模型,直至初始推荐模型收敛,获得训练后的推荐模型,基于训练后的推荐模型向用户推荐新闻。训练后的推荐模型可存储于区块链中。本申请增强了新闻推荐的维度。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及新闻推荐方法、装置、计算机设备及存储介质。
背景技术
目前,个性化推荐***广泛应用于互联网、电商、生活、娱乐等各行各业。相对于传统搜索***,用户不需要主动输入目标信息或者查询(query),而是***根据用户画像信息和场景上下文信息自动匹配合适的新闻消息后推送给用户,这种方式极大地增强了用户信息获取的效率和用户体验,从而有利于提升产品的用户规模。
新闻推荐方法种类繁多,包括基于物品的协同过滤算法的新闻推荐方法、基于隐语义模型算法的新闻推荐方法以及基于关联规则的推荐算法的新闻推荐方法等。然而,现有的新闻推荐方法均存在推荐的新闻内容单一,而导致用户体验差的问题。
发明内容
本申请实施例的目的在于提出一种新闻推荐方法、装置、计算机设备及存储介质,增强了新闻推荐的维度,有效提升了模型推荐的多样性和准确率。
为了解决上述技术问题,本申请实施例提供一种新闻推荐方法,采用了如下所述的技术方案:
接收新闻文档,将所述新闻文档输入预设的初始推荐模型的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量,其中,所述新闻文档携带有标签;
从所述新闻文档中识别单实体,计算所述新闻文档中单实体的实体特征表示向量;
基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量;
处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果;
基于所述预测结果和所述新闻文档对应的标签,计算所述初始推荐模型的损失函数值,并迭代训练所述初始推荐模型,直至所述初始推荐模型收敛,获得训练后的推荐模型,基于所述训练后的推荐模型向用户推荐新闻。
进一步的,所述计算所述新闻文档中单实体的实体特征表示向量的步骤包括:
分别计算单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量;
将所述单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量在对应的维度相加,获得单实体的实体特征表示向量。
进一步的,所述计算单实体的知识图谱嵌入表示向量的步骤包括:
获取知识图谱,并基于所述知识图谱和所述初始推荐模型中的图模型对单实体进行知识表示学习,获得所述单实体的知识图谱嵌入表示向量。
进一步的,所述计算单实体在新闻文档中的上下文表示向量的步骤包括:
识别单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别;
基于预设的对应关系表,分别将所述单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别转换为对应的数字,得到所述单实体在新闻文档中的上下文表示向量。
进一步的,所述基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量的步骤包括:
将所述语义特征表示向量作为查询向量,基于所述初始推荐模型中设置的注意力机制去注意文档中包含的各个单实体;
将注意到的所述单实体对应的实体特征表示向量分别转化为键向量和值向量;
计算所述查询向量与每个键向量的内积,并归一化所有内积,获得实体特征表示向量的注意力权重;
基于所述注意力权重对所述实体特征表示向量进行加权求和,获得所述聚合表示向量。
进一步的,所述处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果的步骤包括:
将所述聚合表示向量和语义特征表示向量进行拼接;
将所述拼接后的向量输入所述初始推荐模型中的全连接层中,获得新闻文档特征向量;
将所述新闻文档特征向量和所述用户向量输入所述初始推荐模型的二分类模型中,获得预测结果。
进一步的,所述语义提取模型包括长短期记忆网络层,所述将所述新闻文档输入预设的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量的步骤包括:
基于语义提取模型将新闻文档中的每一个词转换为词向量;
基于语义提取模型中的长短期记忆网络层提取每一个句子中的所有词向量,并通过语义提取模型中的注意力机制对每一个句子中的所述词向量进行加权求和,生成句子特征向量;
通过语义提取模型中的注意力机制对所述句子向量进行加权求和,生成文档特征向量,作为所述语义特征表示向量。
为了解决上述技术问题,本申请实施例还提供一种新闻推荐装置,采用了如下所述的技术方案:
一种新闻推荐装置,包括:
接收模块,用于接收新闻文档,将所述新闻文档输入预设的初始推荐模型的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量,其中,所述新闻文档携带有标签;
计算模块,用于从所述新闻文档中识别单实体,计算所述新闻文档中单实体的实体特征表示向量;
聚合模块,用于基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量;
处理模块,用于处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果;以及
迭代模块,用于基于所述预测结果和所述新闻文档对应的标签,计算所述初始推荐模型的损失函数值,并迭代训练所述初始推荐模型,直至所述初始推荐模型收敛,获得训练后的推荐模型,基于所述训练后的推荐模型向用户推荐新闻。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现上述的新闻推荐方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述的新闻推荐方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请通过语义特征表示向量,聚合将新闻文档中获得的单实体的实体特征表示向量,生成聚合表示向量,提升了聚合表示向量的丰富性。并将聚合表示向量、语义特征表示向量和预设的用户向量进行处理,产生预测结果,由于预测结果是基于聚合表示向量和语义特征表示向量生成的,增强了推荐的维度,有效提升了模型推荐的多样性和准确率,有效避免常见的越推越窄从而降低用户体验的问题。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性***架构图;
图2是根据本申请的新闻推荐方法的一个实施例的流程图;
图3是根据本申请的新闻推荐装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
附图标记:200、计算机设备;201、存储器;202、处理器;203、网络接口;300、新闻推荐装置;301、接收模块;302、计算模块;303、聚合模块;304、处理模块;305、迭代模块。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的新闻推荐方法一般由服务器/终端设备执行,相应地,新闻推荐装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的新闻推荐方法的一个实施例的流程图。所述的新闻推荐方法,包括以下步骤:
S1:接收新闻文档,将所述新闻文档输入预设的初始推荐模型的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量,其中,所述新闻文档携带有标签。
在本实施例中,本申请中接收的新闻文档为训练样本,基于用户的历史点击数据获得,新闻文档对应的标签用于标识用户是否点击过该新闻文档。目前现有的新闻推荐模型一般采用深度知识感知网络DKN。本申请使用的语义提取模型为HAN(HierarchicalAttention Networks,层次化注意力机制的神经网络结构),整个网络结构包括四个部分、词序列编码器、基于词级的注意力层、句子编码器以及基于句子级的注意力层。通过HAN对新闻文档进行提取,获得新闻文档的语义特征表示向量。通过初始推荐模型的语义提取模型获得语义特征表示向量,便于后续的模型训练过程。
在本实施例中,新闻推荐方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收新闻文档。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
具体的,所述语义提取模型包括长短期记忆网络层,在步骤S1中,即所述将所述新闻文档输入预设的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量的步骤包括:
基于语义提取模型将新闻文档中的每一个词转换为词向量;
基于语义提取模型中的长短期记忆网络层提取每一个句子中的所有词向量,并通过语义提取模型中的注意力机制对每一个句子中的所述词向量进行加权求和,生成句子特征向量;
通过语义提取模型中的注意力机制对所述句子向量进行加权求和,生成文档特征向量,作为所述语义特征表示向量。
在本实施例中,现有的对文档特征向量的抽取主要分为三大类型:LDA类的无监督主题模型,基于DSSM框架的隐空间语义表示模型,BERT等大规模预训练语言模型。相对于这些模型,本申请所采用语义提取模型HAN(Hierarchical Attention Network)模型从词到句子再到段落和篇章,逐级分别使用LSTM(long-short term memory,长短期记忆)网络结合attention机制,对各层级的隐向量按顺序维度进行加权求和,从而能够提取不同层级的语义特征。这种方式逻辑更清晰,可解释性更强。
S2:从所述新闻文档中识别单实体,计算所述新闻文档中单实体的实体特征表示向量。
在本实施例中,基于初始推荐模型计算所述新闻文档中的单实体的实体特征表示向量。从新闻文档中识别单实体,具体可以通过使用通用的词表或通过单实体识别工具。从新闻文档中识别并提取单实体。其中,通用的词表中包括有预设的单实体,基于通用的词表历遍新闻文档从其中识别出单实体。单实体识别工具可以选用NER(Named EntityRecognition,命名实体识别),在具体操作过程中,可以根据实际需要对单实体识别工具进行选择。
需要说明的是:本申请中所识别的单实体为真实存在的专有名词,包括人名、地名和机构名等。
具体的,在步骤S2中,即所述计算所述新闻文档中单实体的实体特征表示向量的步骤包括:
分别计算单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量;
将所述单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量在对应的维度相加,获得单实体的实体特征表示向量。
在本实施例中,单实体的实体特征表示向量计算包含两部分:计算单实体的知识图谱表示向量和计算单实体在新闻文档中的上下文表示向量。将所述实体的知识图谱嵌入表示和实体在新闻文档中的上下文表示在对应维度进行相加,实现丰富实体特征表示向量的维度,扩大实体特征表示向量表示的特征范围。例如:实体的知识图谱嵌入表示向量为(0,1,1,0);实体在新闻文档中的上下文表示向量为(1,0,0,1),则将实体的知识图谱嵌入表示和实体在新闻文档中的上下文表示在对应维度进行相加,获得的单实体的实体特征表示向量为(1,1,1,1)。
进一步的,所述计算单实体的知识图谱嵌入表示向量的步骤包括:
获取知识图谱,并基于所述知识图谱和所述初始推荐模型中的图模型对单实体进行知识表示学习,获得所述单实体的知识图谱嵌入表示向量。
在本实施例中,本申请采用基于图神经网络的方法计算实体的知识嵌入表示。具体使用GraphSAGE(归纳式图表示学习图模型)图模型对实体进行知识表示学习,即本申请的初始推荐模型中的图模型指GraphSAGE图模型。相对于经典GCN(图卷积网络)来说,GraphSAGE图模型对未知数据有较好的泛化能力,对邻域节点进行了采样,且支持多种邻域节点信息聚合的方式,因此对实体进行知识表示的方式更高效和灵活。此外,知识图谱从开源的网络数据库中获取,本申请选择百科类知识图谱,其中,百科类的知识图谱中包括与新闻文档的单实体关联的其他实体和关系。通过GraphSAGE图模型,在结构化知识图谱中对新闻文档的单实体进行知识表示学习(知识表示学习是指学习实体向量和关系向量的表示),获得所述单实体的知识图谱嵌入表示向量。本申请通过引入外部知识图谱和GraphSAGE图模型,实现获得外部知识增强的知识图谱嵌入表示向量,进一步有效增强了通过知识图谱嵌入表示向量生成的单实体的实体特征表示向量的知识范围。
需要说明的是,本申请的知识图谱既可以从开源的网络数据库中获取,也可以根据实际需要从个人建立的知识图谱库中获取,其中,知识图谱库中包括不同种类的知识图谱,例如新闻类知识图谱、科技类知识图谱以及医药类知识图谱等。
相应的,所述计算单实体在新闻文档中的上下文表示向量的步骤包括:
识别单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别,作为单实体的上下文特征表示;
基于预设的对应关系表,分别将所述单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别转换为对应的数字,得到所述单实体在新闻文档中的上下文表示向量。
在本实施例中,对于相同单实体在新闻中出现时上下文可能不同,故其上下文特征表示应该是有差异的。因此,本申请选用三个具有代表性的特征作为单实体的上下文特征表示:单实体在新闻文档中出现的总次数(TF);单实体出现的位置,具体指单实体出现在新闻文档中第几段中的第几行;单实体的类别,类别包括明星、体育和音乐等。根据预设的对应关系表,分别将单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别转换为对应的数字,可以将所述数字输入linspace函数中,生成对应的向量,其中,linspace函数是指一个向量生成的指令。对应关系表中存储有预先设定好的单实体在新闻文档中出现的次数与数字的对应关系、单实体出现的位置与数字的对应关系和单实体的类别与数字的对应关系,通过在对应关系表中查找单实体在新闻文档中出现的次数、单实体出现的位置或者单实体的类别,即可获得其对应的数字。通过该单实体的出现次数、位置和类别来计算单实体在新闻文档中的上下文表示向量,使该上下文表示向量具有代表性。例如:当前单实体的出现的总次数为10次,对应的数字为1;位于第3段第3行对应的数字为1,类别为明星类别对应的数字为0,则当前单实体的上下文表示向量为(1,1,0)。
需要说明的是:本申请并不限定次数、位置和类别所对应的数字在转换的向量中的维度位置,示例仅作为参考性。在实际应用过程中,可以根据实际需要确定对应的维度位置。
S3:基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量。
在本实施例中,基于所述初始推荐模型和所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量。本申请基于语义特征表示向量,聚合新闻文档中的所有单实体的实体特征表示向量,有效提升了聚合表示向量的丰富性。
具体的,在步骤S3中,即所述基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量的步骤包括:
将所述语义特征表示向量作为查询向量,基于所述初始推荐模型中设置的注意力机制去注意文档中包含的各个单实体;
将注意到的所述单实体对应的实体特征表示向量分别转化为键向量和值向量;
计算所述查询向量与每个键向量的内积,并归一化所有内积,获得实体特征表示向量的注意力权重;
基于所述注意力权重对所述实体特征表示向量进行加权求和,获得所述聚合表示向量。
在本实施例中,本申请的注意力机制是通过将步骤S1得到的语义特征表示向量作为query(查询向量),去注意文档中包含的各个单实体。将单实体的实体特征表示向量转化为key向量(键向量)和value向量(值向量)。并计算query向量与key向量的内积,获得注意力权重;对所有实体的注意力权重进行归一化,实现所有注意力权重的和为1,基于注意力权重对单实体对应的特征表示向量进行加权求和,获得聚合表示向量。同现有技术使用query向量和key向量进行拼接后过MLP计算注意力权重的方式相比,本申请是query向量和key向量直接计算内积而得到注意力权重,使得网络架构更简洁,网络训练也更高效。进一步的,本申请使用语义特征表示向量作为查询,加权求和实体特征表示向量,提升了聚合表示向量的丰富性。
S4:处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果。
在本实施例中,基于所述初始推荐模型处理所述新闻文档特征表示向量和预设的用户向量,其中,预测结果是指是否推荐了该新闻,具体指推荐或者不推荐。用户向量主要涉及用户的个人信息(包括姓名、年龄等)和用户兴趣爱好画像等。由于预测结果是基于聚合表示向量和语义特征表示向量生成的,增强了推荐的维度,有效提升了模型推荐的多样性和准确率。
具体的,所述处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果的步骤包括:
将所述聚合表示向量和语义特征表示向量进行拼接;
将所述拼接后的向量输入所述初始推荐模型中的全连接层中,获得新闻文档特征向量;
将所述新闻文档特征向量和所述用户向量输入所述初始推荐模型的二分类模型中,获得预测结果。
在本实施例中,从步骤S3得到每篇新闻文档中所有实体的聚合表示向量后,直接将该向量同步骤S1得到的对应新闻的原始的语义特征表示向量进行维度拼接,其中,维度拼接既可以指根据指定维度进行数据合并,通过指定维度拼接时,需要保证其他维度的数值是相同的,例如:将向量(3,45,8)和向量(5,45,8)在第一个维度进行拼接,维度拼接后的向量为(8,45,8),还可以是指直接将对应向量的维度相加。然后通过一个包含tanh激活函数的全连接层对拼接后的向量进行处理,得到新闻文档特征向量。通过维度拼接和神经网络融合,增强特征表达能力,实现新闻文档特征向量的知识增强。经过知识增强的新闻文档特征表示向量还可以用于其他下游任务,例如新闻主题分类和热度预测等。得到知识增强的新闻文档表示向量后,基于点击日志,通过二分类模型对新闻文档特征表示向量和用户向量进行有监督的交互学习,获得预测结果。具体的,点击日志包括用户对新闻文档的点击情况,通过点击日志获知不同的用户点击过和未点击过的新闻。对于当前待判断是否进行推荐的新闻,基于新闻文档特征向量,通过在用户点击过的新闻中找到跟待判断的新闻相似度最高的新闻,通过用户向量获知用户是否喜欢该新闻,如果用户喜欢该新闻,则判断用户也喜欢该待判断的新闻,那么就将推荐该新闻作为预测结果。有监督指自动对二分类模型进行损失函数计算,并迭代训练所述预设的模型直至收敛获得训练后的二分类模型。其中,还可以通过对模型的训练过程进行记录,便于后续追溯模型训练过程中出现的问题。
例如:上述二分类模型可以采用常规的二分类器(例如LR(Logistic Regression,逻辑回归),Xgboost(eXtreme Gradient Boosting,梯度提升模型)或者DNN模型(DeepNeural Network,神经元计算模型),通过点击日记确定用户点击过和未点击过的新闻,取点击过的新闻作为正样本,然后从新闻大盘的剩余样本中随机采样一些作为负样本,训练上述二分类模型;也可以使用推荐***算法中经常使用的因子分解机(FactorizationMachine,FM)来进行。Factorization Machine(FM)弥补了常规二分类器的两大缺点:一,由于很多特征对结果的影响是通过联合作用实现的,FM通过特征组合引入了交叉特征,增强了模型的学习能力和泛化能力。二,通过对高维稀疏矩阵进行分解得到低维隐向量,提高了计算效率和训练收敛速度。
需要说明的是,本申请中S1至S4的执行过程基于所述初始推荐模型进行执行,S1至S4为对所述初始推荐模型的训练过程。
S5:基于所述预测结果和所述新闻文档对应的标签,计算所述初始推荐模型的损失函数值,并迭代训练所述初始推荐模型,直至所述初始推荐模型收敛,获得训练后的推荐模型,基于所述训练后的推荐模型向用户推荐新闻。
在本实施例中,点击日志,用于记录用户对新闻的点击情况,并将用户对新闻的是否点击作为该新闻文档的对应的标签,与预设的初始推荐模型预测的预测结果进行比较,迭代训练所述初始推荐模型,直至所述初始推荐模型收敛获得最终的推荐模型。其中,所述模型收敛指设定最大的迭代次数,当达到最大的迭代次数时,确定模型收敛,停止训练。本申请的损失函数值的计算过程可以采用0-1损失函数,预测结果和标签不相等为1,否则为0,具体公式如下:
其中,Y表示预测结果,f(X)表示新闻文档对应的标签。
当然,本申请根据实际需要,也可以采用现有的其他损失函数来计算本申请的损失函数值,适用即可。
需要说明的是:本申请的初始推荐模型中的语义提取模型和GraphSAGE图模型可以是预训练的模型,在迭代训练初始推荐模型过程中,不需要改变语义提取模型和GraphSAGE图模型的参数。
当然还可以,本申请的初始推荐模型中包括的语义提取模型、GraphSAGE图模型是随机初始化的模型,在迭代训练初始推荐模型过程中,需要同时迭代更新语义提取模型和GraphSAGE图模型的参数。
上述两种方式,在实际的应用过程中,根据实际需要灵活选择。
需要强调的是,为进一步保证上述训练后的推荐模型的私密和安全性,上述训练后的推荐模型还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请可应用于智慧政务领域中,从而推动智慧城市的建设。本申请可应用于医疗科技领域,新闻文档可以是医疗科技新闻文档、医疗健康新闻文档,提升医疗知识普及程度。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种新闻推荐装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的新闻推荐装置300包括:接收模块301、计算模块302、聚合模块303、处理模块304以及迭代模块305,其中,接收模块301,用于接收新闻文档,将所述新闻文档输入预设的初始推荐模型的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量,其中,所述新闻文档携带有标签;计算模块302,用于从所述新闻文档中识别单实体,计算所述新闻文档中单实体的实体特征表示向量;聚合模块303,用于基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量;处理模块304,用于处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果;以及迭代模块305,用于基于所述预测结果和所述新闻文档对应的标签,计算所述初始推荐模型的损失函数值,并迭代训练所述初始推荐模型,直至所述初始推荐模型收敛,获得训练后的推荐模型,基于所述训练后的推荐模型向用户推荐新闻。
在本实施例中,本申请通过语义特征表示向量,聚合将新闻文档中获得的单实体的实体特征表示向量,生成聚合表示向量,提升了聚合表示向量的丰富性。并将聚合表示向量、语义特征表示向量和预设的用户向量进行处理,产生预测结果,由于预测结果是基于聚合表示向量和语义特征表示向量生成的,增强了推荐的维度,有效提升了模型推荐的多样性和准确率,有效避免常见的越推越窄从而降低用户体验的问题。
所述语义提取模型包括长短期记忆网络层,所述接收模块301包括转换子模块、提取子模块以及加权子模块。其中,转换子模块用于基于语义提取模型将新闻文档中的每一个词转换为词向量;提取子模块用于基于语义提取模型中的长短期记忆网络层提取每一个句子中的所有词向量,并通过语义提取模型中的注意力机制对每一个句子中的所述词向量进行加权求和,生成句子特征向量;加权子模块用于通过语义提取模型中的注意力机制对所述句子向量进行加权求和,生成文档特征向量,作为所述语义特征表示向量。
所述计算模块302包括计算子模块和获得子模块。其中,计算子模块用于分别计算单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量;获得子模块用于将所述单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量在对应的维度相加,获得单实体的实体特征表示向量。
在本实施例的一些可选的实现方式中,上述计算子模块进一步用于获取知识图谱,并基于所述知识图谱和所述初始推荐模型中的图模型对单实体进行知识表示学习,获得所述单实体的知识图谱嵌入表示向量。
所述计算子模块包括识别单元和转换单元。其中,识别单元用于识别单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别,作为单实体的上下文特征表示;转换单元用于基于预设的对应关系表,分别将所述单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别转换为对应的数字,得到所述单实体在新闻文档中的上下文表示向量。
所述聚合模块303包括注意子模块、转化子模块、归一化子模块和求和子模块。其中,注意子模块用于将所述语义特征表示向量作为查询向量,基于所述初始推荐模型中设置的注意力机制去注意文档中包含的各个单实体;转化子模块用于将注意到的所述单实体对应的实体特征表示向量分别转化为键向量和值向量;归一化子模块用于计算所述查询向量与每个键向量的内积,并归一化所有内积,获得实体特征表示向量的注意力权重;求和子模块用于基于所述注意力权重对所述实体特征表示向量进行加权求和,获得所述聚合表示向量。
所述处理模块304包括拼接子模块、全连接层子模块和处理子模块。其中,拼接子模块用于将所述聚合表示向量和语义特征表示向量进行拼接;全连接层子模块用于将所述拼接后的向量输入所述初始推荐模型中的全连接层中,获得新闻文档特征向量;处理子模块用于将所述新闻文档特征向量和所述用户向量输入所述初始推荐模型的二分类模型中,获得预测结果。
本申请通过语义特征表示向量,聚合将新闻文档中获得的单实体的实体特征表示向量,生成聚合表示向量,提升了聚合表示向量的丰富性。并将聚合表示向量、语义特征表示向量和预设的用户向量进行处理,产生预测结果,由于预测结果是基于聚合表示向量和语义特征表示向量生成的,增强了推荐的维度,有效提升了模型推荐的多样性和准确率,有效避免常见的越推越窄从而降低用户体验的问题。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备200包括通过***总线相互通信连接存储器201、处理器202、网络接口203。需要指出的是,图中仅示出了具有组件201-203的计算机设备200,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器201至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器201可以是所述计算机设备200的内部存储单元,例如该计算机设备200的硬盘或内存。在另一些实施例中,所述存储器201也可以是所述计算机设备200的外部存储设备,例如该计算机设备200上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器201还可以既包括所述计算机设备200的内部存储单元也包括其外部存储设备。本实施例中,所述存储器201通常用于存储安装于所述计算机设备200的操作***和各类应用软件,例如新闻推荐方法的计算机可读指令等。此外,所述存储器201还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器202在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器202通常用于控制所述计算机设备200的总体操作。本实施例中,所述处理器202用于运行所述存储器201中存储的计算机可读指令或者处理数据,例如运行所述新闻推荐方法的计算机可读指令。
所述网络接口203可包括无线网络接口或有线网络接口,该网络接口203通常用于在所述计算机设备200与其他电子设备之间建立通信连接。
在本实施例中,增强了推荐模型推荐新闻的维度,有效提升了模型推荐的多样性和准确率,有效避免常见的越推越窄从而降低用户体验的问题。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的新闻推荐方法的步骤。
在本实施例中,增强了推荐模型推荐新闻的维度,有效提升了模型推荐的多样性和准确率,有效避免常见的越推越窄从而降低用户体验的问题。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (6)
1.一种新闻推荐方法,其特征在于,包括下述步骤:
接收新闻文档,将所述新闻文档输入预设的初始推荐模型的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量,其中,所述新闻文档携带有标签;
从所述新闻文档中识别单实体,计算所述新闻文档中单实体的实体特征表示向量;
所述计算所述新闻文档中单实体的实体特征表示向量的具体步骤,包括:
分别计算单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量;
将所述单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量在对应的维度相加,获得单实体的实体特征表示向量;
所述计算单实体的知识图谱嵌入表示向量的具体步骤,包括:
获取知识图谱,并基于所述知识图谱和所述初始推荐模型中的图模型对单实体进行知识表示学习,获得所述单实体的知识图谱嵌入表示向量;
所述计算单实体在新闻文档中的上下文表示向量的具体步骤,包括:
识别单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别;
基于预设的对应关系表,分别将所述单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别转换为对应的数字,得到所述单实体在新闻文档中的上下文表示向量;
基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量;
处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果;
所述处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果的具体步骤,包括:
将所述聚合表示向量和语义特征表示向量进行拼接;
将拼接后的向量输入所述初始推荐模型中的全连接层中,获得新闻文档特征向量;
将所述新闻文档特征向量和所述用户向量输入所述初始推荐模型的二分类模型中,获得预测结果;
基于所述预测结果和所述新闻文档对应的标签,计算所述初始推荐模型的损失函数值,并迭代训练所述初始推荐模型,直至所述初始推荐模型收敛,获得训练后的推荐模型,基于所述训练后的推荐模型向用户推荐新闻。
2.根据权利要求1所述的新闻推荐方法,其特征在于,所述基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量的步骤包括:
将所述语义特征表示向量作为查询向量,基于所述初始推荐模型中设置的注意力机制去注意文档中包含的各个单实体;
将注意到的所述单实体对应的实体特征表示向量分别转化为键向量和值向量;
计算所述查询向量与每个键向量的内积,并归一化所有内积,获得实体特征表示向量的注意力权重;
基于所述注意力权重对所述实体特征表示向量进行加权求和,获得所述聚合表示向量。
3.根据权利要求1所述的新闻推荐方法,其特征在于,所述语义提取模型包括长短期记忆网络层,所述将所述新闻文档输入预设的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量的步骤包括:
基于语义提取模型将新闻文档中的每一个词转换为词向量;
基于语义提取模型中的长短期记忆网络层提取每一个句子中的所有词向量,并通过语义提取模型中的注意力机制对每一个句子中的所述词向量进行加权求和,生成句子特征向量;
通过语义提取模型中的注意力机制对所述句子特征向量进行加权求和,生成文档特征向量,作为所述语义特征表示向量。
4.一种新闻推荐装置,其特征在于,包括:
接收模块,用于接收新闻文档,将所述新闻文档输入预设的初始推荐模型的语义提取模型中,获得所述语义提取模型输出的语义特征表示向量,其中,所述新闻文档携带有标签;
计算模块,用于从所述新闻文档中识别单实体,计算所述新闻文档中单实体的实体特征表示向量;
聚合模块,用于基于所述语义特征表示向量,将新闻文档中的所有单实体的实体特征表示向量进行聚合,获得聚合表示向量;
处理模块,用于处理所述聚合表示向量、语义特征表示向量和预设的用户向量,获得预测结果;以及
迭代模块,用于基于所述预测结果和所述新闻文档对应的标签,计算所述初始推荐模型的损失函数值,并迭代训练所述初始推荐模型,直至所述初始推荐模型收敛,获得训练后的推荐模型,基于所述训练后的推荐模型向用户推荐新闻;
所述计算模块包括:
计算子模块,用于分别计算单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量;
获得子模块,用于将所述单实体的知识图谱嵌入表示向量和单实体在新闻文档中的上下文表示向量在对应的维度相加,获得单实体的实体特征表示向量;
所述计算子模块进一步用于:
获取知识图谱,并基于所述知识图谱和所述初始推荐模型中的图模型对单实体进行知识表示学习,获得所述单实体的知识图谱嵌入表示向量;
所述计算子模块还包括:
识别单元,用于识别单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别;
转换单元,用于基于预设的对应关系表,分别将所述单实体在新闻文档中出现的次数、单实体出现的位置和单实体的类别转换为对应的数字,得到所述单实体在新闻文档中的上下文表示向量;
所述处理模块包括:
拼接子模块,用于将所述聚合表示向量和语义特征表示向量进行拼接;
全连接层子模块,用于将拼接后的向量输入所述初始推荐模型中的全连接层中,获得新闻文档特征向量;
处理子模块,用于将所述新闻文档特征向量和所述用户向量输入所述初始推荐模型的二分类模型中,获得预测结果。
5.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至3中任一项所述的新闻推荐方法的步骤。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至3中任一项所述的新闻推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011148692.6A CN112231569B (zh) | 2020-10-23 | 2020-10-23 | 新闻推荐方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011148692.6A CN112231569B (zh) | 2020-10-23 | 2020-10-23 | 新闻推荐方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112231569A CN112231569A (zh) | 2021-01-15 |
CN112231569B true CN112231569B (zh) | 2023-10-24 |
Family
ID=74110474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011148692.6A Active CN112231569B (zh) | 2020-10-23 | 2020-10-23 | 新闻推荐方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112231569B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784033B (zh) * | 2021-01-29 | 2023-11-03 | 北京百度网讯科技有限公司 | 一种时效等级识别模型训练及应用的方法、及电子设备 |
CN113222328B (zh) * | 2021-03-25 | 2022-02-25 | 中国科学技术大学先进技术研究院 | 基于路段污染相似性的空气质量监测设备布点选址方法 |
CN112860784B (zh) * | 2021-03-29 | 2024-05-17 | 中信银行股份有限公司 | 血缘分析方法、装置、电子设备及计算机可读存储介质 |
CN113626557A (zh) * | 2021-05-17 | 2021-11-09 | 四川大学 | 一种基于要素标注与bert和rcnn算法的智能法条推荐辅助*** |
CN113327691B (zh) * | 2021-06-01 | 2022-08-12 | 平安科技(深圳)有限公司 | 基于语言模型的问询方法、装置、计算机设备及存储介质 |
CN113779415A (zh) * | 2021-10-22 | 2021-12-10 | 平安科技(深圳)有限公司 | 新闻推荐模型的训练方法、装置、设备以及存储介质 |
CN114363671B (zh) * | 2021-12-31 | 2024-03-19 | 北京达佳互联信息技术有限公司 | 多媒体资源推送方法、模型训练方法、装置、存储介质 |
CN114780712B (zh) * | 2022-04-06 | 2023-07-04 | 科技日报社 | 一种基于质量评价的新闻专题生成方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110765273A (zh) * | 2019-09-17 | 2020-02-07 | 北京三快在线科技有限公司 | 推荐文案生成方法、装置、电子设备及可读存储介质 |
CN111061856A (zh) * | 2019-06-06 | 2020-04-24 | 北京理工大学 | 一种基于知识感知的新闻推荐方法 |
CN111444305A (zh) * | 2020-03-19 | 2020-07-24 | 浙江大学 | 一种基于知识图谱嵌入的多三元组联合抽取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9116995B2 (en) * | 2011-03-30 | 2015-08-25 | Vcvc Iii Llc | Cluster-based identification of news stories |
-
2020
- 2020-10-23 CN CN202011148692.6A patent/CN112231569B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111061856A (zh) * | 2019-06-06 | 2020-04-24 | 北京理工大学 | 一种基于知识感知的新闻推荐方法 |
CN110765273A (zh) * | 2019-09-17 | 2020-02-07 | 北京三快在线科技有限公司 | 推荐文案生成方法、装置、电子设备及可读存储介质 |
CN111444305A (zh) * | 2020-03-19 | 2020-07-24 | 浙江大学 | 一种基于知识图谱嵌入的多三元组联合抽取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112231569A (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112231569B (zh) | 新闻推荐方法、装置、计算机设备及存储介质 | |
Chen et al. | Exploration of social media for sentiment analysis using deep learning | |
Sohangir et al. | Big Data: Deep Learning for financial sentiment analysis | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
CN112732911B (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
Guo et al. | Collaborative filtering recommendation based on trust and emotion | |
US20190095788A1 (en) | Supervised explicit semantic analysis | |
JP6745384B2 (ja) | 情報をプッシュするための方法及び装置 | |
US11475227B2 (en) | Intelligent routing services and systems | |
CN111539197A (zh) | 文本匹配方法和装置以及计算机***和可读存储介质 | |
CN113704460B (zh) | 一种文本分类方法、装置、电子设备和存储介质 | |
CN111625715B (zh) | 信息提取方法、装置、电子设备及存储介质 | |
US20230169271A1 (en) | System and methods for neural topic modeling using topic attention networks | |
CN113505601A (zh) | 一种正负样本对构造方法、装置、计算机设备及存储介质 | |
CN110827115A (zh) | 基于注意力机制的产品推荐方法和*** | |
US20230237093A1 (en) | Video recommender system by knowledge based multi-modal graph neural networks | |
Habek et al. | Bi-Directional CNN-RNN architecture with group-wise enhancement and attention mechanisms for cryptocurrency sentiment analysis | |
Chaudhuri | Visual and text sentiment analysis through hierarchical deep learning networks | |
Feng et al. | Ontology semantic integration based on convolutional neural network | |
CN112199954B (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
Xie et al. | Toward prompt-enhanced sentiment analysis with mutual describable information between aspects | |
Chan et al. | Optimization of language models by word computing | |
US20230245210A1 (en) | Knowledge graph-based information recommendation | |
Latha et al. | Product recommendation using enhanced convolutional neural network for e-commerce platform | |
Wu et al. | Hashtag recommendation with attention-based neural image hashtagging network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |