CN112182156A - 基于文本处理的方面级可解释深度网络评分预测推荐方法 - Google Patents
基于文本处理的方面级可解释深度网络评分预测推荐方法 Download PDFInfo
- Publication number
- CN112182156A CN112182156A CN202011038985.9A CN202011038985A CN112182156A CN 112182156 A CN112182156 A CN 112182156A CN 202011038985 A CN202011038985 A CN 202011038985A CN 112182156 A CN112182156 A CN 112182156A
- Authority
- CN
- China
- Prior art keywords
- text
- user
- vector
- emb
- whole
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种基于文本处理的方面级可解释深度网络评分预测推荐方法,通过深入挖掘用户与物品之间在方面级层面上的关联,从而进行精准的、可解释强的评分预测工作,方面级指的就是用户对物品作出评价时所关注的角度。通过深入挖掘用户与物品之间在方面级层面上的关联,可以有效刻画该用户的关注习惯,亦可以从多种角度描述该物品,这些最终都可以体现到评论的文本内容中,被人们直观的理解。在传统的协同过滤推荐思想之上,利用卷积神经网络抽取评论文本中的特征向量作为辅助信息参与评分预测推荐,提升了评分预测推荐效果,从而提高了推荐***的可解释性。
Description
技术领域
本发明涉及深度学习及推荐***中评分预测技术领域,具体涉及一种基于文本处理的方面级可解释深度网络评分预测推荐方法。
背景技术
在推荐***领域中,最为经典且被广泛应用的,就是协同过滤思想。但是,传统的协同过滤技术存在诸多问题,例如泛化性一般、冷启动问题、可解释性差等,其中又以可解释性差这一缺点最为人所诟病——由于传统的协同过滤思想旨在分析所谓的“隐式反馈”,将用户信息与物品信息抽象成向量或者其他形式进行处理,试图用这些抽象信息来刻画用户/物品,而这些抽象出的向量无法被人们直观的理解,进而导致了较差的可解释性。
发明内容
本发明为了克服以上技术的不足,提供了一种深入挖掘用户与物品之间在“方面”层面上的关联,可以有效刻画该用户的关注习惯,提高了推荐***的可解释性的推荐方法。
本发明克服其技术问题所采用的技术方案是:
一种基于文本处理的方面级可解释深度网络评分预测推荐方法,包括如下步骤:
a)在含评论文本的用户-物品-评分数据集D中,将每一个用户u和每一个物品i转变为代表其自身的嵌入式向量Embu及Embi,Embu及Embi的长度为K,K为超参数,K=128;
b)将数据集D中评论文本信息进行清洗与格式处理,构建评论文本中每一个单词的上下文窗口,每一个构建所得的窗口作为一个方面级;
c)在经步骤b)处理后的数据集D中抽取由文本信息辅助表征每个用户u的辅助向量Vu和每一个物品i的辅助向量Vi,结合注意力机制,将辅助向量Vu和辅助向量Vi与嵌入式向量Embu及Embi相融合,得到融合特征向量Attweiahts;
d)建立并训练基于文本信息处理的可解释深度网络评分预测模型,模型的输入为嵌入式向量Embu、Embi以及辅助向量Vu、Vi,模型的输出为用户u对物品i的评分。
进一步的,步骤a)中用户-物品-评分数据集D为Amazon Instant Video公开数据集或Home and Kitchen公开数据集或Tools and Home Improvement公开数据集。
进一步的,步骤a)中通过pytorch深度学习框架中的nn.Embedding()功能将每一个用户u和每一个物品i转变为代表其自身的嵌入式向量Embu及Embi。
进一步的,步骤b)包括如下步骤:
b-1)将数据集D中所有的评论文本进行清洗操作,去除非英文字母内容、去除标点符合及特殊符号、将所有英文字母同意转变为小写形式、去除停止词、去除出现次数小于3次级出现次数大于3000次的词语;
b-2)读取预训练好的Word2Vector文件,将步骤a)中将数据集D中的用户id和物品id进行序号化操作;
b-3)按获取的序号化顺序,依次读取每个用户的评论文本,将读取的每个用户发表的所有评论内容整合成一整段文字,该整段文字处理成由N个英文单词组成,N=2×K;
b-4)按获取的序号化顺序,依次读取每个物品的评论文本,将读取的每个物品作出的所有评论内容整合成一整段文字,该整段文字处理成由N个英文单词组成,N=2×K;
b-5)利用预训练好的Word2Vector文件将b-3)中得到的每个用户的N个英文单词组成的文本片段中每一个英文单词转化为对应的特征文本向量,得到一个维度为(N,K)的特征矩阵,将该矩阵记为WU;
b-6)利用预训练好的Word2Vector文件将b-4)中得到的每个物品的N个英文单词组成的文本片段中每一个英文单词转化为对应的特征文本向量,得到一个维度为(N,K)的特征矩阵,将该矩阵记为WI;
b-7)利用公式ZU,i=(WU[i-c/2];…;WU[i];…;WU[i+c/2]),计算用户评论文本中第i个单词的上下文窗口ZU,i,式中c为滑动窗口的宽度;
b-8)利用公式ZI,i=(WI[i-c/2];…;WI[i];…;WI[i+c/2]),计算物品评论文本中第i个单词的上下文窗口ZI,i,式中c为滑动窗口的宽度。
进一步的,步骤b-3)及步骤b-4)中若整段文字长度大于N则从第一个单词开始计算保留整段文字前N个单词,若整段文字长度小于N,则复制整段文字并在原整段文字的末尾进行粘贴,重复复制粘贴操作,直至整段文字的长度大于等于N后取整段文字的前N个单词。
进一步的,步骤c)包括如下步骤:
c-1)使用卷积神经网络对特征矩阵WU、特征矩阵WI、上下文窗口ZU,i及上下文窗口ZI,i进行特征提取,得到由文本信息辅助表征的每一个用户u的辅助向量Vu和每一个物品i的辅助向量Vi,Vu和Vi的长度为K;
c-2)通过公式计算得到注意力融合特征向量Attweiahts,式中为向量逐元素对应相加,W为线性映射函数的权重矩阵,b为偏差向量,RELU为线性整流单元激活函数,softmax为用户实现注意力机制的归一化函数Attweiahts的长度为K;
进一步的,步骤d)包括如下步骤:
d-1)通过公式Input=Attweiahts⊙Eui计算可解释深度网络评分预测模型的输入向量Input;
d-4)利用损失函数L对模型进行训练。
本发明的有益效果是:通过深入挖掘用户与物品之间在方面级层面上的关联,从而进行精准的、可解释强的评分预测工作,方面级指的就是用户对物品作出评价时所关注的角度。通过深入挖掘用户与物品之间在方面级层面上的关联,可以有效刻画该用户的关注习惯,亦可以从多种角度描述该物品,这些最终都可以体现到评论的文本内容中,被人们直观的理解。在传统的协同过滤推荐思想之上,利用卷积神经网络抽取评论文本中的特征向量作为辅助信息参与评分预测推荐,提升了评分预测推荐效果,从而提高了推荐***的可解释性。
具体实施方式
下面对本发明做进一步说明。
一种基于文本处理的方面级可解释深度网络评分预测推荐方法,包括如下步骤:
a)在含评论文本的用户-物品-评分数据集D中,将每一个用户u和每一个物品i转变为代表其自身的嵌入式向量Embu及Embi,Embu及Embi的长度为K,这里我们用字母K表示特征向量的长度,在算法实际运行过程中,K作为一个超参数,可以随着我们的需要而进行调整,例如K可取128、64、32……等。在本文所叙述的实现中,我们设定K=128。
b)将数据集D中评论文本信息进行清洗与格式处理,构建评论文本中每一个单词的上下文窗口,每一个构建所得的窗口作为一个方面级。
c)在经步骤b)处理后的数据集D中抽取由文本信息辅助表征每个用户u的辅助向量Vu和每一个物品i的辅助向量Vi,结合注意力机制,将辅助向量Vu和辅助向量Vi与嵌入式向量Embu及Embi相融合,得到融合特征向量Attweiahts。在这个过程中,步骤a)中所得嵌入向量Embu、Embi,步骤b)中所得上下文窗口数量、步骤c)中所得辅助向量Vu、Vi,步骤c)中所得融合特征向量Attweiahts四者间维度保持成比例关系,因此,注意力融合特征向量Attweiahts中每个节点都可与评论文本中的每一个单词上下文窗口相对应,即与每一个方面级相对应。当网络训练完毕后,可以通过读取的各个节点数值,找出其中最大节点的位置,根据比例关系反推出最有价值的上下文窗口位置,也即某一个对当前用户评价当前物品影响最大的方面级。
d)建立并训练基于文本信息处理的可解释深度网络评分预测模型,模型的输入为嵌入式向量Embu、Embi以及辅助向量Vu、Vi,模型的输出为用户u对物品i的评分。至此也就实现了基于文本信息处理的“方面”偏好可解释深度网络评分预测推荐方法。至此也就实现了基于文本信息处理的“方面”偏好可解释深度网络评分预测推荐方法。
通过深入挖掘用户与物品之间在方面级层面上的关联,从而进行精准的、可解释强的评分预测工作,方面级指的就是用户对物品作出评价时所关注的角度,例如对于冰箱这个电器,评论文本中可关注的“方面”可以为外观、制冷效果、性价比等。通过深入挖掘用户与物品之间在方面级层面上的关联,可以有效刻画该用户的关注习惯,亦可以从多种角度描述该物品,这些最终都可以体现到评论的文本内容中,被人们直观的理解。在传统的协同过滤推荐思想之上,利用卷积神经网络(CNN)抽取评论文本中的特征向量作为辅助信息参与评分预测推荐,提升了评分预测推荐效果,从而提高了推荐***的可解释性。
进一步的,步骤a)中采用Amazon(亚马逊)提供的用户-物品-评分数据集D,如Amazon Instant Video公开数据集或Home and Kitchen公开数据集或Tools and HomeImprovement公开数据集。
步骤a)中通过pytorch深度学习框架中的nn.Embedding()功能将每一个用户u和每一个物品i转变为代表其自身的嵌入式向量Embu及Embi。
步骤b)包括如下步骤:
b-1)将数据集D中所有的评论文本进行清洗操作,去除非英文字母内容、去除标点符合及特殊符号、将所有英文字母同意转变为小写形式、去除停止词、去除出现次数小于3次级出现次数大于3000次的词语。
b-2)读取预训练好的Word2Vector文件,Word2Vector文件由Google公司预训练并提供下载,可以实现将任意英文单词转变为对应特征向量的功能。将步骤a)中将数据集D中的用户id和物品id进行序号化操作。具体而言,原版数据集中,用户id按原格式可能表示为“A11N155CW1UV02”等,物品id按原格式可能表示为“B000H00VBQ”等,这种表示方式过于繁琐,不利于查看及后续的数据清洗,故要将它们转化为“0”“1”“2”这种自然标号,称为序号化操作。
b-3)按获取的序号化顺序,依次读取每个用户的评论文本,将读取的每个用户发表的所有评论内容整合成一整段文字,该整段文字处理成由N个英文单词组成,N=2×K。
b-4)按获取的序号化顺序,依次读取每个物品的评论文本,将读取的每个物品作出的所有评论内容整合成一整段文字,该整段文字处理成由N个英文单词组成,N=2×K。
b-5)利用预训练好的Word2Vector文件将b-3)中得到的每个用户的N个英文单词组成的文本片段中每一个英文单词转化为对应的特征文本向量,得到一个维度为(N,K)的特征矩阵,将该矩阵记为WU。
b-6)利用预训练好的Word2Vector文件将b-4)中得到的每个物品的N个英文单词组成的文本片段中每一个英文单词转化为对应的特征文本向量,得到一个维度为(N,K)的特征矩阵,将该矩阵记为WI。
b-7)利用公式ZU,i=(WU[i-c/2];…;WU[i];…;WU[i+c/2]),计算用户评论文本中第i个单词的上下文窗口ZU,i,式中c为滑动窗口的宽度。
b-8)利用公式ZI,i=(WI[i-c/2];…;WI[i];…;WI[i+c/2]),计算物品评论文本中第i个单词的上下文窗口ZI,i,式中c为滑动窗口的宽度。
进一步的,步骤b-3)及步骤b-4)中若整段文字长度大于N则从第一个单词开始计算保留整段文字前N个单词,若整段文字长度小于N,则复制整段文字并在原整段文字的末尾进行粘贴,重复复制粘贴操作,直至整段文字的长度大于等于N后取整段文字的前N个单词。
进一步的,步骤c)包括如下步骤:
c-1)使用卷积神经网络(CNN)对特征矩阵WU、特征矩阵WI、上下文窗口ZU,i及上下文窗口ZI,i进行特征提取,得到由文本信息辅助表征的每一个用户u的辅助向量Vu和每一个物品i的辅助向量Vi,Vu和Vi的长度为K;
c-2)通过公式计算得到注意力融合特征向量Attweiahts,式中为向量逐元素对应相加,W为线性映射函数的权重矩阵,b为偏差向量,RELU为线性整流单元激活函数,softmax为用户实现注意力机制的归一化函数Attweiahts的长度为K;
进一步的,步骤d)包括如下步骤:
d-1)通过公式Input=Attweiahts⊙Eui计算可解释深度网络评分预测模型的输入向量Input;
d-4)利用损失函数L对模型进行训练。完成基于文本信息处理的“方面”偏好可解释深度网络评分预测推荐方法。
Claims (7)
1.一种基于文本处理的方面级可解释深度网络评分预测推荐方法,其特征在于,包括如下步骤:
a)在含评论文本的用户-物品-评分数据集D中,将每一个用户u和每一个物品i转变为代表其自身的嵌入式向量Embu及Embi,Embu及Embi的长度为K,K为超参数,K=128;
b)将数据集D中评论文本信息进行清洗与格式处理,构建评论文本中每一个单词的上下文窗口,每一个构建所得的窗口作为一个方面级;
c)在经步骤b)处理后的数据集D中抽取由文本信息辅助表征每个用户u的辅助向量Vu和每一个物品i的辅助向量Vi,结合注意力机制,将辅助向量Vu和辅助向量Vi与嵌入式向量Embu及Embi相融合,得到融合特征向量Attweiahts;
d)将融合特征向量Attweiahts转化为输入向量后,输入用于评分预测的三层神经网络中,得到基于文本处理的方面级可解释深度网络评分预测推荐方法模型,模型的输入为嵌入式向量Embu、Embi以及辅助向量Vu、Vi,模型的输出为用户u对物品i的评分。
2.根据权利要求1所述的基于文本处理的方面级可解释深度网络评分预测推荐方法,其特征在于:步骤a)中用户-物品-评分数据集D为Amazon Instant Video公开数据集或Home and Kitchen公开数据集或Tools and Home Improvement公开数据集。
3.根据权利要求1所述的基于文本处理的方面级可解释深度网络评分预测推荐方法,其特征在于:步骤a)中通过pytorch深度学习框架中的nn.Embedding()功能将每一个用户u和每一个物品i转变为代表其自身的嵌入式向量Embu及Embi。
4.根据权利要求1所述的基于文本处理的方面级可解释深度网络评分预测推荐方法,其特征在于,步骤b)包括如下步骤:
b-1)将数据集D中所有的评论文本进行清洗操作,去除非英文字母内容、去除标点符合及特殊符号、将所有英文字母同意转变为小写形式、去除停止词、去除出现次数小于3次级出现次数大于3000次的词语;
b-2)读取预训练好的Word2Vector文件,将步骤a)中将数据集D中的用户id和物品id进行序号化操作;
b-3)按获取的序号化顺序,依次读取每个用户的评论文本,将读取的每个用户发表的所有评论内容整合成一整段文字,该整段文字处理成由N个英文单词组成,N=2×K;
b-4)按获取的序号化顺序,依次读取每个物品的评论文本,将读取的每个物品作出的所有评论内容整合成一整段文字,该整段文字处理成由N个英文单词组成,N=2×K;
b-5)利用预训练好的Word2Vector文件将b-3)中得到的每个用户的N个英文单词组成的文本片段中每一个英文单词转化为对应的特征文本向量,得到一个维度为(N,K)的特征矩阵,将该矩阵记为WU;
b-6)利用预训练好的Word2Vector文件将b-4)中得到的每个物品的N个英文单词组成的文本片段中每一个英文单词转化为对应的特征文本向量,得到一个维度为(N,K)的特征矩阵,将该矩阵记为WI;
b-7)利用公式ZU,i=(WU[i-c/2];…;WU[i];…;WU[i+c/2]),计算用户评论文本中第i个单词的上下文窗口ZU,i,式中c为滑动窗口的宽度;
b-8)利用公式ZI,i=(WI[i-c/2];…;WI[i];…;WI[i+c/2]),计算物品评论文本中第i个单词的上下文窗口ZI,i,式中c为滑动窗口的宽度。
5.根据权利要求4所述的基于文本处理的方面级可解释深度网络评分预测推荐方法,其特征在于:步骤b-3)及步骤b-4)中若整段文字长度大于N则从第一个单词开始计算保留整段文字前N个单词,若整段文字长度小于N,则复制整段文字并在原整段文字的末尾进行粘贴,重复复制粘贴操作,直至整段文字的长度大于等于N后取整段文字的前N个单词。
6.根据权利要求4所述的基于文本处理的方面级可解释深度网络评分预测推荐方法,其特征在于,步骤c)包括如下步骤:
c-1)使用卷积神经网络对特征矩阵WU、特征矩阵WI、上下文窗口ZU,i及上下文窗口ZI,i进行特征提取,得到由文本信息辅助表征的每一个用户u的辅助向量Vu和每一个物品i的辅助向量Vi,Vu和Vi的长度为K;
计算得到注意力融合特征向量Attweiahts,式中为向量逐元素对应相加,W为线性映射函数的权重矩阵,b为偏差向量,RELU为线性整流单元激活函数,softmax为用户实现注意力机制的归一化函数Attweiahts的长度为K;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011038985.9A CN112182156B (zh) | 2020-09-28 | 2020-09-28 | 基于文本处理的方面级可解释深度网络评分预测推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011038985.9A CN112182156B (zh) | 2020-09-28 | 2020-09-28 | 基于文本处理的方面级可解释深度网络评分预测推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112182156A true CN112182156A (zh) | 2021-01-05 |
CN112182156B CN112182156B (zh) | 2023-02-07 |
Family
ID=73945256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011038985.9A Active CN112182156B (zh) | 2020-09-28 | 2020-09-28 | 基于文本处理的方面级可解释深度网络评分预测推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112182156B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113127604A (zh) * | 2021-05-10 | 2021-07-16 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及*** |
CN113268657A (zh) * | 2021-04-16 | 2021-08-17 | 中国人民解放军战略支援部队信息工程大学 | 基于评论和物品描述的深度学习推荐方法及*** |
CN113722596A (zh) * | 2021-09-02 | 2021-11-30 | 北京工业大学 | 基于深度学习的神经协同过滤推荐模型优化*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573411A (zh) * | 2018-04-17 | 2018-09-25 | 重庆理工大学 | 基于用户评论的深度情感分析和多源推荐视图融合的混合推荐方法 |
CN110781409A (zh) * | 2019-10-25 | 2020-02-11 | 东北大学秦皇岛分校 | 一种基于协同过滤的物品推荐方法 |
CN111222332A (zh) * | 2020-01-06 | 2020-06-02 | 华南理工大学 | 一种结合注意力网络和用户情感的商品推荐方法 |
CN111274493A (zh) * | 2020-01-17 | 2020-06-12 | 电子科技大学 | 一种基于多源用户评论的评分预测方法 |
CN111275521A (zh) * | 2020-01-16 | 2020-06-12 | 华南理工大学 | 一种基于用户评论与满意层面嵌入的商品推荐方法 |
-
2020
- 2020-09-28 CN CN202011038985.9A patent/CN112182156B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573411A (zh) * | 2018-04-17 | 2018-09-25 | 重庆理工大学 | 基于用户评论的深度情感分析和多源推荐视图融合的混合推荐方法 |
CN110781409A (zh) * | 2019-10-25 | 2020-02-11 | 东北大学秦皇岛分校 | 一种基于协同过滤的物品推荐方法 |
CN111222332A (zh) * | 2020-01-06 | 2020-06-02 | 华南理工大学 | 一种结合注意力网络和用户情感的商品推荐方法 |
CN111275521A (zh) * | 2020-01-16 | 2020-06-12 | 华南理工大学 | 一种基于用户评论与满意层面嵌入的商品推荐方法 |
CN111274493A (zh) * | 2020-01-17 | 2020-06-12 | 电子科技大学 | 一种基于多源用户评论的评分预测方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113268657A (zh) * | 2021-04-16 | 2021-08-17 | 中国人民解放军战略支援部队信息工程大学 | 基于评论和物品描述的深度学习推荐方法及*** |
CN113127604A (zh) * | 2021-05-10 | 2021-07-16 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及*** |
CN113127604B (zh) * | 2021-05-10 | 2022-10-04 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及*** |
CN113722596A (zh) * | 2021-09-02 | 2021-11-30 | 北京工业大学 | 基于深度学习的神经协同过滤推荐模型优化*** |
Also Published As
Publication number | Publication date |
---|---|
CN112182156B (zh) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11687728B2 (en) | Text sentiment analysis method based on multi-level graph pooling | |
CN112182156B (zh) | 基于文本处理的方面级可解释深度网络评分预测推荐方法 | |
CN111241294B (zh) | 基于依赖解析和关键词的图卷积网络的关系抽取方法 | |
CN110765775B (zh) | 一种融合语义和标签差异的命名实体识别领域自适应的方法 | |
CN110046656B (zh) | 基于深度学习的多模态场景识别方法 | |
CN108228569B (zh) | 一种基于松散条件下协同学习的中文微博情感分析方法 | |
CN108399241B (zh) | 一种基于多类特征融合的新兴热点话题检测*** | |
CN103793501B (zh) | 基于社交网络的主题社团发现方法 | |
CN104268160A (zh) | 一种基于领域词典和语义角色的评价对象抽取方法 | |
CN104268197A (zh) | 一种行业评论数据细粒度情感分析方法 | |
CN111274829B (zh) | 一种利用跨语言信息的序列标注方法 | |
CN109815485B (zh) | 一种微博短文本情感极性识别的方法、装置及存储介质 | |
CN111444367A (zh) | 一种基于全局与局部注意力机制的图像标题生成方法 | |
CN113051932B (zh) | 语义和知识扩展主题模型的网络媒体事件的类别检测方法 | |
CN110874411A (zh) | 一种基于注意力机制融合的跨领域情感分类*** | |
CN113360582B (zh) | 基于bert模型融合多元实体信息的关系分类方法及*** | |
CN112612871A (zh) | 一种基于序列生成模型的多事件检测方法 | |
CN112069312A (zh) | 一种基于实体识别的文本分类方法及电子装置 | |
Yang et al. | Ensemble sentiment analysis method based on R-CNN and C-RNN with fusion gate | |
CN117010387A (zh) | 融合注意力机制的RoBERTa-BiLSTM-CRF语音对话文本命名实体识别*** | |
CN116992040A (zh) | 基于概念图的知识图谱补全方法和*** | |
CN111680684A (zh) | 一种基于深度学习的书脊文本识别方法、设备及存储介质 | |
CN114511003A (zh) | 一种基于加权融合相似度模型的重复性数据检测方法 | |
CN117034921B (zh) | 一种基于用户数据的提示学习训练方法、装置和介质 | |
CN112699684A (zh) | 命名实体识别方法和装置、计算机可读存储介质及处理器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |