CN111353040A - 基于gru的属性级别情感分析方法 - Google Patents

基于gru的属性级别情感分析方法 Download PDF

Info

Publication number
CN111353040A
CN111353040A CN201910459539.6A CN201910459539A CN111353040A CN 111353040 A CN111353040 A CN 111353040A CN 201910459539 A CN201910459539 A CN 201910459539A CN 111353040 A CN111353040 A CN 111353040A
Authority
CN
China
Prior art keywords
sentence
layer
word
vector
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910459539.6A
Other languages
English (en)
Inventor
邢永平
禹晶
肖创柏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201910459539.6A priority Critical patent/CN111353040A/zh
Publication of CN111353040A publication Critical patent/CN111353040A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种属性级情感分析方法。情感分析是自然语言处理中一个基本的任务,而属性级的情感分析是情感分析的一个重要课题。在一句话中不同的词语对句子中属性(aspect)的情感极性有不同的影响,如何对属性和其句子中的词的关系以及整个句子含义建模是解决该问题的关键。在本文我们将通过两个循环网络在对句子信息建模的同时还引入注意力机制以融合属性的信息从而期望达到较好的效果。本文通过在公开数据集的实验显示在不需要做繁杂特征工程的情况下,本文提出的算法取得了更好的结果。

Description

基于GRU的属性级别情感分析方法
技术领域
本发明涉及互联网领域,更具体地说,涉及基于GRU的属性级别情感分析方法。
背景技术
随着互联网的快速发展,文本信息越来越多,如何从海量文本信息中获取有用信息变得越来越重要,这些海量文本信息也客观促进自然语言处理的发展,而深度学习为自然语言处理带来了新的方向。情感分析(即意见挖掘)是自然语言处理中一个基础却很重要的任务。企业可以利用客户对产品的评论信息来及时的获取反馈从而为决策提供参考。因此近年来如何在海量的文本数据中提取情感信息显得成为自然语言处理的一个重要研究课题。
目前主要的文本情感分析研究主要是基于情感词典和基于机器学习。基于情感词典的方法依赖于情感词典,情感词典对于情感分析具有大的影响,杨鼎等基于情感词典对文本进行处理和表示从而构建出基于朴素贝叶斯理论的分类器。另一种方法是基于机器学习的方法。机器学习的方法通过对人工标定的数据进行训练而得到一个情感分析分类器,通过实验证明了支持向量机的优良分类性能。这两种方法都需要人工标记数据从而完成情感词典构建和特征工程,这些任务繁琐且复杂而深度学习算法能够很好地解决这一问题。近年来深度学习在自然语言处理方面取得巨大的成功,比如机器翻译,问答***。在情感分析领域也有应用, Socher等提出了基于半监督递归自动编码机RAE)的深度学习方法来实现文本情感分类;Jurgovsky等利用卷积神经网络(CNN)实现了文本情感分类。文本情感分析可以分为篇章级、句子级以及单词级。本文主要研究的是基于属性(aspect) 的情感分析。这是由于在同一句子中对不同的aspect其情感极性有可能是不相同的,比如在“Thevoice quality of this phone is not good,but the battery life is long.”这个句子中对于quality来说这句话的评价是负面的,然而对battery life这个来说是正面的。Wang等提出AE-LSTM,AT-LSTM,和AEAT-LSTM循环网络算法用于aspect粒度的情感分析,其将aspect信息融合到长短期记忆网络LSTM中以提高分类精度。SVM-dep算法将特征分为和属性aspect相关的特征和aspect 无关的特征,分别提取出来完成了基于属性级别的情感分析,其精度由于不包含属性特征的支持向量机分类器。
注意力机制是在信息处理时选择性地集中于某些重要的信息的一种机制,而忽略和关注目标意义相关性较弱的一种信息处理机制,它强调在信息处理时更关注信息的本质方面的信息,它将有限的资源集中于重要的信息的处理,从而取得了巨大的成功。注意力(Attention)机制在图像识别、自动翻译等领域已经取得了巨大的成功。结合本文的主题,在处理基于属性情感分析的时候,可以更加关注和属性有关的信息从而提高情感分类的准确度。
循环网络(RNN)因为其网络记忆性能够处理上下文信息而被广泛应用于自然语言处理中,典型的循环网络有长短期记忆网络(LSTM)、门控循环单元(GRU) 和MUT网络等。本文将提出基于GRU网络在属性粒度情感分析的算法,然后通过注意力机制将属性信息融合到模型中,使得算法模型更能够关注到属性对情感分类的影响,从而提高情感分类的精度。
发明内容
有鉴于此,本发明的目的在于提供了一种基于GRU网络的属性级情感分析模型和方法,本发明基于Att-CGRU的属性级别情感分类算法,以实现情感分类精度的提高。
为了实现上述目的,本发明设计的基于GRU网络的属性级情感分析模型包括如下:
在Att-CGRU模型中,将通过注意力机制的引入来体现属性在对于整个句子的情感极性具有很重要的影响。在序列问题的处理中,编码解码(encoder-decoder) 是一种很常用的模型,通过在编解码模型根据不同的算法以及任务目标来对编码输出的隐状态向量分配不同的权重,抽取出能够尽可能表征输入数据的向量表示以改善算法模型性能,这一过程实质上是将有限的资源集中于和目标任务相关度更高的信息上来提高算法性能。Att-CGRU模型具体结构见说明书附图1。模型包括五个部分即输入层、嵌入层、GRU层、attention层和输出层。输入层将短文本即句子输入到模型中;嵌入层将句子中的每一个词映射成一个向量;GRU层利用从词嵌入中来获取特征信息;attention层实现注意力机制,它将会通过权重计算把词一级的特征信息融合成句子级的特征信息而产生一个句子特征向量;最终将句子特征向量进行分类。
1.1输入层
在输入层输入每一个需要进行情感极性分类的句子,假设句子长度为T,则句子可以表示为s={x1,x2,...,xT},xi表示句子中的第i个单词。
1.2嵌入层
在从输入层获得的一个包含T个词的句子s={x1,x2,...,xT},后每一个词在嵌入层得到其对应的词向量ei
首先从词嵌入矩阵
Figure RE-GDA0002499126760000031
中获得每一个词的词向量,这里V是词表的长度,dw是可以指定的词向量维数,则有
embi=Wwrdvi (1)
其中vi是一个长度为|V|的向量,其中在i处为1,其他处为0。可以同样得出aspect的词向量embasp,当句子中aspect为多个单词的时候,将每个单词的词向量相同维度的值加起来得到aspect的词向量。然后将embi和embasp拼接起来得到最终的词向量ei
ei=[embi:embasp] (2)
最后将e={e1,e2,...,eT}输入到下一层。
1.3 GRU层
在GRU层中,将会以属性为分界点,将句子分为左右部分去对属性上下文建模,其结构如图1,其中{xl+1,xl+2,...,xr-1}表示aspect,{x1,x2,...,xl}表示句子中属性以前的单词,{xr-1,xr-2,...,xT}表示属性以后的单词。将左右两个序列输入到左右两个网络后隐藏层分别得到{h1,h2,...,hr-1}和{hl+1,hl+2,...,hT}。
1.4 attention层
在这个模型中引入注意力机制来获得更好的分类效果,这是由于句子中前后两部分的不同词和属性有不同的联系,将更多的来关注和属性联系紧密的信息。注意力机制的实现如下:
Figure RE-GDA0002499126760000041
at=softmax(wTM) (4)
r=Hat (5)
这里at表示的是注意力权重系数,
Figure RE-GDA0002499126760000042
表示重复easp多次至和H的维度保持一致,H 是模型中隐藏层输出组成的矩阵,r表示的是加权后的表示句子含义的向量,Wh、 Wv、w是参数矩阵,然后得到能够最终表针句子信息的向量o
o=tanh(Wpr+Wxh) (6)
h表示hr-1和hl+1向量的和。
1.5输出层
最后将注意力层的输出o输入到分类器
Figure RE-GDA0002499126760000043
实现情感的极性分类,其中Wo和bo是要训练得到的参数矩阵。
本方法的具体实验步骤如下:
步骤S1、首先将本发明中所用的收集于推特的数据集输入到Att-CGRU模型的输入层,
步骤S2、将S1得到的数据输入到嵌入层,得到输入句子中每个词的词向量,
步骤S3、在GRU层中通过S2的方式得到句子中每个词的词向量后,以属性词{xl+1,xl+2,...,xr-1}为分界点将左边{x1,x2,...,xl}单词的词向量和右边 {xr-1,xr-2,...,xT}单词的词向量输入到两个左右两个GRU网络分别对属性词的上下文建模,从隐藏层分别得到输出{h1,h2,...,hr-1}和{hl+1,hl+2,...,hT}。
步骤S4、根据S4的输出,按照以下公式来计算能代表句子信息的向量o,具体公式如下:
Figure RE-GDA0002499126760000044
at=softmax(wTM)
r=Hat
这里r表示的是加权后的能表征句子含义的向量,at表示的是注意力权重系数,其由将wTM输入到softmax函数后得出,M表示一个由模型GRU层中隐藏层的输出组成的矩阵H得来的向量,
Figure RE-GDA0002499126760000051
表示重复属性词词向量easp多次至和H的维度保持一致,H是模型中隐藏层输出组成的矩阵,tanh代表tanh函数,Wh、Wv、 w是参数矩阵。最终得到能够最终表针句子信息的向量o
o=tanh(Wpr+Wxh)
h表示hr-1和hl+1向量的和,hr-1表示左GRU网络中的第r-1个词对应的隐藏层输出,hl+1表示右GRU网络中的第l+1个词对应的隐藏层输出,Wp和Wx表示参数矩阵。
步骤S5、输出层是将能够表针句子信息的向量o输入到softmax函数得到预测的情感极性
Figure RE-GDA0002499126760000052
具体由
Figure RE-GDA0002499126760000053
得出,Wo和bo都是参数矩阵。
步骤6、根据S5的输出和每个句子对应的实际分类y计算损失函数值loss
Figure RE-GDA0002499126760000054
其中λ是正则化系数,并通过误差反向传播算法训练迭代至Accuracy取得最大值,误差反向传播算法中的优化算法是以初始化系数为0.01的AdaGrad算法。
与现有技术相比较,本发明具有如下技术效果。
本方法中分别和传统的机器学习方法(包括支持向量机算法、SVM-dep算法) 以及深度学习的方法(AdaRNN-w/E、AdaRNNcomb、TC-LSTM)分别进行了对比实验,评价模型时以准确率(Accuracy)来评价各种模型,结果如下表所示:
表1实验结果
Figure RE-GDA0002499126760000055
Figure RE-GDA0002499126760000061
附图说明
图1是Att-CGRU模型具体结构图。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,在图1Att-CGRU模型结构图中包括五个部分即输入层、嵌入层、GRU层、attention层和输出层。输入层将短文本即句子输入到模型中;嵌入层将句子中的每一个词映射成一个向量;GRU 层利用从词嵌入中来获取特征信息;attention层实现注意力机制,它将会通过权重计算把词一级的特征信息融合成句子级的特征信息而产生一个句子特征向量;最终将句子特征向量进行分类。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施本发明时,首先要收集数据集,本发明所用的数据集是收集于推特的一个基本数据集。
本算法的具体实验步骤如下:
步骤S1、本文所用的数据集是收集于推特的一个基本数据集。每一个训练和测试数据已经人工标定。训练数据集用来训练模型,测试数据集用来测试模型性能。训练数据集有6248个句子,测试数据集有692个句子。测试和训练数据集中正面、负面和中性数据各自占25%、25%和50%
步骤S2、本文中的模型中包括了五个部分即输入层、嵌入层、GRU层、 attention层和输出层。输入层将短文本即句子输入到模型中,句子可以表示为 s={x1,x2,...,xT}其中xi表示组成句子的第i个单词,T表示句子的长度。嵌入层将句子中的每一个单词xi根据词向量词典映射成词向量ei=[embi:embasp],其中embi表示第i个单词在词典中对应的词向量,embasp表示的是属性词的词向量,当属性词由多个词组成时,取这几个词的词向量的均值。GRU层将利用从嵌入层中来获取语义特征信息的基础上将以属性为分界点,把句子分为左右部分对属性上下文建模,其结构如图1,其中{xl+1,xl+2,...,xr-1}表示属性aspect,{x1,x2,...,xl}表示句子中属性以前的单词,{xr-1,xr-2,...,xT}表示属性以后的单词。将左右两个序列输入到左右两个GRU网络后隐藏层分别得到{h1,h2,...,hr-1}和{hl+1,hl+2,...,hT}。attention层实现注意力机制,它通过权重计算把词一级的特征信息融合成句子级的特征信息而产生一个句子特征向量最终将句子特征向量进行分类,其具体实现公示如下
Figure RE-GDA0002499126760000071
at=softmax(wTM)
r=Hat
这里r表示的是加权后的能表征句子含义的向量,at表示的是注意力权重系数,其由将wTM输入到softmax函数后得出,M表示一个由模型GRU层中隐藏层的输出组成的矩阵H得来的向量,
Figure RE-GDA0002499126760000072
表示重复属性词词向量easp多次至和H的维度保持一致,H是模型中隐藏层输出组成的矩阵,tanh代表tanh函数,Wh、Wv、w是参数矩阵。最终得到能够最终表针句子信息的向量o;
o=tanh(Wpr+Wxh)
h表示hr-1和hl+1向量的和,hr-1表示左GRU网络中的第r-1个词对应的隐藏层输出,hl+1表示右GRU网络中的第l+1个词对应的隐藏层输出,Wp和Wx表示参数矩阵。输出层是将能够表针句子信息的向量o输入到softmax函数得到预测的情感极性
Figure RE-GDA0002499126760000073
具体由
Figure RE-GDA0002499126760000074
得出,Wo和bo都是参数矩阵。
步骤S3、在训练模型时采用交叉熵作为损失函数,用
Figure RE-GDA0002499126760000075
表示预测结果。训练的过程是最小化所有句子真实极性y和预测
Figure RE-GDA0002499126760000076
间的交叉熵损失值:
Figure RE-GDA0002499126760000081
这里j表示其情感极性种类,在本文里有正面、负面和中性;i表示句子的索引号,λ是二阶范数正则化系数,θ是待解参数;同时设置dropout概率为0.5以防止过拟合。在本方法中采用200维的词向量来初始化句子中每个词,隐藏层维度同样也是100,其他参数矩阵初始化为均匀分布的抽样。训练模型时采用批量训练方式,每一批量包含20个句子。L2正则化系数λ为0.001,优化算法采用 AdaGrad,其初始化系数为0.01。
步骤S4、在实验中分别和传统的机器学习方法(包括支持向量机算法、 SVM-dep算法)以及深度学习的方法(AdaRNN-w/E、AdaRNNcomb、TC-LSTM) 分别进行了对比实验,评价模型时以准确率(Accuracy)来评价各种模型,结果如下表所示:
表1实验结果
Figure RE-GDA0002499126760000082
通过实验数据可以看出通过用左右两个网络对句子建模的同时引入基于属性词的注意力机制的方法,在准确率上和其他模型相比有一定的优势。

Claims (2)

1.基于GRU网络的属性级情感分析模型,其特征在于:模型包括五个部分即输入层、嵌入层、GRU层、attention层和输出层;输入层将短文本即句子输入到模型中;嵌入层将句子中的每一个词映射成一个向量;GRU层利用从词嵌入中来获取特征信息;attention层实现注意力机制,它将会通过权重计算把词一级的特征信息融合成句子级的特征信息而产生一个句子特征向量;最终将句子特征向量进行分类;
1.1输入层
在输入层输入每一个需要进行情感极性分类的句子,假设句子长度为T,则句子表示为s={x1,x2,...,xT},xi表示句子中的第i个单词;
1.2嵌入层
在从输入层获得的一个包含T个词的句子s={x1,x2,...,xT},后每一个词在嵌入层得到其对应的词向量ei
首先从词嵌入矩阵
Figure RE-FDA0002499126750000011
中获得每一个词的词向量,这里V是词表的长度,dw是可以指定的词向量维数,则有
embi=Wwrdvi (1)
其中vi是一个长度为|V|的向量,其中在i处为1,其他处为0;同样得出aspect的词向量embasp,当句子中aspect为多个单词的时候,将每个单词的词向量相同维度的值加起来得到aspect的词向量;然后将embi和embasp拼接起来得到最终的词向量ei
ei=[embi:embasp] (2)
最后将e={e1,e2,...,eT}输入到下一层;
1.3 GRU层
在GRU层中,将会以属性为分界点,将句子分为左右部分去对属性上下文建模,其中{xl+1,xl+2,...,xr-1}表示aspect,{x1,x2,...,xl}表示句子中属性以前的单词,{xr-1,xr-2,...,xT}表示属性以后的单词;将左右两个序列输入到左右两个网络后隐藏层分别得到{h1,h2,...,hr-1}和{hl+1,hl+2,...,hT};
1.4 attention层
在这个模型中引入注意力机制来获得更好的分类效果,这是由于句子中前后两部分的不同词和属性有不同的联系,将更多的来关注和属性联系紧密的信息;注意力机制的实现如下:
Figure RE-FDA0002499126750000021
at=softmax(wTM) (4)
r=Hat (5)
这里at表示的是注意力权重系数,
Figure RE-FDA0002499126750000023
表示重复easp多次至和H的维度保持一致,H是模型中隐藏层输出组成的矩阵,r表示的是加权后的表示句子含义的向量,Wh、Wv、w是参数矩阵,然后得到能够最终表针句子信息的向量o
o=tanh(Wpr+Wxh) (6)
h表示hr-1和hl+1向量的和;
1.5输出层
最后将注意力层的输出o输入到分类器
Figure RE-FDA0002499126750000022
实现情感的极性分类,其中Wo和bo是要训练得到的参数矩阵。
2.基于GRU的属性级别情感分析方法,其特征在于:本方法的具体步骤如下:
步骤S1、首先将所用的收集于推特的数据集输入到Att-CGRU模型的输入层;
步骤S2、将S1得到的数据输入到嵌入层,得到输入句子中每个词的词向量,
步骤S3、在GRU层中通过S2的方式得到句子中每个词的词向量后,以属性词{xl+1,xl+2,...,xr-1}为分界点将左边{x1,x2,...,xl}单词的词向量和右边{xr-1,xr-2,...,xT}单词的词向量输入到两个左右两个GRU网络分别对属性词的上下文建模,从隐藏层分别得到输出{h1,h2,...,hr-1}和{hl+1,hl+2,...,hT};
步骤S4、根据S4的输出,按照以下公式来计算能代表句子信息的向量o,具体公式如下:
Figure RE-FDA0002499126750000031
at=softmax(wTM)
r=Hat
这里r表示的是加权后的能表征句子含义的向量,at表示的是注意力权重系数,其由将wTM输入到softmax函数后得出,M表示一个由模型GRU层中隐藏层的输出组成的矩阵H得来的向量,
Figure RE-FDA0002499126750000035
表示重复属性词词向量easp多次至和H的维度保持一致,H是模型中隐藏层输出组成的矩阵,tanh代表tanh函数,Wh、Wv、w是参数矩阵;最终得到能够最终表针句子信息的向量o
o=tanh(Wpr+Wxh)
h表示hr-1和hl+1向量的和,hr-1表示左GRU网络中的第r-1个词对应的隐藏层输出,hl+1表示右GRU网络中的第l+1个词对应的隐藏层输出,Wp和Wx表示参数矩阵;
步骤S5、输出层是将能够表针句子信息的向量o输入到softmax函数得到预测的情感极性
Figure RE-FDA0002499126750000032
具体由
Figure RE-FDA0002499126750000033
得出,Wo和bo都是参数矩阵;步骤6、根据S5的输出和每个句子对应的实际分类y计算损失函数值loss
Figure RE-FDA0002499126750000034
其中λ是正则化系数,并通过误差反向传播算法训练迭代至Accuracy取得最大值,误差反向传播算法中的优化算法是以初始化系数为0.01的AdaGrad算法。
CN201910459539.6A 2019-05-29 2019-05-29 基于gru的属性级别情感分析方法 Pending CN111353040A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910459539.6A CN111353040A (zh) 2019-05-29 2019-05-29 基于gru的属性级别情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910459539.6A CN111353040A (zh) 2019-05-29 2019-05-29 基于gru的属性级别情感分析方法

Publications (1)

Publication Number Publication Date
CN111353040A true CN111353040A (zh) 2020-06-30

Family

ID=71196950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910459539.6A Pending CN111353040A (zh) 2019-05-29 2019-05-29 基于gru的属性级别情感分析方法

Country Status (1)

Country Link
CN (1) CN111353040A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111813895A (zh) * 2020-08-07 2020-10-23 深圳职业技术学院 一种基于层次注意力机制和门机制的属性级别情感分析方法
CN112131886A (zh) * 2020-08-05 2020-12-25 浙江工业大学 一种文本的方面级别情感分析方法
CN113849646A (zh) * 2021-09-28 2021-12-28 西安邮电大学 一种文本情感分析方法
CN114492521A (zh) * 2022-01-21 2022-05-13 成都理工大学 一种基于声振信号的随钻岩性智能识别方法与***
CN115098631A (zh) * 2022-06-23 2022-09-23 浙江工商大学 一种基于文本胶囊神经网络的句子级情感分析方法
CN115098631B (zh) * 2022-06-23 2024-08-02 浙江工商大学 一种基于文本胶囊神经网络的句子级情感分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108595601A (zh) * 2018-04-20 2018-09-28 福州大学 一种融入Attention机制的长文本情感分析方法
CN108984724A (zh) * 2018-07-10 2018-12-11 凯尔博特信息科技(昆山)有限公司 利用高维表示提高特定属性情感分类准确率方法
US20190005027A1 (en) * 2017-06-29 2019-01-03 Robert Bosch Gmbh System and Method For Domain-Independent Aspect Level Sentiment Detection
CN109145304A (zh) * 2018-09-07 2019-01-04 中山大学 一种基于字的中文观点要素情感分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005027A1 (en) * 2017-06-29 2019-01-03 Robert Bosch Gmbh System and Method For Domain-Independent Aspect Level Sentiment Detection
CN108595601A (zh) * 2018-04-20 2018-09-28 福州大学 一种融入Attention机制的长文本情感分析方法
CN108984724A (zh) * 2018-07-10 2018-12-11 凯尔博特信息科技(昆山)有限公司 利用高维表示提高特定属性情感分类准确率方法
CN109145304A (zh) * 2018-09-07 2019-01-04 中山大学 一种基于字的中文观点要素情感分析方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MEISHAN ZHANG: "Gated Neural Networks for Targeted Sentiment Analysis", 《PROCEEDINGS OF THE THIRTIETH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 *
YEQUANWANG: "Attention-based LSTM for Aspect-level Sentiment Classification", 《PROCEEDINGS OF THE 2016 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 *
ZHAI PENGHUA: "Bidirectional-GRU Based on Attention Mechanism for Aspect-level Sentiment Analysis", 《PROCEEDINGS OF THE 2019 11TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND COMPUTING》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112131886A (zh) * 2020-08-05 2020-12-25 浙江工业大学 一种文本的方面级别情感分析方法
CN111813895A (zh) * 2020-08-07 2020-10-23 深圳职业技术学院 一种基于层次注意力机制和门机制的属性级别情感分析方法
CN111813895B (zh) * 2020-08-07 2022-06-03 深圳职业技术学院 一种基于层次注意力机制和门机制的属性级别情感分析方法
CN113849646A (zh) * 2021-09-28 2021-12-28 西安邮电大学 一种文本情感分析方法
CN114492521A (zh) * 2022-01-21 2022-05-13 成都理工大学 一种基于声振信号的随钻岩性智能识别方法与***
CN115098631A (zh) * 2022-06-23 2022-09-23 浙江工商大学 一种基于文本胶囊神经网络的句子级情感分析方法
CN115098631B (zh) * 2022-06-23 2024-08-02 浙江工商大学 一种基于文本胶囊神经网络的句子级情感分析方法

Similar Documents

Publication Publication Date Title
CN113254599B (zh) 一种基于半监督学习的多标签微博文本分类方法
CN109472024B (zh) 一种基于双向循环注意力神经网络的文本分类方法
CN108363753B (zh) 评论文本情感分类模型训练与情感分类方法、装置及设备
CN109284506B (zh) 一种基于注意力卷积神经网络的用户评论情感分析***及方法
CN108319666B (zh) 一种基于多模态舆情分析的供电服务评估方法
CN111160467B (zh) 一种基于条件随机场和内部语义注意力的图像描述方法
CN110717334A (zh) 基于bert模型和双通道注意力的文本情感分析方法
CN109614471B (zh) 一种基于生成式对抗网络的开放式问题自动生成方法
CN111353040A (zh) 基于gru的属性级别情感分析方法
CN110502753A (zh) 一种基于语义增强的深度学习情感分析模型及其分析方法
CN110222178A (zh) 文本情感分类方法、装置、电子设备及可读存储介质
CN111460132B (zh) 一种基于图卷积神经网络的生成式会议摘要方法
CN111368082A (zh) 一种基于层次网络的领域自适应词嵌入的情感分析方法
CN107679225A (zh) 一种基于关键词的回复生成方法
CN109614611B (zh) 一种融合生成非对抗网络与卷积神经网络的情感分析方法
CN110991190A (zh) 文档主题增强的自注意力网络、文本情绪预测***和方法
CN112199503B (zh) 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法
CN113254582A (zh) 一种基于预训练模型的知识驱动对话方法
CN112541364A (zh) 融合多层次语言特征知识的汉越神经机器翻译的方法
CN114925195A (zh) 一种融合词汇编码与结构编码的标准内容文本摘要生成方法
CN111339772B (zh) 俄语文本情感分析方法、电子设备和存储介质
CN115270752A (zh) 一种基于多层次对比学习的模板句评估方法
CN115630156A (zh) 一种融合Prompt和SRU的蒙古语情感分析方法与***
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
CN113806543B (zh) 一种基于残差跳跃连接的门控循环单元的文本分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200630