CN108984724A - 利用高维表示提高特定属性情感分类准确率方法 - Google Patents

利用高维表示提高特定属性情感分类准确率方法 Download PDF

Info

Publication number
CN108984724A
CN108984724A CN201810754022.5A CN201810754022A CN108984724A CN 108984724 A CN108984724 A CN 108984724A CN 201810754022 A CN201810754022 A CN 201810754022A CN 108984724 A CN108984724 A CN 108984724A
Authority
CN
China
Prior art keywords
clause
word
indicate
dimension
particular community
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810754022.5A
Other languages
English (en)
Other versions
CN108984724B (zh
Inventor
谢珏
吴含前
李露
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kelbot Information Technology (kunshan) Co Ltd
Original Assignee
Kelbot Information Technology (kunshan) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kelbot Information Technology (kunshan) Co Ltd filed Critical Kelbot Information Technology (kunshan) Co Ltd
Priority to CN201810754022.5A priority Critical patent/CN108984724B/zh
Publication of CN108984724A publication Critical patent/CN108984724A/zh
Application granted granted Critical
Publication of CN108984724B publication Critical patent/CN108984724B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种利用高维表示提高特定属性情感分类准确率方法,该方法从单词、子句及句子三个不同的维度,利用评论文本及其特定属性信息构建多层次、高维度的深度神经网络模型。首先本发明提出了一种子句切分的算法将评论文本切分成若干个子句;其次利用多个双向长短期记忆神经网络将每个子句中的单词进行编码,以此得到各子句的表示;最后采用一个双向长短期记忆神经网络对上一步中得到的各子句的表示进行编码以此来得到整个句子的最终表示。通过上述方法从单词、子句、句子三个不同的维度捕捉与特定属性更为相关的信息,最终提高特定属性的情感分类的准确率。

Description

利用高维表示提高特定属性情感分类准确率方法
技术领域
本发明涉及评论文本表达的情感分析方法,具体的,其展示一种利用高维表示提高特定属性情感分类准确率方法。
背景技术
为了得到评论文本中各属性的情感极性,通过情感分析(SentimentAnalysis,SA)技术,将评论文本中的属性词、情感词、情感修饰词识别出来进行进一步的分析处理,以此来判断出针对特定属性该评论文本表达的情感极性,可将其应用于事件分析、网络舆情分析、垃圾邮件处理等领域。
传统的粗粒度情感分析方法在进行评论文本的情感极性判断时,仅仅是对评论文本整体进行分析处理,无法针对评论文本中的特定属性对其进行细粒度的极性判断。因此,近年来的对于情感分析的研究越来越趋向于细粒度,这也成为了国内外研究和关注的热点话题。
针对评论文本中特定属性进行情感极性判断是更细粒度的评论文本情感分析,当前已有利用深度神经网络(Deep Neural Network,DNN)技术对文本中的特定属性进行情感分析的研究,Tang等在“Target-dependent Sentiment Classification with Long Short-term Memory”中针对特定属性对句子进行情感分类的问题上提出了基于目标依赖的长短期记忆神经网络(Target-Dependent Long Short Term Memory,TD-LSTM)和基于目标关联的长短期记忆神经网络(Target-Connection Long Short Term Memory,TC- LSTM),其中TD-LSTM在生成句子表示时将目标信息考虑了进去,其次TC-LSTM在上述方法的基础上将目标信息及其上下文关联起来,该方法通过将目标短语中词向量的平均值作为目标向量,然而简单的平均目标短语中的词向量并不能完全表达出目标短语的语义,因此并不能得到最优结果。Dong等在“Adaptive Recursive Neural Network for Target-dependentTwitter Sentiment Classification”中针对依赖于特定属性的推文提出了一种自适应的递归神经网络(Adaptive Recursive Neural Network,AdaRNN)。根据情感词和特定属性之间的上下文内容和句法关系,自适应地将情感词传递给特定属性。该方法将句子的依存树转换成针对特定属性的递归结构,并基于该结构获得更高层的表示。实验研究表明,基于AdaRNN构建的分类器其分类性能优于传统的机器学习方法以及基本的递归神经网络方法,但其分类性能仍旧有待提高。
发明内容
发明目的:基于现有技术的不足,本发明提出一种利用高维表示提高特定属性情感分类准确率方法,首先利用本发明提出的子句切分算法将句子切分为若干子句,然后从单词、子句及句子三个不同的维度,利用评论文本及其特定属性信息构建多层次、高维度的深度神经网络模型,通过捕捉与特定属性更为相关的信息来提高分类性能。
技术方案如下:
一种利用高维表示提高特定属性情感分类准确率方法,包括训练阶段和测试阶段:
具体步骤为:
训练阶段:
S1)利用子句切分算法将句子切分为若干子句,将子句中各单词以词向量的形式表示,以单词的词向量与属性词向量拼接后的整体作为深度神经网络模型的输入,所有的未登录词均是在均匀分布U(-0.01,0.01)中进行随机采样初始化的,词向量以及双向长短期记忆神经网络的维度均设置为300,其他超参则根据开发数据集进行相应的调整,得到训练好的深度神经网络模型;
S2)所述深度神经网络模型包括单词编码层、子句编码层和softmax层共3层架构,所述单词编码层用于捕捉子句中各个单词与特定属性的相关性,所述子句编码层将特定属性映射到子句中,所述softmax层用于将评论文本的最终表示s输入softmax分类器中,最终得到针对给定的属性该评论文本的类别概率分布;
S3)所述深度神经网络模型的输入单词序列为(d+d’)维的词向量,其中d表示词向量的维度,d′表示属性词向量的维度,其中d值的大小可以根据实验情况调节;
S4)模型的训练损失函数采用交叉熵损失函数(Cross-Entropy Loss Function),通过端到端(End-to End)的方式来训练基于高维表示的特定属性情感分类模型;
S5)给定训练数据xt,at,yt,其中xt表示第t个待预测样本,at表示该样本中出现的属性,yt表示待预测样本xt针对特定属性at的真实类别标签;
S6)将基于高维表示的特定属性情感分类模型看做是一个黑盒函数该函数的输出是一个向量,该向量表示的是输入文本属于各个类别标签的概率,训练的目标是最小化损失函数:
上式中M表示训练样本的数目,K表示类别标签的数目,l表示偏置参数L2的正则化;
S7)采用Adagrad优化函数,所有的矩阵和向量的参数均匀分布在 中,其中r和c′是矩阵中行数和列数;并且在训练过程中为了避免过度拟合,在Bi-LSTM中采用了Dropout策略;
测试阶段:
S8)将待处理的评论文本输入训练好的深度神经网络模型,得到针对特定属性该评论文本的情感极性。
进一步的,子句切分算法具体为通过标点符号和连接词(统称为分隔符)来切分句子:定义了minnum参数来限制子句中至少应该包含的单词数,当且仅当minnum大于指定值的时候才将该部分句子划分为子句;
此外,还定义了一个maxnum参数来保证将每个句子都切分成相同数量的子句数目,此操作的目的在于后续神经网络要求固定数目的子句作为输入;
分隔符包含了标点符号和连接词即“,”,“;”,“and”,“but”,“so”,“especially”,“however”,“then”,“although”,“except”。
进一步的,其他超参则根据开发数据集进行相应的调整,具体来说,学习率的初始值设置为0.1,参数的正则化权重设置为10-5,DropoutRate设置为0.25。
进一步的,子句切分算法中将参数minnum设置为3,参数maxnum设置为4,以便从句子中挖掘所有可能的子句,从而使模型在开发数据集上达到最佳性能。
进一步的,由单词编码层、子句编码层和softmax层组成的基于高维表示的双向长短期记忆神经网络模型,其具体过程如下:
第一单词编码层,假设评论文本共包含C个子句,其中用ci来表示第i个子句并且每个子句中共包含Ni个单词,Iij则表示出现在第i个子句中的第j个位置的单词,其中 j∈[1,Ni];
子句ci中出现的单词用来表示,其中j∈[1,N],这些单词wij=Ew·Iij均被存储在词向量(word embedding)矩阵中,其中这里的d代表的是词向量的维度,V则代表的是词汇;
出现的属性类别(aspect category)由实体(entity)和特征(attribute)两部分构成:
具体地,假设实体字符串e1的长度为L1,在本发明中将其表示为其中表示的是实体字符串中第n个单词的d′维向量表示;
相应的,本发明将特征字符串表示为
通常词向量表示具有线性结构,这使得它在语义层面的具有叠加或消减特性,因此可以通过将词向量的各元素相加方法来达到组合单词的目的;
将实体词向量和特征词向量进行相加来得到属性词向量的最终表示:
然后,在单词词向量表示的基础上加入属性词向量来得到每个单词的属性扩充表示:
上式中的维度为(d+d’),i∈[1,C],j∈[1,Ni],表示向量拼接操作符,C表示子句的个数,Ni表示子句ci中包含的单词个数;
将得到的词向量作为输入,采用双向长短期记忆神经网络(Bi-LSTM)将前向和后向的各单词信息综合起来,以此将词向量矩阵的输入转化为一种新的表示:
Bi-LSTM是指每一个训练序列向前和向后均是一个长短期记忆神经网络(LSTM),而且它们都连接着一个输出层;
这个结构提供给输出层输入序列中每一个点完整的过去和未来的上下文信息;
该Bi-LSTM包含的前向LSTM表示为该神经网络从Ii,1即从前向后来读取子句ci中的单词,相应的后向LSTM表示为则是从到Ii,1即从后向前来读取子句ci中的单词:
将前向隐层状态和后向隐层状态进行拼接得到了子句中各单词Iij的最终隐层状态表示,该表示融合了子句中所有跟单词Iij的有关的信息:
最终,经过Mean-Pooling层将子句中各个单词Iij的隐层状态hij进行平均池化,得到子句的最终表示:
第二子句编码层,对于上一步中得到的子句向量ci,仍旧采用一个Bi-LSTM来将这些给定的子句向量进行编码以便融合上下文信息:
与单词编码层相似,通过拼接前向隐层状态和后向隐层状态来得到评论文本中各子句ci的最终隐层状态表示,该表示融合了评论文本中所有跟子句ci有关的信息:
经过Mean-Pooling层将评论文本中各子句ci的隐层状态hi进行平均池化,得到评论文本的最终表示:
针对第三softmax层,将评论文本的最终表示s输入softmax分类器中,最终得到针对给定的属性,该评论文本的类别概率分布:
o=Wl·s+bl
表示输出,Wl表示权重矩阵,bl表示偏移量;
计算给定句子属于各个类别k∈[1,K]的概率的方法如下:
θ代表所有参数,根据该公式计算出的最高概率的类别标签作为该评论文本的最终类别标签。
与现有技术相比,本发明提出的一种利用高维表示提高特定属性情感分类准确率方法:结合属性信息对评论文本进行情感分类,该方法从单词、子句及句子三个不同的维度,利用评论文本及其特定属性信息构建多层次、高维度的深度神经网络模型,以达到更优的分类性能。
附图说明
图1是本发明方法流程图;
图2是本发明构建的特定属性情感分类模型架构图;
图3是餐厅领域评论文本示例。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
本实施例展示一种利用高维表示提高特定属性情感分类准确率方法:
针对特定属性构可建基于高维表示的双向长短期记忆神经网络模型,包括训练阶段和测试阶段:
在训练阶段,所述单词编码层用于捕捉子句中各个单词与特定属性的相关性,所述子句编码层将特定属性映射到子句中,作为深度神经网络模型的输入,所有的未登录词均是在均匀分布U(-0.01,0.01)中进行随机采样初始化的,词向量以及双向长短期记忆神经网络的维度均设置为300,其他超参则根据开发数据集进行相应的调整,得到训练好的深度神经网络模型;
在测试阶段,将待处理的评论文本输入训练好的深度神经网络模型,得到针对特定属性该评论文本的情感极性;
其中:针对判断评论文本针对特定属性表达出的情感极性:
一方面在评论文本中并不是所有的组成部分都与特定的属性有一定的相关性;
另一方面评论文本中可能包含多个属性,可能会结合句子中不同部分的信息对不同的属性进行情感分类;
因此,参阅图1,本实施例提出的子句切分算法将句子切分为不同的子句,以便将特定属性映射到这些子句中去。
本实施例提出的子句切分算法基本思想是通过标点符号和连接词(统称为分隔符) 来切分句子:
如图3所示“great and tasty”却不应该通过“and”这一连接词将其切分为两个子句,由此可见并不是所有的分隔符都可作为子句切分的边界;
本方案定义了minnum参数来限制子句中至少应该包含的单词数,当且仅当minnum大于指定值的时候才将该部分句子划分为子句;
此外,还定义了一个maxnum参数来保证将每个句子都切分成相同数量的子句数目,此操作的目的在于后续神经网络要求固定数目的子句作为输入;
该子句切分的方法在表1中做了详细说明,其中分隔符包含了标点符号和连接词即“,”,“;”,“and”,“but”,“so”,“especially”,“however”,“then”,“although”,“except”。
表1子句切分算法
参阅图2,针对特定属性构建的基于高维表示的双向长短期记忆神经网络模型包含单词编码层、子句编码层和softmax层共3层架构:
单词编码层用于捕捉子句中各个单词与特定属性的相关性;
子句编码层将特定属性映射到子句中;
softmax层用于将评论文本的最终表示s输入softmax分类器中,最终得到针对给定的属性,该评论文本的类别概率分布;
模型的训练损失函数选择交叉熵损失函数(Cross-Entropy Loss Function),激活函数为Adagrad:
由单词编码层、子句编码层和softmax层组成的基于高维表示的双向长短期记忆神经网络模型,其具体过程如下:
第一单词编码层,假设评论文本共包含C个子句,其中用ci来表示第i个子句并且每个子句中共包含Ni个单词,Iij则表示出现在第i个子句中的第j个位置的单词,其中 j∈[1,Ni];
子句ci中出现的单词用来表示,其中j∈[1,N],这些单词wij=Ew·Iij均被存储在词向量(word embedding)矩阵中,其中这里的d代表的是词向量的维度,V则代表的是词汇;
出现的属性类别(aspect category)由实体(entity)和特征(attribute)两部分构成:
具体地,假设实体字符串e1的长度为L1,在本发明中将其表示为其中表示的是实体字符串中第n个单词的d′维向量表示;
相应的,本发明将特征字符串表示为
通常词向量表示具有线性结构,这使得它在语义层面的具有叠加或消减特性,因此可以通过将词向量的各元素相加方法来达到组合单词的目的;
将实体词向量和特征词向量进行相加来得到属性词向量的最终表示:
然后,在单词词向量表示的基础上加入属性词向量来得到每个单词的属性扩充表示:
上式中的维度为(d+d’),i∈[1,C],j∈[1,Ni],表示向量拼接操作符,C表示子句的个数,Ni表示子句ci中包含的单词个数;
将得到的词向量作为输入,采用双向长短期记忆神经网络(Bi-LSTM)将前向和后向的各单词信息综合起来,以此将词向量矩阵的输入转化为一种新的表示:
Bi-LSTM是指每一个训练序列向前和向后均是一个长短期记忆神经网络(LSTM),而且它们都连接着一个输出层;
这个结构提供给输出层输入序列中每一个点完整的过去和未来的上下文信息;
该Bi-LSTM包含的前向LSTM表示为该神经网络从Ii,1即从前向后来读取子句ci中的单词,相应的后向LSTM表示为则是从到Ii,1即从后向前来读取子句ci中的单词:
将前向隐层状态和后向隐层状态进行拼接得到了子句中各单词Iij的最终隐层状态表示,该表示融合了子句中所有跟单词Iij的有关的信息:
最终,经过Mean-Pooling层将子句中各个单词Iij的隐层状态hij进行平均池化,得到子句的最终表示:
第二子句编码层,对于上一步中得到的子句向量ci,仍旧采用一个Bi-LSTM来将这些给定的子句向量进行编码以便融合上下文信息:
与单词编码层相似,通过拼接前向隐层状态和后向隐层状态来得到评论文本中各子句ci的最终隐层状态表示,该表示融合了评论文本中所有跟子句ci有关的信息:
经过Mean-Pooling层将评论文本中各子句ci的隐层状态hi进行平均池化,得到评论文本的最终表示:
针对第三softmax层,将评论文本的最终表示s输入softmax分类器中,最终得到针对给定的属性,该评论文本的类别概率分布:
o=Wl·s+bl
表示输出,Wl表示权重矩阵,bl表示偏移量;
计算给定句子属于各个类别k∈[1,K]的概率的方法如下:
θ代表所有参数,根据该公式计算出的最高概率的类别标签作为该评论文本的最终类别标签。
验证步骤:
为了验证本发明提出的深度神经网络模型相对于其他情感分类算法的优势,进行了一系列的对比实验:
实验环境配置包括硬件和软件两部分:
训练模型使用的硬件配置是Intel Xeon 2.5GHz,4核,内存8GB;
软件配置部分,操作***为Windows10,利用的机器学习前端库为keras-1.2.2,后端为theano-0.8.2,基于python2.7以及一些科学计算库;
实验的步骤主要包括三个方面:
1)数据准备
本发明在SemeEval-2015语义评测任务Task12的两个数据集上(即Laptop电脑领域和Restaurant领域)进行实验来验证本发明提出方法的有效性,每个数据集由许多用户评论组成,每条评论包含一个属性列表以及各属性对应的情感极性,其中情感极性包括正向、中性和负向,参照表2,其展示了数据集中两个领域的数据分布情况;
另外,从训练集中随机选择出10%的数据作为调整算法参数的开发数据集,并且选取了Glove作为预训练的词向量。
表2 Restaurant和Laptop电脑领域数据集的分布
2)模型训练
本发明采用交叉熵损失函数(Cross-Entropy Loss Function),通过端到端(End-to-End) 的方式来训练基于高维表示的特定属性情感分类模型。给定训练数据xt,at,yt,其中xt表示第t个待预测样本,at表示该样本中出现的属性,yt表示待预测样本xt针对特定属性at的真实类别标签;
将基于高维表示的特定属性情感分类模型看做是一个黑盒函数该函数的输出是一个向量,该向量表示的是输入文本属于各个类别标签的概率,训练的目标是最小化损失函数:
M表示训练样本的数目,K表示类别标签的数目,l表示偏置参数L2的正则化;
优化函数采用Adagrad,所有的矩阵和向量的参数均匀分布在 中,其中r和c′是矩阵中行数和列数;
并且在训练过程中为了避免过度拟合,在Bi-LSTM中采用了Dropout策略。
3)实验结果
进行深度神经网络模型与基准方法的对比,以便全面评估模型的性能:
基准方法和本方案提出的方法在训练时均是采用Glove词向量;
其中各基准方法作包括:
1)多数算法(Majority):这种方法是一种基本的基准方法,该方法是针对特定属性将训练集中出现的占多数的情感极性分配给各测试样本;
2)长短期记忆神经网路(LSTM):这种方法只使用一个LSTM来对上下文进行建模从而得到每个单词的隐藏层表示,之后,所有隐藏层表示的平均值被视为输入的最终表示,并将该最终表示送入softmax层得到各个标签的预测概率值;
3)基于目标关联的长短期记忆神经网络(TC-LSTM):该方法通过使用两个LSTM 对基本的LSTM进行了扩展,即针对属性信息采用一个前向LSTM和一个后向LSTM。此外,该模型将属性信息融入到句子的表示中去,最后,将两种属性的表示拼接在一起用于针对特定属性的情感极性预测;
4)基于注意力机制的长短期记忆神经网络(ATAE-LSTM):该方法通过LSTM对上下文单词进行建模,并在每个词向量上嵌入属性向量;
5)交互式注意力网络(IAN):该方法是一种交互式学习方法,首先通过LSTM对上下文和属性进行建模,然后在上下文和属性上交互地学习注意力表示;
本方案提出的方法为多层双向长短期记忆神经网络(Hierarchical Bi-LSTM):它是一种多层的Bi-LSTM,基于高维表示从单词、子句及句子三个不同的维度,利用评论文本及其特定属性信息构建多层次、高维度的深度神经网络模型:首先使用子句切分算法将一个句子切分成若干个子句;后利用多个双向长短期记忆神经网络对所有子句进行编码;最后利用一个双向长短期记忆神经网络对子句进行编码,进而经过softmax层得到针对特定属性该评论文本属于各个类别的概率。
表3面向普通文本的不同属性级情感分类方法性能比较
参照表3显示的是本方案与其他基准方法之间的性能对比:
从表3可以观察到,Majority算法的性能是最差的,采用Majority算法构建的分类器在Restaurant领域和Laptop领域的分类准确率分别为53.7%和57.0%;
除此之外的所有方法都是基于LSTM神经网络模型来实现的,它们的分类性能均优于Majority算法,实验结果表明LSTM模型不仅具有自动生成表示的潜力,并且还可以为属性级情感分类带来性能上的改进;
此外,从表3还可以看出TC-LSTM,ATAE-LSTM和IAN三种方法的分类准确率均优于LSTM。这一结果证实了在针对特定属性进行情感分类时将属性信息纳入考虑对分类性能的提升是有帮助的;
最后,可以看到本发明提出的Hierarchical Bi-LSTM方法优于前面提到的所有方法, 这突出了使用子句信息的优越性。
综上所述,本实施例提出的一种利用高维表示提高特定属性情感分类准确率方法:结合属性信息对评论文本进行情感分类,该方法从单词、子句及句子三个不同的维度,利用评论文本及其特定属性信息构建多层次、高维度的深度神经网络模型,以达到更优的分类性能。

Claims (5)

1.一种利用高维表示提高特定属性情感分类准确率方法,其特征在于:包括训练阶段和测试阶段:具体步骤为:
训练阶段:
S1)利用子句切分算法将句子切分为若干子句,将子句中各单词以词向量的形式表示,以单词的词向量与属性词向量拼接后的整体作为深度神经网络模型的输入,所有的未登录词均是在均匀分布U(-0.01,0.01)中进行随机采样初始化的,词向量以及双向长短期记忆神经网络的维度均设置为300,其他超参则根据开发数据集进行相应的调整,得到训练好的深度神经网络模型;
S2)所述深度神经网络模型包括单词编码层、子句编码层和softmax层共3层架构,所述单词编码层用于捕捉子句中各个单词与特定属性的相关性,所述子句编码层将特定属性映射到子句中,所述softmax层用于将评论文本的最终表示s输入softmax分类器中,最终得到针对给定的属性该评论文本的类别概率分布;
S3)所述深度神经网络模型的输入单词序列为(d+d’)维的词向量,其中d表示词向量的维度,d′表示属性词向量的维度,其中d值的大小可以根据实验情况调节;
S4)模型的训练损失函数采用交叉熵损失函数(Cross-Entropy Loss Function),通过端到端(End-to End)的方式来训练基于高维表示的特定属性情感分类模型;
S5)给定训练数据xt,at,yt,其中xt表示第t个待预测样本,at表示该样本中出现的属性,yt表示待预测样本xt针对特定属性at的真实类别标签;
S6)将基于高维表示的特定属性情感分类模型看做是一个黑盒函数该函数的输出是一个向量,该向量表示的是输入文本属于各个类别标签的概率,训练的目标是最小化损失函数:
上式中M表示训练样本的数目,K表示类别标签的数目,l表示偏置参数L2的正则化;
S7)采用Adagrad优化函数,所有的矩阵和向量的参数均匀分布在 中,其中r和c′是矩阵中行数和列数;并且在训练过程中为了避免过度拟合,在Bi-LSTM中采用了Dropout策略;
测试阶段:
S8)将待处理的评论文本输入训练好的深度神经网络模型,得到针对特定属性该评论文本的情感极性。
2.根据权利要求1所述的利用高维表示提高特定属性情感分类准确率方法,其特征在于:子句切分算法具体为通过标点符号和连接词(统称为分隔符)来切分句子:定义了minnum参数来限制子句中至少应该包含的单词数,当且仅当minnum大于指定值的时候才将该部分句子划分为子句;
此外,还定义了一个maxnum参数来保证将每个句子都切分成相同数量的子句数目,此操作的目的在于后续神经网络要求固定数目的子句作为输入;
分隔符包含了标点符号和连接词即“,”,“;”,“and”,“but”,“so”,“especially”,“however”,“then”,“although”,“except”。
3.根据权利要求2所述的利用高维表示提高特定属性情感分类准确率方法,其特征在于:其他超参则根据开发数据集进行相应的调整,具体来说,学习率的初始值设置为0.1,参数的正则化权重设置为10-5,Dropout Rate设置为0.25。
4.根据权利要求3所述的利用高维表示提高特定属性情感分类准确率方法,其特征在于:子句切分算法中将参数minnum设置为3,参数maxnum设置为4,以便从句子中挖掘所有可能的子句,从而使模型在开发数据集上达到最佳性能。
5.根据权利要求4所述的利用高维表示提高特定属性情感分类准确率方法,其特征在于:由单词编码层、子句编码层和softmax层组成的基于高维表示的双向长短期记忆神经网络模型,其具体过程如下:
第一单词编码层,假设评论文本共包含C个子句,其中用ci来表示第i个子句并且每个子句中共包含Ni个单词,Iij则表示出现在第i个子句中的第j个位置的单词,其中j∈[1,Ni];
子句ci中出现的单词用来表示,其中j∈[1,N],这些单词wij=Ew·Iij均被存储在词向量(word embedding)矩阵中,其中这里的d代表的是词向量的维度,V则代表的是词汇;
出现的属性类别(aspect category)由实体(entity)和特征(attribute)两部分构成:
具体地,假设实体字符串e1的长度为L1,将其表示为其中表示的是实体字符串中第n个单词的d′维向量表示;
相应的,将特征字符串表示为
通常词向量表示具有线性结构,这使得它在语义层面的具有叠加或消减特性,因此可以通过将词向量的各元素相加方法来达到组合单词的目的;
将实体词向量和特征词向量进行相加来得到属性词向量的最终表示:
然后,在单词词向量表示的基础上加入属性词向量来得到每个单词的属性扩充表示:
上式中的维度为(d+d’),i∈[1,C],j∈[1,Ni],表示向量拼接操作符,C表示子句的个数,Ni表示子句ci中包含的单词个数;
将得到的词向量作为输入,采用双向长短期记忆神经网络(Bi-LSTM)将前向和后向的各单词信息综合起来,以此将词向量矩阵的输入转化为一种新的表示:
Bi-LSTM是指每一个训练序列向前和向后均是一个长短期记忆神经网络(LSTM),而且它们都连接着一个输出层;
这个结构提供给输出层输入序列中每一个点完整的过去和未来的上下文信息;
该Bi-LSTM包含的前向LSTM表示为该神经网络从Ii,1即从前向后来读取子句ci中的单词,相应的后向LSTM表示为则是从到Ii,1即从后向前来读取子句ci中的单词:
将前向隐层状态和后向隐层状态进行拼接得到了子句中各单词Iij的最终隐层状态表示,该表示融合了子句中所有跟单词Iij的有关的信息:
最终,经过Mean-Pooling层将子句中各个单词Iij的隐层状态hij进行平均池化,得到子句的最终表示:
第二子句编码层,对于上一步中得到的子句向量ci,仍旧采用一个Bi-LSTM来将这些给定的子句向量进行编码以便融合上下文信息:
与单词编码层相似,通过拼接前向隐层状态和后向隐层状态来得到评论文本中各子句ci的最终隐层状态表示,该表示融合了评论文本中所有跟子句ci有关的信息:
经过Mean-Pooling层将评论文本中各子句ci的隐层状态hi进行平均池化,得到评论文本的最终表示:
针对第三softmax层,将评论文本的最终表示s输入softmax分类器中,最终得到针对给定的属性,该评论文本的类别概率分布:
o=Wl·s+bl
表示输出,Wl表示权重矩阵,bl表示偏移量;
计算给定句子属于各个类别k∈[1,K]的概率的方法如下:
θ代表所有参数,根据该公式计算出的最高概率的类别标签作为该评论文本的最终类别标签。
CN201810754022.5A 2018-07-10 2018-07-10 利用高维表示提高特定属性情感分类准确率方法 Active CN108984724B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810754022.5A CN108984724B (zh) 2018-07-10 2018-07-10 利用高维表示提高特定属性情感分类准确率方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810754022.5A CN108984724B (zh) 2018-07-10 2018-07-10 利用高维表示提高特定属性情感分类准确率方法

Publications (2)

Publication Number Publication Date
CN108984724A true CN108984724A (zh) 2018-12-11
CN108984724B CN108984724B (zh) 2021-09-28

Family

ID=64537672

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810754022.5A Active CN108984724B (zh) 2018-07-10 2018-07-10 利用高维表示提高特定属性情感分类准确率方法

Country Status (1)

Country Link
CN (1) CN108984724B (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447021A (zh) * 2018-11-08 2019-03-08 北京灵汐科技有限公司 一种属性检测方法及属性检测装置
CN109710769A (zh) * 2019-01-23 2019-05-03 福州大学 一种基于胶囊网络的水军评论检测***及方法
CN109766557A (zh) * 2019-01-18 2019-05-17 河北工业大学 一种情感分析方法、装置、存储介质及终端设备
CN109902174A (zh) * 2019-02-18 2019-06-18 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法
CN109993216A (zh) * 2019-03-11 2019-07-09 深兰科技(上海)有限公司 一种基于k最近邻knn的文本分类方法及其设备
CN110083785A (zh) * 2019-04-29 2019-08-02 清华大学 基于用户搜索记录的性别年龄判别方法及装置
CN110175237A (zh) * 2019-05-14 2019-08-27 华东师范大学 一种面向多类别的二次情感分类方法
CN110309769A (zh) * 2019-06-28 2019-10-08 北京邮电大学 一种对图片中的字符串进行分割的方法
CN110502633A (zh) * 2019-07-19 2019-11-26 中山大学 基于机器学习的网络评论管理方法
CN110569338A (zh) * 2019-07-22 2019-12-13 中国科学院信息工程研究所 一种生成式对话***解码器训练方法及解码方法
CN110609899A (zh) * 2019-08-29 2019-12-24 成都信息工程大学 一种基于改进bert模型的特定目标情感分类方法
CN110717325A (zh) * 2019-09-04 2020-01-21 北京三快在线科技有限公司 文本的情感分析方法、装置、电子设备及存储介质
CN110765769A (zh) * 2019-08-27 2020-02-07 电子科技大学 一种基于子句特征的实体属性依赖情感分析方法
CN110781273A (zh) * 2019-09-17 2020-02-11 华东交通大学 文本数据处理方法、装置、电子设备及存储介质
CN111144130A (zh) * 2019-12-26 2020-05-12 辽宁工程技术大学 一种基于上下文感知的混合神经网络的细粒度情感分类方法
CN111242083A (zh) * 2020-01-21 2020-06-05 腾讯云计算(北京)有限责任公司 基于人工智能的文本处理方法、装置、设备、介质
CN111241290A (zh) * 2020-01-19 2020-06-05 车智互联(北京)科技有限公司 一种评论标签生成方法、装置和计算设备
CN111325027A (zh) * 2020-02-19 2020-06-23 东南大学 一种面向稀疏数据的个性化情感分析方法与装置
CN111353040A (zh) * 2019-05-29 2020-06-30 北京工业大学 基于gru的属性级别情感分析方法
CN111538817A (zh) * 2019-01-18 2020-08-14 北京京东尚科信息技术有限公司 人机交互方法和装置
CN111553147A (zh) * 2020-03-27 2020-08-18 南京工业大学 一种基于N-gram的BERT模型以及语义分割方法
WO2020199600A1 (zh) * 2019-04-03 2020-10-08 平安科技(深圳)有限公司 情感极性分析方法及相关装置
CN111897954A (zh) * 2020-07-10 2020-11-06 西北大学 一种用户评论方面挖掘***、方法、及存储介质
CN112199956A (zh) * 2020-11-02 2021-01-08 天津大学 一种基于深度表示学习的实体情感分析方法
CN112285664A (zh) * 2020-12-18 2021-01-29 南京信息工程大学 一种雷达-飞行器体系对抗仿真置信度评估方法
CN112597302A (zh) * 2020-12-18 2021-04-02 东北林业大学 基于多维评论表示的虚假评论检测方法
CN112700795A (zh) * 2020-12-15 2021-04-23 深圳市声希科技有限公司 口语发音质量评价方法、装置、设备及存储介质
CN113268592A (zh) * 2021-05-06 2021-08-17 天津科技大学 基于多层次交互注意力机制的短文本对象情感分类方法
CN113379032A (zh) * 2021-06-08 2021-09-10 全球能源互联网研究院有限公司 基于分层双向lstm序列模型训练方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335352A (zh) * 2015-11-30 2016-02-17 武汉大学 基于微博情感的实体识别方法
CN107168945A (zh) * 2017-04-13 2017-09-15 广东工业大学 一种融合多特征的双向循环神经网络细粒度意见挖掘方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335352A (zh) * 2015-11-30 2016-02-17 武汉大学 基于微博情感的实体识别方法
CN107168945A (zh) * 2017-04-13 2017-09-15 广东工业大学 一种融合多特征的双向循环神经网络细粒度意见挖掘方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BISSAN GHADDAR等: "High dimensional data classification and feature selection using support vector machines", 《EUROPEAN JOURNAL OF OPERATIONAL RESEARCH》 *
JIAJUN CHENG等: "Aspect-level Sentiment Classification with HEAT (HiErarchical ATtention) Network", 《CIKM "17: PROCEEDINGS OF THE 2017 ACM ON CONFERENCE ON INFORMATION AND KNOWLEDGE MANAGEMENT》 *
YEQUANWANG等: "Attention-based LSTM for Aspect-level Sentiment Classification", 《PROCEEDINGS OF THE 2016 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 *
欧阳纯萍等: "多策略中文微博细粒度情绪分析研究", 《北京大学学报(自然科学版)》 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447021A (zh) * 2018-11-08 2019-03-08 北京灵汐科技有限公司 一种属性检测方法及属性检测装置
CN109766557A (zh) * 2019-01-18 2019-05-17 河北工业大学 一种情感分析方法、装置、存储介质及终端设备
CN109766557B (zh) * 2019-01-18 2023-07-18 河北工业大学 一种情感分析方法、装置、存储介质及终端设备
CN111538817A (zh) * 2019-01-18 2020-08-14 北京京东尚科信息技术有限公司 人机交互方法和装置
CN109710769A (zh) * 2019-01-23 2019-05-03 福州大学 一种基于胶囊网络的水军评论检测***及方法
CN109902174A (zh) * 2019-02-18 2019-06-18 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法
CN109902174B (zh) * 2019-02-18 2023-06-20 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法
CN109993216A (zh) * 2019-03-11 2019-07-09 深兰科技(上海)有限公司 一种基于k最近邻knn的文本分类方法及其设备
CN109993216B (zh) * 2019-03-11 2021-05-11 深兰科技(上海)有限公司 一种基于k最近邻knn的文本分类方法及其设备
WO2020199600A1 (zh) * 2019-04-03 2020-10-08 平安科技(深圳)有限公司 情感极性分析方法及相关装置
CN110083785A (zh) * 2019-04-29 2019-08-02 清华大学 基于用户搜索记录的性别年龄判别方法及装置
CN110175237A (zh) * 2019-05-14 2019-08-27 华东师范大学 一种面向多类别的二次情感分类方法
CN110175237B (zh) * 2019-05-14 2023-02-03 华东师范大学 一种面向多类别的二次情感分类方法
CN111353040A (zh) * 2019-05-29 2020-06-30 北京工业大学 基于gru的属性级别情感分析方法
CN110309769B (zh) * 2019-06-28 2021-06-15 北京邮电大学 一种对图片中的字符串进行分割的方法
CN110309769A (zh) * 2019-06-28 2019-10-08 北京邮电大学 一种对图片中的字符串进行分割的方法
CN110502633A (zh) * 2019-07-19 2019-11-26 中山大学 基于机器学习的网络评论管理方法
CN110569338A (zh) * 2019-07-22 2019-12-13 中国科学院信息工程研究所 一种生成式对话***解码器训练方法及解码方法
CN110569338B (zh) * 2019-07-22 2022-05-03 中国科学院信息工程研究所 一种生成式对话***解码器训练方法及解码方法
CN110765769B (zh) * 2019-08-27 2023-05-02 电子科技大学 一种基于子句特征的实体属性依赖情感分析方法
CN110765769A (zh) * 2019-08-27 2020-02-07 电子科技大学 一种基于子句特征的实体属性依赖情感分析方法
CN110609899B (zh) * 2019-08-29 2022-04-19 成都信息工程大学 一种基于改进bert模型的特定目标情感分类方法
CN110609899A (zh) * 2019-08-29 2019-12-24 成都信息工程大学 一种基于改进bert模型的特定目标情感分类方法
CN110717325A (zh) * 2019-09-04 2020-01-21 北京三快在线科技有限公司 文本的情感分析方法、装置、电子设备及存储介质
CN110717325B (zh) * 2019-09-04 2020-11-13 北京三快在线科技有限公司 文本的情感分析方法、装置、电子设备及存储介质
CN110781273A (zh) * 2019-09-17 2020-02-11 华东交通大学 文本数据处理方法、装置、电子设备及存储介质
CN110781273B (zh) * 2019-09-17 2022-05-31 华东交通大学 文本数据处理方法、装置、电子设备及存储介质
CN111144130A (zh) * 2019-12-26 2020-05-12 辽宁工程技术大学 一种基于上下文感知的混合神经网络的细粒度情感分类方法
CN111241290B (zh) * 2020-01-19 2023-05-30 车智互联(北京)科技有限公司 一种评论标签生成方法、装置和计算设备
CN111241290A (zh) * 2020-01-19 2020-06-05 车智互联(北京)科技有限公司 一种评论标签生成方法、装置和计算设备
CN111242083B (zh) * 2020-01-21 2024-01-26 腾讯云计算(北京)有限责任公司 基于人工智能的文本处理方法、装置、设备、介质
CN111242083A (zh) * 2020-01-21 2020-06-05 腾讯云计算(北京)有限责任公司 基于人工智能的文本处理方法、装置、设备、介质
CN111325027A (zh) * 2020-02-19 2020-06-23 东南大学 一种面向稀疏数据的个性化情感分析方法与装置
CN111553147A (zh) * 2020-03-27 2020-08-18 南京工业大学 一种基于N-gram的BERT模型以及语义分割方法
CN111897954A (zh) * 2020-07-10 2020-11-06 西北大学 一种用户评论方面挖掘***、方法、及存储介质
CN111897954B (zh) * 2020-07-10 2024-04-02 西北大学 一种用户评论方面挖掘***、方法、及存储介质
CN112199956A (zh) * 2020-11-02 2021-01-08 天津大学 一种基于深度表示学习的实体情感分析方法
CN112700795A (zh) * 2020-12-15 2021-04-23 深圳市声希科技有限公司 口语发音质量评价方法、装置、设备及存储介质
CN112597302B (zh) * 2020-12-18 2022-04-29 东北林业大学 基于多维评论表示的虚假评论检测方法
CN112285664B (zh) * 2020-12-18 2021-04-06 南京信息工程大学 一种雷达-飞行器体系对抗仿真置信度评估方法
CN112597302A (zh) * 2020-12-18 2021-04-02 东北林业大学 基于多维评论表示的虚假评论检测方法
CN112285664A (zh) * 2020-12-18 2021-01-29 南京信息工程大学 一种雷达-飞行器体系对抗仿真置信度评估方法
CN113268592A (zh) * 2021-05-06 2021-08-17 天津科技大学 基于多层次交互注意力机制的短文本对象情感分类方法
CN113379032A (zh) * 2021-06-08 2021-09-10 全球能源互联网研究院有限公司 基于分层双向lstm序列模型训练方法及***

Also Published As

Publication number Publication date
CN108984724B (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
CN108984724A (zh) 利用高维表示提高特定属性情感分类准确率方法
Zheng et al. A hybrid bidirectional recurrent convolutional neural network attention-based model for text classification
Gong et al. Efficient training of bert by progressively stacking
Cai et al. Audio‐Textual Emotion Recognition Based on Improved Neural Networks
CN109344288A (zh) 一种基于多模态特征结合多层注意力机制的结合视频描述方法
CN108829719A (zh) 一种非事实类问答答案选择方法及***
CN109558487A (zh) 基于层次性多注意力网络的文档分类方法
CN109145112A (zh) 一种基于全局信息注意力机制的商品评论分类方法
CN106897371B (zh) 中文文本分类***及方法
CN113704546B (zh) 基于空间时序特征的视频自然语言文本检索方法
CN109446331A (zh) 一种文本情绪分类模型建立方法及文本情绪分类方法
CN111563143B (zh) 一种新词的确定方法及装置
Zhang et al. Multi-modal multi-label emotion recognition with heterogeneous hierarchical message passing
Gu et al. Utterance-to-utterance interactive matching network for multi-turn response selection in retrieval-based chatbots
CN109783794A (zh) 文本分类方法及装置
CN113723075B (zh) 融合词屏蔽数据增强与对抗学习的特定目标情感分析方法
CN110889003B (zh) 一种基于文本的车辆图像细粒度检索***
CN109815496A (zh) 基于容量自适应收缩机制载体生成式文本隐写方法及装置
CN110415071A (zh) 一种基于观点挖掘分析的汽车竞品对比方法
Shen et al. Hierarchical Attention Based Spatial-Temporal Graph-to-Sequence Learning for Grounded Video Description.
CN110502742A (zh) 一种复杂实体抽取方法、装置、介质及***
CN111753207A (zh) 一种基于评论的神经图协同过滤模型
CN109740151A (zh) 基于迭代膨胀卷积神经网络的公安笔录命名实体识别方法
CN109284381A (zh) 融合表情符号库和主题模型的方面观点褒贬态度挖掘方法
Rawat et al. Pnpood: Out-of-distribution detection for text classification via plug andplay data augmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant