CN111259153B - 一种完全注意力机制的属性级情感分析方法 - Google Patents

一种完全注意力机制的属性级情感分析方法 Download PDF

Info

Publication number
CN111259153B
CN111259153B CN202010072375.4A CN202010072375A CN111259153B CN 111259153 B CN111259153 B CN 111259153B CN 202010072375 A CN202010072375 A CN 202010072375A CN 111259153 B CN111259153 B CN 111259153B
Authority
CN
China
Prior art keywords
level
attribute
matrix
information
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010072375.4A
Other languages
English (en)
Other versions
CN111259153A (zh
Inventor
林煜明
傅裕
李优
周娅
张敬伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202010072375.4A priority Critical patent/CN111259153B/zh
Publication of CN111259153A publication Critical patent/CN111259153A/zh
Application granted granted Critical
Publication of CN111259153B publication Critical patent/CN111259153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

本发明公开一种完全注意力机制的属性级情感分析方法,该方法结合基于自注意力机制网络SAM‑NN和特定方面注意力机制网络AAM‑NN来分别生成词汇级别、句子级别语义特征,最后通过一个全连接神经网络FC‑NN输出层计算评论句子内容的情感极性。本发明所提出的方法在实现上是并行结构的,并且在每一个网络计算模块,本发明都融合了特定方面信息特征,保证了该方法在尽可能的根据特定方面信息进一步分析出用户评论信息中关于目标对象特定属性方面的情感极性。与现有技术相比,本发明方法不仅有效提高特定方面情感分析任务的准确率,而且有效减少在模型训练时间上的花费。

Description

一种完全注意力机制的属性级情感分析方法
技术领域
本发明涉及深度学习技术领域,具体涉及一种完全注意力机制的属性级情感分析方法。
背景技术
互联网技术的飞速发展与普及促使了这大量在线评论信息的产生,如各种电商交易平台,社交网络平台等,如何有效的从大量评论中挖掘有用信息已成为近年来自然语言处理领域的一个研究热点,其中包括用户评论信息中的观点挖掘任务。在线评论信息中所表达的情感通常是多样的,一条用户评论可能包含评论目标的多个属性方面的不同情感。例如一条来自餐馆的用户评论:“面条非常美味,汤却难喝”。这条评论包含了“面条”与“汤”两个属性方面的特征信息,用户对于这两个方面的信息分别表达了“积极”和“消极”的观点。显然,将这种复合情感的用户评论语句作为一个整体来分析其情感倾向是不合理的,需要根据每个属性信息进一步细粒度的分析用户所表达的观点。相对于以往的情感分析任务,这种属性级情感分析任务可以为用户和企业提供更多的参考价值,越来越受到工业界和学术界的关注。
随着深度学习技术在自然语言处理领域取得成功,研究人员尝试将深度学习技术应用到情感分析任务中。深度学习方法可以自动的提取文本特征,有效的避免了人工特征工程所花费的大量时间与精力。在情感分析任务上,通常是将情感识别转化为多分类任务,将用户的每一种情感视为一种类别,通过区分用户评论所属类别来识别用户所要表达的情感。现有的研究工作中,主要包含基于循环神经网络(Recurrent Neural Network,RNN)和基于卷积神经网络(Convolutional Neural Network,CNN)的方法。然而,无论是基于RNN的方法还是基于CNN的方法,都有自身的针对性和局限性,其主要问题如下:
由于RNN网络的是由序列的计算单元构成的,因此在处理自然语句、文本信息时需要对文本数据顺序处理。在特定方面情感分析任务时,用户评论句子中的每个词汇都需要顺序的经过网络计算单元处理,这种顺序结构无疑增加了网络模型整体的计算时间开销。此外,基于RNN网络的方法在处理用户评论语句时会模拟词汇的先后顺序处理文本数据。当用户评论句子较长时,评论句子中两个距离较远的词汇会因为信息传递距离过远而引起信息损失,进而丢失了它们间的语义依赖关系。
基于CNN网络的方法是通过卷积窗口并行的获取文本语义信息,这种并行结构可以有效的提升模型的计算效率。但是由于受到卷积窗口尺寸的限制,基于CNN网络的方法依然只能捕捉卷积窗口内的语义依赖关系,而丢失了评论语句中单子的全局依赖关系。
发明内容
本发明针对现有利用深度学习进行用户评论中的情感分析时时间开销和准确度不高的问题,提供一种完全注意力机制的属性级情感分析方法。
为解决上述问题,本发明是通过以下技术方案实现的:
一种完全注意力机制的属性级情感分析方法,其具体包括步骤如下:
步骤1、将给定的带有真实情感标记分类的用户评论句子作为样本数据,并对样本数据进行预处理;
步骤2、先对预处理后的样本数据进行特征提取,以提取出用户评论句子的词汇的词嵌入特征和属性方面信息词嵌入特征;再将词汇的词嵌入特征作为样本数据的输入特征矩阵,属性方面信息词嵌入特征作为样本数据的属性级方面信息;
步骤3、初始化完全基于注意力机制的网络模型,并将步骤2所得的样本数据的输入特征矩阵和样本数据的属性级方面信息输入到初始化的完全基于注意力机制的网络模型中进行特征学习,在初始化的完全基于注意力机制的网络模型中,先利用SAM-NN模块学习词汇级语义特征,再利用AAM-NN模块学习句子级语义特征,后利用FC-NN模块识别评论语义情感倾向,以得到用户评论句子的预测情感标记分类;
步骤4、利用步骤1中的用户评论句子的真实的情感标记分类和步骤3所得的预测情感标记分类对完全基于注意力机制的网络模型进行训练,通过最小化损失函数来优化模型参数,得到训练好的完全基于注意力机制的网络模型;
步骤5、将实测的未带有真实情感标记分类的用户评论句子作为实测数据,并采用与步骤1相同的方法对实测数据进行预处理;
步骤6、采用与步骤2相同的方法对预处理后的实测数据进行特征提取,得到实测数据的输入特征矩阵和实测数据的属性级方面信息;
步骤7、将步骤6所得的实测数据的输入特征矩阵和实测数据的属性级方面信息送入步骤4所训练好的完全基于注意力机制的网络模型中,得到实测数据的情感标记分类。
上述步骤1和5中,对样本数据和实测数据进行预处理的过程包括分词、书写标准化和词性标注。
上述步骤2和6中,还需要进一步提取样本数据和实测数据的用户评论句子的单词的词性信息所对应的嵌入特征和/或单词的位置信息;并将单词的词性信息所对应的嵌入特征和/或单词的位置信息融合到词汇的词嵌入特征,共同作为输入特征矩阵。
上述方案中,当单词的词性信息所对应的嵌入特征与词汇的词嵌入特征融合时,两者采用拼接的方式进行融合;当单词的位置信息与词汇的词嵌入特征融合时,两者采用求和的方式进行融合。
上述步骤3中,利用SAM-NN模块学习词汇级语义特征的过程如下:
步骤3.1.1、将步骤2所得的样本数据的输入特征矩阵映射为查询矩阵、键矩阵和值矩阵;
步骤3.1.2、将步骤2所得的样本数据的属性级方面信息做矩阵线性变换得到属性级特征的隐层表示;
步骤3.1.3、将步骤3.1.2所得的隐层表示分别融合到查询矩阵和键矩阵中,得到已融合属性信息的查询矩阵和已融合属性信息的键矩阵;
步骤3.1.4、将步骤3.1.3所得的已融合属性信息的查询矩阵和已融合属性信息的键矩阵,以及步骤3.1.1所得的值矩阵,分别做m次线性变换,得到m个查询矩阵三元组、键矩阵三元组和值矩阵三元组;
步骤3.1.5、对步骤3.1.4所得的m个查询矩阵三元组、键矩阵三元组和值矩阵三元组分别进行自注意力计算,得到m个融合属性方面信息的词汇级嵌入表示;
步骤3.1.6、将步骤3.1.5所得到的m个词汇级嵌入表示拼接在一起,再通过一个矩阵线性映射网络得到词汇级嵌入特征的隐层表示;
其中m为设定的正整数。
上述步骤3中,利用AAM-NN模块学习句子级语义特征的过程如下:
步骤3.2.1、将利用SAM-NN模块学习词汇级语义特征所得到的词汇级嵌入特征的隐层表示和属性级特征的隐层表示进行拼接,并通过线性映射得到每个词汇对应的中间变量;
步骤3.2.2、将步骤3.2.1所得的每个词汇对应的中间变量进行softmax回归运算得到每个词汇级嵌入的隐层表示的权重值;
步骤3.2.3、将步骤3.2.1所得的每个词汇级嵌入的隐层与其对应的步骤3.2.2所得的每个词汇级嵌入的隐层表示的权重值进行乘积运算,并将每个用户评论句子中所有的乘积运算结果累加,得到句子级嵌入特征的隐层表示。
上述步骤3中,利用FC-NN模块识别评论语义情感倾向的过程如下:
步骤3.3.1、将利用AAM-NN模块学习句子级语义特征所得到的句子级嵌入特征的隐层表示和属性级特征的隐层表示进行拼接,并通过线性映射得到输出层隐层表示;
步骤3.3.2、利用分类器计算步骤3.3.1所得到的输出层隐层表示进行分类处理,得到用户评论句子的预测情感标记分类。
本发明提出了一种完全注意力机制的属性级情感分析方法,该方法结合基于自注意力机制网络(Self-attention Mechanism Neural Network,SAM-NN)和特定方面注意力机制网络(Aspect-attention Mechanism Neural Network,AAM-NN)来分别生成词汇级别、句子级别语义特征,最后通过一个全连接神经网络(Fully Connected Neural Network,FC-NN)输出层计算评论句子内容的情感极性。本发明所提出的方法在实现上是并行结构的,并且在每一个网络计算模块,本发明都融合了特定方面信息特征,保证了该方法在尽可能的根据特定方面信息进一步分析出用户评论信息中关于目标对象特定属性方面的情感极性。
与现有技术相比,本发明方法不仅有效提高特定方面情感分析任务的准确率,而且有效减少在模型训练时间上的花费。
附图说明
图1为一种完全注意力机制的属性级情感分析方法的流程图。
图2是本发明所提出的SA-NET模型的整体结构示意图
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实例,并参照附图,对本发明进一步详细说明。
参见图1,一种完全注意力机制的属性级情感分析方法,包括以下步骤:
1)利用样本数据对完全基于注意力机制网络模型进行训练:
步骤1、样本数据预处理
将给定的带有真实情感标记分类的用户评论句子作为样本数据,并对样本数据进行预处理。
情感极性标记内容为用户评论句子在对应特征下的情感极性,具体的包含三种情感:积极的情感,消极的情感,中立情感。
数据预处理的目的是数据标准化,构建同一格式的训练样本数据集。本发明中数据预处理工作主要包括分词,书写标准化和词性标注。
(1)分词:对于中文数据集中的评论数据,使用分词工具进行分词,将连续的字序列按照一定的规范重新组合成词序列;
(2)书写标准化:剔除数据集中的特殊字符,并且对数据集中的英文大小写进行统一要求,将大写字符转化为小写。
(3)词性标注:使用语法解析用具识别用户评论句子中每个词汇所对应的词性,建立单词词性关联文件,以便快速识别评论句子中的单词词性。
步骤2、样本数据的特征提取
样本数据的输入特征包括必要的输入特征和可选择的附加特征。其中必要输入特征包括用户评论句子中词汇的词嵌入特征(Word Embedding,WE)和用户评论句子的属性方面信息词嵌入特征(Aspect Embedding,AE)。可选附加特征包括用户评论句子中单词的词性信息所对应的嵌入特征(Part-Of-Speech Embedding,POSE)和用户评论句子中单词的位置信息(Positional Embedding,PE)。
(1)用户评论句子中单词的词嵌入特征(Word Embedding,WE):
本发明使用WE作为模型输入的一个必要特征,该特征由词嵌入生成工具训练得到,每个单词的词嵌入特征可表示为:
w=[e1,e2,…,ed] (1)
其中,ei∈R表示词嵌入特征的第i位特征编码,d表示特征编码的长度,即特征向量的维度。
在获得单词的词嵌入表示后,将一条评论句子中的各个词汇对应的词嵌入特征按顺序拼接起来作为评论句子的输入特征,则一条用户评论句子可以表示为:
WE=[w1,w2,…,wn] (2)
其中,n表示单词序列得长度,WE∈Rn*d
(2)用户评论句子的属性方面信息的嵌入特征(Aspect Embedding,AE):
本发明使用AE作为模型输入的一个必要特征,该特征获取方式与WE获取方式一致。每个属性级信息中得单词的词嵌入可以表示为:
a=[e1,e2,…,ed] (3)
在获得词汇的词嵌入表示后,属性级方面信息的输入特征可以表示为:
AE=[a1,a2,…,at] (4)
其中,t表示方面信息的序列长度,且t∈[1,n]。
(3)用户评论句子中单词的词性信息所对应的嵌入特征(Part-Of-SpeechEmbedding,POSE):
本发明使用POSE作为模型输入的可选特征,该特征的表示方式与WE表示方式一致,由模型随机初始化得到,在模型训练过程中优化该特征嵌入内容。
Pose=[po1,po2,…,pod′] (5)
其中,poi∈R表示嵌入特征的第i位特征编码,d′表示特征编码的长度,即特征向量的维度。
在获得词性词嵌入表示后,将词性信息映射到d′维的向量空间中得到词嵌入特征,该特征随机初始化得到,并在训练的过程中逐步优化,一条用户评论句子的词性特征可以表示为:
POSE=[Pose1,Pose2,…,Posen] (6)
其中,n表示评论句子总单词词性序列得长度,即单词序列长度,POSE∈Rn*d′
(4)用户评论句子中单词的位置信息(Positional Embedding,PE)
本发明使用PE作为模型输入的可选特征,PE特征的表示方式如下:
Pe=[p1,p2,…,pd"] (7)
其中,pi∈R表示嵌入特征的第i位特征编码,d"表示特征编码的长度,即特征向量的维度。在获得单词位置特征后,一条用户评论句子的位置特征可以表示为:
PE=[Pe1,Pe2,…,Pen] (8)
其中,n表示评论句子总单词词性序列得长度,即单词序列长度,PE∈Rn*d"。PE特征的计算方法如公式如下;
Figure BDA0002377622630000061
其中,t表示单词在评论语句中的所在位置,i表示第i维度的位置,d"表示特征编码的长度,即特征向量的维度。
综上所述,本发明对样本数据的特征提取包括如下四种情况:
①当对样本数据所提取的特征仅为必要输入特征(词汇的词嵌入特征WE和属性方面信息词嵌入特征AE)时,此时,将词汇的词嵌入特征WE直接作为模型输入的输入特征矩阵X,将属性方面信息词嵌入特征AE直接作为模型输入的属性级方面信息AE。
②当对样本数据所提取的特征包括必要输入特征(词汇的词嵌入特征WE和属性方面信息词嵌入特征AE)和可选附加输入特征(单词的词性信息所对应的嵌入特征POSE)时,此时,将词汇的词嵌入特征WE和单词的词性信息所对应的嵌入特征POSE进行拼接作为型输入的输入特征矩阵X,将属性方面信息词嵌入特征AE直接作为模型输入的属性级方面信息AE。
③当对样本数据所提取的特征包括必要输入特征(词汇的词嵌入特征WE和属性方面信息词嵌入特征AE)和可选附加输入特征(用户评论句子中单词的位置信息PE)时,此时,将词汇的词嵌入特征WE和用户评论句子中单词的位置信息PE进行求和作为模型输入的输入特征矩阵X,将属性方面信息词嵌入特征AE直接作为模型输入的属性级方面信息AE。
④当对样本数据所提取的特征包括必要输入特征(词汇的词嵌入特征WE和属性方面信息词嵌入特征AE)和可选附加输入特征(词的词性信息所对应的嵌入特征POSE和用户评论句子中单词的位置信息PE)时,此时,先将词汇的词嵌入特征WE与位置特征PE进行求和,再将所得结果与词性信息所对应得嵌入特征POSE进行拼接作为型输入的输入特征矩阵X,将属性方面信息词嵌入特征AE直接作为模型输入的属性级方面信息AE。
步骤3、样本数据的特征学习
初始化完全基于注意力机制的网络模型,并将步骤2所得的样本数据的输入特征矩阵和样本数据的属性级方面信息输入到初始化的完全基于注意力机制的网络模型中进行特征学习,在初始化的完全基于注意力机制的网络模型中,先利用SAM-NN模块学习词汇级语义特征,再利用AAM-NN模块学习句子级语义特征,后利用FC-NN模块识别评论语义情感倾向,以得到用户评论句子的预测情感标记分类。
参见图2,本发明所提出的完全基于注意力机制的属性级情感分析模型依次包含三个模块:SAM-NN模块用于学习词汇级语义特征,AAM-NN模块用于学习句子级语义特征,FC-NN模块用于识别评论语义情感倾向。具体处理内容如下:
(1)SAM-NN模块学习词汇级语义特征
SAM-NN模块负责在输入词嵌入特征的基础上进一步根据属性方面信息学习用户评论句子的词汇级嵌入特征的隐层表示。
(1.1)首先将输入特征矩阵X映射为查询矩阵Q,键矩阵K和值矩阵V,公式如下:
Figure BDA0002377622630000071
其中,Wq,Wk,Wv分别表示查询矩阵、键矩阵和值矩阵的网络学习权重矩阵,bq,bk,bv分别表示查询矩阵、键矩阵和值矩阵的偏置值。
(1.2)将输入的属性级方面信息AE做矩阵线性变换得到属性级特征的隐层表示A,公式如下:
A=Wa·AE+ba (11)
其中,Wa表示属性级特征的网络学习权重矩阵,ba表示属性级特征的偏置值。
(1.3)将属性级特征A融合到查询矩阵Q和键矩阵K中,得到已融合属性信息的查询矩阵Qa和键矩阵Ka,公式如下:
Figure BDA0002377622630000072
其中,Fuse(*)表示属性级特征信息的融合过程,可以使用向量拼接,向量求和等方法。在本实施过程中,属性级特征信息的融合过程使用了门控逻辑的方式,如公式(12)所示,λq与λk分别为矩阵和特征的门控逻辑系数,λq∈[0,1],λk∈[0,1]。
(1.4)分别将已融合属性信息的查询矩阵Qa、已融合属性信息的键矩阵Ka以及评论句子的值矩阵V做m次线性映射,分别得到m个包含查询矩阵、键矩阵、值矩阵的三元组
Figure BDA0002377622630000073
和Vi,公式如下:
Figure BDA0002377622630000074
其中i∈[1,m],m表示线性映射的次数,
Figure BDA0002377622630000075
分别表示第i次线性映射所需的查询矩阵、键矩阵和值矩阵的网络学习权重矩阵,
Figure BDA0002377622630000076
分别表示第i次线性映射所需的查询矩阵、键矩阵和值矩阵的偏置值。
(1.5)在得到m个三元组矩阵
Figure BDA0002377622630000077
后,对每个三元组矩阵进行自注意力计算,得到m个融合属性方面信息的词汇级嵌入表示Hi,公式如下:
Figure BDA0002377622630000081
其中,d表示三元组矩阵的计算维度,softmax(*)的计算公式如下:
Figure BDA0002377622630000082
其中,C表示样本个数,xj表示第j个样本实例。
(1.6)将所有得到的词汇级嵌入表示Hi拼接在一起,再通过一个矩阵线性映射网络得到词汇级嵌入特征的隐层表示H,公式如下:
Figure BDA0002377622630000083
其中,H′表示词汇级嵌入的拼接结果,H表示一条用户评论所对应的线性映射结果,Wc表示词汇级嵌入特征的网络学习权重矩阵,bc表示词汇级嵌入特征的偏置值,⊕表示拼接操作。
(2)AAM-NN模块学习句子级语义特征
AAM-NN模块负责在词汇级嵌入特征的隐层表示基础上根据属性方面信息学习用户评论句子的句子级嵌入特征的隐层表示。
(2.1)对于一条用户评论所对应的词汇级嵌入特征H,取hi∈H表示用户评论句子中的第i个词汇所对应的词汇级嵌入特征,并将用户评论句子中的第i个词汇所对应的词汇级嵌入特征hi与属性级特征A拼接得到中间临时变量h'i,再将中间临时变量h'i经过一个线性映射得到每个词汇对应的中间变量ei
Figure BDA0002377622630000084
其中,We表示中间变量的网络学习权重矩阵,be表示中间变量的偏置值,⊕表示拼接操作。
(2.2)根据所得到的每个词汇对应的中间变量ei计算每个词汇级嵌入的隐层表示的权重值βi,公式如下:
Figure BDA0002377622630000085
其中,n表示一条用户评论句子的长度。
(2.3)将所得到的每个词汇级嵌入隐层表示hi与其对应的权重值βi进行乘积运算,并将一个用户评论句子中所有的运算结果累加,得到句子级嵌入特征的隐层表示S,公式如下:
Figure BDA0002377622630000086
其中,n表示一条用户评论句子的长度。
(3)FC-NN模块识别评论语义情感倾向
FC-NN模块负责在语义层面对用户评论句子进行情感分析,通过多分类识别出用户评论的情感所属类别。在具体的实施过程中,将情感分为三种类别,分别为积极的情感,消极的情感和中立情感。
(3.1)将句子级嵌入特征的隐层表示S与属性特征A拼接,得到中间临时变量O′,再对中间临时变量O′进行线性变换得到输出层隐层表示O,公式如下:
Figure BDA0002377622630000091
其中,Wo表示输出层的网络学习权重矩阵,bo表示输出层的偏置值,⊕表示拼接操作。
(3.2)通过softmax分类器计算用户评论句子所属情感类别的概率分布,得到预测的情感标记分类,公式如下:
Y=softmax(O) (21)
步骤4、模型训练
利用步骤1中用户评论句子的真实的情感标记分类和步骤3所得的预测情感标记分类对完全基于注意力机制的网络模型进行训练,通过最小化损失函数来优化模型参数,得到训练好的完全基于注意力机制的网络模型。
本发明采用Adam优化方法来最小化交叉熵损失函数来训练模型,最小化目标方程定义如下:
Figure BDA0002377622630000092
其中,
Figure BDA0002377622630000093
表示真实的情感标记分类,Y表示模型预测结果,X表示用户评论句子特征输入,A表示属性级方面信息的特征输入,θ表示模型训练参数。
具体的,在训练实施过程中,用户情感标记分为三类,分别为积极情感,中立情感和消极情感。
Figure BDA0002377622630000094
每一列代表一种情感类别,
Figure BDA0002377622630000095
代表积极情感,
Figure BDA0002377622630000096
代表中立情感,
Figure BDA0002377622630000097
代表消极情感。在利用真实的情感标记分类进行赋值
Figure BDA0002377622630000098
时:当该样本数据(用户评论句子)的真实的情感标记分类为积极情感时,则
Figure BDA0002377622630000099
为1,其他
Figure BDA00023776226300000910
Figure BDA00023776226300000911
为0,即
Figure BDA00023776226300000912
当该样本数据(用户评论句子)的真实的情感标记分类为中立情感时,则
Figure BDA00023776226300000913
为1,其他
Figure BDA00023776226300000914
Figure BDA00023776226300000915
为0,即
Figure BDA00023776226300000916
当该样本数据(用户评论句子)的真实的情感标记分类为消极情感时,则
Figure BDA00023776226300000917
为1,其他
Figure BDA00023776226300000918
Figure BDA00023776226300000919
为0,即
Figure BDA00023776226300000920
Y=[y0,y1,y2]每一列代表预测出所属情感类别的概率,y0代表积极情感,y1代表中立情感,y2代表消极情感。所求解出的y0,y1,y2因是概率值,其可以是整数,也可以是小数。
本发明在训练数据集上进行了多次迭代,当迭代次数满足一定条件时终止训练,固化模型参数并保存,具体的,本发明在训练数据集上迭代了50次进行训练,为测试模型性能,将后30次的模型进行参数固化保存。
2)利用训练好的完全基于注意力机制网络模型对实测数据进行情感标记分类:
步骤5、将实测的未带有真实情感标记分类的用户评论句子作为实测数据,并采用与步骤1相同的方法对实测数据进行预处理;
步骤6、采用与步骤2相同的方法对预处理后的实测数据进行特征提取,得到实测数据的输入特征矩阵和实测数据的属性级方面信息;
步骤7、将步骤6所得的实测数据的输入特征矩阵和实测数据的属性级方面信息送入步骤4所训练好的完全基于注意力机制的网络模型中,得到该评论语句的所属情感类别的概率分布,本发明将最大概率所对应的分类作为最终预测情感分类结果,公式如下:
ypredict=argmax(Y) (23)
为验证本发明所提方法的有效性,在3个数据集上进行了实验验证,分别是餐馆(Restaurant),笔记本电脑(Laptop),推特数据集(Twitter)。实验过程中发现,当训练次数迭代10之后模型逐渐趋于稳定,因此分别在每个数据集上迭代了50次,并统计了最后30次的实验结果。实验结果包含准确率统计和模型计算时间统计,分别如表1和表2所示,其中两表中最下4行均为本发明所提方法,前7行为对比基准方法。
表1属性级情感分析准确率结果
Figure BDA0002377622630000101
表1中max表示最后30次迭代训练中测试集准确率最高的结果,avg表示最后30次迭代训练中测试集准确率平均的结果,var表示最后30次迭代训练中测试集准确率的方差。其中,准确率可以反映出模型关于属性方面情感的识别能力,方差可以反映出模型的稳定性。
表2属性级情感分析所花费的计算时间(单位:秒/s)
Figure BDA0002377622630000102
Figure BDA0002377622630000111
表2中统计了模型在数据集上每迭代一次所花费的时间,其中Train表示训练数据所花费的时间,Test表示测试数据所花费的时间。可已看出,相比较于现有方法,本发明所提方法在计算效率上有明显提升。
从表1和表2中可以看出,本发明所提出的一种完全注意力机制的属性级情感分析方法,不仅在属性方面情感分析任务中保证了模型的准确率与良好的稳定性,而且训练效率也得到了提升,充分说明了本发明所提方法的有效性。
需要说明的是,尽管以上本发明所述的实施例是说明性的,但这并非是对本发明的限制,因此本发明并不局限于上述具体实施方式中。在不脱离本发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其它实施方式,均视为在本发明的保护之内。

Claims (5)

1.一种完全注意力机制的属性级情感分析方法,其特征是,
步骤1、将给定的带有真实情感标记分类的用户评论句子作为样本数据,并对样本数据进行预处理;
步骤2、先对预处理后的样本数据进行特征提取,以提取出用户评论句子的词汇的词嵌入特征和属性方面信息词嵌入特征;再将词汇的词嵌入特征作为样本数据的输入特征矩阵,属性方面信息词嵌入特征作为样本数据的属性级方面信息;
步骤3、初始化完全基于注意力机制的网络模型,并将步骤2所得的样本数据的输入特征矩阵和样本数据的属性级方面信息输入到初始化的完全基于注意力机制的网络模型中进行特征学习,在初始化的完全基于注意力机制的网络模型中,先利用SAM-NN模块学习词汇级语义特征,再利用AAM-NN模块学习句子级语义特征,后利用FC-NN模块识别评论语义情感倾向,以得到用户评论句子的预测情感标记分类;
上述利用SAM-NN模块学习词汇级语义特征的过程如下:
步骤3.1.1、将步骤2所得的样本数据的输入特征矩阵映射为查询矩阵、键矩阵和值矩阵;
步骤3.1.2、将步骤2所得的样本数据的属性级方面信息做矩阵线性变换得到属性级特征的隐层表示;
步骤3.1.3、将步骤3.1.2所得的隐层表示分别融合到查询矩阵和键矩阵中,得到已融合属性信息的查询矩阵和已融合属性信息的键矩阵;
步骤3.1.4、将步骤3.1.3所得的已融合属性信息的查询矩阵和已融合属性信息的键矩阵,以及步骤3.1.1所得的值矩阵,分别做m次线性变换,得到m个查询矩阵三元组、键矩阵三元组和值矩阵三元组;
步骤3.1.5、对步骤3.1.4所得的m个查询矩阵三元组、键矩阵三元组和值矩阵三元组分别进行自注意力计算,得到m个融合属性方面信息的词汇级嵌入表示;
步骤3.1.6、将步骤3.1.5所得到的m个词汇级嵌入表示拼接在一起,再通过一个矩阵线性映射网络得到词汇级嵌入特征的隐层表示;
其中m为设定的正整数;
上述利用AAM-NN模块学习句子级语义特征的过程如下:
步骤3.2.1、将利用SAM-NN模块学习词汇级语义特征所得到的词汇级嵌入特征的隐层表示和属性级特征的隐层表示进行拼接,并通过线性映射得到每个词汇对应的中间变量;
步骤3.2.2、将步骤3.2.1所得的每个词汇对应的中间变量进行softmax回归运算得到每个词汇级嵌入的隐层表示的权重值;
步骤3.2.3、将步骤3.2.1所得的每个词汇级嵌入的隐层与其对应的步骤3.2.2所得的每个词汇级嵌入的隐层表示的权重值进行乘积运算,并将每个用户评论句子中所有的乘积运算结果累加,得到句子级嵌入特征的隐层表示;
步骤4、利用步骤1中的用户评论句子的真实的情感标记分类和步骤3所得的预测情感标记分类对完全基于注意力机制的网络模型进行训练,通过最小化损失函数来优化模型参数,得到训练好的完全基于注意力机制的网络模型;
步骤5、将实测的未带有真实情感标记分类的用户评论句子作为实测数据,并采用与步骤1相同的方法对实测数据进行预处理;
步骤6、采用与步骤2相同的方法对预处理后的实测数据进行特征提取,得到实测数据的输入特征矩阵和实测数据的属性级方面信息;
步骤7、将步骤6所得的实测数据的输入特征矩阵和实测数据的属性级方面信息送入步骤4所训练好的完全基于注意力机制的网络模型中,得到实测数据的情感标记分类。
2.根据权利要求1所述的一种完全注意力机制的属性级情感分析方法,其特征是,步骤1和5中,对样本数据和实测数据进行预处理的过程包括分词、书写标准化和词性标注。
3.根据权利要求1所述的一种完全注意力机制的属性级情感分析方法,其特征是,步骤2和6中,还需要进一步提取样本数据和实测数据的用户评论句子的单词的词性信息所对应的嵌入特征和/或单词的位置信息;并将单词的词性信息所对应的嵌入特征和/或单词的位置信息融合到词汇的词嵌入特征,共同作为输入特征矩阵。
4.根据权利要求3所述的一种完全注意力机制的属性级情感分析方法,其特征是,当单词的词性信息所对应的嵌入特征与词汇的词嵌入特征融合时,两者采用拼接的方式进行融合;当单词的位置信息与词汇的词嵌入特征融合时,两者采用求和的方式进行融合。
5.根据权利要求1所述的一种完全注意力机制的属性级情感分析方法,其特征是,步骤3中,利用FC-NN模块识别评论语义情感倾向的过程如下:
步骤3.3.1、将利用AAM-NN模块学习句子级语义特征所得到的句子级嵌入特征的隐层表示和属性级特征的隐层表示进行拼接,并通过线性映射得到输出层隐层表示;
步骤3.3.2、利用分类器计算步骤3.3.1所得到的输出层隐层表示进行分类处理,得到用户评论句子的预测情感标记分类。
CN202010072375.4A 2020-01-21 2020-01-21 一种完全注意力机制的属性级情感分析方法 Active CN111259153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010072375.4A CN111259153B (zh) 2020-01-21 2020-01-21 一种完全注意力机制的属性级情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010072375.4A CN111259153B (zh) 2020-01-21 2020-01-21 一种完全注意力机制的属性级情感分析方法

Publications (2)

Publication Number Publication Date
CN111259153A CN111259153A (zh) 2020-06-09
CN111259153B true CN111259153B (zh) 2021-06-22

Family

ID=70949099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010072375.4A Active CN111259153B (zh) 2020-01-21 2020-01-21 一种完全注意力机制的属性级情感分析方法

Country Status (1)

Country Link
CN (1) CN111259153B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111859957B (zh) * 2020-07-15 2023-11-07 中南民族大学 情感原因子句标签的抽取方法、装置、设备及存储介质
CN111858944B (zh) * 2020-07-31 2022-11-22 电子科技大学 一种基于注意力机制的实体方面级情感分析方法
CN112329474B (zh) * 2020-11-02 2022-10-04 山东师范大学 融合注意力的方面级用户评论文本情感分析方法及***
CN113313140B (zh) * 2021-04-14 2022-11-01 中国海洋大学 基于深度注意力的三维模型分类和检索方法及装置
CN113469184B (zh) * 2021-04-21 2022-08-12 华东师范大学 一种基于多模态数据的面向手写中文的性格识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019204186A1 (en) * 2018-04-18 2019-10-24 Sony Interactive Entertainment Inc. Integrated understanding of user characteristics by multimodal processing
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置
CN110597991A (zh) * 2019-09-10 2019-12-20 腾讯科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11514333B2 (en) * 2018-04-30 2022-11-29 Meta Platforms, Inc. Combining machine-learning and social data to generate personalized recommendations
CN108763326B (zh) * 2018-05-04 2021-01-12 南京邮电大学 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
CN110046353B (zh) * 2019-04-22 2022-05-13 重庆理工大学 一种基于多语言层次机制的方面级情感分析方法
CN109948165B (zh) * 2019-04-24 2023-04-25 吉林大学 基于混合注意力网络的细粒度情感极性预测方法
CN110210032B (zh) * 2019-05-31 2023-10-31 鼎富智能科技有限公司 文本处理方法及装置
CN110347831A (zh) * 2019-06-28 2019-10-18 西安理工大学 基于自注意力机制的情感分类方法
CN110569508A (zh) * 2019-09-10 2019-12-13 重庆邮电大学 融合词性和自注意力机制的情感倾向性分类方法及***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019204186A1 (en) * 2018-04-18 2019-10-24 Sony Interactive Entertainment Inc. Integrated understanding of user characteristics by multimodal processing
CN110597991A (zh) * 2019-09-10 2019-12-20 腾讯科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置

Also Published As

Publication number Publication date
CN111259153A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
CN111259153B (zh) 一种完全注意力机制的属性级情感分析方法
US20220147836A1 (en) Method and device for text-enhanced knowledge graph joint representation learning
CN110059188B (zh) 一种基于双向时间卷积网络的中文情感分析方法
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及***
CN110287323B (zh) 一种面向目标的情感分类方法
CN112001187A (zh) 一种基于中文句法和图卷积神经网络的情感分类***
CN112001186A (zh) 一种利用图卷积神经网络和中文句法的情感分类方法
CN112052684A (zh) 电力计量的命名实体识别方法、装置、设备和存储介质
CN112069312B (zh) 一种基于实体识别的文本分类方法及电子装置
CN112101014B (zh) 一种混合特征融合的中文化工文献分词方法
CN113360582B (zh) 基于bert模型融合多元实体信息的关系分类方法及***
CN110969023B (zh) 文本相似度的确定方法及装置
CN115905553A (zh) 面向施工图审查规范知识抽取与知识图谱构建方法及***
CN114881043B (zh) 基于深度学习模型的法律文书语义相似度评估方法及***
CN111858933A (zh) 基于字符的层次化文本情感分析方法及***
CN110750646A (zh) 一种旅店评论文本的属性描述提取方法
CN113705238A (zh) 基于bert和方面特征定位模型的方面级情感分析方法及模型
CN112800184A (zh) 基于Target-Aspect-Opinion联合抽取的短文本评论情感分析方法
CN115759119A (zh) 一种金融文本情感分析方法、***、介质和设备
CN111178080A (zh) 一种基于结构化信息的命名实体识别方法及***
CN115169349A (zh) 基于albert的中文电子简历命名实体识别方法
CN112862569B (zh) 基于图像和文本多模态数据的产品外观风格评价方法和***
CN114416991A (zh) 一种基于prompt的文本情感原因分析方法和***
CN113159831A (zh) 一种基于改进的胶囊网络的评论文本情感分析方法
CN114911940A (zh) 文本情感识别方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20200609

Assignee: Guilin Zhongchen Information Technology Co.,Ltd.

Assignor: GUILIN University OF ELECTRONIC TECHNOLOGY

Contract record no.: X2022450000215

Denomination of invention: An attribute level emotion analysis method based on complete attention mechanism

Granted publication date: 20210622

License type: Common License

Record date: 20221206

EE01 Entry into force of recordation of patent licensing contract