CN112560440A - 一种基于深度学习的面向方面级情感分析的句法依赖方法 - Google Patents

一种基于深度学习的面向方面级情感分析的句法依赖方法 Download PDF

Info

Publication number
CN112560440A
CN112560440A CN202011395578.3A CN202011395578A CN112560440A CN 112560440 A CN112560440 A CN 112560440A CN 202011395578 A CN202011395578 A CN 202011395578A CN 112560440 A CN112560440 A CN 112560440A
Authority
CN
China
Prior art keywords
layer
convolution
information
emotion analysis
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011395578.3A
Other languages
English (en)
Other versions
CN112560440B (zh
Inventor
陈思溢
杜鑫浩
陈小龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN202011395578.3A priority Critical patent/CN112560440B/zh
Publication of CN112560440A publication Critical patent/CN112560440A/zh
Application granted granted Critical
Publication of CN112560440B publication Critical patent/CN112560440B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于深度学习的面向方面级情感分析的句法依赖方法,提高了方面级情感分析的准确性。该方法包括以下步骤:S1,将输入的句子利用预训练好的词向量进行表示;S2,将S1得到的词向量输入到卷积层以提取序列的局部特征;S3,将卷积过后的特征向量输入到BiLSTM层,通过两个方向的LSTM单元获取上下文中的语义信息;S4,将S3得到的语义信息输入到临近加权卷积层以捕获n‑gram信息;S5,将临近加权卷积后得到的n‑gram信息输入到池化层进行最大池化操作,提取重要特征;S6,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。

Description

一种基于深度学习的面向方面级情感分析的句法依赖方法
技术领域
本发明涉及自然语言处理的情感分析技术领域,尤其涉及一种基于深度学习的面向方面级情感分析的句法依赖方法。
背景技术
情感分析(Sentiment analysis)是文本挖掘领域的一个热门话题,它是对文本中的观点、情感和主观性的计算。情感分析有三个层次的粒度,即文档级(document-level)、句子级(sentence-level)和方面级(aspect-level)。当一个文档或一个句子涉及多个情感表达时,前两个层面的情感分析将无法准确提取文本内部的深层情感。而方面级情感分类(也称为基于方面的情感分类)是一个细粒度的情感分类任务,旨在识别特定上下文中某个方面的极性,即评论或评论。例如,对于“价格足够合理,服务很差”这句话,“价格”和“服务”这两个词是方面的,对“价格”和“服务”的态度分别是积极的和消极的。
与情感分析中的其他粒度级别不同,句子中不同方面的情感极性需要在方面级情感分析中确定,它不仅依赖于上下文信息,还依赖于不同方面的情感信息。此外,一句话中不同的具体方面可能会有完全相反的情感极性,因此分析针对个别方面的具体情感极性可以更有效地帮助人们理解用户的情感表达,从而引起该领域越来越多的关注。早期在方面级情感分析方面的工作主要基于从统计学的角度手动提取定义的特征,并采用机器学习,如支持向量机(support vector machine)、条件随机场(conditional random field)等。特征质量在这些模型的性能中具有很大的权重,并且特征工程是劳动密集型的。
近年来,越来越多采用深度学习的技术被整合到自然语言处理任务中。与传统的机器学习相比,它们在情感分类方面取得了更好的效果。Zhou提出了一种结合CNN和BiLSTM模型的中文产品评论分析方法。Xue报道了一种更精确和更有效的模型,它将卷积神经网络与选通机制相结合。Dong利用自适应递归神经网络对推特上的目标依赖情感进行分类。Vo应用了情感词汇,以及分布式单词表示和神经池来提高情感分析的能力。Ma构建了一个神经架构,用于有针对性的基于方面的情感分析,同时能够融入重要的常识。在方面级情感分类方面,这些传统神经模型的性能比传统机器学习更为突出。然而,它们只能以一种隐含的方式捕捉上下文信息,导致显式的不完善,这就排除了某一方面的一些重要的上下文线索。
目前,随着注意机制和记忆网络的成熟。越来越多的此类方法被用于自然语言处理,并取得了良好的效果,如机器翻译,与以前的方法相比,性能有所提高。在这个领域中,表示的生成可以受到目标和上下文的相互影响。例如,Wang将基于注意力的网络应用于方面级情感分类。Long提出了一种基于BiLSTM的多头注意机制,并将其集成到文本情感分析的交叉模型中。Lin建立了一个全新的方面级情感分类框架,它是一个基于语义依赖和上下文矩的深度掩蔽记忆网络。Jiang为同样的任务设计了一个基于方面的LSTM-CNN注意力模型。Ma从网络和注意机制出发,发展了一个交互注意网络(IAN)模型。然而,在这些研究中,体与其语境词之间的句法关系通常被忽略,这可能会阻碍基于体的语境表征的有效性。此外,情感极性方面通常取决于一个关键短语。Zhang提出了一种加权邻近度的卷积网络,以提供句法感知的上下文的方面特定表示。然而,该网络仅考虑文本序列中的长距离相关性,因此捕捉局部特征的效果并不理想。
在一个复合句中,有可能每个方面都只与其相邻的语境有关。在识别其情感极性之前,需要估计每个方面的影响范围。因此,需要更好的语言表示模型来生成更准确的语义表达。Word2Vec和GLoVe已被广泛用于将单词转换为实数值向量。但是,这两个有一个问题。事实上,单词在不同的语境中可能有不同的含义,而目标句子在不同的语言中,语境中的向量表示是相同的。ELMo是对它们的一个改进,但它并不完美,因为它在语言模型中应用了LSTM。LSTM有两个主要问题。第一个问题是它是单向的,这意味着它是通过有序推理来工作的。甚至BiLSTM双向模型也只是一个简单的亏本加法,导致它无法考虑另一个方向的数据。另一个问题是,它是一个序列模型。换句话说,在其处理过程中,一个步骤在前一个步骤完成之前不能进行,导致并行计算能力差.
上述问题都会影响方面级情感分析的准确性。
发明内容
本发明所要解决的技术问题是:提出一种基于深度学习的面向方面级情感分析的句法依赖方法,提高方面级情感分析的准确性,包括以下步骤:
S1,将输入的句子利用预训练好的词向量进行表示;
S2,将S1得到的词向量输入到卷积层以提取序列的局部特征;
S3,将卷积过后的特征向量输入到BiLSTM层,通过两个方向的LSTM单元获取上下文中的语义信息;
S4,将S3得到的语义信息输入到临近加权卷积层以捕获n-gram信息;
S5,将临近加权卷积后得到的n-gram信息输入到池化层进行最大池化操作,提取重要特征;
S6,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。
其中步骤S1所述预训练词向量是指通过Google提出来的BERT预训练模型,它能够捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这可能有助于产生更准确的特征表示和提高模型性能。
进一步地,步骤S1中考虑输入数据用x表示,H是用BERT处理x后生成的嵌入,公式如下:
H=BERT(x)
进一步地,步骤S2中卷积层用于提取序列中的局部特征;其输出为:
Figure BDA0002814960630000021
式中
Figure BDA0002814960630000022
表示卷积,权重矩阵的符号由wm∈Rk×d表示,对应于滤波器Fm;bm代表偏差,Xi:i+k-1表示滑动矩阵窗口,包括输入矩阵中i到i+k-1行;f是一个非线性激活函数,这里本专利选择了RELU。符号
Figure BDA0002814960630000023
代表从滤波器Fm生成的特征图,为ym的第i个元素。
进一步地,步骤S3所述BiLSTM层采用双向LSTM网络,分别由前向和后向神经网络组成,分别负责记忆过去和未来的信息,促进文本分析,其中一个标准的LSTM单元通常包含三个门和一个单元存储器状态,即忘记门、输入门、输出门和存储单元。Wi,Ui∈Rd×2d是对应于输入门it的加权矩阵;Wf,Uf∈Rd×2d是对应于忘记门ft的加权矩阵;Wo,Uo∈Rd×2d是对应于输出门ot的加权矩阵。bf,bi和bo表示每个门的偏差,可以通过训练获得。ht是t时刻的隐藏层向量,σ代表sigmoid函数。符号⊙代表元素乘法,公式如下:
ft=σ(Wf·xt+Uf·ht-1+bf)
it=σ(Wi·xt+Ui·ht-1+bi)
Figure BDA0002814960630000024
Figure BDA0002814960630000025
ot=σ(Wo·xo+Uo·ht-1+bo)
ht=ot⊙tanh(ct)
连接正反两个方向的LSTM模型输出向量
Figure BDA0002814960630000026
作为t时刻双向LSTM的输出h:
Figure BDA0002814960630000027
进一步地,步骤S4中所述临近加权卷积操作应用临近权重即上下文与方面词的句法临近度来计算其在句子中的重要性,然后将其输入卷积神经网络以获得n-gram信息。
进一步地,语境词对方面词的接近是非线性的,这样会导致错误的权重结果和信息损失,根据高斯分布的曲线是钟形的,且会随着向中心移动,值会变大,反之亦然。这种优秀的模式可以有效地防止信息中的干扰噪声,符合位置信息的非线性特征。因此高斯函数是一种理想的权重分配模式,公式为:
Figure BDA0002814960630000028
进一步地,临近加权卷积是一个一维卷积,核长度为1,其临近权重预先分配。用于表示句子表示形式的第i个单词的权重的ri可以检索为:
ri=pihi
卷积的执行方式如下:
Figure BDA0002814960630000029
Figure BDA00028149606300000210
其中
Figure BDA0002814960630000031
是卷积层的输出。
进一步地,步骤S5所述最大池化层可以帮助本专利过滤掉最明显的特征,表示为:
Figure BDA0002814960630000032
其中qi,j表示qi的第j部分。
进一步地,步骤S6所述softmax分类层获得情感极性y的条件概率分布:
Figure BDA0002814960630000033
其中bf和Wf是全连接层对应的加权矩阵。
本发明具有以下有益效果:
其一、本发明提出了一种方面特定的句法感知上下文表示,主要由卷积神经网络和双向LSTM提取,并通过临近加权卷积进一步增强。有效提高方面及情感分类结果。
其二、引入高斯函数代替位置临近度,从而更好地评估临近权重。更好地描述了上下文词与方面的接近度,进一步提高了模型的性能。
其三、使用预训练的BERT嵌入来表示上下文,它能够捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这有助于产生更准确的特征表示和提高模型性能。
附图说明
图1是本发明的基于深度学习的面向方面级情感分析的句法依赖算法的模型图。
具体实施方式
体现本发明特征与优点的典型实施方式将在以下的说明中详细叙述,应理解的是本发明能够在不同的实施方式上具有各种的变化,其皆不脱离本发明的范围,且其中的说明及图示在本质上是当作说明之用,而非用以限制本发明。
一种基于深度学习的面向方面级情感分析的句法依赖方法,所述方面级情感分析方法包括以下步骤:
S1,将输入的句子利用预训练好的词向量进行表示;
S2,将S1得到的词向量输入到卷积层以提取序列的局部特征;
S3,将卷积过后的特征向量输入到BiLSTM层,通过两个方向的LSTM单元获取上下文中的语义信息;
S4,将S3得到的语义信息输入到临近加权卷积层以捕获n-gram信息;
S5,将临近加权卷积后得到的n-gram信息输入到池化层进行最大池化操作,提取重要特征;
S6,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。
其中步骤S1所述预训练词向量是指通过Google提出来的BERT预训练模型,它能够捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这可能有助于产生更准确的特征表示和提高模型性能。
进一步地,步骤S1中考虑输入数据用x表示,H是用BERT处理x后生成的嵌入,公式如下:
H=BERT(x)
进一步地,步骤S2中卷积层用于提取序列中的局部特征;其输出为:
Figure BDA0002814960630000034
式中
Figure BDA0002814960630000035
表示卷积,权重矩阵的符号由wm∈Rk×d表示,对应于滤波器Fm;bm代表偏差,Xi:i+k-1表示滑动矩阵窗口,包括输入矩阵中i到i+k-1行;f是一个非线性激活函数,这里本专利选择了RELU。符号
Figure BDA0002814960630000036
代表从滤波器Fm生成的特征图,为ym的第i个元素。
进一步地,步骤S3所述BiLSTM层采用双向LSTM网络,分别由前向和后向神经网络组成,分别负责记忆过去和未来的信息,促进文本分析,其中一个标准的LSTM单元通常包含三个门和一个单元存储器状态,即忘记门、输入门、输出门和存储单元。Wi,Ui∈Rd×2d是对应于输入门it的加权矩阵;Wf,Uf∈Rd×2d是对应于忘记门ft的加权矩阵;Wo,Uo∈Rd×2d是对应于输出门ot的加权矩阵。bf,bi和bo表示每个门的偏差,可以通过训练获得。ht是t时刻的隐藏层向量,σ代表sigmoid函数。符号⊙代表元素乘法,公式如下:
ft=σ(Wf·xt+Uf·ht-1+bf)
it=σ(Wi·xt+Ui·ht-1+bi)
Figure BDA0002814960630000041
Figure BDA0002814960630000042
ot=σ(Wo·xo+Uo·ht-1+bo)
ht=ot⊙tanh(ct)
连接正反两个方向的LSTM模型输出向量
Figure BDA0002814960630000043
作为t时刻双向LSTM的输出h:
Figure BDA0002814960630000044
进一步地,步骤S4中所述临近加权卷积操作应用临近权重即上下文与方面词的句法临近度来计算其在句子中的重要性,然后将其输入卷积神经网络以获得n-gram信息。
进一步地,语境词对方面词的接近是非线性的,这样会导致错误的权重结果和信息损失,根据高斯分布的曲线是钟形的,且会随着向中心移动,值会变大,反之亦然。这种优秀的模式可以有效地防止信息中的干扰噪声,符合位置信息的非线性特征。因此高斯函数是一种理想的权重分配模式,公式为:
Figure BDA0002814960630000045
进一步地,临近加权卷积是一个一维卷积,核长度为1,其临近权重预先分配。用于表示句子表示形式的第i个单词的权重的ri可以检索为:
ri=pihi
卷积的执行方式如下:
Figure BDA0002814960630000046
Figure BDA0002814960630000047
其中
Figure BDA0002814960630000048
是卷积层的输出。
进一步地,步骤S5所述最大池化层可以帮助本专利过滤掉最明显的特征,表示为:
Figure BDA0002814960630000049
其中qi,j表示qi的第j部分。
进一步地,步骤S6所述softmax分类层获得情感极性y的条件概率分布:
Figure BDA00028149606300000410
其中bf和Wf是全连接层对应的加权矩阵。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换、和变型,本发明的范围由权利要求及其等同物限定。

Claims (7)

1.一种基于深度学习的面向方面级情感分析的句法依赖方法,其特征在于:包括以下步骤:
S1,将输入的句子利用预训练好的词向量进行表示;
S2,将S1得到的词向量输入到卷积层以提取序列的局部特征;
S3,将卷积过后的特征向量输入到BiLSTM层,通过两个方向的LSTM单元获取上下文中的语义信息;
S4,将S3得到的语义信息输入到临近加权卷积层以捕获n-gram信息;
S5,将临近加权卷积后得到的n-gram信息输入到池化层进行最大池化操作,提取重要特征;
S6,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。
2.根据权利要求1所述的基于深度学习的面向方面级情感分析的句法依赖方法,其特征在于:其中步骤S1所述预训练词向量是指通过Google提出来的BERT预训练模型,它能够捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这可能有助于产生更准确的特征表示和提高模型性能。
输入数据用x表示,H是用BERT处理x后生成的嵌入,公式如下:
H=BERT(x) 。
3.根据权利要求1所述的基于深度学习的面向方面级情感分析的句法依赖方法,其特征在于:步骤S2中卷积层用于提取序列中的局部特征;其输出为:
Figure FDA0002814960620000011
式中
Figure FDA0002814960620000012
表示卷积,权重矩阵的符号由wm∈Rk×d表示,对应于滤波器Fm;bm代表偏差,Xi:i+k-1表示滑动矩阵窗口,包括输入矩阵中i到i+k-1行;f是一个非线性激活函数,这里本专利选择了RELU。符号
Figure FDA0002814960620000013
代表从滤波器Fm生成的特征图,为ym的第i个元素。
4.根据权利要求1所述的基于深度学习的面向方面级情感分析的句法依赖方法,其特征在于:步骤S3所述BiLSTM层采用双向LSTM网络,分别由前向和后向神经网络组成,分别负责记忆过去和未来的信息,促进文本分析,其中一个标准的LSTM单元通常包含三个门和一个单元存储器状态,即忘记门、输入门、输出门和存储单元。Wi,Ui∈Rd×2d是对应于输入门it的加权矩阵;Wf,Uf∈Rd×2d是对应于忘记门ft的加权矩阵;Wo,Uo∈Rd×2d是对应于输出门ot的加权矩阵。bf,bi和bo表示每个门的偏差,可以通过训练获得。ht是t时刻的隐藏层向量,σ代表sigmoid函数。符号⊙代表元素乘法,公式如下:
ft=σ(Wf·xt+Uf·ht-1+bf)
it=σ(Wi·xt+Ui·ht-1+bi)
Figure FDA0002814960620000014
Figure FDA0002814960620000015
ot=σ(Wo·xo+Uo·ht-1+bo)
ht=ot⊙tanh(ct)
连接正反两个方向的LSTM模型输出向量
Figure FDA0002814960620000016
作为t时刻双向LSTM的输出h:
Figure FDA0002814960620000017
5.根据权利要求1所述的基于深度学习的面向方面级情感分析的句法依赖方法,其特征在于:步骤S4中所述临近加权卷积操作应用临近权重即上下文与方面词的句法临近度来计算其在句子中的重要性,然后将其输入卷积神经网络以获得n-gram信息。
语境词对方面词的接近是非线性的,这样会导致错误的权重结果和信息损失,根据高斯分布的曲线是钟形的,且会随着向中心移动,值会变大,反之亦然。这种优秀的模式可以有效地防止信息中的干扰噪声,符合位置信息的非线性特征。因此高斯函数是一种理想的权重分配模式,公式为:
Figure FDA0002814960620000021
进一步地,临近加权卷积是一个一维卷积,核长度为1,其临近权重预先分配。用于表示句子表示形式的第i个单词的权重的ri可以检索为:
ri=pihi
卷积的执行方式如下:
Figure FDA0002814960620000022
Figure FDA0002814960620000023
其中
Figure FDA0002814960620000024
是卷积层的输出。
6.根据权利要求1所述的基于深度学习的面向方面级情感分析的句法依赖方法,其特征在于:步骤S5所述最大池化层可以帮助本专利过滤掉最明显的特征,表示为:
Figure FDA0002814960620000025
其中qi,j表示qi的第j部分。
7.根据权利要求1所述的基于深度学习的面向方面级情感分析的句法依赖方法,其特征在于:步骤S6所述softmax分类层获得情感极性y的条件概率分布:
Figure FDA0002814960620000026
其中bf和Wf是全连接层对应的加权矩阵。
CN202011395578.3A 2020-12-03 2020-12-03 一种基于深度学习的面向方面级情感分析的句法依赖方法 Active CN112560440B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011395578.3A CN112560440B (zh) 2020-12-03 2020-12-03 一种基于深度学习的面向方面级情感分析的句法依赖方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011395578.3A CN112560440B (zh) 2020-12-03 2020-12-03 一种基于深度学习的面向方面级情感分析的句法依赖方法

Publications (2)

Publication Number Publication Date
CN112560440A true CN112560440A (zh) 2021-03-26
CN112560440B CN112560440B (zh) 2024-03-29

Family

ID=75047658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011395578.3A Active CN112560440B (zh) 2020-12-03 2020-12-03 一种基于深度学习的面向方面级情感分析的句法依赖方法

Country Status (1)

Country Link
CN (1) CN112560440B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221537A (zh) * 2021-04-12 2021-08-06 湘潭大学 一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法
CN113254637A (zh) * 2021-05-07 2021-08-13 山东师范大学 一种融合语法的方面级文本情感分类方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110502753A (zh) * 2019-08-23 2019-11-26 昆明理工大学 一种基于语义增强的深度学习情感分析模型及其分析方法
US10769374B1 (en) * 2019-04-24 2020-09-08 Honghui CHEN Answer selection method for question answering system and the system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769374B1 (en) * 2019-04-24 2020-09-08 Honghui CHEN Answer selection method for question answering system and the system
CN110502753A (zh) * 2019-08-23 2019-11-26 昆明理工大学 一种基于语义增强的深度学习情感分析模型及其分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
向进勇;刘小龙;丁明扬;李欢;曹文婷;: "基于卷积递归深度学习模型的句子级文本情感分类", 东北师大学报(自然科学版), no. 02 *
龙彦霖;李艳梅;陶卫国;苗晨;刘文秀;: "基于级联卷积和Attention机制的情感分析", 太原师范学院学报(自然科学版), no. 02 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221537A (zh) * 2021-04-12 2021-08-06 湘潭大学 一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法
CN113254637A (zh) * 2021-05-07 2021-08-13 山东师范大学 一种融合语法的方面级文本情感分类方法及***
CN113254637B (zh) * 2021-05-07 2023-04-07 山东师范大学 一种融合语法的方面级文本情感分类方法及***

Also Published As

Publication number Publication date
CN112560440B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
CN108875807B (zh) 一种基于多注意力多尺度的图像描述方法
CN110083705B (zh) 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端
US20220147836A1 (en) Method and device for text-enhanced knowledge graph joint representation learning
CN108984724B (zh) 利用高维表示提高特定属性情感分类准确率方法
CN112163426B (zh) 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法
CN109934261B (zh) 一种知识驱动参数传播模型及其少样本学习方法
JP6444530B2 (ja) 音声言語理解システム
CN107943784B (zh) 基于生成对抗网络的关系抽取方法
CN110609891A (zh) 一种基于上下文感知图神经网络的视觉对话生成方法
CN110046248B (zh) 用于文本分析的模型训练方法、文本分类方法和装置
CN109766557B (zh) 一种情感分析方法、装置、存储介质及终端设备
CN110647612A (zh) 一种基于双视觉注意力网络的视觉对话生成方法
CN110765775A (zh) 一种融合语义和标签差异的命名实体识别领域自适应的方法
Zhang et al. Ynu-hpcc at semeval-2018 task 1: Bilstm with attention based sentiment analysis for affect in tweets
CN112232087B (zh) 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
CN113987179A (zh) 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质
CN112527966B (zh) 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112199503B (zh) 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法
Chen et al. Deep neural networks for multi-class sentiment classification
CN113435211A (zh) 一种结合外部知识的文本隐式情感分析方法
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
CN112560440B (zh) 一种基于深度学习的面向方面级情感分析的句法依赖方法
CN115658890A (zh) 基于主题增强的情感共注意力bert模型的中文评论分类方法
Nguyen et al. Loss-based active learning for named entity recognition
CN110889505A (zh) 一种图文序列匹配的跨媒体综合推理方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant