CN114297390A - 一种长尾分布场景下的方面类别识别方法及*** - Google Patents

一种长尾分布场景下的方面类别识别方法及*** Download PDF

Info

Publication number
CN114297390A
CN114297390A CN202111681644.8A CN202111681644A CN114297390A CN 114297390 A CN114297390 A CN 114297390A CN 202111681644 A CN202111681644 A CN 202111681644A CN 114297390 A CN114297390 A CN 114297390A
Authority
CN
China
Prior art keywords
vector
category
embedding
module
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111681644.8A
Other languages
English (en)
Other versions
CN114297390B (zh
Inventor
陆恒杨
方伟
聂玮
孙俊
吴小俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN202111681644.8A priority Critical patent/CN114297390B/zh
Publication of CN114297390A publication Critical patent/CN114297390A/zh
Application granted granted Critical
Publication of CN114297390B publication Critical patent/CN114297390B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本发明公开了一种长尾分布场景下的方面类别识别方法及***,属于自然语言处理技术领域。本发明的方法基于一种在长尾分布场景下的的方面类别识别***,该***聚焦数据长尾分布特点,首先得到句子细粒度方面特征向量,提供额外的上下文方面级语义信息;然后加入一种基于长尾分布的融合上下文方面级语义信息的注意力机制,加强模型捕捉与方面类别最相关的信息的能力,同时提出一种改进的分布平衡损失函数缓解长尾多标签文本分类任务中的标签共现以及负类优势的问题,有效地提升了具有长尾分布特点的方面类别识别效果。

Description

一种长尾分布场景下的方面类别识别方法及***
技术领域
本发明涉及一种长尾分布场景下的方面类别识别方法及***,属于自然语言处理技术领域。
背景技术
方面类别识别(Aspect Category Detection,ACD)作为方面级情感分析重要的子任务之一,旨在从一组预先定义的方面类别中检测出句子中包含的方面类别。方面类别识别是整个方面级情感分析的基础任务。情感分析在生活的各个领域有着广泛的应用,例如针对用户在社交媒体、餐厅评价、网上购物等表达的对于各种话题的看法的情感分析,可以帮助用户有更好的消费体验,同时可以帮助商家了解市场需求。
然而在实际研究中,方面类别分布往往呈现不平衡甚至是长尾分布的特点,使得模型无法充分提取尾部方面类别的特征,这为方面类别识别任务带来极大的挑战。
一些现有的工作利用经典机器学习模型或深度学习模型的解决这个问题。例如,Ghadery,E等人(Ghadery,E.,et al.,MNCN:A Multilingual Ngram-Based ConvolutionalNetwork for Aspect Category Detection in Online Reviews.2019.33:p.6441-6448.)以多语言词嵌入作为网络的输入,使用深度卷积神经网络提取特征,然后使用不同的全连接层分别学习和识别不同的方面类别。Hu,M等人(Hu,M.,et al.,CAN:ConstrainedAttention Networks for Multi-Aspect Sentiment Analysis.2018.)引入稀疏正则化和正交正则化来计算多个方面的注意力权重。这使得多个方面的注意力权重集中在不同部分的同时,每个方面的注意力权重只集中在几个词上。Movahedi,S.等人(Movahedi,S.,etal.,Aspect Category Detection via Topic-Attention Network.2019.)提出了一个主题注意网络模型,该模型可以通过关注句子的不同部分来检测给定句子的方面类别。Li,Y.等人(Li,Y.,et al.Multi-Instance Multi-Label Learning Networks for Aspect-Category Sentiment Analysis.in Proceedings of the 2020 Conference onEmpirical Methods in Natural Language Processing(EMNLP).2020.)提出一种多实例多标签学习的方面情感分析的联合模型,其中基于注意力的ACD为不同的方面类别产生有效的注意力权重。
然而,采集自实际场景中的数据分布往往是不平衡的,甚至是呈现长尾分布的特点,即少数的类别(也称为头部类)占据了大部分数据,而大多数的类别(也称为尾部类)样本很少。而上述的现有方法均忽略了在训练模型时这样的样本数量差距。不同类别的训练样本数目差距过大会使模型对于样本数有限的方面类别的识别无法取得很好的效果。方面类别不均衡,甚至造成的长尾分布会对学习过程产生影响,导致识别效果差。
发明内容
为了解决目前存在的长尾分布导致的,不同类别的训练样本数目差距过大会使模型对于样本数有限的方面类别的识别无法取得很好的效果问题,本发明提供了一种长尾分布场景下的方面类别识别方法及***。
本发明第一个目的在于提供一种长尾分布场景下的方面类别识别方法,其特征在于,所述方法对数据集
Figure BDA0003445749100000021
中的N个句子进行方面类别的识别,其中,Sl={w1,w2,...,wn}为所述数据集D中的第l个句子,由n个词组成,wn表示所述第l个句子Sl中第n个词;
Figure BDA0003445749100000022
是所述第l个句子Sl对应的方面类别标签;
所述方法包括:
步骤1:预先定义m个方面类别,用A={a1,a2,…,am}表示,其中am为描述第m个方面的单词或词组,
Figure BDA0003445749100000023
步骤2:构建词嵌入矩阵E1∈R|V|×d,每个词wi通过所述词嵌入矩阵E1中映射为
Figure BDA0003445749100000024
其中|V|为所述数据集D中所有词的大小,d是词向量的维度;
同时构建方面类别嵌入矩阵E2∈Rm×d,每个词ai通过所述方面类别嵌入矩阵E2中映射为
Figure BDA0003445749100000025
分别得到文本嵌入向量
Figure BDA0003445749100000026
和方面嵌入向量
Figure BDA0003445749100000027
Figure BDA0003445749100000028
步骤3:将所述文本嵌入向量
Figure BDA0003445749100000029
与所述方面嵌入向量
Figure BDA00034457491000000210
输入到长短时记忆网络LSTM中,得到该句子的网络输出隐藏状态
Figure BDA00034457491000000211
Figure BDA00034457491000000212
Figure BDA00034457491000000213
步骤4:将所述隐藏状态Hw和Ha输入到IAN-LoT机制中,得到融合长尾分布特点的总的方面向量表示s;
步骤5:将所述总的方面向量s输入到融合上下文方面级语义信息的注意力机制;
将所述总的方面向量s与
Figure BDA00034457491000000214
作为输入,计算融合向量
Figure BDA00034457491000000215
如公式(1)所示:
Figure BDA0003445749100000031
其中,W∈Rn×1是每个单词与方面融合的可学习权重参数,
Figure BDA0003445749100000032
代表融合上下文方面级语义信息的向量,将
Figure BDA0003445749100000033
输入到所述注意力机制,为每个预定义的方面类别生成注意权重向量;如公式(2)所示,对于第j个方面类别:
Figure BDA0003445749100000034
其中Wj∈Rd×d,bj∈Rd以及uj∈Rd为可学习参数,β∈R1×m,代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,αj∈Rn是注意力权重向量;
步骤6:使用向量
Figure BDA0003445749100000035
作为预测的句子表示,如公式(3)所示,对于第j个方面类别:
Figure BDA0003445749100000036
其中,Wj∈Rd×1,bj为一个标量,
Figure BDA0003445749100000037
为第j个方面类别的预测结果,当大于分类阈值时,认为句子包含第j个方面类别。
可选的,所述IAN-LoT机制中计算融合长尾分布特点的总的方面向量的步骤包括:
步骤41:对于输入的隐藏状态Hw和Ha计算交互注意力权重矩阵I∈Rn×m,如公式(4)所示:
Figure BDA0003445749100000038
步骤42:对所述交互注意力权重矩阵的每一行进行softmax计算,如公式(5)所示:
Figure BDA0003445749100000039
其中,kij为矩阵k∈Rn×m的第i行第j列元素,k表示文本对方面的注意力权重,Iij为矩阵I中第i行第j列的元素;
步骤43:然后对于矩阵k引入数据长尾分布特点,如公式(6)所示:
Figure BDA00034457491000000310
其中,
Figure BDA00034457491000000311
为引入长尾分布的文本对于每个方面的权重信息,β∈R1×m代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,m为方面类别的个数;
步骤44:对于
Figure BDA00034457491000000312
进行最大池化,得到融入长尾分布特点的细粒度的文本对于方面的权重信息IL,进而将此权重信息与方面类别的嵌入向量表示
Figure BDA00034457491000000313
相乘,得到最终的总的方面向量表示s,如公式(7)所示:
Figure BDA0003445749100000041
其中,s∈R1×d
可选的,所述方法采用改进的A-DB损失函数训练识别模型,所述改进的A-DB损失函数改进了重平衡权重的计算方式和平滑函数,具体包括:
首先,在不考虑标签共现的情况下,
Figure BDA0003445749100000042
表示数据集中包含第j个方面类别的样例数;针对第j个方面类别的采样频率期望值为
Figure BDA0003445749100000043
然后按该实例包含的每个正类重复采样估算出样本采样频率PI,如公式(8)所示:
Figure BDA0003445749100000044
其中,
Figure BDA0003445749100000045
Figure BDA00034457491000000414
时表示第l个句子包含第j个方面类别aj
Figure BDA0003445749100000046
时则不包含;
重平衡权重
Figure BDA0003445749100000047
计算如公式(9)所示:
Figure BDA0003445749100000048
其中,γ为协调权重超参数;
所述平滑函数将
Figure BDA0003445749100000049
映射的公式为:
Figure BDA00034457491000000410
为了避免负标签的优势导致的少数类过度抑制,引入负类抑制超参数λ以及特定的偏置τj,如公式(11)所示:
Figure BDA00034457491000000411
其中ρj为第j个类别与总样本数量之比,η为比例超参数;
所述A-DB损失函数如公式(12)所示:
Figure BDA00034457491000000412
其中,
Figure BDA00034457491000000413
为网络输出的概率值。
可选的,所述分类阈值为0.5。
本发明的第二个目的在于提供一种长尾分布场景下的方面类别识别***,其特征在于,所述***包括:输入模块、文本方面嵌入模块、LSTM模块、IAN-LOT模块、融合模块、注意力机制模块和预测模块;
所述输入模块、文本方面嵌入模块、LSTM模块、IAN-LOT模块、融合模块、注意力机制模块和预测模块依次连接;
所述输入模块用于输入预先定义的方面类别组合和待识别的文本;所述文本方面嵌入模块用于构建词嵌入矩阵和方面类别嵌入矩阵,并将输入的预先定义的方面类别组合和待识别的文本映射到文本嵌入向量和方面嵌入向量;所述LSTM模块用于输出所述文本嵌入向量和方面嵌入向量的隐藏状态;所述IAN-LOT模块用于根据所述隐藏状态得到融合长尾分布特点的总的方面向量;所述融合模块用于融合上下文方面级语义信息,并生成融合向量;所述注意力机制模块根据所述融合向量为每个预定义的方面类别生成注意权重向量;所述预测模块用于根据所述注意权重向量完成方面类别识别的分类和预测。
可选的,所述***对数据集
Figure BDA0003445749100000051
中的N个句子进行方面类别的识别的工作过程包括:
其中,Sl={w1,w2,…,wn}为所述数据集D中的第l个句子,由n个词组成,wi表示所述第l个句子Sl中第i个词;
Figure BDA0003445749100000052
是所述第l个句子Sl对应的方面类别标签;
步骤1:预先定义m个方面类别,用A={a1,a2,…,am}表示,其中am为描述第m个方面的单词或词组,
Figure BDA0003445749100000053
步骤2:构建词嵌入矩阵E1∈R|V|×d,每个词wi通过所述词嵌入矩阵E1中映射为
Figure BDA0003445749100000054
其中|V|为所述数据集D中所有词的大小,d是词向量的维度;
同时构建方面类别嵌入矩阵E2∈Rm×d,每个词ai通过所述方面类别嵌入矩阵E2中映射为
Figure BDA0003445749100000055
分别得到文本嵌入向量
Figure BDA0003445749100000056
和方面嵌入向量
Figure BDA0003445749100000057
Figure BDA0003445749100000058
步骤3:将所述文本嵌入向量
Figure BDA0003445749100000059
与所述方面嵌入向量
Figure BDA00034457491000000510
输入到长短时记忆网络LSTM中,得到该句子的网络输出隐藏状态
Figure BDA00034457491000000511
Figure BDA00034457491000000512
Figure BDA00034457491000000513
步骤4:将所述隐藏状态Hw和Ha输入到IAN-LoT机制中,得到融合长尾分布特点的总的方面向量表示s;
步骤5:将所述总的方面向量s输入到融合上下文方面级语义信息的注意力机制;
将所述总的方面向量s与
Figure BDA0003445749100000061
作为输入,计算融合向量
Figure BDA0003445749100000062
如公式(1)所示:
Figure BDA0003445749100000063
其中,W∈Rn×1是每个单词与方面融合的可学习权重参数,
Figure BDA0003445749100000064
代表融合上下文方面级语义信息的向量,将
Figure BDA0003445749100000065
输入到所述注意力机制,为每个预定义的方面类别生成注意权重向量;如公式(2)所示,对于第j个方面类别:
Figure BDA0003445749100000066
其中Wj∈Rd×d,bj∈Rd以及uj∈Rd为可学习参数,β∈R1×m,代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,αj∈Rn是注意力权重向量;
步骤6:使用向量
Figure BDA0003445749100000067
作为预测的句子表示,如公式(3)所示,对于第j个方面类别:
Figure BDA0003445749100000068
其中,Wj∈Rd×1,bj为一个标量,
Figure BDA0003445749100000069
为第j个方面类别的预测结果,当大于分类阈值时,认为句子包含第j个方面类别。
可选的,所述IAN-LoT机制中计算融合长尾分布特点的总的方面向量的步骤包括:
步骤41:对于输入的隐藏状态Hw和Ha计算交互注意力权重矩阵I∈Rn×m,如公式(4)所示:
Figure BDA00034457491000000610
步骤42:对所述交互注意力权重矩阵的每一行进行softmax计算,如公式(5)所示:
Figure BDA00034457491000000611
其中,kij为矩阵k∈Rn×m的第i行第j列元素,k表示文本对方面的注意力权重,Iij为矩阵I中第i行第j列的元素;
步骤43:然后对于矩阵k引入数据长尾分布特点,如公式(6)所示:
Figure BDA00034457491000000612
其中,
Figure BDA00034457491000000613
为引入长尾分布的文本对于每个方面的权重信息,β∈R1×m代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,m为方面类别的个数;
步骤44:对于
Figure BDA00034457491000000614
进行最大池化,得到融入长尾分布特点的细粒度的文本对于方面的权重信息IL,进而将此权重信息与方面类别的嵌入向量表示
Figure BDA00034457491000000615
相乘,得到最终的总的方面向量表示s,如公式(7)所示:
Figure BDA0003445749100000071
其中,s∈R1×d
可选的,所述***采用改进的A-DB损失函数训练识别模型,所述改进的A-DB损失函数改进了重平衡权重的计算方式和平滑函数,具体包括:
首先,在不考虑标签共现的情况下,
Figure BDA0003445749100000072
表示数据集中包含第j个方面类别的样例数;针对第j个方面类别的采样频率期望值为
Figure BDA0003445749100000073
然后按该实例包含的每个正类重复采样估算出样本采样频率PI,如公式(8)所示:
Figure BDA0003445749100000074
其中,
Figure BDA0003445749100000075
Figure BDA0003445749100000076
时表示第l个句子包含第j个方面类别aj
Figure BDA0003445749100000077
时则不包含;
重平衡权重
Figure BDA0003445749100000078
计算如公式(9)所示:
Figure BDA0003445749100000079
其中,γ为协调权重超参数;
所述平滑函数将
Figure BDA00034457491000000710
映射的公式为:
Figure BDA00034457491000000711
为了避免负标签的优势导致的少数类过度抑制,引入负类抑制超参数λ以及特定的偏置τj,如公式(11)所示:
Figure BDA00034457491000000712
其中ρj为第j个类别与总样本数量之比,η为比例超参数;
所述A-DB损失函数如公式(12)所示:
Figure BDA00034457491000000713
其中,
Figure BDA00034457491000000714
为网络输出的概率值。
本发明有益效果是:
本发明针对呈长尾分布数据特点的方面类别识别问题,将方面类别识别建模为多标签分类问题,提出一种基于长尾分布的融合方面向量的方面类别识别模型;
1)通过引入一种适用于多标签长尾分布问题的A-DB损失函数来训练识别模型,能有效适用于具有长尾分布特点的数据,提升具有长尾分布特点的方面类别识别效果;
2)引入具有数据长尾分布特点的交互注意力模块,即IAN-LoT机制,该机制引入数据长尾分布特点,能够得到句子细粒度方面特征向量,提供额外的上下文方面级语义信息,可以有效地提升尾部类别的识别效果;
3)在得到细粒度方面特征向量后,本发明还提出一种融合上下文方面级语义信息的注意力机制,将方面向量与上下文信息融合并可以关注方面相关正确信息,加强模型捕捉与方面类别最相关的信息的能力,在长尾分布的方面类别识别任务上更具有效性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的模型结构图。
图2是本发明的方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
实施例一:
本实施例提供一种长尾分布场景下的方面类别识别方法,所述方法对数据集
Figure BDA0003445749100000081
Figure BDA0003445749100000082
中的N个句子进行方面类别的识别,其中,Sl={w1,w2,…,wn}为所述数据集D中的第l个句子,由n个词组成,wn表示所述第l个句子Sl中第n个词;
Figure BDA0003445749100000083
是所述第l个句子Sl对应的方面类别标签;
所述方法包括:
步骤1:预先定义m个方面类别,用A={a1,a2,…,am}表示,其中am为描述第m个方面的单词或词组,
Figure BDA0003445749100000091
步骤2:构建词嵌入矩阵E1∈R|V|×d,每个词wi通过所述词嵌入矩阵E1中映射为
Figure BDA0003445749100000092
其中|V|为所述数据集D中所有词的大小,d是词向量的维度;
同时构建方面类别嵌入矩阵E2∈Rm×d,每个词ai通过所述方面类别嵌入矩阵E2中映射为
Figure BDA0003445749100000093
分别得到文本嵌入向量
Figure BDA0003445749100000094
和方面嵌入向量
Figure BDA0003445749100000095
Figure BDA0003445749100000096
步骤3:将所述文本嵌入向量
Figure BDA0003445749100000097
与所述方面嵌入向量
Figure BDA0003445749100000098
输入到长短时记忆网络LSTM中,得到该句子的网络输出隐藏状态
Figure BDA0003445749100000099
Figure BDA00034457491000000910
Figure BDA00034457491000000911
步骤4:将所述隐藏状态Hw和Ha输入到IAN-LoT机制中,得到融合长尾分布特点的总的方面向量表示s;
步骤5:将所述总的方面向量s输入到融合上下文方面级语义信息的注意力机制;
将所述总的方面向量s与
Figure BDA00034457491000000912
作为输入,计算融合向量
Figure BDA00034457491000000913
如公式(1)所示:
Figure BDA00034457491000000914
其中,W∈Rn×1是每个单词与方面融合的可学习权重参数,
Figure BDA00034457491000000915
代表融合上下文方面级语义信息的向量,将
Figure BDA00034457491000000916
输入到所述注意力机制,为每个预定义的方面类别生成注意权重向量;如公式(2)所示,对于第j个方面类别:
Figure BDA00034457491000000917
其中Wj∈Rd×d,bj∈Rd以及uj∈Rd为可学习参数,β∈R1×m,代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,αj∈Rn是注意力权重向量;
步骤6:使用向量
Figure BDA00034457491000000918
作为预测的句子表示,如公式(3)所示,对于第j个方面类别:
Figure BDA00034457491000000919
其中,Wj∈Rd×1,bj为一个标量,
Figure BDA00034457491000000920
为第j个方面类别的预测结果,当大于分类阈值时,认为句子包含第j个方面类别。
实施例二:
本实施例提供一种长尾分布场景下的方面类别识别方法,本实施例的方法引入具有数据长尾分布特点的交互注意力模块,即IAN-LoT机制,能够得到句子细粒度方面特征向量,提供额外的上下文方面级语义信息。在得到细粒度方面特征向量后,该模型还加入一种基于长尾分布的融合上下文方面级语义信息的注意力机制,加强模型捕捉与方面类别最相关的信息的能力,并通过使用一种改进的适用于长尾分布的多标签分类损失函数进行训练。
本实施例对数据集
Figure BDA0003445749100000101
中的N个句子进行方面类别的识别,其中,Sl={w1,w2,…,wn}为所述数据集D中的第l个句子,由n个词组成,wn表示所述第l个句子Sl中第n个词;
Figure BDA0003445749100000102
是所述第l个句子Sl对应的方面类别标签;
所述方法包括:
步骤1:预先定义m个方面类别,用A={a1,a2,…,am}表示,其中am为描述第m个方面的单词或词组,
Figure BDA0003445749100000103
步骤2:构建词嵌入矩阵E1∈R|V|×d,每个词wi通过所述词嵌入矩阵E1中映射为
Figure BDA0003445749100000104
其中|V|为所述数据集D中所有词的大小,d是词向量的维度;
同时构建方面类别嵌入矩阵E2∈Rm×d,每个词ai通过所述方面类别嵌入矩阵E2中映射为
Figure BDA0003445749100000105
分别得到文本嵌入向量
Figure BDA0003445749100000106
和方面嵌入向量
Figure BDA0003445749100000107
Figure BDA0003445749100000108
步骤3:将所述文本嵌入向量
Figure BDA0003445749100000109
与所述方面嵌入向量
Figure BDA00034457491000001010
输入到长短时记忆网络LSTM中,得到该句子的网络输出隐藏状态
Figure BDA00034457491000001011
Figure BDA00034457491000001012
Figure BDA00034457491000001013
步骤4:将所述隐藏状态Hw和Ha输入到IAN-LoT机制中,得到融合长尾分布特点的总的方面向量表示s;
步骤41:对于输入的隐藏状态Hw和Ha计算交互注意力权重矩阵I∈Rn×m,如公式(1)所示:
Figure BDA00034457491000001014
步骤42:对所述交互注意力权重矩阵的每一行进行softmax计算,如公式(2)所示:
Figure BDA00034457491000001015
其中,kij为矩阵k∈Rn×m的第i行第j列元素,k表示文本对方面的注意力权重,Iij为矩阵I中第i行第j列的元素;
步骤43:然后对于矩阵k引入数据长尾分布特点,如公式(3)所示:
Figure BDA0003445749100000111
其中,
Figure BDA0003445749100000112
为引入长尾分布的文本对于每个方面的权重信息,β∈R1×m代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,m为方面类别的个数;
步骤44:对于
Figure BDA0003445749100000113
进行最大池化,得到融入长尾分布特点的细粒度的文本对于方面的权重信息IL,进而将此权重信息与方面类别的嵌入向量表示
Figure BDA0003445749100000114
相乘,得到最终的总的方面向量表示s,如公式(4)所示:
Figure BDA0003445749100000115
其中,s∈R1×d
步骤5:将所述总的方面向量s输入到融合上下文方面级语义信息的注意力机制;
将所述总的方面向量s与
Figure BDA0003445749100000116
作为输入,计算融合向量
Figure BDA0003445749100000117
如公式(5)所示:
Figure BDA0003445749100000118
其中,W∈Rn×1是每个单词与方面融合的可学习权重参数,
Figure BDA0003445749100000119
代表融合上下文方面级语义信息的向量,将
Figure BDA00034457491000001110
输入到所述注意力机制,为每个预定义的方面类别生成注意权重向量;如公式(6)所示,对于第j个方面类别:
Figure BDA00034457491000001111
其中Wj∈Rd×d,bj∈Rd以及uj∈Rd为可学习参数,β∈R1×m,代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,αj∈Rn是注意力权重向量;
步骤6:使用向量
Figure BDA00034457491000001112
作为预测的句子表示,如公式(7)所示,对于第j个方面类别:
Figure BDA00034457491000001113
其中,Wj∈Rd×1,bj为一个标量,
Figure BDA00034457491000001114
为第j个方面类别的预测结果,当大于分类阈值0.5时,认为句子包含第j个方面类别。
本实施例的方法采用改进的A-DB损失函数训练识别模型,所述改进的A-DB损失函数改进了重平衡权重的计算方式和平滑函数,具体包括:
首先,在不考虑标签共现的情况下,
Figure BDA00034457491000001115
表示数据集中包含第j个方面类别的样例数;针对第j个方面类别的采样频率期望值为
Figure BDA00034457491000001116
然后按该实例包含的每个正类重复采样估算出样本采样频率PI,如公式(8)所示:
Figure BDA0003445749100000121
其中,
Figure BDA0003445749100000122
Figure BDA0003445749100000123
时表示第l个句子包含第j个方面类别aj
Figure BDA0003445749100000124
时则不包含;
重平衡权重
Figure BDA0003445749100000125
计算如公式(9)所示:
Figure BDA0003445749100000126
其中,γ为协调权重超参数;
所述平滑函数将
Figure BDA0003445749100000127
映射的公式为:
Figure BDA0003445749100000128
为了避免负标签的优势导致的少数类过度抑制,引入负类抑制超参数λ以及特定的偏置τj,如公式(11)所示:
Figure BDA0003445749100000129
其中ρj为第j个类别与总样本数量之比,η为比例超参数;
所述A-DB损失函数如公式(12)所示:
Figure BDA00034457491000001210
其中,
Figure BDA00034457491000001211
为网络输出的概率值。
实施例三:
本实施例提供一种长尾分布场景下的方面类别识别***,所述***包括:输入模块、文本方面嵌入模块、LSTM模块、IAN-LOT模块、融合模块、注意力机制模块和预测模块;
所述输入模块、文本方面嵌入模块、LSTM模块、IAN-LOT模块、融合模块、注意力机制模块和预测模块依次连接;
所述输入模块用于输入预先定义的方面类别组合和待识别的文本;所述文本方面嵌入模块用于构建词嵌入矩阵和方面类别嵌入矩阵,并将输入的预先定义的方面类别组合和待识别的文本映射到文本嵌入向量和方面嵌入向量;所述LSTM模块用于输出所述文本嵌入向量和方面嵌入向量的隐藏状态;所述IAN-LOT模块用于根据所述隐藏状态得到融合长尾分布特点的总的方面向量;所述融合模块用于融合上下文方面级语义信息,并生成融合向量;所述注意力机制模块根据所述融合向量为每个预定义的方面类别生成注意权重向量;所述预测模块用于根据所述注意权重向量完成方面类别识别的分类和预测。
例如一条餐厅评论中“When we sat down,the waiter barely looked in ourdirection and abruptly shoved our menus on the table.”我们将这个句子以及预定义好的一组方面类别:food、staff、miscellaneous、place、service、menu、price、ambience输入到图1所示的模型中,用我们的模型最终可以预测出一组结果,其中1为这句话包含对应方面类别,0则为不包含,如表1所示:
Category food staff miscellaneous place service menu price ambience
label 0 1 0 0 0 1 0 0
为了进一步说明本发明能够达到的有益效果,进行如下实验:
本发明使用6个基线方法作为对比:
(1)方面类别识别模型:
TextCNN[34]:利用卷积神经网络对文本分类的方法,是较为基础的模型;
LSTM[24]:使用一个LSTM网络进行训练,最后一个隐藏状态作为最终形式进行分类;
SVR[35]:将一个句子的词向量组合成一个向量作为输入,用机器学习分类器进行分类的方法;
SCAN[36]:一种基于句子成分感知网络的方面类别情感分析方法。
(2)ACD任务和ACSA任务联合训练模型:
AS-Capsules[37]:通过共享组件来利用方面类别和情感之间的相关性进行方面类别情感分析的方法;
AC-MIMLLN[6]:提出一种多实例多标签学习的方面情感分析的联合模型,其中基于注意力的ACD为不同的方面类别产生有效的注意力权重。我们对于此类模型使用其ACD的预测结果进行比较。
表2为本发明的方法以及其他对比方法在MAMS-LT和SemEval2014-LT数据集上ACD任务的Macro F1实验结果对比。
表2数据对比结果
Figure BDA0003445749100000131
Figure BDA0003445749100000141
为了更好的研究对长尾分布问题,本发明参考(Wu,T.,et al.,Distribution-Balanced Loss for Multi-Label Classification in Long-Tailed Datasets.2020:Computer Vision–ECCV 2020.)创建满足长尾分布的多标签图像数据集的方法,将现有的SemEval-2014任务4(Pontiki,M.,et al.,SemEval-2014 Task 4:Aspect BasedSentiment Analysis.2014.)和MAMS数据集(Jiang,Q.,et al.A Challenge Dataset andEffective Models for Aspect-Based Sentiment Analysis.in Proceedings of the2019 Conference on Empirical Methods in Natural Language Processing and the9th International Joint Conference on Natural Language Processing(EMNLP-IJCNLP).2019.)创建成更加符合长尾分布的情感分析数据集,分别命名为SemEval2014-LT和MAMS-LT。表1给出了基线方法以及本发明方法在MAMS-LT数据集和SemEval2014-LT数据集的Macro F1得分,得分越高,分类效果越好。
根据实验结果,我们可以得出以下结论:
首先,本发明的方法在MAMS-LT数据集和SemEval2014-LT数据集上优于所有基线方法,表明本发明的方法在具有长尾分布特点的数据集上具有更好的方面类别检测能力。
其次,相比于得分最好的基线方法AS-Capsules,本发明的方法在两个数据集上分别高了2.28%和1.92%,表明在MAMS-LT数据集上,本发明方法的Macro F1得分具有明显优势,这证明了本发明的方法对于包含多个方面的句子进行方面类别检测具有更好的效果。
第三,本发明的方法在SemEval2014-LT数据集的效果没有MAMS-LT数据集好的原因可能是前者的数据集句子有多数只包含一个方面类别,这可能使我们针对标签共现问题所设计的重平衡权重的效果减弱,但可以看出在每个句子包含两个方面及以上的MAMS-LT数据集上效果提升明显。
表3为在SemEval2014-LT数据集中,AS-Capsules和本发明的方法对于每个方面的Macro F1得分实验结果。
表3 SemEval2014-LT数据集上AS-Capsules与本发明方法的结果对比
Figure BDA0003445749100000142
Figure BDA0003445749100000151
本发明构建的SemEval2014-LT数据集分别包含头部类、中部类和尾部类的1、2和2个类。结果显示:
首先,对于尾部类,比如price和ambience,Macro F1得分分别高5.99%和7.88%,这表明本发明的方法对于尾部类的方面类别的检测效果有明显提高。其中,对于尾部类“price”的预测结果甚至优于头部类“food”,而对于AS-Capsules对于尾部类“price”的预测要比头部类“food”的预测降低了9.83%。因此,这也从实验的角度证明本发明提出的长尾分布工作的有效性。
其次,对于头部类“food”,本发明的方法低于对比方法AS-Capsules,可能的原因有两点,其一是本发明的模型更多在于对尾部类的处理,在细粒度的方面融合时为尾部类分配了更多的权重,因此在使用注意力机制时关注更多的尾部类的信息;其二是重平衡权重的使用:在改进的损失函数中,本发明降低了头部类的权重,头部类的数量占比越大,则抑制效果越明显,因此头部类的预测效果可能因此有一定的减弱。
本发明实施例中的部分步骤,可以利用软件实现,相应的软件程序可以存储在可读取的存储介质中,如光盘或硬盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种长尾分布场景下的方面类别识别方法,其特征在于,所述方法对数据集
Figure FDA0003445749090000011
Figure FDA0003445749090000012
中的N个句子进行方面类别的识别,其中,Sl={w1,w2,…,wn}为所述数据集D中的第l个句子,由n个词组成,wn表示所述第l个句子Sl中第n个词;
Figure FDA0003445749090000013
是所述第l个句子Sl对应的方面类别标签;
所述方法包括:
步骤1:预先定义m个方面类别,用A={a1,a2,…,am}表示,其中am为描述第m个方面的单词或词组,
Figure FDA0003445749090000014
步骤2:构建词嵌入矩阵E1∈R|V|×d,每个词wi通过所述词嵌入矩阵E1中映射为
Figure FDA0003445749090000015
其中|V|为所述数据集D中所有词的大小,d是词向量的维度;
同时构建方面类别嵌入矩阵E2∈Rm×d,每个词ai通过所述方面类别嵌入矩阵E2中映射为
Figure FDA0003445749090000016
分别得到文本嵌入向量
Figure FDA0003445749090000017
和方面嵌入向量
Figure FDA0003445749090000018
Figure FDA0003445749090000019
步骤3:将所述文本嵌入向量
Figure FDA00034457490900000110
与所述方面嵌入向量
Figure FDA00034457490900000111
输入到长短时记忆网络LSTM中,得到该句子的网络输出隐藏状态
Figure FDA00034457490900000112
Figure FDA00034457490900000113
Figure FDA00034457490900000114
步骤4:将所述隐藏状态Hw和Ha输入到IAN-LoT机制中,得到融合长尾分布特点的总的方面向量表示s;
步骤5:将所述总的方面向量s输入到融合上下文方面级语义信息的注意力机制,计算融合向量
Figure FDA00034457490900000115
步骤6:使用所述融合向量向量
Figure FDA00034457490900000116
作为预测的句子表示,如公式(1)所示,对于第j个方面类别:
Figure FDA00034457490900000117
其中,Wj∈Rd×1,bj为一个标量,
Figure FDA00034457490900000118
为第j个方面类别的预测结果,当大于分类阈值时,认为句子包含第j个方面类别。
2.根据权利要求1所述的方法,其特征在于,所述IAN-LoT机制中计算融合长尾分布特点的总的方面向量的步骤包括:
步骤41:对于输入的隐藏状态Hw和Ha计算交互注意力权重矩阵I∈Rn×m,如公式(2)所示:
Figure FDA00034457490900000119
步骤42:对所述交互注意力权重矩阵的每一行进行softmax计算,如公式(3)所示:
Figure FDA0003445749090000021
其中,kij为矩阵k∈Rn×m的第i行第j列元素,k表示文本对方面的注意力权重,Iij为矩阵I中第i行第j列的元素;
步骤43:然后对于矩阵k引入数据长尾分布特点,如公式(4)所示:
Figure FDA0003445749090000022
其中,
Figure FDA0003445749090000023
为引入长尾分布的文本对于每个方面的权重信息,β∈R1×m代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,m为方面类别的个数;
步骤44:对于
Figure FDA00034457490900000214
进行最大池化,得到融入长尾分布特点的细粒度的文本对于方面的权重信息IL,进而将此权重信息与方面类别的嵌入向量表示
Figure FDA0003445749090000024
相乘,得到最终的总的方面向量表示s,如公式(5)所示:
Figure FDA0003445749090000025
其中,s∈R1×d
3.根据权利要求2所述的方法,其特征在于,所述融合上下文方面级语义信息的融合向量
Figure FDA0003445749090000026
的计算过程包括:
将所述总的方面向量s与
Figure FDA0003445749090000027
作为输入,计算融合向量
Figure FDA0003445749090000028
如公式(6)所示:
Figure FDA0003445749090000029
其中,W∈Rn×1是每个单词与方面融合的可学习权重参数,
Figure FDA00034457490900000210
代表融合上下文方面级语义信息的向量,将
Figure FDA00034457490900000211
输入到所述注意力机制,为每个预定义的方面类别生成注意权重向量;如公式(7)所示,对于第j个方面类别:
Figure FDA00034457490900000212
其中Wj∈Rd×d,bj∈Rd以及uj∈Rd为可学习参数,β∈R1×m,代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,αj∈Rn是注意力权重向量。
4.根据权利要求3所述的方法,其特征在于,所述方法采用改进的A-DB损失函数训练识别模型,所述改进的A-DB损失函数改进了重平衡权重的计算方式和平滑函数,具体包括:
首先,在不考虑标签共现的情况下,
Figure FDA00034457490900000213
表示数据集中包含第j个方面类别的样例数;针对第j个方面类别的采样频率期望值为
Figure FDA0003445749090000031
然后按该实例包含的每个正类重复采样估算出样本采样频率PI,如公式(8)所示:
Figure FDA0003445749090000032
其中,
Figure FDA0003445749090000033
Figure FDA0003445749090000034
时表示第l个句子包含第j个方面类别aj
Figure FDA0003445749090000035
时则不包含;
重平衡权重
Figure FDA0003445749090000036
计算如公式(9)所示:
Figure FDA0003445749090000037
其中,γ为协调权重超参数;
所述平滑函数将
Figure FDA0003445749090000038
映射的公式为:
Figure FDA0003445749090000039
为了避免负标签的优势导致的少数类过度抑制,引入负类抑制超参数λ以及特定的偏置τj,如公式(11)所示:
Figure FDA00034457490900000310
其中ρj为第j个类别与总样本数量之比,η为比例超参数;
所述A-DB损失函数如公式(12)所示:
Figure FDA00034457490900000311
其中,
Figure FDA00034457490900000312
为网络输出的概率值。
5.根据权利要求1所述的方法,其特征在于,所述分类阈值为0.5。
6.一种长尾分布场景下的方面类别识别***,其特征在于,所述***包括:输入模块、文本方面嵌入模块、LSTM模块、IAN-LOT模块、融合模块、注意力机制模块和预测模块;
所述输入模块、文本方面嵌入模块、LSTM模块、IAN-LOT模块、融合模块、注意力机制模块和预测模块依次连接;
所述输入模块用于输入预先定义的方面类别组合和待识别的文本;所述文本方面嵌入模块用于构建词嵌入矩阵和方面类别嵌入矩阵,并将输入的预先定义的方面类别组合和待识别的文本映射到文本嵌入向量和方面嵌入向量;所述LSTM模块用于输出所述文本嵌入向量和方面嵌入向量的隐藏状态;所述IAN-LOT模块用于根据所述隐藏状态得到融合长尾分布特点的总的方面向量;所述融合模块用于融合上下文方面级语义信息,并生成融合向量;所述注意力机制模块根据所述融合向量为每个预定义的方面类别生成注意权重向量;所述预测模块用于根据所述注意权重向量完成方面类别识别的分类和预测。
7.根据权利要求6所述的***,其特征在于,所述***对数据集
Figure FDA0003445749090000041
Figure FDA0003445749090000042
中的N个句子进行方面类别的识别的工作过程包括:
其中,Sl={w1,w2,…,wn}为所述数据集D中的第l个句子,由n个词组成,wi表示所述第l个句子Sl中第i个词;
Figure FDA0003445749090000043
是所述第l个句子Sl对应的方面类别标签;
步骤1:预先定义m个方面类别,用A={a1,a2,…,am}表示,其中am为描述第m个方面的单词或词组,
Figure FDA0003445749090000044
步骤2:构建词嵌入矩阵E1∈R|V|×d,每个词wi通过所述词嵌入矩阵E1中映射为
Figure FDA0003445749090000045
其中|V|为所述数据集D中所有词的大小,d是词向量的维度;
同时构建方面类别嵌入矩阵E2∈Rm×d,每个词ai通过所述方面类别嵌入矩阵E2中映射为
Figure FDA0003445749090000046
分别得到文本嵌入向量
Figure FDA0003445749090000047
和方面嵌入向量
Figure FDA0003445749090000048
Figure FDA0003445749090000049
步骤3:将所述文本嵌入向量
Figure FDA00034457490900000410
与所述方面嵌入向量
Figure FDA00034457490900000411
输入到长短时记忆网络LSTM中,得到该句子的网络输出隐藏状态
Figure FDA00034457490900000412
Figure FDA00034457490900000413
Figure FDA00034457490900000414
步骤4:将所述隐藏状态Hw和Ha输入到IAN-LoT机制中,得到融合长尾分布特点的总的方面向量表示s;
步骤5:将所述总的方面向量s输入到融合上下文方面级语义信息的注意力机制,计算融合向量
Figure FDA00034457490900000415
步骤6:使用向量
Figure FDA00034457490900000416
作为预测的句子表示,如公式(1)所示,对于第j个方面类别:
Figure FDA00034457490900000417
其中,Wj∈Rd×1,bj为一个标量,
Figure FDA00034457490900000418
为第j个方面类别的预测结果,当大于分类阈值时,认为句子包含第j个方面类别。
8.根据权利要求7所述的***,其特征在于,所述IAN-LoT机制中计算融合长尾分布特点的总的方面向量的步骤包括:
步骤41:对于输入的隐藏状态Hw和Ha计算交互注意力权重矩阵I∈Rn×m,如公式(2)所示:
Figure FDA0003445749090000051
步骤42:对所述交互注意力权重矩阵的每一行进行softmax计算,如公式(3)所示:
Figure FDA0003445749090000052
其中,kij为矩阵k∈Rn×m的第i行第j列元素,k表示文本对方面的注意力权重,Iij为矩阵I中第i行第j列的元素;
步骤43:然后对于矩阵k引入数据长尾分布特点,如公式(4)所示:
Figure FDA0003445749090000053
其中,
Figure FDA0003445749090000054
为引入长尾分布的文本对于每个方面的权重信息,β∈R1×m代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,m为方面类别的个数;
步骤44:对于
Figure FDA0003445749090000055
进行最大池化,得到融入长尾分布特点的细粒度的文本对于方面的权重信息IL,进而将此权重信息与方面类别的嵌入向量表示
Figure FDA0003445749090000056
相乘,得到最终的总的方面向量表示s,如公式(5)所示:
Figure FDA0003445749090000057
其中,s∈R1×d
9.根据权利要求8所述的***,其特征在于,所述融合上下文方面级语义信息的向量表示
Figure FDA0003445749090000058
的计算过程包括:
将所述总的方面向量s与
Figure FDA0003445749090000059
作为输入,计算融合向量
Figure FDA00034457490900000510
如公式(6)所示:
Figure FDA00034457490900000511
其中,W∈Rn×1是每个单词与方面融合的可学习权重参数,
Figure FDA00034457490900000512
代表融合上下文方面级语义信息的向量,将
Figure FDA00034457490900000513
输入到所述注意力机制,为每个预定义的方面类别生成注意权重向量;如公式(7)所示,对于第j个方面类别:
Figure FDA00034457490900000514
其中Wj∈Rd×d,bj∈Rd以及uj∈Rd为可学习参数,β∈R1×m,代表预先学习到的长尾分布特点,为训练集中有效样本的数量倒数,αj∈Rn是注意力权重向量。
10.根据权利要求9所述的***,其特征在于,所述***采用改进的A-DB损失函数训练识别模型,所述改进的A-DB损失函数改进了重平衡权重的计算方式和平滑函数,具体包括:
首先,在不考虑标签共现的情况下,
Figure FDA0003445749090000061
表示数据集中包含第j个方面类别的样例数;针对第j个方面类别的采样频率期望值为
Figure FDA0003445749090000062
然后按该实例包含的每个正类重复采样估算出样本采样频率PI,如公式(8)所示:
Figure FDA0003445749090000063
其中,
Figure FDA0003445749090000064
Figure FDA0003445749090000065
时表示第l个句子包含第j个方面类别aj
Figure FDA0003445749090000066
时则不包含;
重平衡权重
Figure FDA0003445749090000067
计算如公式(9)所示:
Figure FDA0003445749090000068
其中,γ为协调权重超参数;
所述平滑函数将
Figure FDA0003445749090000069
映射的公式为:
Figure FDA00034457490900000610
为了避免负标签的优势导致的少数类过度抑制,引入负类抑制超参数λ以及特定的偏置τj,如公式(11)所示:
Figure FDA00034457490900000611
其中ρj为第j个类别与总样本数量之比,η为比例超参数;
所述A-DB损失函数如公式(12)所示:
Figure FDA00034457490900000612
其中,
Figure FDA00034457490900000613
为网络输出的概率值。
CN202111681644.8A 2021-12-30 2021-12-30 一种长尾分布场景下的方面类别识别方法及*** Active CN114297390B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111681644.8A CN114297390B (zh) 2021-12-30 2021-12-30 一种长尾分布场景下的方面类别识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111681644.8A CN114297390B (zh) 2021-12-30 2021-12-30 一种长尾分布场景下的方面类别识别方法及***

Publications (2)

Publication Number Publication Date
CN114297390A true CN114297390A (zh) 2022-04-08
CN114297390B CN114297390B (zh) 2024-04-02

Family

ID=80975589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111681644.8A Active CN114297390B (zh) 2021-12-30 2021-12-30 一种长尾分布场景下的方面类别识别方法及***

Country Status (1)

Country Link
CN (1) CN114297390B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115563284A (zh) * 2022-10-24 2023-01-03 重庆理工大学 一种基于语义的深度多实例弱监督文本分类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190143415A (ko) * 2018-06-20 2019-12-30 강원대학교산학협력단 자질 선별을 통한 고성능 기계독해 방법
CN111581981A (zh) * 2020-05-06 2020-08-25 西安交通大学 基于评价对象强化和带约束标签嵌入的方面类别检测***及方法
CN112199504A (zh) * 2020-10-30 2021-01-08 福州大学 一种融合外部知识与交互注意力机制的视角级文本情感分类方法及***
CN112686056A (zh) * 2021-03-22 2021-04-20 华南师范大学 一种情感分类方法
CN113222059A (zh) * 2021-05-28 2021-08-06 北京理工大学 利用协作式神经网络链的多标签情感分类方法
WO2021164199A1 (zh) * 2020-02-20 2021-08-26 齐鲁工业大学 基于多粒度融合模型的中文句子语义智能匹配方法及装置
US11194972B1 (en) * 2021-02-19 2021-12-07 Institute Of Automation, Chinese Academy Of Sciences Semantic sentiment analysis method fusing in-depth features and time sequence models

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190143415A (ko) * 2018-06-20 2019-12-30 강원대학교산학협력단 자질 선별을 통한 고성능 기계독해 방법
WO2021164199A1 (zh) * 2020-02-20 2021-08-26 齐鲁工业大学 基于多粒度融合模型的中文句子语义智能匹配方法及装置
CN111581981A (zh) * 2020-05-06 2020-08-25 西安交通大学 基于评价对象强化和带约束标签嵌入的方面类别检测***及方法
CN112199504A (zh) * 2020-10-30 2021-01-08 福州大学 一种融合外部知识与交互注意力机制的视角级文本情感分类方法及***
US11194972B1 (en) * 2021-02-19 2021-12-07 Institute Of Automation, Chinese Academy Of Sciences Semantic sentiment analysis method fusing in-depth features and time sequence models
CN112686056A (zh) * 2021-03-22 2021-04-20 华南师范大学 一种情感分类方法
CN113222059A (zh) * 2021-05-28 2021-08-06 北京理工大学 利用协作式神经网络链的多标签情感分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
王家乾;龚子寒;薛云;庞士冠;古东宏;: "基于混合多头注意力和胶囊网络的特定目标情感分析", 中文信息学报, no. 05, 15 May 2020 (2020-05-15) *
邓立明;魏晶晶;吴运兵;余小燕;廖祥文;: "基于知识图谱与循环注意力网络的视角级情感分析", 模式识别与人工智能, no. 06, 15 June 2020 (2020-06-15) *
黄露;周恩国;李岱峰;: "融合特定任务信息注意力机制的文本表示学习模型", 数据分析与知识发现, no. 09, 31 December 2020 (2020-12-31) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115563284A (zh) * 2022-10-24 2023-01-03 重庆理工大学 一种基于语义的深度多实例弱监督文本分类方法

Also Published As

Publication number Publication date
CN114297390B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
Ishaq et al. Aspect-based sentiment analysis using a hybridized approach based on CNN and GA
CN112084335B (zh) 一种基于信息融合的社交媒体用户账号分类方法
Ye et al. Advise: Symbolism and external knowledge for decoding advertisements
Jain et al. Sentiment classification of twitter data belonging to renewable energy using machine learning
Lopez Barbosa et al. Evaluating hotels rating prediction based on sentiment analysis services
Oraby et al. " How May I Help You?" Modeling Twitter Customer ServiceConversations Using Fine-Grained Dialogue Acts
Syed Applying sentiment and emotion analysis on brand tweets for digital marketing
CN112861541A (zh) 一种基于多特征融合的商品评论情感分析方法
CN112256866A (zh) 一种基于深度学习的文本细粒度情感分析方法
CN112307336A (zh) 热点资讯挖掘与预览方法、装置、计算机设备及存储介质
Ara et al. Understanding customer sentiment: Lexical analysis of restaurant reviews
CN112667813A (zh) 用于裁判文书的敏感身份信息的识别方法
Gandhi et al. Multimodal sentiment analysis: review, application domains and future directions
Nareshkumar et al. Interactive deep neural network for aspect-level sentiment analysis
Fouladfar et al. Predicting the helpfulness score of product reviews using an evidential score fusion method
CN114297390A (zh) 一种长尾分布场景下的方面类别识别方法及***
JP4054046B2 (ja) 意見性判定データベース作成方法及び装置及びプログラム及び意見性判定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
CN107291686B (zh) 情感标识的辨识方法和情感标识的辨识***
CN109902174B (zh) 一种基于方面依赖的记忆网络的情感极性检测方法
CN114969341A (zh) 一种针对餐饮行业评论的细粒度情感分析方法及装置
CN111340329A (zh) 演员评估方法、装置及电子设备
Plaza et al. EXIST 2024: sEXism Identification in Social neTworks and Memes
Tuah et al. Sentiment analysis of political party news on the online news portal detik. com using lstm and cnn
Li et al. Deep recommendation based on dual attention mechanism
Khaliq et al. Modeling sentiment terminologies: Target based polarity phenomena

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant