CN110263165A - 一种基于半监督学习的用户评论情感分析方法 - Google Patents
一种基于半监督学习的用户评论情感分析方法 Download PDFInfo
- Publication number
- CN110263165A CN110263165A CN201910517475.0A CN201910517475A CN110263165A CN 110263165 A CN110263165 A CN 110263165A CN 201910517475 A CN201910517475 A CN 201910517475A CN 110263165 A CN110263165 A CN 110263165A
- Authority
- CN
- China
- Prior art keywords
- module
- training
- encoder network
- output
- supplementary module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 25
- 230000013016 learning Effects 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000012512 characterization method Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 230000002996 emotional effect Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000000153 supplemental effect Effects 0.000 claims description 3
- 230000008451 emotion Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于半监督学习的用户评论情感分析方法,该方法采用预训练词嵌入层、双向LSTM层以及最大池化层,能有效提取语料的上下文语义特征。在无标注数据上训练被限制部分信息的辅助模块,使其输出尽可能接近有完全信息输入的主模块。由于主模块与辅助模块共享由Encoder网络输出的中间表征,对辅助模块的训练可增强Encoder网络的上下文语义特征提取能力。相比于现有的深度学习技术,能有效利用现实环境中大量存在的无标注数据,降低模型训练对标注数据的依赖,降低人工标注数据的成本。
Description
技术领域
本发明涉及自然语言处理领域,更具体地,涉及一种基于半监督学习的用户评论情感分析方法。
背景技术
用户评论是企业竞争情报分析重要的数据源,这些评论中包含用户对产品各个方面的情感倾向,充分挖掘消费者的喜好偏爱对商家具有重要的意义。但是目前互联网上的信息量增长迅速,迫切需要借助自动化工具,在海量文本数据中迅速获取真正需要的情感信息,从而应对信息***带来的挑战。
情感分析,就是利用计算机学科的自然语言处理技术,对这些信息进行有效的分析和挖掘,识别出其情感趋向。传统的情感分析方法分为两种类型:无监督的文本情感分析和有监督的文本情感分析。无监督的文本情感分析主要是运用情感词的相关信息进行文本情感倾向判别,有监督的文本情感分析主要是运用朴素贝叶斯、支持向量机等有监督学习算法进行情感分类,一般是将文本集合划分为训练集和测试集,再对文本分词处理、删除停用词、选取特征,将文本表示成为文本向量的形式,最后训练分类器并进行分析。近年来深度学习的兴起为情感分析提供了新方法,大大提升情感分析的准确性。深度学习本质上是构建含有多隐层的机器学习架构模型,通过大规模数据进行训练,得到大量更具代表性的特征信息。从而对样本进行分类和预测,提高分类和预测的精度。
深度学习模型具有很强的表达能力,然而训练深度学习模型需要大量的标注数据,否则会出现过拟合现象。在现实应用中往往能容易地收集到大量无标注数据,而获取标注却需耗费人力、物力。“标注数据少,无标注数据多”的现象,使深度学习在用户评价情感分析问题的应用受到限制。
发明内容
本发明提供一种准确率较高基于半监督学习的用户评论情感分析方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于半监督学习的用户评论情感分析方法,其特征在于,包括以下步骤:
S1:搭建用于特征提取的神经网络Encoder;
S2:搭建用于情感分类的主模块C1;
S3:搭建用于辅助训练的辅助模块C2、C3、C4;辅助模块只在训练阶段使用;辅助模块从主模块预测中学习的过程,改善Encoder网络的特征提取能力;
S4:对收集到的数据集进行预处理;
S5:模型在小批量标注数据和无标注数据上交替训练;在标注数据上训练主模块C1和Encoder网络,在无标注数据上训练辅助模块C2、C3、C4和Encoder网络;
S6:使用训练完成的Encoder网络和主模块C1进行情感分析。
进一步地,所述步骤S1的具体过程是:
S11:搭建Encoder网络的第一层词嵌入层,并使用fastTest预训练词嵌入矩阵初始化词嵌入层的参数,将单词序列(w1,w2,……,wT)作为该层输入,将词嵌入后的词向量(v1,v2,……,vT)作为该层输出;
S12:搭建Encoder网络的第二层双向LSTM层,将词嵌入层的输出作为该层的输入,在每个时间步t,前向LSTM输出表示为后向LSTM输出表示为t∈[1,T];
S13:搭建Encoder网络的第三层最大池化层,将每个时间步的前向LSTM输出和后向LSTM输出连接起来,表示为t∈[1,T],将ht序列作为最大池化层的输入,获得单词序列的特征表示hl。
进一步地,所述步骤S2的具体过程是:
主模块C1包括一个全连接层与一个softmax层,将Encoder网络中最大池化层的输出hl作为主模块C1的输入,softmax层的输出为主模块C1计算出的情感类别概率分布,在训练阶段,该概率分布用于计算损失函数,在实际预测阶段,将概率最大的情感类别作为情感分类结果。
进一步地,所述步骤S3的具体过程是:
S31:辅助模块C2包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出作为辅助模块C2的输入,softmax层的输出为辅助模块C2计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S32:辅助模块C3包括一个全连接层与一个softmax层,将T时刻Encoder网络中后向LSTM的输出作为辅助模块C3的输入,softmax层的输出为辅助模块C3计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S33:辅助模块C4包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出和后向LSTM的输出连接起来,表示为作为辅助模块C4的输入,softmax层的输出为辅助模块C4计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数。
进一步地,所述步骤S4的具体过程是:所使用的语料包括标注数据和无标注数据;无标注数据全部作为训练集,标注数据划分为训练集和测试集,对语料进行分词、去停用词和标点符号处理,并填充或截断成相同长度。
进一步地,所述步骤S5的具体过程是:
S51:使用标注数据在主模块C1上进行标准监督学习,将文本输入Encoder网络,得到中间表征,主模块C1利用中间表征进行预测,计算主模块预测结果与标注之间的交叉熵损失,并使用梯度下降算法更新主模块参数和Encoder网络参数;
S52:使用无标注数据训练模型,先将文本输入Encoder网络,得到中间表征,主模块C1和辅助模块分别利用中间表征和中间表征的子集进行预测,得出主模块C1和辅助模块的预测结果,将主模块预测结果作为伪标注,计算辅助模块预测结果与伪标注之间的交叉熵损失,并使用梯度下降算法更新辅助模块参数和Encoder网络参数,由于主模块与辅助模块共享Encoder网络,因此主模块的预测效果得到提升。
与现有技术相比,本发明技术方案的有益效果是:
本发明采用预训练词嵌入层、双向LSTM层以及最大池化层,能有效提取语料的上下文语义特征。在无标注数据上训练被限制部分信息的辅助模块,使其输出尽可能接近有完全信息输入的主模块。由于主模块与辅助模块共享由Encoder网络输出的中间表征,对辅助模块的训练可增强Encoder网络的上下文语义特征提取能力。相比于现有的深度学习技术,能有效利用现实环境中大量存在的无标注数据,降低模型训练对标注数据的依赖,降低人工标注数据的成本。
附图说明
图1为本发明流程示意图;
图2为本发明的Encoder网络结构示意图;
图3为本发明的预测模块结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施所采用的数据集是斯坦福大学提供的IMDB电影评论数据集,包含25000条训练数据和25000条测试数据,另外包含约50000条没有标注的辅助数据。训练集和测试集又分别包含12500条正例(正向评价pos)和12500负例(负向评价neg)
如图1所示,本发明具体方法步骤如下:
第一步,根据图2搭建用于特征提取的神经网络Encoder,使用fastTest预训练词嵌入矩阵初始化词嵌入层的参数。Encoder网络对文本数据的处理过程为:将单词序列(w1,w2,……,wT)输入Encoder网络。词嵌入层可将单词序列映射到稠密维度空间,得到词向量(v1,v2,……,vT)。将词向量(v1,v2,……,vT)输入双向LSTM层。每个时间步t,将前向LSTM输出表示为将后向LSTM输出表示为t∈[1,T]。将每个时间步的前向LSTM输出和后向LSTM输出连接起来,表示为t∈[1,T]。将ht序列输入最大池化层,输出上下文语义表征hl。
第二步,根据图3搭建用于分类的主模块C1。主模块C1包括一个全连接层与一个softmax层,将Encoder网络中最大池化层的输出hl作为主模块C1的输入。softmax层的输出为主模块C1计算出的情感类别概率分布。计算公式如式(1):
其中,n为输出层神经元的个数,z是一个n维的向量,表示的是全连接层的输出(softmax层的输入)。P(i)表示是第i类的概率。
第三步,根据图3搭建用于辅助训练的辅助模块C2、C3、C4。
辅助模块C2包括一个全连接层与一个softmax层,将Encoder网络中T时刻前向LSTM的输出作为辅助模块C2的输入。softmax层的输出为辅助模块C2计算出的情感类别概率分布。计算公式如式(1)。
辅助模块C3包括一个全连接层与一个softmax层,将Encoder网络中T时刻后向LSTM的输出作为辅助模块C3的输入。softmax层的输出为辅助模块C3计算出的情感类别概率分布。计算公式如式(1)。
辅助模块C4包括一个全连接层与一个softmax层。将Encoder网络中T时刻前向LSTM的输出和后向LSTM的输出连接起来,表示为作为辅助模块C4的输入。softmax层的输出为辅助模块C4计算出的情感类别概率分布。计算公式如式(1)。
第四步,对收集到的数据集进行预处理。对原始文本语料做分词、去停用词和标点符号等预处理操作。根据文本语料中的词,制作词表,将语料的词序列转为索引序列。
第五步,使用预处理后的数据集对模型进行训练。
使用标注数据训练模型。将第四步得到的训练集索引序列输入Encoder网络,得到中间表征。主模块C1利用中间表征进行预测。计算主模块预测结果与标注之间的交叉熵损失,并使用梯度下降算法更新主模块参数和Encoder网络参数。交叉熵损失函数计算公式如式(2):
其中,指的是预测值(softmax层的输出)。y指的是真实值,是一个One-Hot编码后的n维向量。
使用无标注数据训练模型。将第四步得到的无标注数据索引序列输入Encoder网络,得到中间表征。主模块C1和辅助模块分别利用中间表征和中间表征的子集进行预测,得出主模块C1和辅助模块的预测结果。将主模块预测结果作为伪标注,计算辅助模块预测结果与伪标注之间的交叉熵损失,并使用梯度下降算法更新辅助模块参数和Encoder网络参数。交叉熵损失函数计算公式如式(3):
其中,指的是辅助模块预测值(辅助模块softmax层的输出)。y指的是伪标签,即主模块预测值(主模块softmax层的输出)。
模型在标注数据和无标注数据上进行交替训练。
第六步,训练完成的模型可用于情感分类。将待分类语句输入模型,主模块的输出即为情感类别概率分布。选择概率最大值对应下标,即可得到对该语句的分类结果。
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于半监督学习的用户评论情感分析方法,其特征在于,包括以下步骤:
S1:搭建用于特征提取的神经网络Encoder;
S2:搭建用于情感分类的主模块C1;
S3:搭建用于辅助训练的辅助模块C2、C3、C4;辅助模块只在训练阶段使用;辅助模块从主模块预测中学习的过程,改善Encoder网络的特征提取能力;
S4:对收集到的数据集进行预处理;
S5:模型在小批量标注数据和无标注数据上交替训练;在标注数据上训练主模块C1和Encoder网络,在无标注数据上训练辅助模块C2、C3、C4和Encoder网络;
S6:使用训练完成的Encoder网络和主模块C1进行情感分析。
2.根据权利要求1所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S1的具体过程是:
S11:搭建Encoder网络的第一层词嵌入层,并使用fastTest预训练词嵌入矩阵初始化词嵌入层的参数,将单词序列(w1,w2,......,wT)作为该层输入,将词嵌入后的词向量(v1,v2,......,vT)作为该层输出;
S12:搭建Encoder网络的第二层双向LSTM层,将词嵌入层的输出作为该层的输入,在每个时间步t,前向LSTM输出表示为后向LSTM输出表示为
S13:搭建Encoder网络的第三层最大池化层,将每个时间步的前向LSTM输出和后向LSTM输出连接起来,表示为将ht序列作为最大池化层的输入,获得单词序列的特征表示hl。
3.根据权利要求2所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S2的具体过程是:
主模块C1包括一个全连接层与一个softmax层,将Encoder网络中最大池化层的输出hl作为主模块C1的输入,softmax层的输出为主模块C1计算出的情感类别概率分布,在训练阶段,该概率分布用于计算损失函数,在实际预测阶段,将概率最大的情感类别作为情感分类结果。
4.根据权利要求3所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S3的具体过程是:
S31:辅助模块C2包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出作为辅助模块C2的输入,softmax层的输出为辅助模块C2计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S32:辅助模块C3包括一个全连接层与一个softmax层,将T时刻Encoder网络中后向LSTM的输出作为辅助模块C3的输入,softmax层的输出为辅助模块C3计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S33:辅助模块C4包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出和后向LSTM的输出连接起来,表示为作为辅助模块C4的输入,softmax层的输出为辅助模块C4计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数。
5.根据权利要求4所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S4的具体过程是:所使用的语料包括标注数据和无标注数据;无标注数据全部作为训练集,标注数据划分为训练集和测试集,对语料进行分词、去停用词和标点符号处理,并填充或截断成相同长度。
6.根据权利要求5所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S5的具体过程是:
S51:使用标注数据在主模块C1上进行标准监督学习,将文本输入Encoder网络,得到中间表征,主模块C1利用中间表征进行预测,计算主模块预测结果与标注之间的交叉熵损失,并使用梯度下降算法更新主模块参数和Encoder网络参数;
S52:使用无标注数据训练模型,先将文本输入Encoder网络,得到中间表征,主模块C1和辅助模块分别利用中间表征和中间表征的子集进行预测,得出主模块C1和辅助模块的预测结果,将主模块预测结果作为伪标注,计算辅助模块预测结果与伪标注之间的交叉熵损失,并使用梯度下降算法更新辅助模块参数和Encoder网络参数,由于主模块与辅助模块共享Encoder网络,因此主模块的预测效果得到提升。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910517475.0A CN110263165A (zh) | 2019-06-14 | 2019-06-14 | 一种基于半监督学习的用户评论情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910517475.0A CN110263165A (zh) | 2019-06-14 | 2019-06-14 | 一种基于半监督学习的用户评论情感分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110263165A true CN110263165A (zh) | 2019-09-20 |
Family
ID=67918448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910517475.0A Pending CN110263165A (zh) | 2019-06-14 | 2019-06-14 | 一种基于半监督学习的用户评论情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110263165A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930068A (zh) * | 2019-12-10 | 2020-03-27 | 安徽新知数媒信息科技有限公司 | 传统读物可视化体验指数预测方法 |
CN111145787A (zh) * | 2019-12-26 | 2020-05-12 | 太原理工大学 | 一种基于主辅网络的语音情感特征融合方法及*** |
CN111737581A (zh) * | 2020-07-24 | 2020-10-02 | 网思分析(研究与技术)有限公司 | 一种针对特定方面的情感分析的半监督多任务学习模型 |
WO2021132797A1 (ko) * | 2019-12-27 | 2021-07-01 | 한국과학기술원 | 반지도 학습 기반 단어 단위 감정 임베딩과 장단기 기억 모델을 이용한 대화 내에서 발화의 감정 분류 방법 |
WO2022062404A1 (zh) * | 2020-09-28 | 2022-03-31 | 平安科技(深圳)有限公司 | 文本分类模型的训练方法、装置、设备及存储介质 |
CN114444481A (zh) * | 2022-01-27 | 2022-05-06 | 四川大学 | 一种新闻评论的情感分析与生成方法 |
CN114970553A (zh) * | 2022-07-29 | 2022-08-30 | 北京道达天际科技股份有限公司 | 基于大规模无标注语料的情报分析方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108920451A (zh) * | 2018-06-08 | 2018-11-30 | 天津大学 | 基于动态阈值和多分类器的文本情感分析方法 |
-
2019
- 2019-06-14 CN CN201910517475.0A patent/CN110263165A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108920451A (zh) * | 2018-06-08 | 2018-11-30 | 天津大学 | 基于动态阈值和多分类器的文本情感分析方法 |
Non-Patent Citations (1)
Title |
---|
KEVIN CLARK 等: "Semi-Supervised Sequence Modeling with Cross-View Training", 《PROCEEDINGS OF THE 2018 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930068A (zh) * | 2019-12-10 | 2020-03-27 | 安徽新知数媒信息科技有限公司 | 传统读物可视化体验指数预测方法 |
CN110930068B (zh) * | 2019-12-10 | 2021-03-26 | 安徽新知数媒信息科技有限公司 | 传统读物可视化体验指数预测方法 |
CN111145787A (zh) * | 2019-12-26 | 2020-05-12 | 太原理工大学 | 一种基于主辅网络的语音情感特征融合方法及*** |
CN111145787B (zh) * | 2019-12-26 | 2023-03-14 | 太原理工大学 | 一种基于主辅网络的语音情感特征融合方法及*** |
WO2021132797A1 (ko) * | 2019-12-27 | 2021-07-01 | 한국과학기술원 | 반지도 학습 기반 단어 단위 감정 임베딩과 장단기 기억 모델을 이용한 대화 내에서 발화의 감정 분류 방법 |
CN111737581A (zh) * | 2020-07-24 | 2020-10-02 | 网思分析(研究与技术)有限公司 | 一种针对特定方面的情感分析的半监督多任务学习模型 |
WO2022062404A1 (zh) * | 2020-09-28 | 2022-03-31 | 平安科技(深圳)有限公司 | 文本分类模型的训练方法、装置、设备及存储介质 |
CN114444481A (zh) * | 2022-01-27 | 2022-05-06 | 四川大学 | 一种新闻评论的情感分析与生成方法 |
CN114444481B (zh) * | 2022-01-27 | 2023-04-07 | 四川大学 | 一种新闻评论的情感分析与生成方法 |
CN114970553A (zh) * | 2022-07-29 | 2022-08-30 | 北京道达天际科技股份有限公司 | 基于大规模无标注语料的情报分析方法、装置及电子设备 |
CN114970553B (zh) * | 2022-07-29 | 2022-11-08 | 北京道达天际科技股份有限公司 | 基于大规模无标注语料的情报分析方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110263165A (zh) | 一种基于半监督学习的用户评论情感分析方法 | |
CN110717334B (zh) | 基于bert模型和双通道注意力的文本情感分析方法 | |
CN113254599B (zh) | 一种基于半监督学习的多标签微博文本分类方法 | |
CN109376242B (zh) | 基于循环神经网络变体和卷积神经网络的文本分类方法 | |
CN108280064A (zh) | 分词、词性标注、实体识别及句法分析的联合处理方法 | |
CN110569508A (zh) | 融合词性和自注意力机制的情感倾向性分类方法及*** | |
CN108460089A (zh) | 基于Attention神经网络的多元特征融合中文文本分类方法 | |
CN110298037A (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN110765260A (zh) | 一种基于卷积神经网络与联合注意力机制的信息推荐方法 | |
CN110134757A (zh) | 一种基于多头注意力机制的事件论元角色抽取方法 | |
CN110502753A (zh) | 一种基于语义增强的深度学习情感分析模型及其分析方法 | |
CN110516245A (zh) | 细粒度情感分析方法、装置、计算机设备及存储介质 | |
CN109558487A (zh) | 基于层次性多注意力网络的文档分类方法 | |
CN107590134A (zh) | 文本情感分类方法、存储介质及计算机 | |
CN107679110A (zh) | 结合文本分类与图片属性提取完善知识图谱的方法及装置 | |
CN107978373A (zh) | 一种基于共训练的半监督生物医学事件抽取方法 | |
CN110245229A (zh) | 一种基于数据增强的深度学习主题情感分类方法 | |
CN106202010A (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN105512209A (zh) | 一种基于特征自动学习的生物医学事件触发词识别方法 | |
CN107943784A (zh) | 基于生成对抗网络的关系抽取方法 | |
Wahid et al. | Cricket sentiment analysis from Bangla text using recurrent neural network with long short term memory model | |
CN106997341A (zh) | 一种创新方案匹配方法、装置、服务器及*** | |
Zhang et al. | A BERT fine-tuning model for targeted sentiment analysis of Chinese online course reviews | |
CN112395393A (zh) | 一种基于多任务多示例的远程监督关系抽取方法 | |
CN108647191A (zh) | 一种基于有监督情感文本和词向量的情感词典构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190920 |