CN110263165A - 一种基于半监督学习的用户评论情感分析方法 - Google Patents

一种基于半监督学习的用户评论情感分析方法 Download PDF

Info

Publication number
CN110263165A
CN110263165A CN201910517475.0A CN201910517475A CN110263165A CN 110263165 A CN110263165 A CN 110263165A CN 201910517475 A CN201910517475 A CN 201910517475A CN 110263165 A CN110263165 A CN 110263165A
Authority
CN
China
Prior art keywords
module
training
encoder network
output
supplementary module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910517475.0A
Other languages
English (en)
Inventor
黄礼潇
常会友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910517475.0A priority Critical patent/CN110263165A/zh
Publication of CN110263165A publication Critical patent/CN110263165A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种基于半监督学习的用户评论情感分析方法,该方法采用预训练词嵌入层、双向LSTM层以及最大池化层,能有效提取语料的上下文语义特征。在无标注数据上训练被限制部分信息的辅助模块,使其输出尽可能接近有完全信息输入的主模块。由于主模块与辅助模块共享由Encoder网络输出的中间表征,对辅助模块的训练可增强Encoder网络的上下文语义特征提取能力。相比于现有的深度学习技术,能有效利用现实环境中大量存在的无标注数据,降低模型训练对标注数据的依赖,降低人工标注数据的成本。

Description

一种基于半监督学习的用户评论情感分析方法
技术领域
本发明涉及自然语言处理领域,更具体地,涉及一种基于半监督学习的用户评论情感分析方法。
背景技术
用户评论是企业竞争情报分析重要的数据源,这些评论中包含用户对产品各个方面的情感倾向,充分挖掘消费者的喜好偏爱对商家具有重要的意义。但是目前互联网上的信息量增长迅速,迫切需要借助自动化工具,在海量文本数据中迅速获取真正需要的情感信息,从而应对信息***带来的挑战。
情感分析,就是利用计算机学科的自然语言处理技术,对这些信息进行有效的分析和挖掘,识别出其情感趋向。传统的情感分析方法分为两种类型:无监督的文本情感分析和有监督的文本情感分析。无监督的文本情感分析主要是运用情感词的相关信息进行文本情感倾向判别,有监督的文本情感分析主要是运用朴素贝叶斯、支持向量机等有监督学习算法进行情感分类,一般是将文本集合划分为训练集和测试集,再对文本分词处理、删除停用词、选取特征,将文本表示成为文本向量的形式,最后训练分类器并进行分析。近年来深度学习的兴起为情感分析提供了新方法,大大提升情感分析的准确性。深度学习本质上是构建含有多隐层的机器学习架构模型,通过大规模数据进行训练,得到大量更具代表性的特征信息。从而对样本进行分类和预测,提高分类和预测的精度。
深度学习模型具有很强的表达能力,然而训练深度学习模型需要大量的标注数据,否则会出现过拟合现象。在现实应用中往往能容易地收集到大量无标注数据,而获取标注却需耗费人力、物力。“标注数据少,无标注数据多”的现象,使深度学习在用户评价情感分析问题的应用受到限制。
发明内容
本发明提供一种准确率较高基于半监督学习的用户评论情感分析方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于半监督学习的用户评论情感分析方法,其特征在于,包括以下步骤:
S1:搭建用于特征提取的神经网络Encoder;
S2:搭建用于情感分类的主模块C1;
S3:搭建用于辅助训练的辅助模块C2、C3、C4;辅助模块只在训练阶段使用;辅助模块从主模块预测中学习的过程,改善Encoder网络的特征提取能力;
S4:对收集到的数据集进行预处理;
S5:模型在小批量标注数据和无标注数据上交替训练;在标注数据上训练主模块C1和Encoder网络,在无标注数据上训练辅助模块C2、C3、C4和Encoder网络;
S6:使用训练完成的Encoder网络和主模块C1进行情感分析。
进一步地,所述步骤S1的具体过程是:
S11:搭建Encoder网络的第一层词嵌入层,并使用fastTest预训练词嵌入矩阵初始化词嵌入层的参数,将单词序列(w1,w2,……,wT)作为该层输入,将词嵌入后的词向量(v1,v2,……,vT)作为该层输出;
S12:搭建Encoder网络的第二层双向LSTM层,将词嵌入层的输出作为该层的输入,在每个时间步t,前向LSTM输出表示为后向LSTM输出表示为t∈[1,T];
S13:搭建Encoder网络的第三层最大池化层,将每个时间步的前向LSTM输出和后向LSTM输出连接起来,表示为t∈[1,T],将ht序列作为最大池化层的输入,获得单词序列的特征表示hl
进一步地,所述步骤S2的具体过程是:
主模块C1包括一个全连接层与一个softmax层,将Encoder网络中最大池化层的输出hl作为主模块C1的输入,softmax层的输出为主模块C1计算出的情感类别概率分布,在训练阶段,该概率分布用于计算损失函数,在实际预测阶段,将概率最大的情感类别作为情感分类结果。
进一步地,所述步骤S3的具体过程是:
S31:辅助模块C2包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出作为辅助模块C2的输入,softmax层的输出为辅助模块C2计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S32:辅助模块C3包括一个全连接层与一个softmax层,将T时刻Encoder网络中后向LSTM的输出作为辅助模块C3的输入,softmax层的输出为辅助模块C3计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S33:辅助模块C4包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出和后向LSTM的输出连接起来,表示为作为辅助模块C4的输入,softmax层的输出为辅助模块C4计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数。
进一步地,所述步骤S4的具体过程是:所使用的语料包括标注数据和无标注数据;无标注数据全部作为训练集,标注数据划分为训练集和测试集,对语料进行分词、去停用词和标点符号处理,并填充或截断成相同长度。
进一步地,所述步骤S5的具体过程是:
S51:使用标注数据在主模块C1上进行标准监督学习,将文本输入Encoder网络,得到中间表征,主模块C1利用中间表征进行预测,计算主模块预测结果与标注之间的交叉熵损失,并使用梯度下降算法更新主模块参数和Encoder网络参数;
S52:使用无标注数据训练模型,先将文本输入Encoder网络,得到中间表征,主模块C1和辅助模块分别利用中间表征和中间表征的子集进行预测,得出主模块C1和辅助模块的预测结果,将主模块预测结果作为伪标注,计算辅助模块预测结果与伪标注之间的交叉熵损失,并使用梯度下降算法更新辅助模块参数和Encoder网络参数,由于主模块与辅助模块共享Encoder网络,因此主模块的预测效果得到提升。
与现有技术相比,本发明技术方案的有益效果是:
本发明采用预训练词嵌入层、双向LSTM层以及最大池化层,能有效提取语料的上下文语义特征。在无标注数据上训练被限制部分信息的辅助模块,使其输出尽可能接近有完全信息输入的主模块。由于主模块与辅助模块共享由Encoder网络输出的中间表征,对辅助模块的训练可增强Encoder网络的上下文语义特征提取能力。相比于现有的深度学习技术,能有效利用现实环境中大量存在的无标注数据,降低模型训练对标注数据的依赖,降低人工标注数据的成本。
附图说明
图1为本发明流程示意图;
图2为本发明的Encoder网络结构示意图;
图3为本发明的预测模块结构示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施所采用的数据集是斯坦福大学提供的IMDB电影评论数据集,包含25000条训练数据和25000条测试数据,另外包含约50000条没有标注的辅助数据。训练集和测试集又分别包含12500条正例(正向评价pos)和12500负例(负向评价neg)
如图1所示,本发明具体方法步骤如下:
第一步,根据图2搭建用于特征提取的神经网络Encoder,使用fastTest预训练词嵌入矩阵初始化词嵌入层的参数。Encoder网络对文本数据的处理过程为:将单词序列(w1,w2,……,wT)输入Encoder网络。词嵌入层可将单词序列映射到稠密维度空间,得到词向量(v1,v2,……,vT)。将词向量(v1,v2,……,vT)输入双向LSTM层。每个时间步t,将前向LSTM输出表示为将后向LSTM输出表示为t∈[1,T]。将每个时间步的前向LSTM输出和后向LSTM输出连接起来,表示为t∈[1,T]。将ht序列输入最大池化层,输出上下文语义表征hl
第二步,根据图3搭建用于分类的主模块C1。主模块C1包括一个全连接层与一个softmax层,将Encoder网络中最大池化层的输出hl作为主模块C1的输入。softmax层的输出为主模块C1计算出的情感类别概率分布。计算公式如式(1):
其中,n为输出层神经元的个数,z是一个n维的向量,表示的是全连接层的输出(softmax层的输入)。P(i)表示是第i类的概率。
第三步,根据图3搭建用于辅助训练的辅助模块C2、C3、C4。
辅助模块C2包括一个全连接层与一个softmax层,将Encoder网络中T时刻前向LSTM的输出作为辅助模块C2的输入。softmax层的输出为辅助模块C2计算出的情感类别概率分布。计算公式如式(1)。
辅助模块C3包括一个全连接层与一个softmax层,将Encoder网络中T时刻后向LSTM的输出作为辅助模块C3的输入。softmax层的输出为辅助模块C3计算出的情感类别概率分布。计算公式如式(1)。
辅助模块C4包括一个全连接层与一个softmax层。将Encoder网络中T时刻前向LSTM的输出和后向LSTM的输出连接起来,表示为作为辅助模块C4的输入。softmax层的输出为辅助模块C4计算出的情感类别概率分布。计算公式如式(1)。
第四步,对收集到的数据集进行预处理。对原始文本语料做分词、去停用词和标点符号等预处理操作。根据文本语料中的词,制作词表,将语料的词序列转为索引序列。
第五步,使用预处理后的数据集对模型进行训练。
使用标注数据训练模型。将第四步得到的训练集索引序列输入Encoder网络,得到中间表征。主模块C1利用中间表征进行预测。计算主模块预测结果与标注之间的交叉熵损失,并使用梯度下降算法更新主模块参数和Encoder网络参数。交叉熵损失函数计算公式如式(2):
其中,指的是预测值(softmax层的输出)。y指的是真实值,是一个One-Hot编码后的n维向量。
使用无标注数据训练模型。将第四步得到的无标注数据索引序列输入Encoder网络,得到中间表征。主模块C1和辅助模块分别利用中间表征和中间表征的子集进行预测,得出主模块C1和辅助模块的预测结果。将主模块预测结果作为伪标注,计算辅助模块预测结果与伪标注之间的交叉熵损失,并使用梯度下降算法更新辅助模块参数和Encoder网络参数。交叉熵损失函数计算公式如式(3):
其中,指的是辅助模块预测值(辅助模块softmax层的输出)。y指的是伪标签,即主模块预测值(主模块softmax层的输出)。
模型在标注数据和无标注数据上进行交替训练。
第六步,训练完成的模型可用于情感分类。将待分类语句输入模型,主模块的输出即为情感类别概率分布。选择概率最大值对应下标,即可得到对该语句的分类结果。
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.一种基于半监督学习的用户评论情感分析方法,其特征在于,包括以下步骤:
S1:搭建用于特征提取的神经网络Encoder;
S2:搭建用于情感分类的主模块C1;
S3:搭建用于辅助训练的辅助模块C2、C3、C4;辅助模块只在训练阶段使用;辅助模块从主模块预测中学习的过程,改善Encoder网络的特征提取能力;
S4:对收集到的数据集进行预处理;
S5:模型在小批量标注数据和无标注数据上交替训练;在标注数据上训练主模块C1和Encoder网络,在无标注数据上训练辅助模块C2、C3、C4和Encoder网络;
S6:使用训练完成的Encoder网络和主模块C1进行情感分析。
2.根据权利要求1所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S1的具体过程是:
S11:搭建Encoder网络的第一层词嵌入层,并使用fastTest预训练词嵌入矩阵初始化词嵌入层的参数,将单词序列(w1,w2,......,wT)作为该层输入,将词嵌入后的词向量(v1,v2,......,vT)作为该层输出;
S12:搭建Encoder网络的第二层双向LSTM层,将词嵌入层的输出作为该层的输入,在每个时间步t,前向LSTM输出表示为后向LSTM输出表示为
S13:搭建Encoder网络的第三层最大池化层,将每个时间步的前向LSTM输出和后向LSTM输出连接起来,表示为将ht序列作为最大池化层的输入,获得单词序列的特征表示hl
3.根据权利要求2所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S2的具体过程是:
主模块C1包括一个全连接层与一个softmax层,将Encoder网络中最大池化层的输出hl作为主模块C1的输入,softmax层的输出为主模块C1计算出的情感类别概率分布,在训练阶段,该概率分布用于计算损失函数,在实际预测阶段,将概率最大的情感类别作为情感分类结果。
4.根据权利要求3所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S3的具体过程是:
S31:辅助模块C2包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出作为辅助模块C2的输入,softmax层的输出为辅助模块C2计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S32:辅助模块C3包括一个全连接层与一个softmax层,将T时刻Encoder网络中后向LSTM的输出作为辅助模块C3的输入,softmax层的输出为辅助模块C3计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数;
S33:辅助模块C4包括一个全连接层与一个softmax层,将T时刻Encoder网络中前向LSTM的输出和后向LSTM的输出连接起来,表示为作为辅助模块C4的输入,softmax层的输出为辅助模块C4计算出的情感类别概率分布,该概率分布仅用于在训练阶段计算损失函数。
5.根据权利要求4所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S4的具体过程是:所使用的语料包括标注数据和无标注数据;无标注数据全部作为训练集,标注数据划分为训练集和测试集,对语料进行分词、去停用词和标点符号处理,并填充或截断成相同长度。
6.根据权利要求5所述的基于半监督学习的用户评论情感分析方法,其特征在于,所述步骤S5的具体过程是:
S51:使用标注数据在主模块C1上进行标准监督学习,将文本输入Encoder网络,得到中间表征,主模块C1利用中间表征进行预测,计算主模块预测结果与标注之间的交叉熵损失,并使用梯度下降算法更新主模块参数和Encoder网络参数;
S52:使用无标注数据训练模型,先将文本输入Encoder网络,得到中间表征,主模块C1和辅助模块分别利用中间表征和中间表征的子集进行预测,得出主模块C1和辅助模块的预测结果,将主模块预测结果作为伪标注,计算辅助模块预测结果与伪标注之间的交叉熵损失,并使用梯度下降算法更新辅助模块参数和Encoder网络参数,由于主模块与辅助模块共享Encoder网络,因此主模块的预测效果得到提升。
CN201910517475.0A 2019-06-14 2019-06-14 一种基于半监督学习的用户评论情感分析方法 Pending CN110263165A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910517475.0A CN110263165A (zh) 2019-06-14 2019-06-14 一种基于半监督学习的用户评论情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910517475.0A CN110263165A (zh) 2019-06-14 2019-06-14 一种基于半监督学习的用户评论情感分析方法

Publications (1)

Publication Number Publication Date
CN110263165A true CN110263165A (zh) 2019-09-20

Family

ID=67918448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910517475.0A Pending CN110263165A (zh) 2019-06-14 2019-06-14 一种基于半监督学习的用户评论情感分析方法

Country Status (1)

Country Link
CN (1) CN110263165A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930068A (zh) * 2019-12-10 2020-03-27 安徽新知数媒信息科技有限公司 传统读物可视化体验指数预测方法
CN111145787A (zh) * 2019-12-26 2020-05-12 太原理工大学 一种基于主辅网络的语音情感特征融合方法及***
CN111737581A (zh) * 2020-07-24 2020-10-02 网思分析(研究与技术)有限公司 一种针对特定方面的情感分析的半监督多任务学习模型
WO2021132797A1 (ko) * 2019-12-27 2021-07-01 한국과학기술원 반지도 학습 기반 단어 단위 감정 임베딩과 장단기 기억 모델을 이용한 대화 내에서 발화의 감정 분류 방법
WO2022062404A1 (zh) * 2020-09-28 2022-03-31 平安科技(深圳)有限公司 文本分类模型的训练方法、装置、设备及存储介质
CN114444481A (zh) * 2022-01-27 2022-05-06 四川大学 一种新闻评论的情感分析与生成方法
CN114970553A (zh) * 2022-07-29 2022-08-30 北京道达天际科技股份有限公司 基于大规模无标注语料的情报分析方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
CN108920451A (zh) * 2018-06-08 2018-11-30 天津大学 基于动态阈值和多分类器的文本情感分析方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
CN108920451A (zh) * 2018-06-08 2018-11-30 天津大学 基于动态阈值和多分类器的文本情感分析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KEVIN CLARK 等: "Semi-Supervised Sequence Modeling with Cross-View Training", 《PROCEEDINGS OF THE 2018 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930068A (zh) * 2019-12-10 2020-03-27 安徽新知数媒信息科技有限公司 传统读物可视化体验指数预测方法
CN110930068B (zh) * 2019-12-10 2021-03-26 安徽新知数媒信息科技有限公司 传统读物可视化体验指数预测方法
CN111145787A (zh) * 2019-12-26 2020-05-12 太原理工大学 一种基于主辅网络的语音情感特征融合方法及***
CN111145787B (zh) * 2019-12-26 2023-03-14 太原理工大学 一种基于主辅网络的语音情感特征融合方法及***
WO2021132797A1 (ko) * 2019-12-27 2021-07-01 한국과학기술원 반지도 학습 기반 단어 단위 감정 임베딩과 장단기 기억 모델을 이용한 대화 내에서 발화의 감정 분류 방법
CN111737581A (zh) * 2020-07-24 2020-10-02 网思分析(研究与技术)有限公司 一种针对特定方面的情感分析的半监督多任务学习模型
WO2022062404A1 (zh) * 2020-09-28 2022-03-31 平安科技(深圳)有限公司 文本分类模型的训练方法、装置、设备及存储介质
CN114444481A (zh) * 2022-01-27 2022-05-06 四川大学 一种新闻评论的情感分析与生成方法
CN114444481B (zh) * 2022-01-27 2023-04-07 四川大学 一种新闻评论的情感分析与生成方法
CN114970553A (zh) * 2022-07-29 2022-08-30 北京道达天际科技股份有限公司 基于大规模无标注语料的情报分析方法、装置及电子设备
CN114970553B (zh) * 2022-07-29 2022-11-08 北京道达天际科技股份有限公司 基于大规模无标注语料的情报分析方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN110263165A (zh) 一种基于半监督学习的用户评论情感分析方法
CN110717334B (zh) 基于bert模型和双通道注意力的文本情感分析方法
CN113254599B (zh) 一种基于半监督学习的多标签微博文本分类方法
CN109376242B (zh) 基于循环神经网络变体和卷积神经网络的文本分类方法
CN108280064A (zh) 分词、词性标注、实体识别及句法分析的联合处理方法
CN110569508A (zh) 融合词性和自注意力机制的情感倾向性分类方法及***
CN108460089A (zh) 基于Attention神经网络的多元特征融合中文文本分类方法
CN110298037A (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN110765260A (zh) 一种基于卷积神经网络与联合注意力机制的信息推荐方法
CN110134757A (zh) 一种基于多头注意力机制的事件论元角色抽取方法
CN110502753A (zh) 一种基于语义增强的深度学习情感分析模型及其分析方法
CN110516245A (zh) 细粒度情感分析方法、装置、计算机设备及存储介质
CN109558487A (zh) 基于层次性多注意力网络的文档分类方法
CN107590134A (zh) 文本情感分类方法、存储介质及计算机
CN107679110A (zh) 结合文本分类与图片属性提取完善知识图谱的方法及装置
CN107978373A (zh) 一种基于共训练的半监督生物医学事件抽取方法
CN110245229A (zh) 一种基于数据增强的深度学习主题情感分类方法
CN106202010A (zh) 基于深度神经网络构建法律文本语法树的方法和装置
CN105512209A (zh) 一种基于特征自动学习的生物医学事件触发词识别方法
CN107943784A (zh) 基于生成对抗网络的关系抽取方法
Wahid et al. Cricket sentiment analysis from Bangla text using recurrent neural network with long short term memory model
CN106997341A (zh) 一种创新方案匹配方法、装置、服务器及***
Zhang et al. A BERT fine-tuning model for targeted sentiment analysis of Chinese online course reviews
CN112395393A (zh) 一种基于多任务多示例的远程监督关系抽取方法
CN108647191A (zh) 一种基于有监督情感文本和词向量的情感词典构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190920