CN110532549A - 一种基于双通道深度学习模型的文本情感分析方法 - Google Patents

一种基于双通道深度学习模型的文本情感分析方法 Download PDF

Info

Publication number
CN110532549A
CN110532549A CN201910741879.8A CN201910741879A CN110532549A CN 110532549 A CN110532549 A CN 110532549A CN 201910741879 A CN201910741879 A CN 201910741879A CN 110532549 A CN110532549 A CN 110532549A
Authority
CN
China
Prior art keywords
text
vector
word
blstm
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910741879.8A
Other languages
English (en)
Inventor
赵建视
梁俊卿
吕笑琳
董文瑾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao University of Technology
Original Assignee
Qingdao University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao University of Technology filed Critical Qingdao University of Technology
Priority to CN201910741879.8A priority Critical patent/CN110532549A/zh
Publication of CN110532549A publication Critical patent/CN110532549A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明针对现有深度学习模型在文本情感分析任务中将词作为基本单元,忽略了词的内部结构信息,视角单一、无法充分提取文本特征的问题,提出了一种基于双通道深度学习模型的文本情感分析方法。首先,通过词嵌入和字嵌入的方式将文本转化为词向量和字向量。其次,把词向量和字向量分别作为BLSTM的两个输入通道以充分提取文本特征,同时,在两个通道分别引入注意力机制以突出重要信息对模型的贡献。最后,引入Merge层,结合两种特征表示进行联合学习。实验结果表明所提方法能够有效提高文本情感分析任务的性能,其准确率、召回率以及F1值相比单通道方法、传统机器学习算法以及其他深度学习模型都有显著的提升。

Description

一种基于双通道深度学习模型的文本情感分析方法
技术领域
本发明属于计算机技术人工智能方向自然语言处理领域,具体涉及一种基于双通道深度学习模型的文本情感分析方法。
背景技术
随着Web2.0技术的快速发展,用户通过社交网络、博客、在线门户网站等产生大量有情感的评论、建议、评级等文本信息。这些文本信息通常涉及到社会热点问题、商品服务、产品等多个领域。对这些信息进行分析、归纳和推理,将对市场调研、用户分析、网络舆情发现及预警带来巨大的社会意义和商业价值。因此,挖掘文本的情感信息,一直是近年来工业界和学术界研究的热点。
文本情感分析,又称为意见挖掘,是指通过文本处理、计算、分析等从用户的描述中自动提取或者分类出用户的情感倾向性的过程。情感分析广泛应用于网络舆情分析,产品或服务评论挖掘等领域。目前,文本情感分析的方法可以分为三类,基于情感词典的方法、基于传统机器学习的方法以及基于深度学习的方法。其中,基于情感词典的方法需要人工标注出情感词典,而且针对不同领域的文本,需要构建不同的情感词典,需要耗费大量的人力,又由于新词的不断出现,导致情感词典的维护成本过于昂贵;基于传统机器学习的方法,比如支持向量机(Support Vector Machine,SVM)、朴素贝叶斯(Naive Bayes,NB)和最大熵(Maximum Entropy,ME)等需要人工选择特征,而情感分析的结果受到人工特征选择的影响,因此该方法的可移植性较低;基于深度学习的方法,主要指运用卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent Neural Network,RNN)等深度神经网络来实现分类,这种方法可以处理并运用海量的文本数据,实现全自动地捕捉深层次的语义特征,不需要人工构建和维护情感词典,也不需要人工构造特征,从而实现端到端的文本情感分析任务。然而,现有的深度学习模型在中文文本情感分析任务中基本上都是基于词的网络,即将词作为基本处理单元,该网络主要考虑了词的上下文语境,但忽略了词的内部结构信息,特征提取视角单一,导致模型对文本的特征提取能力不足。
本发明提出了一种基于双通道深度学习模型的文本情感分析方法,构建了一种双通道双向长短期记忆网络(Bidirectional Long Short-Term Memory,BLSTM)和注意力机制模型(Dual-Channel BLSTM and Attention mechanism,DC-BLSTM-A),首先利用Word2Vec训练词向量和字向量,将文本转化为词向量矩阵和字向量矩阵的形式;然后将其作为两个通道的输入数据,利用BLSTM从词向量和字向量两个角度进行特征提取;同时在两个通道分别引入注意力机制以突出文本重要特征信息;最后将两个通道提取到的文本特征进行合并,并通过分类器进行文本情感分析。该方法利用BLSTM从词向量和字向量两个角度充分的提取文本特征,同时利用注意力机制突出重要信息对模型的贡献和减少不必要信息对模型的干扰,从而提升分类性能。
发明内容
本发明的目的在于充分考虑文本中词的上下文语境和词的内部结构信息以充分提取文本特征,并在两个通道分别引入注意力机制,突出关键信息对模型的贡献和减少不必要信息对模型的干扰,从而提高文本情感分类的性能。
为了达到上述目的,本发明的技术方案如下:
一种基于双通道深度学习模型的文本情感分析方法,包括以下步骤:
步骤S1:对数据集进行预处理,利用Word2Vec训练词向量和字向量,将文本表示成词向量矩阵和字向量矩阵;
步骤S2:将训练好的词向量矩阵作为第一个通道Word-BLSTM-A的输入,利用BLSTM从词向量的角度学习文本特征,并在其后引入注意力机制;
步骤S3:将训练好的字向量矩阵作为第二个通道Char-BLSTM-A的输入,利用BLSTM从字向量的角度学习文本特征,并利用注意力机制学习关键的文本信息;
步骤S4:两个通道分别从词向量和字向量的角度提取到两种不同的含有注意力概率分布语义编码的文本特征向量,将这两种文本特征向量进行合并,接入Dense层,通过分类器最终得到文本情感倾向。
综上,本发明从词向量和字向量两个角度进行文本特征提取,充分考虑到词的上下文语境和词的内部结构信息,解决了现有深度学习模型特征提取时视觉单一、不能充分提取文本特征的问题。同时,使用注意力机制,突出重要信息对模型的贡献,减少不必要信息对模型的干扰,从而提高模型的分类性能。
附图说明
图1是本发明第一个输入通道Word-BLSTM-A的组合示意图;
图2是本发明第二个输入通道Char-BLSTM-A的组合示意图;
图3是本发明所提出模型的整体结构示意图。
具体实施方式
附图仅用于对示例的说明,不能理解为对本专利的限制;
为了更好的说明本发明实现的技术方法、创作特性,附图某些部件会有省略、放大和缩小,并不代表实际产品的尺寸;
就本领域技术专业人员而言,附图中一些公知结构及其解释的省略是可以理解的;
下面结合具体实施方式以及附图对本发明进行详细说明。
如图1-3所示,一种基于双通道深度学习模型的文本情感分析方法,包括以下步骤:
步骤S1:对数据集进行预处理,利用Word2Vec训练词向量和字向量,将文本表示成词向量矩阵和字向量矩阵;
步骤S2:将训练好的词向量矩阵作为第一个通道Word-BLSTM-A的输入,利用BLSTM从词向量的角度学习文本特征,并在其后引入注意力机制;
步骤S3:将训练好的字向量矩阵作为第二个通道Char-BLSTM-A的输入,利用BLSTM从字向量的角度学习文本特征,并利用注意力机制学习关键的文本信息;
步骤S4:两个通道分别从词向量和字向量的角度提取到两种不同的含有注意力概率分布语义编码的文本特征向量,将这两种文本特征向量进行合并,接入Dense层,通过分类器最终得到文本情感倾向。
进一步地,所述步骤S1将文本转化成词向量和字向量包括以下步骤:
步骤S11:为了减少训练的参数,本发明采用预训练词嵌入和字嵌入的方式,因此本发明数据集分为两部分:第一部分为***中文语料库;第二部分数据集为中科院谭松波博士整理的有关中文情感挖掘的酒店评论语料(ChnsentiCorp)作为本文的测试集以验证本文提出模型的有效性性,该公布的语料通过携程网自动采集并整理而成,其规模为10000篇,被分为4个子集,本发明选用ChnSentiCorp-Htl-ba-6000数据来进行实验,该语料为平衡语料,正、负类各3000篇;
步骤S12:获取词文本:对两部分数据集进行预处理,包括利用结巴分词工具将文本数据进行分词操作,并利用哈工大停用词表进行去停用词;
步骤S13:获取字文本:通过对获取的词文本进行简单的字符串操作得到字文本;
步骤S14:获取词向量和字向量:首先对第一部分数据集利用Skip-gram模型训练得到300维的词向量和字向量,其中上下文窗口大小为5,采样值设为1e-3;然后利用得到的300维的词向量和字向量去初始化第二部分数据集,如果第二部分数据集中的词或字不在***中文语料库中,则采用均匀分布[-0.25,0.25]以随机初始化的方式表示;最终,得到第二部分数据集的词向量和字向量。
进一步地,所述步骤S2将词向量矩阵作为第一通道的输入,利用BLSTM从词向量角度学习文本特征,隐藏层大小设置为128,并在其后引入注意力机制,最终得到词向量角度的特征表达的过程包括以下步骤:
步骤S21:向前推算:对于双向长短期记忆网络(BLSTM)的隐含层,向前推算跟单向的长短期记忆网络(LSTM)相同,除了输入序列对于两个隐含层是相反方向的,输出层直到两个隐含层处理完所有的全部输入序列才进行更新;
步骤S22:向后推算:双向长短期记忆网络的向后推算与单向的长短期记忆网络(LSTM)通过时间反向传播相似,除了所有的输出层δ项首先被计算,然后返回给两个不同方向的隐含层;
步骤S23:BLSTM的隐含层最终计算并保存两个权重,包括向前输出向量和向后输出向量
步骤S24:每个时刻t最终的输出特征向量ht由向前输出向量和向后输出向量简单组合而成,
步骤S25:生成目标注意力权重uit,hit为经过BLSTM单元的得到的文本特征向量,Ww为参数矩阵,bw为偏置系数,
uit=tanh(Ww·hit+bw)
步骤S26:对注意力权重概率化,生成概率向量ait,ait是通过softmax函数对uit进行归一化从而得到的各个词的重要性权重矩阵,uw表示上下文向量,通过随机初始化获得,并在不断的学习过程中得到最优值,
步骤S27:将概率化后的注意力权重配置给对应的隐层状态语义编码hit,得到包含文本中各词关键性和重要性的词向量角度的特征表达fi
进一步地,所述步骤S3将字向量矩阵作为第二个通道的输入,利用BLSTM从字向量的角度学习文本特征,隐藏层大小设置为128,并利用注意力机制学习关键的文本信息,最终得到字向量角度的特征表达的过程包括的步骤与步骤S2基本相同,不同的是步骤S2的输入为词向量矩阵,步骤S3的输入为字向量矩阵。
进一步地,所述步骤S4将步骤S2和步骤S3得到的两种文本特征向量进行合并,然后接入Dense层,最后通过分类器得到文本情感倾向的过程包括以下步骤:
步骤S41:引入Merge层将两种特征向量进行融合以得到全局特征向量F,假设通道一学习到的最终特征向量为F1,通道二学习到的最终特征向量为F2
上式中为拼接符号,本实施例中使用Keras中的concatenate函数;
步骤S42:添加dropout层,比例设置为0.5,防止模型过拟合;
步骤S43:添加Dense层,隐藏单元数为1,激活函数为sigmoid函数,对文本情感极性进行分类。
本发明基于双通道深度学习模型的文本情感分析方法的分类效果实验:
1、实验数据集:***中文语料库用于预训练词向量和字向量;中科院谭松波博士公布的酒店评论数据集Chn3000(共2个情感类别)用于验证本文提出模型的有效性性;
2、实验环境:操作***为Ubuntu18.04,CPU是Intel Corei7-8750H,GPU为GeForceGTX 1060,内存大小为DDR4 8GB,开发语言为python3.6.5,深度学习框架为TensorFlow1.9.0,开发工具为PyCharm;
3、实验方法:对于酒店评论数据集Chn3000,正、负类各3000篇,共计6000篇短文本,将其按8:1:1进行随机分配,80%为训练集,10%为验证集,10%为测试集。在该数据集上进行10折交叉验证来进行分析。采用支持向量机、卷积神经网络、长短期记忆网络、已发表在论文中的模型W2V-Att-CNN、W2V-Att-LSTM、W2V-Att-BLSTM和本专利所提模型测试分类效果;
4、评价指标:
准确率(precision)和召回率(recall)是两个用来衡量分类结果的性能指标,准确率用于评价分类器的准确性,召回率用于评价分类器是否能能找全该类样本,应该兼顾两者,用F1来作为准确率和召回率的调和平均值,评价指标定义如下:
precision=TP/(TP+FP)
recall=TP/(TP+FN)
其中TP(True Positive)代表标记为积极情感,被正确分类为积极的样本数,FN(False Negative)代表标记为积极情感,被错误分类为消极的样本数,FP(FalsePositive)代表标记为消极情感,被错误分类为积极的样本数,TN(True Negative)代表标记为消极情感,被正确分类为消极的样本数;
5、实验结果:如表1所示,表中表示在数据集Chn3000上,分别使用支持向量机、卷积神经网络、长短期记忆网络、已发表在论文中的模型W2V-Att-CNN、W2V-Att-LSTM、W2V-Att-BLSTM和本专利所提模型进行训练之后预测测试集情感极性结果的准确率(precision)、召回率(recall)和F1值。实验结果表明,本发明提出的模型取得较好的分类效果,与现有技术相比,具有显著的提升。
表1-Chn3000测试集结果
以上所述仅是对本发明的较佳实施方式而已,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施方式所做的任何简单修改,等同变化与修饰,均属于本发明技术方案的范围内。

Claims (5)

1.一种基于双通道深度学习模型的文本情感分析方法,其特征在于,包括以下步骤:
步骤S1:对数据集进行预处理,利用Word2Vec训练词向量和字向量,将文本表示成词向量矩阵和字向量矩阵;
步骤S2:将训练好的词向量矩阵作为第一个通道Word-BLSTM-A的输入,利用BLSTM从词向量的角度学习文本特征,并在其后引入注意力机制;
步骤S3:将训练好的字向量矩阵作为第二个通道Char-BLSTM-A的输入,利用BLSTM从字向量的角度学习文本特征,并利用注意力机制学习关键的文本信息;
步骤S4:两个通道分别从词向量和字向量的角度提取到两种不同的含有注意力概率分布语义编码的文本特征向量,将这两种文本特征向量进行合并,接入Dense层,通过分类器最终得到文本情感倾向。
2.根据权利要求1所述的一种基于双通道深度学习模型的文本情感分析方法,其特征在于,所述步骤S1中对数据集进行预处理,利用Word2Vec训练词向量和字向量,将文本表示成词向量矩阵和字向量矩阵;包括以下步骤:
步骤S11:为了减少训练的参数,本发明采用预训练词嵌入和字嵌入的方式,因此本发明数据集分为两部分:第一部分为***中文语料库;第二部分数据集为中科院谭松波博士整理的有关中文情感挖掘的酒店评论语料(ChnsentiCorp)作为本文的测试集以验证本文提出模型的有效性,该公布的语料通过携程网自动采集并整理而成,其规模为10000篇,被分为4个子集,本发明选用ChnSentiCorp-Htl-ba-6000数据来进行实验,该语料为平衡语料,正、负类各3000篇;
步骤S12:获取词文本:对两部分数据集进行预处理,包括利用结巴分词工具将文本数据进行分词操作,并利用哈工大停用词表进行去停用词;
步骤S13:获取字文本:通过对获取的词文本通过简单的字符串操作得到字文本;
步骤S14:获取词向量和字向量:首先对第一部分数据集利用Skip-gram模型训练得到300维的词向量和字向量,其中上下文窗口大小为5,采样值设为1e-3;然后利用得到的300维的词向量和字向量去初始化第二部分数据集,如果第二部分数据集中的词或字不在***中文语料库中,则采用均匀分布[-0.25,0.25]以随机初始化的方式表示;最终,得到第二部分数据集的词向量和字向量。
3.根据权利要求1所述的一种基于双通道深度学习模型的文本情感分析方法,其特征在于,所述步骤S2中将训练好的词向量矩阵作为第一个通道Word-BLSTM-A的输入,利用BLSTM从词向量的角度学习文本特征,并在其后引入注意力机制;包括以下步骤:
步骤S21:向前推算:对于双向长短期记忆网络(BLSTM)的隐含层,向前推算跟单向的长短期记忆网络(LSTM)相同,除了输入序列对于两个隐含层是相反方向的,输出层直到两个隐含层处理完所有的全部输入序列才进行更新;
步骤S22:向后推算:双向长短期记忆网络的向后推算与单向的长短期记忆网络(LSTM)通过时间反向传播相似,除了所有的输出层δ项首先被计算,然后返回给两个不同方向的隐含层;
步骤S23:BLSTM的隐含层最终计算并保存两个权重,包括向前输出向量和向后输出向量
步骤S24:每个时刻t最终的输出特征向量ht由向前输出向量和向后输出向量简单组合而成,
步骤S25:生成目标注意力权重uit,hit为经过BLSTM单元的得到的文本特征向量,Ww为参数矩阵,bw为偏置系数,
uit=tanh(Ww·hit+bw)
步骤S26:对注意力权重概率化,生成概率向量ait,ait是通过softmax函数对uit进行归一化从而得到的各个词的重要性权重矩阵,uw表示上下文向量,通过随机初始化获得,并在不断的学习过程中得到最优值,
步骤S27:将概率化后的注意力权重配置给对应的隐层状态语义编码hit,得到包含文本中各词关键性和重要性的词向量角度的特征表达fi
4.根据权利要求1所述的一种基于双通道深度学习模型的文本情感分析方法,其特征在于,所述步骤S3中将训练好的字向量矩阵作为第二个通道Char-BLSTM-A的输入,利用BLSTM从字向量的角度学习文本特征,并利用注意力机制学习关键的文本信息;包括的子步骤与步骤S2的子步骤基本相同,不同的是步骤S2的输入为词向量矩阵,步骤S3的输入为字向量矩阵。
5.根据权利要求1所述的一种基于双通道深度学习模型的文本情感分析方法,其特征在于,所述步骤S4中将两个通道学习到的两种文本特征向量进行合并,接入Dense层,通过分类器最终得到文本情感倾向;包括以下步骤:
步骤S41:引入Merge层将两种特征向量进行融合以得到全局特征向量F,假设通道一学习到的最终特征向量为F1,通道二学习到的最终特征向量为F2
上式中为拼接符号;
步骤S42:添加dropout层,比例设置为0.5,防止模型过拟合;
步骤S43:添加Dense层,隐藏单元数为1,激活函数为sigmoid函数,对文本情感极性进行分类。
CN201910741879.8A 2019-08-13 2019-08-13 一种基于双通道深度学习模型的文本情感分析方法 Pending CN110532549A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910741879.8A CN110532549A (zh) 2019-08-13 2019-08-13 一种基于双通道深度学习模型的文本情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910741879.8A CN110532549A (zh) 2019-08-13 2019-08-13 一种基于双通道深度学习模型的文本情感分析方法

Publications (1)

Publication Number Publication Date
CN110532549A true CN110532549A (zh) 2019-12-03

Family

ID=68662844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910741879.8A Pending CN110532549A (zh) 2019-08-13 2019-08-13 一种基于双通道深度学习模型的文本情感分析方法

Country Status (1)

Country Link
CN (1) CN110532549A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291556A (zh) * 2019-12-17 2020-06-16 东华大学 基于实体义项的字和词特征融合的中文实体关系抽取方法
CN111522956A (zh) * 2020-05-08 2020-08-11 河南理工大学 基于双通道和层次化注意力网络的文本情感分类方法
CN111625648A (zh) * 2020-05-28 2020-09-04 西南民族大学 一种快速情感极性分类方法
CN111651593A (zh) * 2020-05-08 2020-09-11 河南理工大学 基于词向量和字向量混合模型的文本情感分析方法
CN111753093A (zh) * 2020-07-02 2020-10-09 东北电力大学 一种网络舆情危机等级评价方法和装置
CN111813895A (zh) * 2020-08-07 2020-10-23 深圳职业技术学院 一种基于层次注意力机制和门机制的属性级别情感分析方法
CN111914547A (zh) * 2020-07-17 2020-11-10 深圳宜搜天下科技股份有限公司 一种改进的语义意图识别方法以及lstm构架***
CN112287106A (zh) * 2020-10-28 2021-01-29 中国计量大学 一种基于双通道混合神经网络的在线评论情感分类方法
CN112948588A (zh) * 2021-05-11 2021-06-11 中国人民解放军国防科技大学 一种用于情报快速整编的中文文本分类方法
CN113177120A (zh) * 2021-05-11 2021-07-27 中国人民解放军国防科技大学 一种基于中文文本分类的情报快速整编方法
CN113342971A (zh) * 2021-05-20 2021-09-03 王丽亚 一种基于融合多文本特征的中文文本情感分析方法
CN116340511A (zh) * 2023-02-16 2023-06-27 深圳市深弈科技有限公司 结合深度学习与语言逻辑推理的舆情分析方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108351A (zh) * 2017-12-05 2018-06-01 华南理工大学 一种基于深度学习组合模型的文本情感分类方法
CN108595590A (zh) * 2018-04-19 2018-09-28 中国科学院电子学研究所苏州研究院 一种基于融合注意力模型的中文文本分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108351A (zh) * 2017-12-05 2018-06-01 华南理工大学 一种基于深度学习组合模型的文本情感分类方法
CN108595590A (zh) * 2018-04-19 2018-09-28 中国科学院电子学研究所苏州研究院 一种基于融合注意力模型的中文文本分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
宋梦姣: "基于深度学习的微博文本情感分析研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
李平等: "双通道卷积神经网络在文本情感分析中的应用", 《计算机应用》 *
陈军清等: "基于语言模型的神经网络的文本情感分析", 《现代计算机(专业版)》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291556B (zh) * 2019-12-17 2021-10-26 东华大学 基于实体义项的字和词特征融合的中文实体关系抽取方法
CN111291556A (zh) * 2019-12-17 2020-06-16 东华大学 基于实体义项的字和词特征融合的中文实体关系抽取方法
CN111522956A (zh) * 2020-05-08 2020-08-11 河南理工大学 基于双通道和层次化注意力网络的文本情感分类方法
CN111651593A (zh) * 2020-05-08 2020-09-11 河南理工大学 基于词向量和字向量混合模型的文本情感分析方法
CN111625648A (zh) * 2020-05-28 2020-09-04 西南民族大学 一种快速情感极性分类方法
CN111625648B (zh) * 2020-05-28 2023-04-07 西南民族大学 一种快速情感极性分类方法
CN111753093A (zh) * 2020-07-02 2020-10-09 东北电力大学 一种网络舆情危机等级评价方法和装置
CN111914547A (zh) * 2020-07-17 2020-11-10 深圳宜搜天下科技股份有限公司 一种改进的语义意图识别方法以及lstm构架***
CN111813895A (zh) * 2020-08-07 2020-10-23 深圳职业技术学院 一种基于层次注意力机制和门机制的属性级别情感分析方法
CN112287106A (zh) * 2020-10-28 2021-01-29 中国计量大学 一种基于双通道混合神经网络的在线评论情感分类方法
CN112948588A (zh) * 2021-05-11 2021-06-11 中国人民解放军国防科技大学 一种用于情报快速整编的中文文本分类方法
CN113177120A (zh) * 2021-05-11 2021-07-27 中国人民解放军国防科技大学 一种基于中文文本分类的情报快速整编方法
CN113177120B (zh) * 2021-05-11 2024-03-08 中国人民解放军国防科技大学 一种基于中文文本分类的情报快速整编方法
CN113342971A (zh) * 2021-05-20 2021-09-03 王丽亚 一种基于融合多文本特征的中文文本情感分析方法
CN113342971B (zh) * 2021-05-20 2024-03-08 王丽亚 一种基于融合多文本特征的中文文本情感分析方法
CN116340511A (zh) * 2023-02-16 2023-06-27 深圳市深弈科技有限公司 结合深度学习与语言逻辑推理的舆情分析方法
CN116340511B (zh) * 2023-02-16 2023-09-15 深圳市深弈科技有限公司 结合深度学习与语言逻辑推理的舆情分析方法

Similar Documents

Publication Publication Date Title
CN110532549A (zh) 一种基于双通道深度学习模型的文本情感分析方法
CN109740148B (zh) 一种BiLSTM结合Attention机制的文本情感分析方法
CN108363753B (zh) 评论文本情感分类模型训练与情感分类方法、装置及设备
CN112231472B (zh) 融入领域术语词典的司法舆情敏感信息识别方法
CN109284506A (zh) 一种基于注意力卷积神经网络的用户评论情感分析***及方法
CN107291688A (zh) 基于主题模型的裁判文书相似度分析方法
CN107357837A (zh) 基于保序子矩阵和频繁序列挖掘的电商评论情感分类方法
CN111046670B (zh) 基于毒品案件法律文书的实体及关系联合抽取方法
CN107451118A (zh) 基于弱监督深度学习的句子级情感分类方法
CN116992005B (zh) 基于大模型及本地知识库的智能对话方法、***及设备
CN108647225A (zh) 一种电商黑灰产舆情自动挖掘方法和***
CN111597340A (zh) 一种文本分类方法及装置、可读存储介质
CN110414009A (zh) 基于BiLSTM-CNN的英缅双语平行句对抽取方法及装置
CN112015862B (zh) 基于层级多通道注意力的用户异常评论检测方法及***
CN110427458A (zh) 基于双门lstm的社交网络双语的五分类情感分析方法
Kodiyan et al. Author profiling with bidirectional rnns using attention with grus: notebook for pan at clef 2017
CN110110116A (zh) 一种整合深度卷积网络和语义分析的商标图像检索方法
CN112270187A (zh) 一种基于bert-lstm的谣言检测模型
Rakhmanov A comparative study on vectorization and classification techniques in sentiment analysis to classify student-lecturer comments
CN112784041A (zh) 一种中文短文本情感倾向性分析方法
CN105912720A (zh) 一种计算机中涉及情感的文本数据分析方法
CN114491062B (zh) 一种融合知识图谱和主题模型的短文本分类方法
CN115630653A (zh) 一种基于BERT与BiLSTM的网络流行语情感分析方法
CN114817541A (zh) 基于双重情感感知的谣言检测方法及装置
Touati-Hamad et al. Arabic quran verses authentication using deep learning and word embeddings

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191203