CN109992780A - 一种基于深度神经网络特定目标情感分类方法 - Google Patents

一种基于深度神经网络特定目标情感分类方法 Download PDF

Info

Publication number
CN109992780A
CN109992780A CN201910249992.4A CN201910249992A CN109992780A CN 109992780 A CN109992780 A CN 109992780A CN 201910249992 A CN201910249992 A CN 201910249992A CN 109992780 A CN109992780 A CN 109992780A
Authority
CN
China
Prior art keywords
specific objective
term vector
neural network
training
particular aspects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910249992.4A
Other languages
English (en)
Other versions
CN109992780B (zh
Inventor
谢金宝
王振东
马骏杰
战岭
吕世伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201910249992.4A priority Critical patent/CN109992780B/zh
Publication of CN109992780A publication Critical patent/CN109992780A/zh
Application granted granted Critical
Publication of CN109992780B publication Critical patent/CN109992780B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种基于深度神经网络特定目标情感分类方法。属于自然语言处理的文本情感分类领域。首先对数据集进行中文分词、去除停用词、去除标点的操作,接着采用word2vec算法对处理后的语料进行训练来得到相应的词向量,然后,将训练集输入到基于目标注意力机制的长短期记忆网络模型结构中,在实现注意力权重训练的过程中,将特定目标和特定方面嵌入进去,用特定方面嵌入的加权求和来表示特定目标,使模型对特定目标和特定方面给与更多正确的关注,实现更好地捕捉目标的真实语义,最终提高了特定目标情感分类的准确度。

Description

一种基于深度神经网络特定目标情感分类方法
技术领域
本发明涉及评论文本情感分类,尤其涉及一种基于深度神经网络特定目标情感分类方法,属于自然语言处理技术领域。
背景技术
情感分析方法主要有基于规则的方法、基于机器学习的方法和基于深度神经网络的方法。基于规则的方法通常需要构建情感词典或情感搭配模板,再通过比对评论文本中所包含的情感词或固定搭配来计算文本的情感倾向,但是构建比较完备的情感词典或相关的搭配规则是现在存在的主要问题。基于机器学习的方法主要将带有标签的训练语料进行特征提取和建模,从而用机器学习算法自动化地实现情感极性的判断;这类方法主要有支持向量机、朴素贝叶斯、最大信息熵、条件随机场等,但是,机器学习分类的效果往往取决于特征的选择,人工选择特征存在着很大的不确定性,而且这类方法在对语料建模时用到的函数一般比较简单,难以捕捉深层次的特征,建模能力和泛化能力都有很大的局限性。随着深度学习的发展以及语言表达方式的自由化和多元化,深度神经网络技术的优势逐渐凸显,成为了自然语言处理领域的主流技术,相比于基于规则的情感分析方法和基于机器学习的情感分析方法,深度神经网络的方法由于其模型与函数的复杂性,在面对当今复杂多变的语言现象时,可以捕捉更全面、更深层的文本特征,即对文本具有更好的理解能力,在情感分析领域也可以达到更好的效果。
LSTM神经网络模型又叫长短期记忆网络模型,是RNN模型的变体。LSTM解决了RNN模型在信息长距离传递时发生的信息消失或信息***问题,LSTM神经网络模型在RNN模型的基础上对神经网络节点加上多种门结构用来控制信息在不同时刻的流动。为了控制信息的流动,在LSTM神经网络的内部节点中专门设计了记忆单元,并通过门结构来控制信息的删除或增加,门是一种对信息进行选择通过的方法,LSTM神经网络的节点中有三种门结构来保护和控制节点的状态,这三种门分别是输入门、遗忘门和输出门。注意力机制来源于人脑关注事物的关键部分分配更多的注意力,注意力机制一开始被应用在视觉图像领域,后来才被应用到自然语言处理的任务中,并起到了比较好的效果,通过计算注意力概率分布,对关键性输入进行突出,从而对传统的模型起到优化作用。
特定目标情感分析作为情感分析一个重要的子任务,是更深层次的情感分析。和普通情感分析不同,特定目标情感极性的判别不仅依赖文本的上下文信息,同时还依赖特定目标的特征信息。例如句子“这家餐厅的食物非常好吃,但是价格很贵,但是服务挺贴心的”,对于目标“食物”的“味道”方面是积极情感,而对于目标“食物”的“价格”方面则是消极情感,对于目标“餐厅”的“服务”方面为积极情感。所以,就算是同一个句子,针对同一目标可能会出现完全相反的情感极性,不同的目标也会有不同的情感极性。但是大多数基于神经网络的文本情感分类模型对特定目标的特定方面的情感得不到正确的关注,分类效果比较差。实现更好地捕捉目标的真实语义,使得文本中语义信息更加丰富,提高了特定目标情感分类的准确度,是本发明的主要研究方向。
发明内容
本发明的目的针对现有技术的不足,本发明目的在于提供一种基于深度神经网络和目标注意力机制的特定目标情感分类方法,用于分析社交网络中的文本数据包含的特定目标、特定方面的情感色彩。
本发明可以采用如下***来实现:
一种基于深度神经网络特定目标情感分类方法,其特征在于:
步骤一、对中文情感分类数据集进行采集和文本预处理,并情感分类数据集划分为训练集和测试集;
步骤二、对预处理的数据集使用word2vec工具训练词向量模型并将数据集中的文本映射为词向量集合;
步骤三、将训练集的词向量集合输入到LSTM中,利用具有可训练参数的LSTM中的三个门来丢弃或传递信息,并输出一系列隐藏向量h={h1,h2,…,hn};
步骤四、将训练集的词向量矩阵、特定目标的词向量矩阵和特定方面的词向量矩阵放入目标注意力机制中,得到每个hi的正权重pi,随后得到句子表示ZS
步骤五、根据生成的句子ZS,用全连接层和softmax函数来判断特定目标的情感极性。
进一步地,所述所述文本预处理,具体为::
预处理主要包括将标注感情极性的句子进行中文分词、去停用词、去除标点;随机选取数据集中的80%作为训练集,20%作为测试集。
进一步地,所述对预处理的数据集使用word2vec工具训练词向量模型包括:
word2vec模型训练完成之后,word2vec模型可用来映射每个词ω到一个连续特征向量eω∈Rd,其中d代表词向量的维度,最后生成词向量矩阵E∈Rv×d,其中V代表数据集中词汇量的大小。
进一步地,所述将训练集的词向量集合输入到LSTM中,利用具有可训练参数的LSTM中的三个门来丢弃或传递信息,并输出一系列隐藏向量h={h1,h2,…,hn}具体包括以下:
LSTM中的三个门,包括输入门、遗忘门和输出门。设xt为LSTM神经网络某节点t时刻的输入、ht为t时刻的输出,Wx为输入对应的权值,Wh为输出对应的权值,则LSTM神经网络模型通过门结构控制信息更新的流程分为以下几个步骤:
计算输入门t时刻的值it,输入门控制的是当前输入对记忆单元状态值的影响,计算方法如下
it=sigmoid(Wxixt+Whiht-1+Wcict-1+bi) (1)
计算遗忘门t时刻的值ft,遗忘门控制的是历史信息对记忆单元状态值的影响,计算方法如下:
ft=sigmoid(Wxfxt+Whfht-1+Wcfct-1+bf) (2)
计算当前时刻候选记忆单元的值并更新当前时刻记忆单元的值,计算方法如下:
ct=ft·ct-1+it·ct (4)
最后计算t时刻的输出信息ht,该信息由输出门决定,计算方法如下:
ot=sigmoid(Wxoxt+Whoht-1+Wcoct-1+bo) (5)
ht=ot·tanh(ct) (6)
所述将训练集的词向量矩阵、特定目标的词向量矩阵和特定方面的词向量矩阵放入目标注意力机制中,具体包括以下:
将训练集的词向量矩阵和特定目标的词向量矩阵进行如下计算:
其中代表Average返回输入向量的平均值。为特定目标的词向量矩阵,为训练集的词向量矩阵,cS的作用为同时捕获目标信息和上下文信息。
计算全部k个特定方面嵌入上的权重向量qt,公式如下:
qt=softmax(Wt·cS+bt) (8)
其中qt表示全部k个特定方面嵌入上的权重向量,每个权重qt表示特定目标属于相关方面的可能性,Wt和bt分别表示权重矩阵和偏置向量。
计算特定目标的向量ts,公式如下
ts=T·qt (9)
其中ts表示特定目标的向量,T表示特定方面的词向量矩阵,T∈RK×d,其中K代表特定的方面数。
计算正权重pi,公式如下:
其中Wa∈Rd×d是一个可训练的权重矩阵。
计算句子表示ZS,公式如下:
每一个隐藏向量hi对应一个正权重pi,其中值pi由目标注意力模型计算,pi可以解释为在判断特定目标a的情感极性时,ωi是模型正确关注的词的概率。ZS代表用于情感分类的句子。
综上所述,本发明提供一种基于深度神经网络特定目标情感分类方法。属于自然语言处理的文本情感分类领域。首先对数据集进行中文分词、去除停用词、去除标点的操作,接着采用word2vec算法对处理后的语料进行训练来得到相应的词向量,然后,将训练集输入到基于目标注意力机制的长短期记忆网络模型结构中,在实现注意力权重训练的过程中,将特定目标和特定方面嵌入进去,用特定方面嵌入的加权求和来表示特定目标,使模型对特定目标和特定方面给与更多正确的关注,实现更好地捕捉目标的真实语义,最终提高了特定目标情感分类的准确度。
本发明与现有技术相比具有以下有益效果:
本发明在长短期记忆网络的基础上,引入了目标注意力机制,用特定方面嵌入的加权求和来表示特定目标,使模型更好地捕获特定目标的真实语义,也使模型对特定目标和特定方面给与更多正确的关注,同时忽略或降低文本中次要信息的影响,实现更好地捕捉目标的真实语义,最终提高了特定目标情感分类的准确度。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明情感分类模型训练的流程图;
图2是本发明LSTM内部结构图;
图3是本发明情感分类模型的总体架构。
具体实施方式
本发明给出了一种基于深度神经网络特定目标情感分类方法实施例,为了使本技术领域的人员更好地理解本发明实施例中的技术方案,并使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明中技术方案作进一步详细的说明:
本发明首先提供了一种基于深度神经网络特定目标情感分类方法,如图1所示,包括:
S101步骤1:中文情感分类数据集的采集和文本的预处理,并把数据集划分为训练集和测试集;
S102步骤2:对预处理的数据集使用word2vec工具训练词向量模型并将数据集中的文本映射为词向量集合;
S103步骤3:将训练集的词向量集合输入到LSTM中,利用具有可训练参数的LSTM中的三个门来丢弃或传递信息,并输出一系列隐藏向量h={h1,h2,…,hn};
S104步骤4:将训练集的词向量矩阵、特定目标的词向量矩阵和特定方面的词向量矩阵放入目标注意力机制中,得到每个hi的正权重pi,随后得到句子ZS
S105步骤5:根据生成的句子ZS,用全连接层和softmax函数来判断特定目标的情感极性。
在步骤1中预处理主要包括将标注感情极性的句子进行中文分词、去停用词、去除标点;随机选取数据集中的80%作为训练集,20%作为测试集。
在步骤2中word2vec模型训练完成之后,word2vec模型可用来映射每个词ω到一个连续特征向量eω∈Rd,其中d代表词向量的维度,最后生成词向量矩阵E∈Rv×d,其中V代表数据集中词汇量的大小。
在步骤3中LSTM中的三个门,如图2所示,包括输入门、遗忘门和输出门。设xt为LSTM神经网络某节点t时刻的输入、ht为t时刻的输出,Wx为输入对应的权值,Wh为输出对应的权值,则LSTM神经网络模型通过门结构控制信息更新的流程为首先计算输入门t时刻的值it,输入门控制的是当前输入对记忆单元状态值的影响,计算方法如下
it=sigmoid(Wxixt+Whiht-1+Wcict-1+bi) (1)
然后计算遗忘门t时刻的值ft,遗忘门控制的是历史信息对记忆单元状态值的影响,计算方法如下:
ft=sigmoid(Wxfxt+Whfht-1+Wcfct-1+bf) (2)
再计算当前时刻候选记忆单元的值并更新当前时刻记忆单元的值,计算方法如下:
ct=ft·ct-1+it·ct (4)
最后计算t时刻的输出信息ht,该信息由输出门决定,计算方法如下:
ot=sigmoid(Wxoxt+Whoht-1+Wcoct-1+bo) (5)
ht=ot·tanh(ct) (6)
在步骤4中首先将训练集的词向量矩阵和特定目标的词向量矩阵取平均值,如下式所示:
其中Average表示返回输入向量的平均值。为特定目标的词向量矩阵,为训练集的词向量矩阵,cS的作用为同时捕获目标信息和上下文信息。
下一步将cS放入softmax函数中计算全部k个特定方面嵌入上的权重向量qt,公式如下:
qt=softmax(Wt·cS+bt) (8)
其中qt表示全部k个特定方面嵌入上的权重向量,每个权重qt表示特定目标属于相关方面的可能性,Wt和bt分别表示权重矩阵和偏置向量。
将qt与特定方面的词向量矩阵进行点乘,计算特定目标的向量ts,公式如下
ts=T·qt (9)
其中ts表示特定目标的向量,T表示特定方面的词向量矩阵,T∈RK×d,其中K代表特定的方面数,比V小得多。
下一步计算正权重pi,公式如下:
其中Wa∈Rd×d是一个可训练的权重矩阵。
然后计算句子表示ZS,公式如下:
每一个隐藏向量hi对应一个正权重pi,其中值pi由目标注意力模型计算,pi可以解释为在判断特定目标a的情感极性时,ωi是模型正确关注的词的概率。ZS代表用于情感分类的句子。
最后根据生成的句子ZS,用全连接层和softmax函数来判断特定目标的情感极性,具体的计算流程如图3所示。
综上所述,本发明提供一种基于深度神经网络特定目标情感分类方法。属于自然语言处理的文本情感分类领域。首先对数据集进行中文分词、去除停用词、去除标点的操作,接着采用word2vec算法对处理后的语料进行训练来得到相应的词向量,然后,将训练集输入到基于目标注意力机制的长短期记忆网络模型结构中,在实现注意力权重训练的过程中,将特定目标和特定方面嵌入进去,用特定方面嵌入的加权求和来表示特定目标,使模型对特定目标和特定方面给与更多正确的关注,实现更好地捕捉目标的真实语义,最终提高了特定目标情感分类的准确度。
以上实施例用以说明而非限制本发明的技术方案。不脱离本发明精神和范围的任何修改或局部替换,均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于深度神经网络特定目标情感分类方法,其特征在于,包括以下步骤:
步骤一、对中文情感分类数据集进行采集和文本预处理,并情感分类数据集划分为训练集和测试集;
步骤二、对预处理的数据集使用word2vec工具训练词向量模型并将数据集中的文本映射为词向量集合;
步骤三、将训练集的词向量集合输入到LSTM中,利用具有可训练参数的LSTM中的三个门来丢弃或传递信息,并输出一系列隐藏向量h={h1,h2,…,hn};
步骤四、将训练集的词向量矩阵、特定目标的词向量矩阵和特定方面的词向量矩阵放入目标注意力机制中,得到每个hi的正权重pi,随后得到句子表示ZS
步骤五、根据生成的句子ZS,用全连接层和softmax函数来判断特定目标的情感极性。
2.根据权利要求1所述的一种基于深度神经网络特定目标情感分类方法,其特征在于:所述文本预处理,具体为:将标注感情极性的句子进行中文分词、去停用词、去除标点;随机选取数据集中的80%作为训练集,20%作为测试集。
3.根据权利要求1所述的一种基于深度神经网络特定目标情感分类方法,其特征在于:所述对预处理的数据集使用word2vec工具训练词向量模型包括:
word2vec模型训练完成之后,word2vec模型用来映射每个词ω到一个连续特征向量eω∈Rd,其中d代表词向量的维度,最后生成词向量矩阵E∈Rv×d,其中V代表数据集中词汇量的大小。
4.根据权利要求1所述的一种基于深度神经网络特定目标情感分类方法,其特征在于:所述将训练集的词向量集合输入到LSTM中,利用具有可训练参数的LSTM中的三个门来丢弃或传递信息,并输出一系列隐藏向量h={h1,h2,…,hn}具体包括以下:
LSTM中的三个门,包括输入门、遗忘门和输出门;设xt为LSTM神经网络某节点t时刻的输入、ht为t时刻的输出,Wx为输入对应的权值,Wh为输出对应的权值,则LSTM神经网络模型通过门结构控制信息更新的流程分为四个步骤:
(4.1)计算输入门t时刻的值it,输入门控制的是当前输入对记忆单元状态值的影响,计算方法如下
it=sigmoid(Wxixt+Whiht-1+Wcict-1+bi) (1)
(4.2)计算遗忘门t时刻的值ft,遗忘门控制的是历史信息对记忆单元状态值的影响,计算方法如下:
ft=sigmoid(Wxfxt+Whfht-1+Wcfct-1+bf) (2)
(4.3)计算当前时刻候选记忆单元的值并更新当前时刻记忆单元的值,计算方法如下:
ct=ft·ct-1+it·ct (4)
(4.4)最后计算t时刻的输出信息ht,该信息由输出门决定,计算方法如下:
ot=sigmoid(Wxoxt+Whoht-1+Wcoct-1+bo) (5)
ht=ot·tanh(ct) (6) 。
5.根据权利要求1所述的一种基于深度神经网络特定目标情感分类方法,其特征在于:所述将训练集的词向量矩阵、特定目标的词向量矩阵和特定方面的词向量矩阵放入目标注意力机制中,具体包括以下:
(5.1)将训练集的词向量矩阵和特定目标的词向量矩阵进行如下计算:
其中Average代表返回输入向量的平均值,为特定目标的词向量矩阵,为训练集的词向量矩阵,cS的作用为同时捕获目标信息和上下文信息;
(5.2)计算全部k个特定方面嵌入上的权重向量qt,公式如下:
qt=softmax(Wt·cS+bt) (8)
其中qt表示全部k个特定方面嵌入上的权重向量,每个权重qt表示特定目标属于相关方面的可能性,Wt和bt分别表示权重矩阵和偏置向量
(5.3)计算特定目标的向量ts,公式如下
ts=T·qt (9)
其中ts特定目标的向量,T表示特定方面的词向量矩阵,T∈RK×d,其中K代表特定的方面数;
(5.4)计算正权重pi,公式如下:
其中Wa∈Rd×d是一个可训练的权重矩阵;
(5.5)计算句子表示ZS,公式如下:
每一个隐藏向量hi对应一个正权重pi,其中值pi由目标注意力模型计算,pi可以解释为在判断特定目标a的情感极性时,ωi是模型正确关注的词的概率。ZS代表用于情感分类的句子。
6.根据权利要求5所述的一种基于深度神经网络特定目标情感分类方法,其特征在于:在实现注意力权重训练的过程中,将特定目标和特定方面嵌入进去,用特定方面嵌入的加权求和来表示特定目标,最终提高了特定目标情感分类的准确度。
CN201910249992.4A 2019-03-29 2019-03-29 一种基于深度神经网络特定目标情感分类方法 Expired - Fee Related CN109992780B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910249992.4A CN109992780B (zh) 2019-03-29 2019-03-29 一种基于深度神经网络特定目标情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910249992.4A CN109992780B (zh) 2019-03-29 2019-03-29 一种基于深度神经网络特定目标情感分类方法

Publications (2)

Publication Number Publication Date
CN109992780A true CN109992780A (zh) 2019-07-09
CN109992780B CN109992780B (zh) 2022-07-01

Family

ID=67131875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910249992.4A Expired - Fee Related CN109992780B (zh) 2019-03-29 2019-03-29 一种基于深度神经网络特定目标情感分类方法

Country Status (1)

Country Link
CN (1) CN109992780B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390017A (zh) * 2019-07-25 2019-10-29 中国民航大学 基于注意力门控卷积网络的目标情感分析方法及***
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置
CN110704622A (zh) * 2019-09-27 2020-01-17 北京明略软件***有限公司 文本情感分类方法、装置及电子设备
CN110728298A (zh) * 2019-09-05 2020-01-24 北京三快在线科技有限公司 多任务分类模型训练方法、多任务分类方法及装置
CN111191026A (zh) * 2019-12-10 2020-05-22 央视国际网络无锡有限公司 一种能够标定特定片段的文本分类方法
CN111291189A (zh) * 2020-03-10 2020-06-16 北京芯盾时代科技有限公司 一种文本处理方法、设备及计算机可读存储介质
CN111444728A (zh) * 2020-04-20 2020-07-24 复旦大学 一种端到端的基于方面的情感分析方法
CN112115243A (zh) * 2020-08-11 2020-12-22 南京理工大学 通过对时序时间相关性建模的会话表示学习方法
CN112434161A (zh) * 2020-11-24 2021-03-02 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法
CN112464281A (zh) * 2020-11-29 2021-03-09 哈尔滨工程大学 基于隐私分组和情感识别的网络信息分析方法
CN112699237A (zh) * 2020-12-24 2021-04-23 百度在线网络技术(北京)有限公司 标签确定方法、设备和存储介质
CN114357166A (zh) * 2021-12-31 2022-04-15 北京工业大学 一种基于深度学习的文本分类方法
CN114417851A (zh) * 2021-12-03 2022-04-29 重庆邮电大学 一种基于关键词加权信息的情感分析方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491490A (zh) * 2017-07-19 2017-12-19 华东师范大学 基于情感中心的文本情感分类方法
US20180165554A1 (en) * 2016-12-09 2018-06-14 The Research Foundation For The State University Of New York Semisupervised autoencoder for sentiment analysis
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
CN108460009A (zh) * 2017-12-14 2018-08-28 中山大学 嵌入情感词典的注意力机制循环神经网络文本情感分析法
CN108717439A (zh) * 2018-05-16 2018-10-30 哈尔滨理工大学 一种基于注意力机制和特征强化融合的中文文本分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180165554A1 (en) * 2016-12-09 2018-06-14 The Research Foundation For The State University Of New York Semisupervised autoencoder for sentiment analysis
CN107491490A (zh) * 2017-07-19 2017-12-19 华东师范大学 基于情感中心的文本情感分类方法
CN108460009A (zh) * 2017-12-14 2018-08-28 中山大学 嵌入情感词典的注意力机制循环神经网络文本情感分析法
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
CN108717439A (zh) * 2018-05-16 2018-10-30 哈尔滨理工大学 一种基于注意力机制和特征强化融合的中文文本分类方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
TAO CHEN 等: "Improving sentiment analysis via sentence type classification using BiLSTM-CRF and CNN", 《EXPERT SYSTEMS WITH APPLICATIONS》 *
YEQUAN WANG 等: "attention-based LSTM for aspect-level sentiment classification", 《PROCEEDINGS OF THE 2016 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 *
梁斌等: "基于多注意力卷积神经网络的特定目标情感分析", 《计算机研究与发展》 *
王振东: "基于改进注意力机制的中文细粒度情感分析", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390017B (zh) * 2019-07-25 2022-12-27 中国民航大学 基于注意力门控卷积网络的目标情感分析方法及***
CN110390017A (zh) * 2019-07-25 2019-10-29 中国民航大学 基于注意力门控卷积网络的目标情感分析方法及***
CN110728298A (zh) * 2019-09-05 2020-01-24 北京三快在线科技有限公司 多任务分类模型训练方法、多任务分类方法及装置
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置
CN110704622A (zh) * 2019-09-27 2020-01-17 北京明略软件***有限公司 文本情感分类方法、装置及电子设备
CN111191026A (zh) * 2019-12-10 2020-05-22 央视国际网络无锡有限公司 一种能够标定特定片段的文本分类方法
CN111291189A (zh) * 2020-03-10 2020-06-16 北京芯盾时代科技有限公司 一种文本处理方法、设备及计算机可读存储介质
CN111444728A (zh) * 2020-04-20 2020-07-24 复旦大学 一种端到端的基于方面的情感分析方法
CN112115243A (zh) * 2020-08-11 2020-12-22 南京理工大学 通过对时序时间相关性建模的会话表示学习方法
CN112115243B (zh) * 2020-08-11 2023-06-16 南京理工大学 通过对时序时间相关性建模的会话表示学习方法
CN112434161A (zh) * 2020-11-24 2021-03-02 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法
CN112434161B (zh) * 2020-11-24 2023-01-03 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法
CN112464281A (zh) * 2020-11-29 2021-03-09 哈尔滨工程大学 基于隐私分组和情感识别的网络信息分析方法
CN112699237A (zh) * 2020-12-24 2021-04-23 百度在线网络技术(北京)有限公司 标签确定方法、设备和存储介质
CN114417851A (zh) * 2021-12-03 2022-04-29 重庆邮电大学 一种基于关键词加权信息的情感分析方法
CN114357166A (zh) * 2021-12-31 2022-04-15 北京工业大学 一种基于深度学习的文本分类方法
CN114357166B (zh) * 2021-12-31 2024-05-28 北京工业大学 一种基于深度学习的文本分类方法

Also Published As

Publication number Publication date
CN109992780B (zh) 2022-07-01

Similar Documents

Publication Publication Date Title
CN109992780A (zh) 一种基于深度神经网络特定目标情感分类方法
Kuremoto et al. Time series forecasting using a deep belief network with restricted Boltzmann machines
CN108733792A (zh) 一种实体关系抽取方法
CN109829541A (zh) 基于学习自动机的深度神经网络增量式训练方法及***
CN110534132A (zh) 一种基于谱图特征的并行卷积循环神经网络的语音情感识别方法
CN107423442A (zh) 基于用户画像行为分析的应用推荐方法及***,储存介质及计算机设备
CN109543722A (zh) 一种基于情感分析模型的情感趋势预测方法
CN110084610A (zh) 一种基于孪生神经网络的网络交易欺诈检测***
CN110110372B (zh) 一种用户时序行为自动切分预测方法
CN112527966A (zh) 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN109902823A (zh) 一种基于生成对抗网络的模型训练方法及设备
CN109472030A (zh) 一种***回复质量的评价方法及装置
CN110162751A (zh) 文本生成器训练方法和文本生成器训练***
McDowell et al. Learning from omission
CN111914553A (zh) 一种基于机器学习的金融信息负面主体判定的方法
CN114332565A (zh) 一种基于分布估计的条件生成对抗网络文本生成图像方法
Wang et al. [Retracted] Sports Action Recognition Based on GB‐BP Neural Network and Big Data Analysis
CN110458215A (zh) 基于多时态注意力模型的行人属性识别方法
CN112000793B (zh) 一种面向人机交互的对话目标规划方法
CN113379063A (zh) 基于在线增强学习模型的全流程任务时序智能决策方法
Hong et al. A multi-angle hierarchical differential evolution approach for multimodal optimization problems
Zhu [Retracted] A Face Recognition System Using ACO‐BPNN Model for Optimizing the Teaching Management System
CN115293249A (zh) 一种基于动态时序预测的电力***典型场景概率预测方法
Chien et al. Stochastic adversarial learning for domain adaptation
Pető et al. Parameter optimization of deep learning models by evolutionary algorithms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220701

CF01 Termination of patent right due to non-payment of annual fee