CN111930940B - 一种文本情感分类方法、装置、电子设备及存储介质 - Google Patents
一种文本情感分类方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111930940B CN111930940B CN202010748294.1A CN202010748294A CN111930940B CN 111930940 B CN111930940 B CN 111930940B CN 202010748294 A CN202010748294 A CN 202010748294A CN 111930940 B CN111930940 B CN 111930940B
- Authority
- CN
- China
- Prior art keywords
- emotion
- word
- vector
- model
- target text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 298
- 238000000034 method Methods 0.000 title claims abstract description 87
- 239000013598 vector Substances 0.000 claims abstract description 241
- 238000013145 classification model Methods 0.000 claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 36
- 238000003062 neural network model Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims description 64
- 238000013528 artificial neural network Methods 0.000 claims description 59
- 230000015654 memory Effects 0.000 claims description 32
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000000379 polymerizing effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 241001522296 Erithacus rubecula Species 0.000 claims 2
- 238000003058 natural language processing Methods 0.000 abstract description 10
- 238000010801 machine learning Methods 0.000 abstract description 3
- 238000004458 analytical method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及自然语言处理及机器学习技术领域,具体是一种文本情感分类方法、装置、电子设备及存储介质,所述方法包括:获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列;利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量;将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量,所述情感生成模型为基于注意力的神经网络模型;将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果。本发明引入动态生成的情感向量,提高了情感分类的准确性。
Description
技术领域
本发明涉及自然语言处理及机器学习技术领域,特别涉及一种文本情感分类方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的发展,网络产品越来越多。用户在使用网络产品的过程中或者使用网络产品后,通常会输入表达自身需求或观点的网络文本,例如在智能客服或者语音助手中输入需要解决的问题,或者在使用某项服务后发表针对该项服务的评价等等。由于网络文本蕴含着丰富的情感信息,对应着用户相应的心理状态,通过对用户输入的网络文本进行情感分析,判定它的情感类别,能够根据分析结果确定恰当的处理策略,以提供更符合用户需求的网络产品。因此情感分析技术被广泛应用于消费决策、舆情分析、个性化推荐和人机交互等领域。
传统的情感分类方法通常利用多元文法、词法等作为特征,采用传统的分类模型进行分类,例如支持向量机、最大熵模型等。近期随着神经网络以及深度学习的发展,神经网络也被用在了情感分类领域。现有的情感分类方法一种是利用外部词典帮助情感分类的方法,该方法在长短时记忆(Long Short Term Memory,LSTM)网络的基础上提出了自注意力网络,并将外部词典引入到模型的训练中;另一种是利用领域知识的情感分类方法,该方法在预训练语言模型的基础上引入了领域知识,其目的是针对不同的情感分类任务,提取相应的领域知识,来帮助语言模型更好的适应新场景、新任务。现有的情感分类方法在训练分类模型的过程中需要依赖外部的情感词典或者领域知识,可能会出现由于标注不一致带来的不匹配问题或者由于词典覆盖度不够导致情感分类的准确性较差的问题。
发明内容
针对现有技术的上述问题,本发明的目的在于提供一种文本情感分类方法、装置、电子设备及存储介质,能够提高情感分类的准确性。
为了解决上述问题,本发明提供一种文本情感分类方法,包括:
获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列;
利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量;
将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量,所述情感生成模型为基于注意力的神经网络模型;
将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果。
本发明另一方面提供一种文本情感分类装置,包括:
词向量序列生成模块,用于获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列;
语义向量生成模块,用于利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量;
情感向量生成模块,用于将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量,所述情感生成模型为基于注意力的神经网络模型;
情感分类模块,用于将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果。
本发明另一方面提供一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述的文本情感分类方法。
本发明另一方面提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由处理器加载并执行以实现如上述的文本情感分类方法。
由于上述技术方案,本发明具有以下有益效果:
(1)本发明的文本情感分类方法,通过预先训练的情感生成模型动态地为目标文本的各个词语生成基于上下文的词情感向量,并将词情感向量引入文本情感分类中,能够有效地提高情感分类的准确性。由于动态的为每个词语生成词情感向量,相比于固定标注,可以有效地处理一词多情感问题。
(2)本发明的文本情感分类方法在模型训练过程中无需依赖外部情感词典,避免了由于标注不一致带来的不匹配问题和词典覆盖度问题。由于不需要依赖外部词典,本发明的文本情感分类方法可以对新任务、新数据有较好的适应性。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本发明一个实施例提供的文本情感分类方法的实施环境示意图;
图2是本发明一个实施例提供的文本情感分类方法的流程图;
图3是本发明一个实施例提供的神经网络模型的结构示意图;
图4是本发明另一个实施例提供的文本情感分类方法的流程图;
图5是本发明一个实施例提供的用户界面的示意图;
图6是本发明一个实施例提供的模型训练方法的流程图;
图7是本发明一个实施例提供的文本情感分类装置的结构示意图;
图8是本发明另一个实施例提供的文本情感分类装置的结构示意图;
图9是本发明一个实施例提供的服务器的结构示意图。
具体实施方式
自然语言处理(Nature Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
具体地,本发明实施例提供的基于语义编码模型、情感生成模型和情感分类模型对目标文本进行分析处理,得到目标文本的情感分类结果的过程,涉及NLP中的文本处理、语义理解技术等。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、装置、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了使本发明实施例公开的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明实施例进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本发明实施例,并不用于限定本发明实施例。首先,本发明实施例对下述概念进行解释:
情感分类:指根据文本内容,将文本划分成预定义好的多种类型的情感(比如,愤怒,喜悦等)。
BERT:全称为Bidirectional Encoder Representations from Transformers,即双向Transformer的编码器,是一种利用海量文本的双向语言模型训练方法。BERT用于提取文本特征,能够充分描述字符级、词级、句子级甚至句间关系特征,被广泛用于多种自然语言处理任务。
LSTM:全称为Long-short Term Memory,即长短时记忆网络,是一种人工设计的循环神经网络结构,主要是为了解决长序列训练过程中的梯度消失和梯度***问题。LSTM已经在自然语言处理领域有了多种应用,例如可以利用基于LSTM的***学习翻译语言、控制机器人、图像分析、文档摘要和语音识别图像识别等等。
MLP:全称为Multi-layerPerceptron,即多层感知机,是一种多层前馈神经网络。MLP是由全连接组成的神经网络,至少含有一个隐藏层,并且每个隐藏层的输出均通过激活函数进行变换。
参考说明书附图1,其示出了本发明一个实施例提供的文本情感分类方法的实施环境示意图。如图1所示,该实施环境至少可以包括终端110和服务器120,所述终端110和所述服务器120可以通过有线或无线通信方式进行直接或间接地连接,本发明对此不做限制。比如,所述终端110可以通过有线或无线通信方式向所述服务器120上传相应的需要进行情感分类的目标文本等,所述服务器120可以通过有线或无线通信方式向所述终端110展示所述目标文本的情感分类结果等。
具体地,所述终端110可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。所述服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云计算服务的云服务器。
需要说明的是,图1仅仅是一种示例。
参考说明书附图2,其示出了本发明一个实施例提供的文本情感分类方法的流程。本发明实施例提供的文本情感分类方法可以应用于任何需要对文本进行情感分析的场景中,例如可以应用于智能客服和语音助手中对用户输入文本的情感分类,也可以应用于对用户评价信息的文本情感分类。具体的如图2所示,所述方法可以包括:
S210:获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列。
本发明实施例中,所述目标文本可以是任意文本,本发明实施例不对获取目标文本的方式进行具体限定,例如,可以基于应用场景进行获取。
示例性地,若本发明实施例提供的文本情感分类方法应用于智能问答、智能客服、语音助手等场景中,该类场景包括实施文本情感分类方法的服务器以及终端。其中,终端显示用户界面,基于该用户界面获取用户输入的文本,并将该文本发送至服务器,则服务器接收该文本,即为获取到的目标文本。
需要说明的是,所述目标文本可以为用户输入的一段话,也可以为一个句子或者一个词语等;所述目标文本可以是任何内容,例如可以是一定的问题,也可以是表达一定的用户想法等,本发明实施例不对目标文本的内容及长度进行限定。在实际应用中,如果需要进行情感分析的文本为包括多个句子的文本段落,可以直接将所述文本段落作为目标文本,采用本发明实施例提供的文本情感分类方法进行情感分类,得到所述文本段落的情感分类结果;也可以对所述文本段落进行分句处理,将分句后的各个句子作为目标文本,分别采用本发明实施例提供的文本情感分类方法进行情感分类,得到各个句子的情感分类结果,从而确定所述文本段落的情感分类结果。
在一个可能的实施例中,所述获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列可以包括:
对所述目标文本进行分词处理,得到所述目标文本包含的多个词语;
对所述多个词语分别进行编码,得到所述多个词语的词向量;
根据所述多个词语的词向量生成所述目标文本的词向量序列。
本发明实施例中,分词处理可以采用文本处理领域的任意分词方法,只要可以确定所述目标文本包括的分词词语即可,本发明实施例不对进行分词处理的方法进行限定。例如,所述目标文本为“我今天真郁闷,不开心”,那么对所述目标文本进行分词处理,可以得到其包括的分词词语“我”、“今天”、“真”、“郁闷”和“不开心”。
本发明实施例中,可以采用文本处理领域的任意词向量表示方法确定所述目标文本包含的多个词语的词向量,本发明实施例对此不进行限定。例如,可以通过预先训练的词向量模型确定各个词语的词向量。
本发明实施例中,词向量序列是指排序好的词向量,词向量的排序和所述目标文本中词语的前后顺序是相对应的。
S220:利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量。
本发明实施例中,可以将所述词向量序列输入预先训练的语义编码模型,为所述目标文本中的每个词语生成一个隐层向量,作为各个词语的词语义向量,同时利用所述隐层向量生成并输出所述目标文本的语义向量。
在一个可能的实施例中,所述语义编码模型可以包括基于自注意力的第三神经网络;
所述利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量可以包括:
基于所述第三神经网络对所述词向量序列进行处理,得到所述目标文本中各个词语的词语义向量;
根据所述目标文本中各个词语的词语义向量生成所述词向量序列对应的词语义向量序列;
对所述词语义向量序列进行聚合,得到所述目标文本的语义向量。
本发明实施例中,所述第三神经网络可以为多种神经网络,例如双向长短时记忆网络(Bi-directional Long-short Term Memory,Bi-LSTM)、循环神经网络(RecurrentNeural Network。RNN)或者卷积神经网络(Convolution Neural Network,CNN)等不同的神经网络,以及混合使用RNN、CNN和自注意力的其他网络等,本发明实施例对此不做限定。所述词语义向量序列是指排序好的词语义向量,词语义向量的排序和所述目标文本中词语的前后顺序是相对应的。
示例性地,结合参考说明书附图3,其示出了本发明一个实施例提供的神经网络模型的结构,所述神经网络模型可以包括语义编码模型310,所述语义编码模型310可以包括Bi-LSTM网络,将目标文本的词向量序列{Ew1,Ew2,Ew3,…,Ewn}输入所述Bi-LSTM网络,可以输出所述目标文本中各个词语的词语义向量组成的词语义向量序列{h1,h2,h3,…,hn},以及所述目标文本的语义向量hs。
S230:将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量,所述情感生成模型为基于注意力的神经网络模型。
本发明实施例中,所述情感生成模型可以根据所述词向量序列和所述词语义向量序列为所述目标文本的每个词语生成一个基于上下文的词情感向量,并采用注意力机制根据各个词语的词情感向量和所述语义向量生成所述目标文本的情感向量。
实际应用中,同一个词语在不同的句子中可以表示不同的情感,例如“惩罚”,在句子“这个坏人终于得到了应有的惩罚!”中表达了“气愤”的情感,而在“我今天摔碎了花瓶,被妈妈惩罚了。”中表达了“悲伤”的情感。而本发明实施例中生成的词情感向量具有动态性,能够根据上下文对词语的情感进行调整,使得相同的词语在不同的场景下可以生成不同的词情感向量,相比于现有技术中的固定标注准确性更高,从而能够有效地提高情感分类的准确性。
在一个可能的实施例中,所述情感生成模型可以包括基于自注意力的第一神经网络和注意力网络;
结合参考说明书附图4,所述将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量可以包括:
S410:基于所述第一神经网络对所述词向量序列和所述词语义向量序列进行分析,得到所述目标文本中各个词语的词情感向量。
S420:根据所述目标文本中各个词语的词情感向量生成所述目标文本的词情感向量序列。
S430:基于所述注意力网络对所述语义向量和所述词情感向量序列进行分析,将所述词情感向量序列聚合成所述目标文本的情感向量。
本发明实施例中,所述第一神经网络可以为多种神经网络,例如双向长短时记忆网络或者卷积神经网络等不同的神经网络,本发明实施例对此不做限定。所述词情感向量序列是指排序好的词情感向量,词情感向量的排序和所述目标文本中词语的前后顺序是相对应的。所述目标文本中各个词语的词情感向量还可以作为副产物,用于进行后续自然语言处理任务。
示例性地,结合参考说明书附图3,所述神经网络模型还可以包括情感生成模型320,所述情感生成模型320可以包括Bi-LSTM网络、归一化层和注意力网络,将目标文本的词向量序列{Ew1,Ew2,Ew3,…,Ewn}和词语义向量序列{h1,h2,h3,…,hn}输入所述Bi-LSTM网络,可以输出所述目标文本中各个词语的词情感向量e1,e2,e3,…,en,生成所述目标文本的词情感向量序列{e1,e2,e3,…,en},将所述词情感向量序列输入归一化层进行归一化后与所述目标文本的语义向量hs一同输入注意力网络,可以得到所述目标文本的情感向量es。
S240:将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果。
本发明实施例中,可以针对当前应用场景预先确定一个情感集合,所述情感集合可以包括当前场景下常见的情感类型,例如,可以包括“高兴”、“悲伤”、“惊讶”、“气愤”、“厌恶”和“恐惧”等等。所述情感分类模型可以根据所述语义向量确定所述目标文本在所述情感集合中的每一类情感上的分量,再结合所述情感向量最终确定所述目标文本的情感分类结果。
需要说明的是,在不同的应用场景下可以有不同的情感集合,并且不同场景下的情感集合的情感类型及情感类型的数量也可以不同,本发明实施例对此不做限定。
在一个可能的实施例中,所述情感分类模型可以包括第二神经网络和分类网络;
所述将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果可以包括:
基于所述第二神经网络对所述语义向量进行处理,得到所述目标文本的分类特征向量;
基于所述分类网络对所述分类特征向量和所述情感向量进行分析,得到所述目标文本的情感分类结果。
本发明实施例中,所述第二神经网络可以为多种神经网络,例如多层感知机或者卷积神经网络等不同的神经网络,所述分类网络也可以为多种神经网络,例如Softmax分类网络等等,本发明实施例对此不做限定。
示例性地,结合参考说明书附图3,所述神经网络模型还可以包括情感分类模型330,所述情感分类模型330可以包括MLPs网络和Softmax分类网络,将所述目标文本的语义向量hs输入所述MLPs网络可以输出所述目标文本的分类特征向量,将所述分类特征向量和目标文本的情感向量es输入所述Softmax分类网络可以输出所述目标文本的情感分类结果。
在一个可能的实施例中,所述方法还可以包括根据目标文本的情感分类结果确定响应文本,并将所述响应文本反馈给终端。示例性地,在智能问答***中,可以预先针对不同情感分类结果构建对应的答案文本集合,当得到目标文本的情感分类结果后,可以基于所述情感分类结果在对应的答案文本集合中选取匹配的答案文本作为响应文本反馈给终端。例如,具体可采用一些文本匹配的检测算法等,本发明实施例对此不作具体限定。
下面以智能问答***为例进行说明,所述智能问答***包括终端和服务器,所述智能问答***在实现智能问答时,可以包括如下几个步骤:
1)终端获取用户通过客户端输入的目标文本,向服务器发送问答请求,所述问答请求包括文本标识和所述目标文本,所述文本标识用于标记所述目标文本,由此区分不同的目标文本。
2)服务器接收到所述问答请求后,使用本发明方法实施例提供的情感分类方法,基于所述语义编码模型、所述情感生成模型和所述情感分类模型对所述目标文本进行情感分类,得到情感分类结果,并根据所述情感分类结果确定对应的答案文本,将所述答案文本返回给终端。
3)终端接收到所述答案文本后,可以通过客户端的交互界面进行展示。
基于上述智能问答***的交互过程,以图5所示的用户界面为例进行说明。用户可以通过会话界面51中的用于供用户输入消息文本的操作控件52和用于供用户触发发送消息文本的操作控件53输入并发送所述目标文本。服务器接收到目标文本后,对所述目标文本进行情感分类,并根据所述情感分类结果确定对应的答案文本,将所述答案文本返回给终端。终端可以通过所述会话界面51展示所述答案文本。当用户输入的目标文本为“我今天好郁闷啊,不开心。”则通过本发明实施例提供的情感分类方法获取到情感分类结果之后,基于该情感分类结果获取到的答案文本可以为“不要哭泣,阳光总在风雨后。”
此外,除上述举例外,本发明实施例提供的方法还可应用于应用程序评价分析、网络产品评价分析、网商智能客服和语音助手等等,赋予机器人一定的情感能力。
参考说明书附图6,其示出了本发明一个实施例提供的模型训练方法的流程图。如图6所示,所述文本情感分类方法还可以包括训练所述语义编码模型、所述情感生成模型和所述情感分类模型的步骤;所述训练所述语义编码模型、所述情感生成模型和所述情感分类模型的步骤可以包括:
S610:构建预设神经网络模型,所述预设神经网络模型包括预设语义编码模型、预设情感生成模型和预设情感分类模型,所述预设语义编码模型包括基于自注意力的第三神经网络,所述预设情感生成模型包括基于自注意力的第一神经网络和注意力网络,所述预设情感分类模型包括第二神经网络和分类网络。
在一个可能的实施例中,所述第一神经网络包括双向长短时记忆网络或者卷积神经网络,所述第二神经网络包括多层感知机网络或者卷积神经网络,所述第三神经网络包括双向长短时记忆网络、循环神经网络或者卷积神经网络。示例性地,所述预设语义编码模型可以包括Bi-LSTM网络,所述预设情感生成模型可以包括Bi-LSTM网络、归一化层和注意力网络,所述预设情感分类模型可以包括MLPs网络和Softmax分类网络。
S620:获取训练文本集,所述训练文本集包括多个训练文本及其对应的情感标签。
本发明实施例中,所述训练文本集中的训练文本可以为目标领域(例如智能问答领域)的标注有情感类型标签的语料文本,所述标签可以为人工标注的用于标记所述训练文本的情感类型的标签。实际应用中,可以采用公开的数据集作为训练所述语义编码模型、所述情感生成模型和所述情感分类模型的训练文本集。
S630:使用所述训练文本集中的训练文本对所述预设神经网络模型进行训练,在训练过程中调整所述预设语义编码模型、所述预设情感生成模型和所述预设情感分类模型的模型参数至所述预设神经网络模型的输出结果与训练文本的情感标签相匹配,得到所述语义编码模型、所述情感生成模型和所述情感分类模型。
本发明实施例中,可以基于BERT模型、LSTM网络、MLPs网络进行机器学习训练,在训练过程中根据损失函数的值调整所述预设语义编码模型、所述预设情感生成模型和所述预设情感分类模型的模型参数直至所述损失函数收敛,然后将当前模型参数对应的预设语义编码模型作为训练完成的语义编码模型,将当前模型参数对应的预设情感生成模型作为训练完成的情感生成模型,将当前模型参数对应的预设情感分类模型作为训练完成的情感分类模型。
通过在公开的数据集SemEval 2018上验证表明,本发明实施例提供的情感分类方法有效的高于现有的其他方法,将该数据集上测试集的准确率提高到了59.3%,与Baziotis等人2018提出的方法相比提高了5%。
综上所述,本发明的文本情感分类方法,通过预先训练的情感生成模型动态地为目标文本的各个词语生成基于上下文的词情感向量,并将词情感向量引入文本情感分类中,能够有效地提高情感分类的准确性。由于动态的为每个词语生成词情感向量,相比于固定标注,可以有效地处理一词多情感问题。本发明的文本情感分类方法在模型训练过程中无需依赖外部情感词典,避免了由于标注不一致带来的不匹配问题和词典覆盖度问题。由于不需要依赖外部词典,本发明的文本情感分类方法可以对新任务、新数据有较好的适应性。
参考说明书附图7,其示出了本发明一个实施例提供的文本情感分类装置的结构。如图7所示,所述装置可以包括:
词向量序列生成模块710,用于获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列;
语义向量生成模块720,用于利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量;
情感向量生成模块730,用于将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量,所述情感生成模型为基于注意力的神经网络模型;
情感分类模块740,用于将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果。
在一个可能的实施例中,所述装置还可以包括模型训练模块750,所述模型训练模块750用于训练所述语义编码模型、所述情感生成模型和所述情感分类模型;参考说明书附图8,所述模型训练模块750可以包括:
模型构建单元751,用于构建预设神经网络模型,所述预设神经网络模型包括预设语义编码模型、预设情感生成模型和预设情感分类模型,所述预设语义编码模型包括基于自注意力的第三神经网络,所述预设情感生成模型包括基于自注意力的第一神经网络和注意力网络,所述预设情感分类模型包括第二神经网络和分类网络;
训练文本集获取单元752,用于获取训练文本集,所述训练文本集包括多个训练文本及其对应的情感标签;
模型训练单元753,用于使用所述训练文本集中的训练文本对所述预设神经网络模型进行训练,在训练过程中调整所述预设语义编码模型、所述预设情感生成模型和所述预设情感分类模型的模型参数至所述预设神经网络模型的输出结果与训练文本的情感标签相匹配,得到所述语义编码模型、所述情感生成模型和所述情感分类模型。
在一个可能的实施例中,所述第一神经网络包括双向长短时记忆网络或者卷积神经网络,所述第二神经网络包括多层感知机网络或者卷积神经网络,所述第三神经网络包括双向长短时记忆网络、循环神经网络或者卷积神经网络。
需要说明的是,本发明实施例提供的装置实施例与上述方法实施例基于相同的发明构思。上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
本发明实施例还提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述方法实施例提供的文本情感分类方法。
其中,存储器可用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行各种功能应用以及情感分类。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、功能所需的应用程序等;存储数据区可存储根据所述设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器还可以包括存储器控制器,以提供处理器对存储器的访问。
本发明实施例所提供的方法实施例可以在终端、服务器或者类似的运算装置中执行,即上述电子设备可以包括终端、服务器或者类似的运算装置。以运行在服务器上为例,如图9所示,其示出了本发明一个实施例提供的运行文本情感分类方法的服务器的结构示意图。该服务器900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(Central Processing Unit,CPU)910(例如,一个或一个以上处理器)和存储器930,一个或一个以上存储应用程序923或数据922的存储介质920(例如一个或一个以上海量存储设备)。其中,存储器930和存储介质920可以是短暂存储或持久存储。存储在存储介质920的程序可以包括一个或一个以上模块,每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器910可以设置为与存储介质920通信,在服务器900上执行存储介质920中的一系列指令操作。服务器900还可以包括一个或一个以上电源960,一个或一个以上有线或无线网络接口950,一个或一个以上输入输出接口940,和/或,一个或一个以上操作***921,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
输入输出接口940可以用于经由一个网络接收或者发送数据。上述的网络具体实例可包括服务器900的通信供应商提供的无线网络。在一个实例中,输入输出接口940包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,输入输出接口940可以为射频(RadioFrequency,RF)模块,其用于通过无线方式与互联网进行通讯,所述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯***(Global System ofMobilecommunication,GSM)、通用分组无线服务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code DivisionMultiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(ShortMessaging Service,SMS)等。
本领域普通技术人员可以理解,图9所示的结构仅为示意,服务器900还可包括比图9中所示更多或者更少的组件,或者具有与图9所示不同的配置。
本发明一个实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由处理器加载并执行以实现如上述方法实施例提供的文本情感分类方法。
可选地,在本发明实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本发明一个实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述方法实施例中各种可选实现方式中提供的文本情感分类方法。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、终端和服务器实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种文本情感分类方法,其特征在于,包括:
获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列;
利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量;所述语义编码模型包括基于自注意力的第三神经网络;所述利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量包括:基于所述第三神经网络对所述词向量序列进行处理,得到所述目标文本中各个词语的词语义向量;根据所述目标文本中各个词语的词语义向量生成所述词向量序列对应的词语义向量序列;对所述词语义向量序列进行聚合,得到所述目标文本的语义向量;
将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量,所述情感生成模型为基于注意力的神经网络模型;所述情感生成模型根据所述词向量序列和所述词语义向量序列为所述目标文本的每个词语生成一个基于上下文的词情感向量,采用注意力机制根据各个词语的词情感向量和所述语义向量生成所述目标文本的情感向量;所述情感生成模型包括基于自注意力的第一神经网络和注意力网络;所述将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量包括:基于所述第一神经网络对所述词向量序列和所述词语义向量序列进行分析,得到所述目标文本中各个词语的词情感向量;根据所述目标文本中各个词语的词情感向量生成所述目标文本的词情感向量序列;基于所述注意力网络对所述语义向量和所述词情感向量序列进行分析,将所述词情感向量序列聚合成所述目标文本的情感向量;
将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果。
2.根据权利要求1所述的方法,其特征在于,所述情感分类模型包括第二神经网络和分类网络;
所述将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果包括:
基于所述第二神经网络对所述语义向量进行处理,得到所述目标文本的分类特征向量;
基于所述分类网络对所述分类特征向量和所述情感向量进行分析,得到所述目标文本的情感分类结果。
3.根据权利要求1所述的方法,其特征在于,所述获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列包括:
对所述目标文本进行分词处理,得到所述目标文本包含的多个词语;
对所述多个词语分别进行编码,得到所述多个词语的词向量;
根据所述多个词语的词向量生成所述目标文本的词向量序列。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括训练所述语义编码模型、所述情感生成模型和所述情感分类模型的步骤;
所述训练所述语义编码模型、所述情感生成模型和所述情感分类模型包括:
构建预设神经网络模型,所述预设神经网络模型包括预设语义编码模型、预设情感生成模型和预设情感分类模型,所述预设语义编码模型包括基于自注意力的第三神经网络,所述预设情感生成模型包括基于自注意力的第一神经网络和注意力网络,所述预设情感分类模型包括第二神经网络和分类网络;
获取训练文本集,所述训练文本集包括多个训练文本及其对应的情感标签;
使用所述训练文本集中的训练文本对所述预设神经网络模型进行训练,在训练过程中调整所述预设语义编码模型、所述预设情感生成模型和所述预设情感分类模型的模型参数至所述预设神经网络模型的输出结果与训练文本的情感标签相匹配,得到所述语义编码模型、所述情感生成模型和所述情感分类模型。
5.根据权利要求4所述的方法,其特征在于,所述第一神经网络包括双向长短时记忆网络或者卷积神经网络,所述第二神经网络包括多层感知机网络或者卷积神经网络,所述第三神经网络包括双向长短时记忆网络、循环神经网络或者卷积神经网络。
6.一种文本情感分类装置,其特征在于,包括:
词向量序列生成模块,用于获取待分类的目标文本,对所述目标文本进行处理,得到所述目标文本的词向量序列;
语义向量生成模块,用于利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量;所述语义编码模型包括基于自注意力的第三神经网络;所述利用预先训练的语义编码模型对所述词向量序列进行处理,得到所述词向量序列对应的词语义向量序列以及所述目标文本的语义向量包括:基于所述第三神经网络对所述词向量序列进行处理,得到所述目标文本中各个词语的词语义向量;根据所述目标文本中各个词语的词语义向量生成所述词向量序列对应的词语义向量序列;对所述词语义向量序列进行聚合,得到所述目标文本的语义向量;
情感向量生成模块,用于将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量,所述情感生成模型为基于注意力的神经网络模型;所述情感生成模型根据所述词向量序列和所述词语义向量序列为所述目标文本的每个词语生成一个基于上下文的词情感向量,采用注意力机制根据各个词语的词情感向量和所述语义向量生成所述目标文本的情感向量;所述情感生成模型包括基于自注意力的第一神经网络和注意力网络;所述将所述词向量序列、所述词语义向量序列以及所述语义向量输入预先训练的情感生成模型,得到所述目标文本的情感向量包括:基于所述第一神经网络对所述词向量序列和所述词语义向量序列进行分析,得到所述目标文本中各个词语的词情感向量;根据所述目标文本中各个词语的词情感向量生成所述目标文本的词情感向量序列;基于所述注意力网络对所述语义向量和所述词情感向量序列进行分析,将所述词情感向量序列聚合成所述目标文本的情感向量;
情感分类模块,用于将所述语义向量和所述情感向量输入预先训练的情感分类模型,得到所述目标文本的情感分类结果。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括模型训练模块,所述模型训练模块用于训练所述语义编码模型、所述情感生成模型和所述情感分类模型;所述模型训练模块包括:
模型构建单元,用于构建预设神经网络模型,所述预设神经网络模型包括预设语义编码模型、预设情感生成模型和预设情感分类模型,所述预设语义编码模型包括基于自注意力的第三神经网络,所述预设情感生成模型包括基于自注意力的第一神经网络和注意力网络,所述预设情感分类模型包括第二神经网络和分类网络;
训练文本集获取单元,用于获取训练文本集,所述训练文本集包括多个训练文本及其对应的情感标签;
模型训练单元,用于使用所述训练文本集中的训练文本对所述预设神经网络模型进行训练,在训练过程中调整所述预设语义编码模型、所述预设情感生成模型和所述预设情感分类模型的模型参数至所述预设神经网络模型的输出结果与训练文本的情感标签相匹配,得到所述语义编码模型、所述情感生成模型和所述情感分类模型。
8.根据权利要求7所述的装置,其特征在于,所述第一神经网络包括双向长短时记忆网络或者卷积神经网络,所述第二神经网络包括多层感知机网络或者卷积神经网络,所述第三神经网络包括双向长短时记忆网络、循环神经网络或者卷积神经网络。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如权利要求1-5任意一项所述的文本情感分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由处理器加载并执行以实现如权利要求1-5任意一项所述的文本情感分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010748294.1A CN111930940B (zh) | 2020-07-30 | 2020-07-30 | 一种文本情感分类方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010748294.1A CN111930940B (zh) | 2020-07-30 | 2020-07-30 | 一种文本情感分类方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111930940A CN111930940A (zh) | 2020-11-13 |
CN111930940B true CN111930940B (zh) | 2024-04-16 |
Family
ID=73315432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010748294.1A Active CN111930940B (zh) | 2020-07-30 | 2020-07-30 | 一种文本情感分类方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111930940B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113780610A (zh) * | 2020-12-02 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 一种客服画像构建方法和装置 |
CN112597312A (zh) * | 2020-12-28 | 2021-04-02 | 深圳壹账通智能科技有限公司 | 文本分类方法、装置、电子设备及可读存储介质 |
CN112732915A (zh) * | 2020-12-31 | 2021-04-30 | 平安科技(深圳)有限公司 | 情感分类方法、装置、电子设备及存储介质 |
CN113569584B (zh) * | 2021-01-25 | 2024-06-14 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、电子设备及计算机可读存储介质 |
CN112784048B (zh) * | 2021-01-26 | 2023-03-28 | 海尔数字科技(青岛)有限公司 | 对用户问题进行情感分析的方法、装置、设备及存储介质 |
CN112820412B (zh) * | 2021-02-03 | 2024-03-08 | 东软集团股份有限公司 | 用户信息的处理方法、装置、存储介质和电子设备 |
CN112836053A (zh) * | 2021-03-05 | 2021-05-25 | 三一重工股份有限公司 | 用于工业领域的人机对话情感分析方法及*** |
CN113177994B (zh) * | 2021-03-25 | 2022-09-06 | 云南大学 | 基于图文语义的网络社交表情包合成方法、电子设备和计算机可读存储介质 |
CN113469197B (zh) * | 2021-06-29 | 2024-03-22 | 北京达佳互联信息技术有限公司 | 图文匹配方法、装置、设备以及存储介质 |
CN113705243A (zh) * | 2021-08-27 | 2021-11-26 | 电子科技大学 | 一种情感分析方法 |
CN113806541A (zh) * | 2021-09-16 | 2021-12-17 | 北京百度网讯科技有限公司 | 情感分类的方法和情感分类模型的训练方法、装置 |
WO2023069017A2 (en) * | 2021-10-19 | 2023-04-27 | Grabtaxi Holdings Pte. Ltd. | System and method for recognizing sentiment of user's feedback |
CN114048319B (zh) * | 2021-11-29 | 2024-04-23 | 中国平安人寿保险股份有限公司 | 基于注意力机制的幽默文本分类方法、装置、设备、介质 |
CN116244440B (zh) * | 2023-02-28 | 2024-02-13 | 深圳市云积分科技有限公司 | 文本情感分类方法、装置、设备及介质 |
CN116108859A (zh) * | 2023-03-17 | 2023-05-12 | 美云智数科技有限公司 | 情感倾向确定、样本构建、模型训练方法、装置及设备 |
CN116631583A (zh) * | 2023-05-30 | 2023-08-22 | 华脑科学研究(珠海横琴)有限公司 | 基于物联网大数据的心理疏导方法、装置以及服务器 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107316654A (zh) * | 2017-07-24 | 2017-11-03 | 湖南大学 | 基于dis‑nv特征的情感识别方法 |
CN108536681A (zh) * | 2018-04-16 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 基于情感分析的智能问答方法、装置、设备及存储介质 |
CN109271627A (zh) * | 2018-09-03 | 2019-01-25 | 深圳市腾讯网络信息技术有限公司 | 文本分析方法、装置、计算机设备和存储介质 |
CN110377740A (zh) * | 2019-07-22 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 情感极性分析方法、装置、电子设备及存储介质 |
CN110390956A (zh) * | 2019-08-15 | 2019-10-29 | 龙马智芯(珠海横琴)科技有限公司 | 情感识别网络模型、方法及电子设备 |
CN110532554A (zh) * | 2019-08-26 | 2019-12-03 | 南京信息职业技术学院 | 一种中文摘要生成方法、***及存储介质 |
CN110866398A (zh) * | 2020-01-07 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 评论文本处理方法、装置、存储介质和计算机设备 |
CN111081280A (zh) * | 2019-12-30 | 2020-04-28 | 苏州思必驰信息科技有限公司 | 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法 |
CN111368079A (zh) * | 2020-02-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 一种文本分类的方法、模型训练的方法、装置及存储介质 |
-
2020
- 2020-07-30 CN CN202010748294.1A patent/CN111930940B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107316654A (zh) * | 2017-07-24 | 2017-11-03 | 湖南大学 | 基于dis‑nv特征的情感识别方法 |
CN108536681A (zh) * | 2018-04-16 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 基于情感分析的智能问答方法、装置、设备及存储介质 |
CN109271627A (zh) * | 2018-09-03 | 2019-01-25 | 深圳市腾讯网络信息技术有限公司 | 文本分析方法、装置、计算机设备和存储介质 |
CN110377740A (zh) * | 2019-07-22 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 情感极性分析方法、装置、电子设备及存储介质 |
CN110390956A (zh) * | 2019-08-15 | 2019-10-29 | 龙马智芯(珠海横琴)科技有限公司 | 情感识别网络模型、方法及电子设备 |
CN110532554A (zh) * | 2019-08-26 | 2019-12-03 | 南京信息职业技术学院 | 一种中文摘要生成方法、***及存储介质 |
CN111081280A (zh) * | 2019-12-30 | 2020-04-28 | 苏州思必驰信息科技有限公司 | 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法 |
CN110866398A (zh) * | 2020-01-07 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 评论文本处理方法、装置、存储介质和计算机设备 |
CN111368079A (zh) * | 2020-02-28 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 一种文本分类的方法、模型训练的方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
融合情感与语义信息的情感分析方法;孟仕林;《信息科技》;第39卷(第7期);第1931-1935页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111930940A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111930940B (zh) | 一种文本情感分类方法、装置、电子设备及存储介质 | |
US20210232761A1 (en) | Methods and systems for improving machine learning performance | |
US20200301954A1 (en) | Reply information obtaining method and apparatus | |
CN108319599B (zh) | 一种人机对话的方法和装置 | |
CN109829039B (zh) | 智能聊天方法、装置、计算机设备及存储介质 | |
JP2019102063A (ja) | ページ制御方法および装置 | |
CN109086303A (zh) | 基于机器阅读理解的智能对话方法、装置、终端 | |
US20190278857A1 (en) | Sequence to Sequence Conversational Query Understanding | |
WO2017186050A1 (zh) | 人机智能问答***的断句识别方法和装置 | |
CN111967224A (zh) | 对话文本的处理方法、装置、电子设备及存储介质 | |
CN111428010A (zh) | 人机智能问答的方法和装置 | |
CN113987147A (zh) | 样本处理方法及装置 | |
CN112287085B (zh) | 语义匹配方法、***、设备及存储介质 | |
US11216497B2 (en) | Method for processing language information and electronic device therefor | |
CN117332072B (zh) | 对话处理、语音摘要提取以及目标对话模型训练方法 | |
CN111639162A (zh) | 信息交互方法和装置、电子设备和存储介质 | |
CN116541493A (zh) | 基于意图识别的交互应答方法、装置、设备、存储介质 | |
CN116821290A (zh) | 面向多任务对话的大语言模型训练方法和交互方法 | |
KR20190074508A (ko) | 챗봇을 위한 대화 모델의 데이터 크라우드소싱 방법 | |
CN111274813B (zh) | 语言序列标注方法、装置存储介质及计算机设备 | |
Inupakutika et al. | Integration of NLP and Speech-to-text Applications with Chatbots | |
CN110427470A (zh) | 问答处理方法、装置及电子设备 | |
Kaviya et al. | Artificial intelligence based farmer assistant chatbot | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN115098665A (zh) | 一种对话数据扩展方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |