CN116432107A - 一种细粒度情感分类方法 - Google Patents

一种细粒度情感分类方法 Download PDF

Info

Publication number
CN116432107A
CN116432107A CN202310627129.4A CN202310627129A CN116432107A CN 116432107 A CN116432107 A CN 116432107A CN 202310627129 A CN202310627129 A CN 202310627129A CN 116432107 A CN116432107 A CN 116432107A
Authority
CN
China
Prior art keywords
emotion
neural network
information
emotion classification
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310627129.4A
Other languages
English (en)
Inventor
马汉达
杨智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202310627129.4A priority Critical patent/CN116432107A/zh
Publication of CN116432107A publication Critical patent/CN116432107A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种细粒度情感分类方法,其特征在于,所述方法包括:S1获取待分析的句子及其对应的方面词,并进行预处理;S2将所述S1获取的句子及其对应的方面词拼接输入到SKEP预训练模型进行处理,获得每个词向量与上下文信息整合后的语义信息;S3对所述S2获得的语义信息,采用多层神经网络进行特征提取,获取更深层次信息;S4将S3提取出的更深层次信息输入到输出层进行细粒度情感预测,得到情感分析方法的分析结果。本发明采用SKEP‑BiLSTM‑融合注意力的门限卷积神经网络模型,增强了方面词与评论语句的关联,引入BiLSTM与门限卷积神经网络,能对情感特征进行深度提取。

Description

一种细粒度情感分类方法
技术领域
本发明属于自然语言处理的文本情感分析领域,具体涉及一种细粒度情感分类方法。
背景技术
随着信息化时代的到来,互联网上充斥着各式各样的文本内容,其中蕴含着丰富的信息,尤其在新兴的服务行业里,从成千上万的评论信息中可以体现出商家是否拥有良好的口碑,并借此来评判其服务质量。如何从众多评论文本中抽取各个粒度的情感倾向,是值得研究的现实性问题。
细粒度情感分类是情感分类的一个重要的子任务,是对主观性文本的更深层次的分析。它不仅取决于上下文的信息,还与给定的方面信息相关,其任务是对文本中出现的多个评论对象进行深刻的分析,分离出多个对象的情感极性。细粒度情感分析可以识别一条评论中各个给定的方面词的情感倾向,并由此得出更加准确、全面的情感分析结论,避免信息丢失。
目前已有的情感分析方法可以分为基于情感词典、基于传统机器学习以及基于神经网络深度学习的情感分析方法。早期基于情感词典的情感分析方法主要依靠人工构建情感词典,对网络新词效果不好,使用需要扩充词典。基于机器学习方法:使用统计机器学习算法,抽取特征,输出情感结果,但不能充分利用上下文文本的语境信息。
因此,亟需一种能提升推文情感分类准确率的新的细粒度情感分类方法。
发明内容
为解决现有技术中存在的问题,本发明一种细粒度情感分类方法,步骤如下:
S1获取待分析的句子及其对应的方面词,并进行预处理;
S2将经过预处理后的句子及其对应的方面词拼接输入到SKEP预训练模型进行处理,获得每个词向量与上下文信息整合后的语义信息;
S3对所述S2获得的语义信息,采用多层神经网络进行特征提取,获取更深层次信息;
S4将S3提取出的更深层次信息输入到输出层进行细粒度情感预测,得到情感分类结果。
进一步的,所述预处理具体为:
对待分析的句子及其对应的方面词中包含的emoji表情进行转义处理,将其转换为文本描述,增强原始语句的情感特征;将等同于停用词一类的无用信息进行数据清洗;并对语句进行分词。
进一步的,所述S2具体为:
将经过预处理的句子及其对应的方面词拼接为“文本开始符号+待分析的句子+文本分隔及结束符号+方面词+文本分隔及结束符号”形式的输入文本序列;将文本序列输入进所述SKEP预训练模型中,得到词向量表示与上下文信息整合后的语义信息。
进一步的,所述S3具体为:
将所述SKEP预训练模型提取到的语义信息输入到多层神经网络中,多层神经网络接收到语义信息后,会在每个单词的位置输出一个前向向量和后向向量,然后将每个时间步骤对应的两个向量进行拼接,作为最终的输出向量;在这些上下文向量中应用Attention机制,获得整个文本序列的语义向量,再通过门限卷积神经网络获取更深层信息。
进一步的,所述多层神经网络由门限卷积神经网络和BiLSTM构成。
进一步的,所述S4具体为:
将所述S3得到的更深层信息输入一个输出层中,所述输出层包括一个全连接层和softmax,获得p个输出,其中p代表情感分析任务中包含的不同的情感极性数量;最终完成细粒度情感分类。
进一步的,采用Adam优化器对所述SKEP预训练模型进行优化,优化过程中使用交叉熵作为损失函数。
本发明的技术效果:
本发明采用SKEP-BiLSTM-融合注意力的门限卷积神经网络模型,增强了方面词与评论语句的关联,引入BiLSTM与门限卷积神经网络,能对情感特征进行深度提取。
附图说明
附图大体上通过举例而不是限制的方式示出各种实施例,并且与说明书以及权利要求书一起用于对所发明的实施例进行说明。在适当的时候,在所有附图中使用相同的附图标记指代同一或相似的部分。这样的实施例是例证性的,而并非旨在作为本装置或方法的穷尽或排他实施例。
图1示出了本发明的步骤示意图;
图2示出了本发明的流程示意图;
图3示出了本发明的架构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,
对数据进行预处理;
S1获取待分析的句子及其对应的方面词;
S2将经过预处理后所述S1获取的句子及其对应的方面词拼接输入到SKEP预训练模型进行处理,获得每个词向量与上下文信息整合后的语义信息;
S3对所述S2获得的语义信息,采用多层神经网络进行特征提取,获取更深层次信息;
S4将所述S3提取出的更深层次信息输入全连接层进行细粒度情感预测,得到情感分类结果。
所述预处理具体为:
对待分析的句子及其对应的方面词中包含的emoji表情进行转义处理,将其转换为文本描述,增强原始语句的情感特征;将等同于停用词一类的无用信息进行数据清洗;并对语句进行分词。
所述S2具体为:
将经过预处理后的句子及其对应的方面词拼接为“文本开始符号+待分析的句子+文本分隔及结束符号+方面词+文本分隔及结束符号”形式的输入文本序列;将文本序列输入进所述SKEP预训练模型中,得到词向量表示与上下文信息整合后的语义信息。
所述S3具体为:
将所述SKEP预训练模型提取到的语义信息输入到多层神经网络中,多层神经网络接收到语义信息后,会在每个单词的位置输出一个前向向量和后向向量,然后将每个时间步骤对应的两个向量进行拼接,作为最终的输出向量;在这些上下文向量中应用Attention机制,获得整个文本序列的语义向量,再通过门限卷积神经网络获取更深层信息。
所述多层神经网络由门限卷积神经网络和BiLSTM构成。
所述S4具体为:
将所述S3得到的更深层信息输入一个输出层中,包括一个全连接层和softmax,获得p个输出,其中p代表情感分析任务中包含的不同的情感极性数量;最终完成细粒度情感分类。
采用Adam优化器对所述SKEP预训练模型进行优化,优化过程中使用交叉熵作为损失函数。
以上所述,仅为本发明优选的具体实施方式,但本发明的保护范围不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (7)

1.一种细粒度情感分类方法,其特征在于,所述方法包括:
S1获取待分析的句子及其对应的方面词,并进行预处理;
S2将经过预处理后的句子及其对应的方面词拼接输入到SKEP预训练模型进行处理,获得每个词向量与上下文信息整合后的语义信息;
S3对所述S2获得的语义信息,采用多层神经网络进行特征提取,获取更深层次信息;
S4将所述S3提取出的更深层次信息输入到输出层进行细粒度情感预测,得到情感分类结果。
2.根据权利要求1所述的细粒度情感分类方法,其特征在于,所述预处理具体为:
对待分析的句子及其对应的方面词中包含的emoji表情进行转义处理,将其转换为文本描述,增强原始语句的情感特征;将等同于停用词一类的无用信息进行数据清洗,并对语句进行分词。
3.根据权利要求1所述的细粒度情感分类方法,其特征在于,所述S2具体为:
将经过与处理后的句子及其对应的方面词拼接为“文本开始符号+待分析的句子+文本分隔及结束符号+方面词+文本分隔及结束符号”形式的输入文本序列;将文本序列输入进所述SKEP预训练模型中,得到词向量表示与上下文信息整合后的语义信息。
4.根据权利要求1所述的细粒度情感分类方法,其特征在于,所述S3具体为:
将所述SKEP预训练模型提取到的语义信息输入到多层神经网络中,多层神经网络接收到语义信息后,会在每个单词的位置输出一个前向向量和后向向量,然后将每个时间步骤对应的两个向量进行拼接,作为最终的输出向量;在这些上下文向量中应用Attention机制,获得整个文本序列的语义向量,再通过门限卷积神经网络获取更深层信息。
5.根据权利要求4所述的细粒度情感分类方法,其特征在于,所述多层神经网络由门限卷积神经网络和BiLSTM构成。
6.根据权利要求1所述的细粒度情感分类方法,其特征在于,所述S4具体为:
将所述S3得到的更深层信息输入到输出层,获得p个输出,其中p代表情感分析任务中包含的不同的情感极性数量,最终完成细粒度情感分类。
7.根据权利要求1所述的细粒度情感分类方法,其特征在于,采用Adam优化器对所述SKEP预训练模型进行优化,优化过程中使用交叉熵作为损失函数。
CN202310627129.4A 2023-05-30 2023-05-30 一种细粒度情感分类方法 Pending CN116432107A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310627129.4A CN116432107A (zh) 2023-05-30 2023-05-30 一种细粒度情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310627129.4A CN116432107A (zh) 2023-05-30 2023-05-30 一种细粒度情感分类方法

Publications (1)

Publication Number Publication Date
CN116432107A true CN116432107A (zh) 2023-07-14

Family

ID=87081706

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310627129.4A Pending CN116432107A (zh) 2023-05-30 2023-05-30 一种细粒度情感分类方法

Country Status (1)

Country Link
CN (1) CN116432107A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460553A (zh) * 2018-11-05 2019-03-12 中山大学 一种基于门限卷积神经网络的机器阅读理解方法
CN111881249A (zh) * 2020-06-08 2020-11-03 江苏大学 一种基于循环神经网络判断文本情感倾向性的方法
CN115292485A (zh) * 2022-06-14 2022-11-04 中国民用航空飞行学院 一种基于SKEP-ERNIE-BiGRU网络模型结构的情感分类方法
CN115730606A (zh) * 2022-12-07 2023-03-03 辽宁大学 一种基于bert模型以及注意力集中网络的细粒度情感分析方法
CN115906824A (zh) * 2022-11-17 2023-04-04 北京工业大学 一种文本细粒度情感分析方法、***、介质和计算设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460553A (zh) * 2018-11-05 2019-03-12 中山大学 一种基于门限卷积神经网络的机器阅读理解方法
CN111881249A (zh) * 2020-06-08 2020-11-03 江苏大学 一种基于循环神经网络判断文本情感倾向性的方法
CN115292485A (zh) * 2022-06-14 2022-11-04 中国民用航空飞行学院 一种基于SKEP-ERNIE-BiGRU网络模型结构的情感分类方法
CN115906824A (zh) * 2022-11-17 2023-04-04 北京工业大学 一种文本细粒度情感分析方法、***、介质和计算设备
CN115730606A (zh) * 2022-12-07 2023-03-03 辽宁大学 一种基于bert模型以及注意力集中网络的细粒度情感分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
马费成,赵一鸣: "《大数据环境下的知识组织与服务创新》", 30 November 2021, 武汉:武汉大学出版社, pages: 321 - 328 *
黄晨: "基于深度学习的网络评论情感分析技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 06, pages 138 - 1266 *

Similar Documents

Publication Publication Date Title
CN110532554B (zh) 一种中文摘要生成方法、***及存储介质
CN108319666B (zh) 一种基于多模态舆情分析的供电服务评估方法
CN106886580B (zh) 一种基于深度学习的图片情感极性分析方法
CN109344231B (zh) 一种补全语义残缺的语料的方法及***
CN110853649A (zh) 基于智能语音技术的标签提取方法、***、设备及介质
CN112100388A (zh) 一种长文本新闻舆情的情感极性的分析方法
CN111339305A (zh) 文本分类方法、装置、电子设备及存储介质
CN112861524A (zh) 一种基于深度学习的多层次中文细粒度情感分析方法
CN112579762B (zh) 一种基于语义、情感惯性和情感共性的对话情感分析方法
CN113657115A (zh) 一种基于讽刺识别和细粒度特征融合的多模态蒙古文情感分析方法
CN111339772B (zh) 俄语文本情感分析方法、电子设备和存储介质
Munandar et al. A multi domains short message sentiment classification using hybrid neural network architecture
CN111460100A (zh) 一种刑事法律文书罪名的推荐方法和***
KR20190123093A (ko) 감정 온톨로지에 기반을 둔 이모티콘 추천 장치 및 방법
CN115269836A (zh) 意图识别方法及装置
Nithya et al. Deep learning based analysis on code-mixed tamil text for sentiment classification with pre-trained ulmfit
CN114065749A (zh) 一种面向文本的粤语识别模型及***的训练、识别方法
CN112836053A (zh) 用于工业领域的人机对话情感分析方法及***
CN111666385A (zh) 一种基于深度学习的客服问答***及实现方法
CN113780418A (zh) 一种数据的筛选方法、***、设备和存储介质
CN116432107A (zh) 一种细粒度情感分类方法
CN112464664B (zh) 一种多模型融合中文词汇复述抽取方法
CN115827831A (zh) 意图识别模型训练方法及装置
CN113988047A (zh) 一种语料筛选方法和装置
He Recent works for sentiment analysis using machine learning and lexicon based approaches

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination