CN114201957A - 文本情感分析方法、装置及计算机可读存储介质 - Google Patents
文本情感分析方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN114201957A CN114201957A CN202111486407.6A CN202111486407A CN114201957A CN 114201957 A CN114201957 A CN 114201957A CN 202111486407 A CN202111486407 A CN 202111486407A CN 114201957 A CN114201957 A CN 114201957A
- Authority
- CN
- China
- Prior art keywords
- word
- text
- attribute
- emotion
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及大数据领域,公开了一种文本情感分析方法、装置及计算机可读存储介质。其中,文本情感分析方法,包括:获取目标文本中的各个词语;获取所述各个词语的词向量表示;获取所述各个词语的隐式依存句法结构信息表示;将各个所述词语的所述词向量表示和所述隐式依存句法结构信息表示拼接、得到输入矩阵;将所述输入矩阵输入属性情感分析模型,得到所述目标文本的属性情感分类。与现有技术相比,本发明实施方式所提供的情感分析方法、装置及计算机可读存储介质具有提升文本情感分析精准度的优点。
Description
技术领域
本发明涉及大数据领域,特别涉及一种文本情感分析方法、装置及计算机可读存储介质。
背景技术
互联网时代的飞速发展,使得各类数据海量增长,而文本数据作为人们交流表达的重要载体,蕴含着大量有价值的信息,其中丰富的用户情感信息体现在文本中。然而,互联网环境错综复杂,数据量之大可想而知,如何智能高效地分析出这些数据背后所蕴含的价值变得异常重要,因此,针对互联网评论资源,关于文本情感分析的相关研究也随之受到关注。文本情感分析,又被称为意见挖掘,是自然语言处理领域内的一项经典研究任务。
然而,本发明的发明人发现,现有技术中的文本情感分析结果的准确度较低。
发明内容
本发明实施方式的目的在于提供一种文本情感分析方法、装置及计算机可读存储介质,使得文本情感分析结果的准确度提高。
为解决上述技术问题,本发明的实施方式提供了一种文本情感分析方法,包括:获取目标文本中的各个词语;获取所述各个词语的词向量表示;获取所述各个词语的隐式依存句法结构信息表示;将各个所述词语的所述词向量表示和所述隐式依存句法结构信息表示拼接、得到输入矩阵;将所述输入矩阵输入属性情感分析模型,得到所述目标文本的属性情感分类。
本发明的实施方式还提供了一种文本情感分析装置,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前述的文本情感分析方法。
本发明的实施方式还提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现前述的文本情感分析方法。
本发明实施方式相对于现有技术而言,对于目标文本中的各个词语,通过获取各个词语的词向量表示和隐式依存句法结构信息表示,直接将各个所述词语的所述词向量表示和所述隐式依存句法结构信息表示拼接后得到输入矩阵,将输入矩阵输入属性情感分析模型从而得到目标文本的属性情感分类,这一过程中没有直接对最佳依存句法树进行建模,而是使用目标文本的隐式依存句法结构信息表示输入到属性情感分析模型中进行情感分析,不仅提高了属性情感分析模型在属性级情感分析数据集上的效果,而且可以减少因依存句法树带来的误差传播问题,提升对目标文本的属性级情感分析效果。
附图说明
图1是本发明一实施方式所提供的文本情感分析方法的程序流程图;
图2是本发明一实施方式所提供的文本情感分析方法中Biaffine parser模型的运算流程示意图;
图3是本发明一实施方式所提供的文本情感分析方法中得到目标文本的属性情感分类的步骤的程序流程图;
图4是本发明一实施方式所提供的文本情感分析方法中的属性级情感分析模型的运算流程示意图;
图5是本发明另一实施方式所提供的文本情感分析方法的程序流程图;
图6是本发明另一实施方式所提供的文本情感分析装置的结构示意图。
实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
属性级情感分析旨在先识别文本中出现的属性词,针对识别出的属性词,根据特定属性词来判断整个文本对该特定属性词的情感倾向。在实际的应用场景中,属性级情感分析有着广泛的应用场景和研究发展的空间,以淘宝、亚马逊和当当等为代表的电商平台中,使用属性级情感分析技术可以从用户对某一商品的大量评论数据中挖掘出有价值的商业信息。近年来,许多工作在属性级情感分析中开始挖掘利用文本的依存句法结构信息,在这些融入文本的依存句法结构信息到属性级情感分析任务上的研究工作中,依存句法树的存储方式是以邻接矩阵的形式存储。
然而,本发明的发明人发现,现有技术中的文本的依存句法分析过程存在误差,这一误差的存在导致最终的文本情感分析结果的准确度较低。
为了解决这一技术问题,本发明的一种实施方式涉及一种文本情感分析方法,如图1所示,至少包括以下步骤:
步骤S101:获取目标文本中的各个词语。
具体的,在本实施方式中,首先根据分词模型将目标文本分割为一个个词语,目标文本可以是光学字符识别(Optical Character Recognition,OCR)的结果文本(即OCR文本),也可以是普通文本,即只要是文本即可,应用范围较广。目标文本的长度不限,经过分词模型分割后至少可以得到一个词语。分词模型可以是N元模型(n-gram),N元模型是一种较为成熟的用于分词的模型,可以根据前n-1项推测第n项,对文本的分词较为准确。可以理解的是,前述仅为本实施方式中对目标文本进行分词的一种具体的方法的举例说明,并不构成限定,在本发明的其它实施方式中,也可以是其它方法,具体可以根据实际需要进行灵活的设置,例如当目标文本为英文文本时,也可以是通过NLTK(Natural LanguageToolkit,自然语言工具包)对目标文本进行精确的分词操作,并去除目标文本中的停用词。
步骤S102:获取各个词语的词向量表示。
具体的,在本实施方式中,使用预训练好的GloVe(Global Vectors,全局向量)词嵌入模型将各个词语转化为与其对应的300维向量。即目标文本中的各个词语与其词向量表示是一一对应的。可以理解的是,前述仅为本实施方式中获取各个词语的词向量表示的一种具体的举例说明,并不构成限定在,在本发明的其它实施方式中,还可以是通过Skip-gram模型或连续词袋模型(ContinuousBag-of-Words)等其它算法模型获取各个词语的词向量表示,或者是同时使用Skip-gram模型和连续词袋模型两种算法模型获取各个词语的词向量表示等,具体可以根据实际需要进行灵活的设置。
步骤S103:获取各个词语的隐式依存句法结构信息表示。
具体的,在本实施方式中,将目标文本中的各个词语输入深度神经依存句法分析模型,获取深度神经依存句法分析模型在编码阶段产生的隐藏状态表示,根据隐藏状态表示获取各个词语的隐式依存句法结构信息表示。具体的,各个词语的隐式依存句法结构信息是指深度神经依存句法分析模型在编码层阶段产生的隐藏状态,在本实施方式中,深度神经依存句法分析模型例如为Biaffine parser模型,Biaffine parser模型在编码阶段包括三层Bi-LSTM(Long Short-Term Memory,双向长短时记忆)网络,如图2所示,在本实施方式中,在编码阶段,Biaffine parser模型的三层Bi-LSTM网络提取目标文本的特征信息并输出目标文本的隐藏状态,目标文本中每个词的隐藏状态表示可以看作是带有隐式依存句法结构信息的表示。在解码阶段,可以得到如图2右边带小数的矩阵,该矩阵中的值表示词语之间的双亲分数(biaffine score),即两个词之间有依存关系边的概率值,构成的矩阵称为概率矩阵(Probability Matrix),也可以看作是带权的有向图。在现有技术中,对概率矩阵使用MST算法解码后便得到了图2最上方的依存句法树,也称为最佳依存句法树(1-best dependency tree),右边元素值只有0和1的离散矩阵是该依存句法树的邻接矩阵表示,例如图2中输入文本一共有5个词,其中“$”符号表示依存句法树的根节点,用于指向文本中的谓词,那该依存句法树的邻接矩阵的大小就是5×5,每一行表示该词与其他词之间是否有依存关系边,词语之间有依存关系边那对应位置的元素值为1,否则为0,比如“like”有一条指向“eating”的依存关系边,并且两个词在原文本中的位置分别是3和4,那邻接矩阵中第三行第四列的元素值便是1,根据此规则便能得到该邻接矩阵中其他位置的元素值。
可以理解的是,在本实施方式中,直接使用深度神经依存句法分析模型在编码层阶段产生的隐藏状态作为各个词语的隐式依存句法结构信息,而不对依存句法树进行构建。
步骤S104:将各个词语的词向量表示和隐式依存句法结构信息表示拼接、得到输入矩阵。
具体的,在本实施方式中,将各个词语的词向量表示直接拼接在其对应的隐式依存句法结构信息表示后,得到输入矩阵。可以理解的是,前述仅为本实施方式中的一种具体的拼接方法的举例说明,并不构成限定没在本发明的其它实施方式中,也可以是将各个词语的词向量表示和其对应的隐式依存句法结构信息进行相加、以得到输入矩阵等,具体可以根据实际需要进行灵活的设置,在此不进行一一例举。
步骤S105:将输入矩阵输入属性情感分析模型,得到目标文本的属性情感分类。
具体的,在本实施方式中,如图3所示,至少包括以下步骤:
步骤S201:属性情感分析模型根据输入矩阵获取各个词语中的属性词。
具体的,在本实施方式中,如图4所示,属性情感分析模型在获取到输入矩阵后,将输入矩阵通过一个属性掩码层,目标文本中属性词的输出矩阵即可表征属性词的隐藏信息,从而根据输出矩阵获取属性词。
例如,以来表示目标文本,目标文本中包含n个词,从第τ+1个词开始到第τ+k个词结束为属性词的范围,属性词数量为k个,对目标文本进行前述的步骤S101至步骤S104处理后得到的输入矩阵为 将输入矩阵通过属性掩码层后得到的输出矩阵为输出矩阵中不为零的值所对应的词语即为属性词。
步骤S202:属性情感分析模型利用注意力机制提取与属性词相关的上下文信息。
具体的,在本实施方式中,将输入矩阵
步骤S203:属性情感分析模型根据上下文信息得到目标文本的属性情感分类。
具体的,有了各个上下文中各个属性词的权重分值后,用作最终属性情感分类的隐藏表示r便是将上下文中每个词的隐式依存句法结构信息和词向量的拼接值按权重分值加权求和得到,最后使用带全连接的Softmax分类器对r进行情感类别的概率预测,假设情感预测概率分布用p表示,则计算公式如下:
p=softmax(Wpr+bp)
其中Wp和bp为固定值参数,其可以根据实际需要进行设置,也可以根据模型训练的方法进行设置。
与现有技术相比,本发明一种实施方式所提供的文本情感分析方法中通过获取各个词语的词向量表示和隐式依存句法结构信息表示,直接将各个词语的词向量表示和隐式依存句法结构信息表示拼接后得到输入矩阵,将输入矩阵输入属性情感分析模型从而得到目标文本的属性情感分类,这一过程中没有直接对最佳依存句法树进行建模,而是使用目标文本的隐式依存句法结构信息表示输入到属性情感分析模型中进行情感分析,不仅提高了属性情感分析模型在属性级情感分析数据集上的效果,而且可以减少因依存句法树带来的误差传播问题,提升对目标文本的属性级情感分析效果。
本发明的一种实施方式涉及一种文本情感分析方法,如图5所示,包括:
步骤S301:获取目标文本中的各个词语。
步骤S302:获取各个词语的词向量表示。
可以理解的是,本实施方式所提的文本情感分析方法中的步骤S301至步骤S302与前述实施方式中的步骤S101至步骤S102大致相同,在此不再赘述,具体可以参照前述实施方式的具体说明。
步骤S303:将各个词语输入深度神经依存句法分析模型,获取深度神经依存句法分析模型在编码阶段产生的隐藏状态表示。
具体的,在本实施方式中,将目标文本中的各个词语输入深度神经依存句法分析模型,获取深度神经依存句法分析模型在编码阶段产生的隐藏状态表示。
步骤S304:将隐藏状态表示经由线性映射层映射后得到各个词语的隐式依存句法结构信息表示。
具体的,在本步骤中,深度神经依存句法分析模型在编码层产生的三层隐藏状态记作其中表示目标文本中第n个词在Bi-LSTM网络第l层的隐藏状态,将输出的L层的隐藏状态通过一个线性映射层后得到每个词的最终带有隐式依存句法结构信息的句法感知词表示,记作s={s1,…,sn},线性映射层的计算公式为,其中,Wl和bl为固定参数,其可根据实际需要进行灵活的设置,例如通过模型训练的方法进行设置,l为Bi-LSTM网络中具体的任意一层,L为Bi-LSTM网络的总层数。即在本步骤中,对目标文本的三层隐藏状态进行线性映射后将映射结果进行累加,从而得到文本中每个词最终带有隐式依存句法结构信息的句法感知词表示。
步骤S305:将各个词语的词向量表示和隐式依存句法结构信息表示拼接、得到输入矩阵。
步骤S306:将输入矩阵输入属性情感分析模型,得到目标文本的属性情感分类。
可以理解的是,本实施方式所提的文本情感分析方法中的步骤S305至步骤S306与前述实施方式中的步骤S104至步骤S105大致相同,在此不再赘述,具体可以参照前述实施方式的具体说明。
与现有技术相比,本实施方式在保留前述实施方式的技术效果的同时,将对目标文本的三层隐藏状态进行线性映射后将映射结果进行累加,可以使得目标文本中每个词最终带有隐式依存句法结构信息的句法感知词表示的结果更为精准,从而进一步的提升了最终的文本情感分析结果的精准度。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包含相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明一种实施方式涉及一种文本情感分析装置,如图6所示,包括:至少一个处理器401;以及,与至少一个处理器401通信连接的存储器402;其中,存储器402存储有可被至少一个处理器401执行的指令,指令被至少一个处理器401执行,以使至少一个处理器401能够执行如前述实施方式所提供的文本情感分析方法。
其中,存储器402和处理器401采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器401和存储器402的各种电路连接在一起。总线还可以将诸如***设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器401处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器401。
处理器401负责管理总线和通常的处理,还可以提供各种功能,包括定时,***接口,电压调节、电源管理以及其他控制功能。而存储器402可以被用于存储处理器401在执行操作时所使用的数据。
本发明一种实施方式涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现前述实施方式所提供的文本情感分析方法。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。
Claims (10)
1.一种文本情感分析方法,其特征在于,包括:
获取目标文本中的各个词语;
获取所述各个词语的词向量表示;
获取所述各个词语的隐式依存句法结构信息表示;
将各个所述词语的所述词向量表示和所述隐式依存句法结构信息表示拼接,得到输入矩阵;
将所述输入矩阵输入属性情感分析模型,得到所述目标文本的属性情感分类。
2.根据权利要求1所述的文本情感分析方法,其特征在于,所述获取所述各个词语的隐式依存句法结构信息表示,包括:
将所述目标文本输入深度神经依存句法分析模型,获取所述深度神经依存句法分析模型在编码阶段产生的隐藏状态表示,根据所述隐藏状态表示获取所述各个词语的隐式依存句法结构信息表示。
3.根据权利要求2所述的文本情感分析方法,其特征在于,所述获取所述深度神经依存句法分析模型在编码阶段产生的隐藏状态表示,包括:
经由三层双向长短时记忆网络对所述目标文本进行编码处理,得到所述隐藏状态表示。
4.根据权利要求3所述的文本情感分析方法,其特征在于,所述根据所述隐藏状态表示获取所述各个词语的隐式依存句法结构信息表示,包括:
将所述隐藏状态表示经由线性映射层映射后得到所述各个词语的隐式依存句法结构信息表示。
5.根据权利要求4所述的文本情感分析方法,其特征在于,所述将所述隐藏状态表示经由线性映射层映射后得到所述各个词语的隐式依存句法结构信息表示,包括:
将所述隐藏状态表示的不同层级分别经由所述线性映射层映射,得到多个映射结果,将所述多个映射结果累加得到所述各个词语的隐式依存句法结构信息表示。
6.根据权利要求1所述的文本情感分析方法,其特征在于,所述将所述输入矩阵输入属性情感分析模型,得到所述目标文本的属性情感分类,包括:
根据所述输入矩阵获取所述目标文本中的属性词;
利用注意力机制提取与所述属性词相关的上下文信息;
根据所述上下文信息得到所述目标文本的属性情感分类。
7.根据权利要求6所述的文本情感分析方法,其特征在于,所述根据所述输入矩阵获取所述各个词语中的属性词,包括:
将所述输入矩阵通过属性掩码层,根据所述属性掩码层的输出矩阵获取所述属性词。
8.根据权利要求7所述的文本情感分析方法,其特征在于,所述利用注意力机制提取与所述属性词相关的上下文信息,包括:
将所述输入矩阵和所述输出矩阵进行注意力操作,获取与所述属性词相关的上下文信息。
9.一种文本情感分析装置,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至8中任一所述的文本情感分析方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述的文本情感分析方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111486407.6A CN114201957A (zh) | 2021-12-07 | 2021-12-07 | 文本情感分析方法、装置及计算机可读存储介质 |
PCT/CN2022/136328 WO2023103914A1 (zh) | 2021-12-07 | 2022-12-02 | 文本情感分析方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111486407.6A CN114201957A (zh) | 2021-12-07 | 2021-12-07 | 文本情感分析方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114201957A true CN114201957A (zh) | 2022-03-18 |
Family
ID=80651070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111486407.6A Pending CN114201957A (zh) | 2021-12-07 | 2021-12-07 | 文本情感分析方法、装置及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114201957A (zh) |
WO (1) | WO2023103914A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023103914A1 (zh) * | 2021-12-07 | 2023-06-15 | 中兴通讯股份有限公司 | 文本情感分析方法、装置及计算机可读存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330032B (zh) * | 2017-06-26 | 2020-08-21 | 北京理工大学 | 一种基于递归神经网络的隐式篇章关系分析方法 |
CN111680159B (zh) * | 2020-06-11 | 2023-08-29 | 华东交通大学 | 数据处理方法、装置及电子设备 |
CN113361617A (zh) * | 2021-06-15 | 2021-09-07 | 西南交通大学 | 基于多元注意力修正的方面级情感分析建模方法 |
CN113378547B (zh) * | 2021-06-16 | 2023-07-21 | 武汉大学 | 一种基于gcn的汉语复句隐式关系分析方法及装置 |
CN114201957A (zh) * | 2021-12-07 | 2022-03-18 | 中兴通讯股份有限公司 | 文本情感分析方法、装置及计算机可读存储介质 |
-
2021
- 2021-12-07 CN CN202111486407.6A patent/CN114201957A/zh active Pending
-
2022
- 2022-12-02 WO PCT/CN2022/136328 patent/WO2023103914A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023103914A1 (zh) * | 2021-12-07 | 2023-06-15 | 中兴通讯股份有限公司 | 文本情感分析方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023103914A1 (zh) | 2023-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
US10360307B2 (en) | Automated ontology building | |
CN108416058B (zh) | 一种基于Bi-LSTM输入信息增强的关系抽取方法 | |
CN111444320B (zh) | 文本检索方法、装置、计算机设备和存储介质 | |
CN111291195B (zh) | 一种数据处理方法、装置、终端及可读存储介质 | |
CN107273358B (zh) | 一种基于管道模式的端到端英文篇章结构自动分析方法 | |
CN111222305A (zh) | 一种信息结构化方法和装置 | |
US11232358B1 (en) | Task specific processing of regulatory content | |
CN112395385B (zh) | 基于人工智能的文本生成方法、装置、计算机设备及介质 | |
CN111985228B (zh) | 文本关键词提取方法、装置、计算机设备和存储介质 | |
CN111581358B (zh) | 信息抽取方法、装置及电子设备 | |
CN111159412A (zh) | 分类方法、装置、电子设备及可读存储介质 | |
CN111753082A (zh) | 基于评论数据的文本分类方法及装置、设备和介质 | |
CN106030568A (zh) | 自然语言处理***、自然语言处理方法、以及自然语言处理程序 | |
CN111488422A (zh) | 一种结构化数据样本的增量方法、装置、电子设备及介质 | |
EP4364044A1 (en) | Automated troubleshooter | |
CN114528398A (zh) | 一种基于交互双重图卷积网络的情感预测方法及*** | |
CN113626608B (zh) | 增强语义的关系抽取方法、装置、计算机设备及存储介质 | |
CN114860942A (zh) | 文本意图分类方法、装置、设备及存储介质 | |
WO2023103914A1 (zh) | 文本情感分析方法、装置及计算机可读存储介质 | |
CN115269768A (zh) | 要素文本处理方法、装置、电子设备和存储介质 | |
CN111680146A (zh) | 确定新词的方法、装置、电子设备及可读存储介质 | |
JP7390442B2 (ja) | 文書処理モデルのトレーニング方法、装置、機器、記憶媒体及びプログラム | |
CN110888944A (zh) | 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法 | |
CN110852066A (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |