CN113221537A - 一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法 - Google Patents
一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法 Download PDFInfo
- Publication number
- CN113221537A CN113221537A CN202110389025.5A CN202110389025A CN113221537A CN 113221537 A CN113221537 A CN 113221537A CN 202110389025 A CN202110389025 A CN 202110389025A CN 113221537 A CN113221537 A CN 113221537A
- Authority
- CN
- China
- Prior art keywords
- neural network
- layer
- information
- proximity
- weighted convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 37
- 238000004458 analytical method Methods 0.000 title claims abstract description 32
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 24
- 125000004122 cyclic group Chemical group 0.000 title claims abstract description 8
- 230000000306 recurrent effect Effects 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 16
- 238000011176 pooling Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 12
- 230000001419 dependent effect Effects 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000002996 emotional effect Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法,提高了方面级情感分析的准确性。该方法包括以下步骤:S1,将输入的句子利用预训练好的词向量进行表示;S2,将S1得到的词向量输入到截断循环神经网络层以提取序列的局部特征和长距离依赖语义信息;S3,将S2得到的文本语义信息输入到临近加权卷积层以捕获n‑gram信息;S4,将临近加权卷积后得到的n‑gram信息输入到池化层进行最大池化操作,提取重要特征;S5,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。
Description
技术领域
本发明涉及自然语言处理的情感分析技术领域,尤其涉及一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法。
背景技术
情感分析(Sentiment analysis)是自然能语言处理(NLP)的一个中心课题,它是对文本中的观点、情感和主观性的计算。情感分析有三个层次的粒度,即文档级(document-level)、句子级(sentence-level)和方面级(aspect-level)。当一个文档或一个句子涉及多个情感表达时,前两个层面的情感分析将无法准确提取文本内部的深层情感。而方面级情感分析是指在给定语境下对目标词进行细粒度情感分析的任务。例如,对于“价格足够合理,服务很差”这句话,“价格”和“服务”这两个词是方面的,对“价格”和“服务”的态度分别是积极的和消极的。
与情感分析中的其他粒度级别不同,句子中不同方面的情感极性需要在方面级情感分析中确定,它不仅依赖于上下文信息,还依赖于不同方面的情感信息。此外,一句话中不同的具体方面可能会有完全相反的情感极性,因此分析针对个别方面的具体情感极性可以更有效地帮助人们理解用户的情感表达,从而引起该领域越来越多的关注。早期在方面级情感分析方面的工作主要基于从统计学的角度手动提取定义的特征,并采用机器学习,如支持向量机(support vector machine)、条件随机场(conditional random field)等。特征质量在这些模型的性能中具有很大的权重,并且特征工程是劳动密集型的。
近年来,研究人员对深度学习与传统机器学习方面在方面级情感分析任务的效果进行了比较,发现前者具有明显的优势。早期的模型采用递归神经网络(Recursive NeuralNetworks,RNN)或其变体长短期记忆网络(Long Short Term Memory Network,LSTM)、门控循环单元(Gated Recurrent Units,GRU),近期性能表现较好的方面级情感分析模型大多以循环神经网络及其变体为基础构建而来。然而RNN可以对整个序列建模并捕获长期依赖关系,但它在提取局部特征方面做的不好。一些研究者试图将CNN和RNN的有优点结合起来。Zhou提出了一种结合CNN和BiLSTM模型的中文产品评论分析方法。Xue报道了一种更精确和更有效的模型,它将卷积神经网络与选通机制相结合。Dong利用自适应递归神经网络对推特上的目标依赖情感进行分类。Vo应用了情感词汇,以及分布式单词表示和神经池来提高情感分析的能力。Ma构建了一个神经架构,用于有针对性的基于方面的情感分析,同时能够融入重要的常识。然而卷积滤波器的参数会随着窗口大小的增加而增加,Wang提出了一种基于截断循环神经网络(Disconnected Gated Recurrent Units,DGRU)既能捕捉长距离依赖信息,又可以很好地抽取关键短语信息并且缓解了参数增加带来的过拟合问题。这些传统神经模型的性能比传统机器学习更为突出。然而,它们只能以一种隐含的方式捕捉上下文信息,导致显式的不完善,这就排除了某一方面的一些重要的上下文线索。
目前,随着注意机制和记忆网络的成熟。越来越多的此类方法被用于自然语言处理,并取得了良好的效果,如机器翻译,与以前的方法相比,性能有所提高。在这个领域中,表示的生成可以受到目标和上下文的相互影响。例如,Wang将基于注意力的网络应用于方面级情感分类。Long提出了一种基于BiLSTM的多头注意机制,并将其集成到文本情感分析的交叉模型中。Lin建立了一个全新的方面级情感分类框架,它是一个基于语义依赖和上下文矩的深度掩蔽记忆网络。Jiang为同样的任务设计了一个基于方面的LSTM-CNN注意力模型。Ma从网络和注意机制出发,发展了一个交互注意网络(IAN)模型。然而,在这些研究中,体与其语境词之间的句法关系通常被忽略,这可能会阻碍基于体的语境表征的有效性。此外,情感极性方面通常取决于一个关键短语。Zhang提出了一种加权邻近度的卷积网络,以提供句法感知的上下文的方面特定表示。然而,该网络仅考虑文本序列中的长距离相关性,因此捕捉局部特征的效果并不理想。
在一个复合句中,有可能每个方面都只与其相邻的语境有关。在识别其情感极性之前,需要估计每个方面的影响范围。因此,需要更好的语言表示模型来生成更准确的语义表达。Word2Vec和GLoVe已被广泛用于将单词转换为实数值向量。但是,这两个有一个问题。事实上,单词在不同的语境中可能有不同的含义,而目标句子在不同的语言中,语境中的向量表示是相同的。ELMo是对它们的一个改进,但它并不完美,因为它在语言模型中应用了LSTM。LSTM有两个主要问题。第一个问题是它是单向的,这意味着它是通过有序推理来工作的。甚至BiLSTM双向模型也只是一个简单的亏本加法,导致它无法考虑另一个方向的数据。另一个问题是,它是一个序列模型。换句话说,在其处理过程中,一个步骤在前一个步骤完成之前不能进行,导致并行计算能力差.
上述问题都会影响方面级情感分析的准确性。
发明内容
本发明所要解决的技术问题是:提出一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法,提高方面级情感分析的准确性,包括以下步骤:
S1,将输入的句子利用预训练好的词向量进行表示;
S2,将S1得到的词向量输入到截断循环神经网络层以提取序列的局部特征和长距离依赖语义信息;
S3,将S2得到的文本语义信息输入到临近加权卷积层以捕获n-gram信息;
S4,将临近加权卷积后得到的n-gram信息输入到池化层进行最大池化操作,提取重要特征;
S5,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。
其中步骤S1所述预训练词向量是指通过Google提出来的BERT预训练模型,它能够获取上下文相关的双向特征表示并且能捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这可能有助于产生更准确的特征表示和提高模型性能。
进一步地,步骤S1中考虑输入数据用x表示,H是用BERT处理x后生成的嵌入,公式如下:
H=BERT(x)
进一步地,步骤S2中截断循环神经网络层用于提取序列中的局部特征和长距离依赖语义信息;其输出为:
ht=RNN(xt,xt-1,xt-2,...,xt-k+1)
进一步地,步骤S3中所述临近加权卷积操作应用临近权重即上下文与方面词的句法临近度来计算其在句子中的重要性,然后将其输入卷积神经网络以获得n-gram信息。
进一步地,语境词对方面词的接近是非线性的,这样会导致错误的权重结果和信息损失,根据高斯分布的曲线是钟形的,且会随着向中心移动,值会变大,反之亦然。这种优秀的模式可以有效地防止信息中的干扰噪声,符合位置信息的非线性特征。因此高斯函数是一种理想的权重分配模式,公式为:
进一步地,临近加权卷积是一个一维卷积,核长度为1,其临近权重预先分配。用于表示句子表示形式的第i个单词的权重的ri可以检索为:
ri=pihi
卷积的执行方式如下:
进一步地,步骤S4所述最大池化层可以帮助本专利提取关键信息和位置不变的特征,表示为:
其中qi,j表示qi的第j部分。
进一步地,步骤S5所述softmax分类层获得情感极性y的条件概率分布:
其中bf和Wf是全连接层对应的加权矩阵。
本发明具有以下有益效果:
其一、本发明提出了一种新的方面级别情感分类模型,主要由截断循环神经网络提取,并通过临近加权卷积进一步增强。一定程度上缓解了参数增加带来的过拟合问题,有效提高方面级情感分类结果。
其二、引入高斯函数代替位置临近度,从而更好地评估临近权重。更好地描述了上下文词与方面的接近度,进一步提高了模型的性能。
其三、使用预训练的BERT嵌入来表示上下文,它能够获取上下文相关的双向特征表示并且能捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这可能有助于产生更准确的特征表示和提高模型性能。
附图说明
图1是本发明的基于截断循环神经网络和临近加权卷积的方面级情感分析算法的模型图。
具体实施方式
体现本发明特征与优点的典型实施方式将在以下的说明中详细叙述,应理解的是本发明能够在不同的实施方式上具有各种的变化,其皆不脱离本发明的范围,且其中的说明及图示在本质上是当作说明之用,而非用以限制本发明。
一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法,所述方面级情感分析方法包括以下步骤:
S1,将输入的句子利用预训练好的词向量进行表示;
S2,将S1得到的词向量输入到截断循环神经网络层以提取序列的局部特征和长距离依赖语义信息;
S3,将S2得到的文本语义信息输入到临近加权卷积层以捕获n-gram信息;
S4,将临近加权卷积后得到的n-gram信息输入到池化层进行最大池化操作,提取重要特征;
S5,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。
其中步骤S1所述预训练词向量是指通过Google提出来的BERT预训练模型,它能够获取上下文相关的双向特征表示并且能捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这可能有助于产生更准确的特征表示和提高模型性能。
进一步地,步骤S1中考虑输入数据用x表示,H是用BERT处理x后生成的嵌入,公式如下:
H=BERT(x)
进一步地,步骤S2中截断循环神经网络层用于提取序列中的局部特征和长距离依赖语义信息;其输出为:
ht=RNN(xt,xt-1,xt-2,...,xt-k+1)
式中xt表示当前时间步的输入向量,k是需要设置的一个窗口大小的超参数,RNN可以是naive RNN,LSTM,GRU或任何其它类型的递归单元,这里本专利选择了GRU。
进一步地,步骤S3中所述临近加权卷积操作应用临近权重即上下文与方面词的句法临近度来计算其在句子中的重要性,然后将其输入卷积神经网络以获得n-gram信息。
进一步地,语境词对方面词的接近是非线性的,这样会导致错误的权重结果和信息损失,根据高斯分布的曲线是钟形的,且会随着向中心移动,值会变大,反之亦然。这种优秀的模式可以有效地防止信息中的干扰噪声,符合位置信息的非线性特征。因此高斯函数是一种理想的权重分配模式,公式为:
进一步地,临近加权卷积是一个一维卷积,核长度为1,其临近权重预先分配。用于表示句子表示形式的第i个单词的权重的ri可以检索为:
ri=pihi
卷积的执行方式如下:
进一步地,步骤S5所述最大池化层可以帮助本专利提取关键信息和位置不变的特征,表示为:
其中qi,j表示qi的第j部分。
进一步地,步骤S6所述softmax分类层获得情感极性y的条件概率分布:
其中bf和Wf是全连接层对应的加权矩阵。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换、和变型,本发明的范围由权利要求及其等同物限定。
Claims (6)
1.一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法,其特征在于:包括以下步骤:
S1,将输入的句子利用预训练好的词向量进行表示;
S2,将S1得到的词向量输入到截断循环神经网络层以提取序列的局部特征和长距离依赖语义信息;
S3,将S2得到的文本语义信息输入到临近加权卷积层以捕获n-gram信息;
S4,将临近加权卷积后得到的n-gram信息输入到池化层进行最大池化操作,提取重要特征;
S5,将最大池化操作得到的输出通过softmax分类层进行分类,得到最终结果。
2.根据权利要求1所述的基于截断循环神经网络和临近加权卷积的方面级情感分析方法,其特征在于:其中步骤S1所述预训练词向量是指通过Google提出来的BERT预训练模型,它能够获取上下文相关的双向特征表示并且能捕捉明显的单词差异,例如多义性。此外,这些上下文敏感的单词嵌入还检索其他形式的信息,这可能有助于产生更准确的特征表示和提高模型性能。
输入数据用x表示,H是用BERT处理x后生成的嵌入,公式如下:
H=BERT(x)
3.根据权利要求1所述的基于截断循环神经网络和临近加权卷积的方面级情感分析方法,其特征在于:步骤S2中截断循环神经网络层用于提取序列中的局部特征和长距离依赖语义信息;其输出为:
ht=RNN(xt,xt-1,xt-2,...,xt-k+1)
式中xt表示当前时间步的输入向量,k是需要设置的一个窗口大小的超参数,RNN可以是naive RNN,LSTM,GRU或任何其它类型的递归单元,这里本专利选择了GRU。
4.根据权利要求1所述的基于截断循环神经网络和临近加权卷积的方面级情感分析方法,其特征在于:步骤S3中所述临近加权卷积操作应用临近权重即上下文与方面词的句法临近度来计算其在句子中的重要性,然后将其输入卷积神经网络以获得n-gram信息。
语境词对方面词的接近是非线性的,这样会导致错误的权重结果和信息损失,根据高斯分布的曲线是钟形的,且会随着向中心移动,值会变大,反之亦然。这种优秀的模式可以有效地防止信息中的干扰噪声,符合位置信息的非线性特征。因此高斯函数是一种理想的权重分配模式,公式为:
进一步地,临近加权卷积是一个一维卷积,核长度为1,其临近权重预先分配。用于表示句子表示形式的第i个单词的权重的ri可以检索为:
ri=pihi
卷积的执行方式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110389025.5A CN113221537A (zh) | 2021-04-12 | 2021-04-12 | 一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110389025.5A CN113221537A (zh) | 2021-04-12 | 2021-04-12 | 一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113221537A true CN113221537A (zh) | 2021-08-06 |
Family
ID=77086983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110389025.5A Withdrawn CN113221537A (zh) | 2021-04-12 | 2021-04-12 | 一种基于截断循环神经网络和临近加权卷积的方面级情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113221537A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200105589A (ko) * | 2019-02-28 | 2020-09-08 | 전남대학교산학협력단 | 음성 감정 인식 방법 및 시스템 |
WO2020244066A1 (zh) * | 2019-06-04 | 2020-12-10 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、设备及存储介质 |
CN112131886A (zh) * | 2020-08-05 | 2020-12-25 | 浙江工业大学 | 一种文本的方面级别情感分析方法 |
CN112560440A (zh) * | 2020-12-03 | 2021-03-26 | 湘潭大学 | 一种基于深度学习的面向方面级情感分析的句法依赖方法 |
-
2021
- 2021-04-12 CN CN202110389025.5A patent/CN113221537A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200105589A (ko) * | 2019-02-28 | 2020-09-08 | 전남대학교산학협력단 | 음성 감정 인식 방법 및 시스템 |
WO2020244066A1 (zh) * | 2019-06-04 | 2020-12-10 | 平安科技(深圳)有限公司 | 一种文本分类方法、装置、设备及存储介质 |
CN112131886A (zh) * | 2020-08-05 | 2020-12-25 | 浙江工业大学 | 一种文本的方面级别情感分析方法 |
CN112560440A (zh) * | 2020-12-03 | 2021-03-26 | 湘潭大学 | 一种基于深度学习的面向方面级情感分析的句法依赖方法 |
Non-Patent Citations (2)
Title |
---|
向进勇;刘小龙;丁明扬;李欢;曹文婷;: "基于卷积递归深度学习模型的句子级文本情感分类", 东北师大学报(自然科学版), no. 02 * |
姚妮;高政源;娄坤;朱付保;: "基于BERT和BiGRU的在线评论文本情感分类研究", 轻工学报, no. 05 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875807B (zh) | 一种基于多注意力多尺度的图像描述方法 | |
Gu et al. | Stack-captioning: Coarse-to-fine learning for image captioning | |
CN109284506B (zh) | 一种基于注意力卷积神经网络的用户评论情感分析***及方法 | |
CN110609891B (zh) | 一种基于上下文感知图神经网络的视觉对话生成方法 | |
Sharma et al. | Era of deep neural networks: A review | |
CN109934261B (zh) | 一种知识驱动参数传播模型及其少样本学习方法 | |
CN110502753A (zh) | 一种基于语义增强的深度学习情感分析模型及其分析方法 | |
CN112232087B (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN113987179A (zh) | 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质 | |
CN112749274B (zh) | 基于注意力机制和干扰词删除的中文文本分类方法 | |
CN111522908A (zh) | 一种基于BiGRU和注意力机制的多标签文本分类方法 | |
CN106294618A (zh) | 搜索方法及装置 | |
CN110188195A (zh) | 一种基于深度学习的文本意图识别方法、装置及设备 | |
CN113255366B (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
WO2022218139A1 (zh) | 融合注意力机制的个性化搜索方法和搜索*** | |
Shen et al. | Hierarchical Attention Based Spatial-Temporal Graph-to-Sequence Learning for Grounded Video Description. | |
CN112070139A (zh) | 基于bert与改进lstm的文本分类方法 | |
CN114417851A (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN112560440B (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
CN109308316A (zh) | 一种基于主题聚类的自适应对话生成*** | |
Xu et al. | Convolutional neural network using a threshold predictor for multi-label speech act classification | |
CN110889505A (zh) | 一种图文序列匹配的跨媒体综合推理方法和*** | |
JPH0934863A (ja) | ニューラルネットワークによる情報統合処理方法 | |
CN115066690A (zh) | 搜索归一化-激活层架构 | |
Liu et al. | Interpretable charge prediction for legal cases based on interdependent legal information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210806 |
|
WW01 | Invention patent application withdrawn after publication |