CN110188200A - 一种使用社交上下文特征的深度微博情感分析方法 - Google Patents
一种使用社交上下文特征的深度微博情感分析方法 Download PDFInfo
- Publication number
- CN110188200A CN110188200A CN201910446241.1A CN201910446241A CN110188200A CN 110188200 A CN110188200 A CN 110188200A CN 201910446241 A CN201910446241 A CN 201910446241A CN 110188200 A CN110188200 A CN 110188200A
- Authority
- CN
- China
- Prior art keywords
- microblogging
- social context
- feature
- vector
- indicates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 37
- 230000002996 emotional effect Effects 0.000 title claims abstract description 22
- 239000013598 vector Substances 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000013135 deep learning Methods 0.000 claims abstract description 12
- 230000007787 long-term memory Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims abstract description 5
- 230000000694 effects Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000003780 insertion Methods 0.000 claims description 6
- 230000037431 insertion Effects 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 5
- 208000026753 anterior segment dysgenesis Diseases 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000008451 emotion Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 244000097202 Rathbunia alamosensis Species 0.000 description 1
- 235000009776 Rathbunia alamosensis Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Computing Systems (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于自然语言处理领域,具体涉及一种使用社交上下文特征的深度微博情感分析方法。本发明方法包括以下步骤:1)采集微博数据并对其进行预处理。具体包括采集和预处理微博文本信息和发布微博的用户信息即社交上下文信息;2)使用一种深度学习方法对微博社交上下文信息进行表示,将每个微博表示成为连续分布的实数向量;3)建立一个基于长短期记忆网络的深度学习分类模型,结合微博文本特征和社交上下文特征对微博进行情感分析。本发明针对微博数据的特点,提取了微博文本之间的上下文信息,并对其进行表示,将其作为特征同文本信息一起进行微博文本情感分析,本发明方法能够提高微博情感分析的效果。
Description
技术领域
本发明属于自然语言处理领域,具体涉及一种使用社交上下文特征的深度微博情感分析方法。
背景技术
情感分析又称意见挖掘,是指运用自动化的手段分析、处理、归纳和推理带主观色彩的文本的过程。随着Web2.0技术的发展,在线社交网络如新浪微博、Twitter等逐渐成为人们日常获取、传播信息和交流观点的平台。用户成为在线社交网络的中心,他们在社交网络平台上不受限制地发布大量带有对各种事件、话题有关观点看法的文本信息。这些用户生成的文本蕴含着巨大的价值,可以应用在突发事件发现、舆情控制等领域。情感分析作为一个自然语言处理领域的热门研究方向,可以为在线社交网络文本分析提供重要的技术手段。
社交网络中情感分析研究的一般方法是应用自2000年初开始研究的传统情感分析所使用的技术。然而,由于信息来源的演变,现有技术中可用的方法在这个充满挑战的社交网络环境中不能再有效地进行情感分析。事实上,社交网络情感分析除了传统情感分析和自然语言处理的众多问题外,还引入了更复杂的内容和新的信息来源,更复杂的内容包含短而噪音多的文本,性别,位置和年龄等元数据。
传统方法假设社交网络中的文本是独立同分布的,不符合在线社交网络数据的特征。在选择情感分类特征的时候,传统方法通常只选择微博中的文本特征,如单元组、双元组等,并没有考虑社交网络上提供的丰富的上下文信息。然而,这种假设并不适用于微博平台。微博平台是一种新型的社交媒体,除了基本的文本信息外,微博平台还提供了丰富的元数据,如用户资料,用户关系等。换句话说,由于元数据间存在发布、关注、喜欢等各种关系,微博数据之间也因此由微博平台提供的各种元数据等连接在一起,组成了一个关系多样、结构丰富的网络。这些元数据,通常称为微博文本的社交上下文信息。基于这个事实,仅使用文本内容作为分类特征对于微博情感分析是远远不够的。
发明内容
本发明的目的在于结合新涌现的社交网络的特征,提供一种不同于基于文本之间相互独立模型的新型的微博情感分析方法,即一种使用社交上下文特征的深度微博情感分析方法,该方法使用微博的社交上下文表示作为特征。
本发明的目的是这样实现的:
一种使用社交上下文特征的深度微博情感分析方法,包括以下步骤:
步骤1:采集微博数据并对其进行预处理,具体包括采集和预处理微博文本信息和发布微博的用户即社交上下文信息;
步骤2:使用一种深度学习方法对微博社交上下文信息进行表示,将每个微博表示成为连续分布的实数向量;
步骤3:建立一个基于长短期记忆网络的深度学习分类模型,结合微博文本特征和社交上下文特征对微博进行情感分析。
步骤2中对社交上下文关系图G(V,E)进行表示具体包括以下步骤:
步骤2.1:对社交上下文网络G(V,E)中的局部信息进行表示:
其中vi和vj是节点νi和νj的向量表示,wij表示节点νi和νj之间的权重;
步骤2.2:对社交上下文中的全局信息进行表示:
其中当νi表示网络节点时,vi是其向量表示;当νi表示上下文时,v′i是此时的向量表示;
步骤2.3:为了解决低效率的目标优化问题,引入负采样,使用异步随机梯度算法ASGD来优化,具体公式为:
在步骤3中,使用社交上下文表示作为特征对微博进行情感分析具体包括以下步骤:
步骤3.1:为了更好地利用微博社交上下文信息,通过连接社交上下文向量v与词语向量ω来作为编码器的输入,以这种方式,隐藏层输出表示(h1,h2,...,hN)具有来自微博社交上下文的信息;
步骤3.2:计算基于长短期记忆网络的编码器的隐藏层输出:
ft=sigmoid(Wf·[ht-1,ωt,vi]+bf)
it=sigmoid(Wi·[ht-1,ωt,vi]+bi)
ot=sigmoid(Wo·[ht-1,ωt,vi]+bo)
Ct=ft⊙Ct-1+it⊙tanh(Wc·[ht-1,ωt]+bc)
ht=ot⊙tanh(Ct)
ft,it,ot分别是遗忘门,输入门和输出门,是权重矩阵,是每个门的偏差,ωt表示当前词语的向量表示,Ct是细胞状态,ht是隐藏的输出,⊙表示点乘,输入序列由最后的隐藏输出hN表示,dv是社交上下文嵌入的维度,dh表示隐藏层输出的维度,d为ωt的维度;
步骤3.3:计算注意力机制产生注意力权重向量α和加权隐藏表示r:
α=softmax(wTM)
r=HαT
其中,H是由前面步骤产生的由隐含层输出向量[h1,...,hN]组成的矩阵,N是输入微博的长度,和是权重矩阵,α∈RN是由注意力权重组成的向量,表示带权重的微博表示,dv是社交上下文嵌入的维度,dh表示隐藏层输出的维度,是向量vi的N次连接,eN是元素为N个1的列向量,表示线性转换vi的重复次数和句子中的单词数目相同。
本发明的有益效果在于:
a.提出了一种在新兴社交网络上的新假设,即微博文本之间并不是相互独立的。这种新假设更加符合在线社交网络的实际情况,能够使模型更精确。
b.使用深度学习方法提取微博的社交上下文特征。用这种方法提取特征能够精确地表示社交上下文。
c.提出一种可以结合社会上下文特征和文本特征的、引入注意力机制的微博情感分析方法。在这个模型中,社交上下文特征可以既训练阶段又可用于预测阶段。该方法能够对微博进行更精确的表示,从而取得更好的情感分析结果。
附图说明
图1为本发明方法框架图;
图2为本发明社交上下文特征提取图。
具体实施方式
下面结合附图对本发明的实施过程作进一步详细的描述。
本发明结合新涌现的社交网络的特征,提供一种不同于基于文本之间相互独立模型的新型的微博情感分析方法,即一种使用社交上下文特征的深度微博情感分析方法,该方法使用微博的社交上下文表示作为特征。
一种使用社交上下文特征的深度微博情感分析方法,包括如下步骤:
(1)采集微博数据并对其进行预处理。
(1.1)先采用网络爬虫采集微博文本数据及其发布用户的关注关系,对采集的数据进行人工情感标注,以此作为数据集;
(1.2)对微博数据集进行分词处理,使用word2vec训练语料库,对微博文本进行向量化表示。给定第i个微博s={w1,w2,...,wN},w表示句子中的词语。首先执行查找操作以将微博中的所有词转换为词向量{ω1,ω2,...,ωN},其中N是微博的长度。
(1.3)根据社会学中的情感一致性理论,建立微博之间的情感一致性关系矩阵。根据用户发布微博的信息,建立微博之间的情感一致性关系矩阵Asc:
Asc=UT×U
其中,U为用户微博矩阵,其第i行第j列表示的是用户ui发布了微博dj。
(1.4)根据用户之间的关注信息,建立微博之间的情绪感染性关系矩阵Aec:
Aec=UT×F×U
其中,F表示用户之间直接关系的矩阵。表示发布ti的用户是发布tj的用户的朋友。
(1.5)构建微博社交上下文网络G(V,E),其邻接矩阵为:
A=Asc+θAec
其中θ控制两个微博关系矩阵的权重。
(2)使用一种深度学习方法对微博社交上下文信息进行表示,将每个微博表示成为连续分布的实数向量。
(2.1)对社交上下文网络G(V,E)中的局部信息进行表示:
其中vi和vj是节点νi和νj的向量表示,wij表示节点νi和νj之间的权重。
(2.2)对社交上下文中的全局信息进行表示:
其中当νi表示网络节点时,vi是其向量表示;当νi表示上下文时,v′i是此时的向量表示。
(2.3)为了解决低效率的目标优化问题,中引入负采样。使用异步随机梯度算法ASGD来优化该方程。
如果边(νi,νj)被采样,则对应的梯度将被计算为:
(3)建立一个基于长短期记忆网络的深度学习分类模型,结合微博文本特征和社交上下文特征对微博进行情感分析。
(3.1)为了更好地利用微博社交上下文信息,通过连接社交上下文向量v与词语向量ω来作为编码器的输入。以这种方式,隐藏层输出表示(h1,h2,...,hN)可以具有来自微博社交上下文的信息。
(3.2)计算基于长短期记忆网络的编码器的隐藏层输出:
ft=sigmoid(Wf·[ht-1,ωt,vi]+bf)
it=sigmoid(Wi·[ht-1,ωt,vi]+bi)
ot=sigmoid(Wo·[ht-1,ωt,vi]+bo)
Ct=ft⊙Ct-1+it⊙tanh(Wc·[ht-1,ωt]+bc)
ht=ot⊙tanh(Ct)
ft,it,ot分别是遗忘门,输入门和输出门。是权重矩阵,是每个门的偏差。ωt表示当前词语的向量表示。Ct是细胞状态,ht是隐藏的输出。⊙表示点乘。输入序列由最后的隐藏输出hN表示。dv是社交上下文嵌入的维度,dh表示隐藏层输出的维度,d为ωt的维度。
(3.3)计算注意力机制产生注意力权重向量α和加权隐藏表示r:
α=softmax(wTM)
r=HαT
其中,H是由前面步骤产生的由隐含层输出向量[h1,...,hN]组成的矩阵,N是输入微博的长度。和是权重矩阵,α∈RN是由注意力权重组成的向量,表示带权重的微博表示,dv是社交上下文嵌入的维度,dh表示隐藏层输出的维度。是向量vi的N次连接。eN是元素为N个1的列向量。表示线性转换vi的重复次数和句子中的单词数目相同。
(3.4)对输入的词语序列进行最终表示:
h*=tanh(Wpr+WxhN)
其中,h*,Wp和Wx是待学习的参数。
(3.5)添加一个线性层来将句子向量转换为e,它是一个长度等于分类数目|C|的实值向量。然后,softmax层将e转换为条件概率分布。
y=softmax(Wse+bs)
其中,Ws和bs是softmax层的参数。
(3.6)通过随机梯度下降的反向传播来训练提出的模型,其中目标函数即损失函数是交叉熵损失函数,使用Adam算法来调整学习速率。
其中,i表示微博的索引,j是情感分类的索引。λ是L2正则化的权重。θ是模型中的所有参数。yi表示微博真实的情感标签,表示预测的微博情感标签。
本发明提出了一种在新兴社交网络上的新假设,即微博文本之间并不是相互独立的,这种新假设更加符合在线社交网络的实际情况,能够使模型更精确。使用深度学习方法提取微博的社交上下文特征,用这种方法提取特征能够精确地表示社交上下文。本发明提出一种可以结合社会上下文特征和文本特征的、引入注意力机制的微博情感分析方法,在这个模型中,社交上下文特征可以既训练阶段又可用于预测阶段,该方法能够对微博进行更精确的表示,从而取得更好的情感分析结果。
本发明涉及一种使用社交上下文特征的深度微博情感分析方法。方法主要包括以下步骤:采集微博数据并对其进行预处理,具体包括采集和预处理微博文本信息和发布微博的用户即社交上下文信息;使用一种深度学习方法对微博社交上下文信息进行表示,将每个微博表示成为连续分布的实数向量;建立一个基于长短期记忆网络的深度学习分类模型,结合微博文本特征和社交上下文特征对微博进行情感分析。本发明针对微博数据的特点,提取了微博文本之间的上下文信息,并对其进行表示,将其作为特征同文本信息一起进行微博文本情感分析。该方法能够提高微博情感分析的效果。
Claims (3)
1.一种使用社交上下文特征的深度微博情感分析方法,其特征在于,包括以下步骤:
步骤1:采集微博数据并对其进行预处理,具体包括采集和预处理微博文本信息和发布微博的用户即社交上下文信息;
步骤2:使用一种深度学习方法对微博社交上下文信息进行表示,将每个微博表示成为连续分布的实数向量;
步骤3:建立一个基于长短期记忆网络的深度学习分类模型,结合微博文本特征和社交上下文特征对微博进行情感分析。
2.根据权利要求1所述的一种使用社交上下文特征的深度微博情感分析方法,其特征在于,步骤2中对社交上下文关系图G(V,E)进行表示具体包括以下步骤:
步骤2.1:对社交上下文网络G(V,E)中的局部信息进行表示:
其中vi和vj是节点νi和νj的向量表示,wij表示节点νi和νj之间的权重;
步骤2.2:对社交上下文中的全局信息进行表示:
其中当νi表示网络节点时,vi是其向量表示;当νi表示上下文时,vi′是此时的向量表示;
步骤2.3:为了解决低效率的目标优化问题,引入负采样,使用异步随机梯度算法ASGD来优化,具体公式为:
3.根据权利要求1所述的一种使用社交上下文特征的深度微博情感分析方法,其特征在于,在步骤3中,使用社交上下文表示作为特征对微博进行情感分析具体包括以下步骤:
步骤3.1:为了更好地利用微博社交上下文信息,通过连接社交上下文向量v与词语向量ω来作为编码器的输入,以这种方式,隐藏层输出表示(h1,h2,...,hN)具有来自微博社交上下文的信息;
步骤3.2:计算基于长短期记忆网络的编码器的隐藏层输出:
ft=sigmoid(Wf·[ht-1,ωt,vi]+bf)
it=sigmoid(Wi·[ht-1,ωt,vi]+bi)
ot=sigmoid(Wo·[ht-1,ωt,vi]+bo)
Ct=ft⊙Ct-1+it⊙tanh(Wc·[ht-1,ωt]+bc)
ht=ot⊙tanh(Ct)
ft,it,ot分别是遗忘门,输入门和输出门,Wf,Wi,是权重矩阵,bf,bI,是每个门的偏差,ωt表示当前词语的向量表示,Ct是细胞状态,ht是隐藏的输出,⊙表示点乘,输入序列由最后的隐藏输出hN表示,dv是社交上下文嵌入的维度,dh表示隐藏层输出的维度,d为ωt的维度;
步骤3.3:计算注意力机制产生注意力权重向量α和加权隐藏表示r:
α=softmax(wTM)
r=HαT
其中,H是由前面步骤产生的由隐含层输出向量[h1,...,hN]组成的矩阵,N是输入微博的长度,和是权重矩阵,α∈RN是由注意力权重组成的向量,表示带权重的微博表示,dv是社交上下文嵌入的维度,dh表示隐藏层输出的维度,是向量vi的N次连接,eN是元素为N个1的列向量,表示线性转换vi的重复次数和句子中的单词数目相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910446241.1A CN110188200A (zh) | 2019-05-27 | 2019-05-27 | 一种使用社交上下文特征的深度微博情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910446241.1A CN110188200A (zh) | 2019-05-27 | 2019-05-27 | 一种使用社交上下文特征的深度微博情感分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110188200A true CN110188200A (zh) | 2019-08-30 |
Family
ID=67717996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910446241.1A Pending CN110188200A (zh) | 2019-05-27 | 2019-05-27 | 一种使用社交上下文特征的深度微博情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188200A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464281A (zh) * | 2020-11-29 | 2021-03-09 | 哈尔滨工程大学 | 基于隐私分组和情感识别的网络信息分析方法 |
CN113051916A (zh) * | 2021-04-23 | 2021-06-29 | 东南大学 | 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法 |
CN113159368A (zh) * | 2021-01-20 | 2021-07-23 | 国电南瑞科技股份有限公司 | 基于环境上下文和用户反馈信息的用电模型优化方法 |
CN114553811A (zh) * | 2022-01-07 | 2022-05-27 | 中国人民解放军战略支援部队信息工程大学 | 基于时间戳调制和载体选择的高容量行为隐写方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544242A (zh) * | 2013-09-29 | 2014-01-29 | 广东工业大学 | 面向微博的情感实体搜索*** |
CN107341270A (zh) * | 2017-07-28 | 2017-11-10 | 东北大学 | 面向社交平台的用户情感影响力分析方法 |
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
US20180349359A1 (en) * | 2017-05-19 | 2018-12-06 | salesforce.com,inc. | Natural language processing using a neural network |
CN109389151A (zh) * | 2018-08-30 | 2019-02-26 | 华南师范大学 | 一种基于半监督嵌入表示模型的知识图谱处理方法和装置 |
CN109712609A (zh) * | 2019-01-08 | 2019-05-03 | 华南理工大学 | 一种解决关键词识别样本不均衡的方法 |
-
2019
- 2019-05-27 CN CN201910446241.1A patent/CN110188200A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544242A (zh) * | 2013-09-29 | 2014-01-29 | 广东工业大学 | 面向微博的情感实体搜索*** |
US20180349359A1 (en) * | 2017-05-19 | 2018-12-06 | salesforce.com,inc. | Natural language processing using a neural network |
CN107341270A (zh) * | 2017-07-28 | 2017-11-10 | 东北大学 | 面向社交平台的用户情感影响力分析方法 |
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN109389151A (zh) * | 2018-08-30 | 2019-02-26 | 华南师范大学 | 一种基于半监督嵌入表示模型的知识图谱处理方法和装置 |
CN109712609A (zh) * | 2019-01-08 | 2019-05-03 | 华南理工大学 | 一种解决关键词识别样本不均衡的方法 |
Non-Patent Citations (4)
Title |
---|
JING YANG等: "Microblog sentiment analysis via embedding social contexts into an attentive LSTM", 《ENGINEERING APPLICATIONS OF ARTIFICIAL INTELLIGENCE》 * |
YANG LI等: "A Bi-hemisphere Domain Adversarial Neural Network Model for EEG Emotion Recognitio", 《IEEE TRANSACTIONS ON AFFECTIVE COMPUTING》 * |
周鑫: "半监督算法在自然语言处理中应用的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
张英等: "基于循环神经网络的互联网短文本情感要素抽取", 《中原工学院学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464281A (zh) * | 2020-11-29 | 2021-03-09 | 哈尔滨工程大学 | 基于隐私分组和情感识别的网络信息分析方法 |
CN112464281B (zh) * | 2020-11-29 | 2022-11-18 | 深圳市索迪统计科技有限公司 | 基于隐私分组和情感识别的网络信息分析方法 |
CN113159368A (zh) * | 2021-01-20 | 2021-07-23 | 国电南瑞科技股份有限公司 | 基于环境上下文和用户反馈信息的用电模型优化方法 |
CN113051916A (zh) * | 2021-04-23 | 2021-06-29 | 东南大学 | 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法 |
CN114553811A (zh) * | 2022-01-07 | 2022-05-27 | 中国人民解放军战略支援部队信息工程大学 | 基于时间戳调制和载体选择的高容量行为隐写方法 |
CN114553811B (zh) * | 2022-01-07 | 2023-04-28 | 中国人民解放军战略支援部队信息工程大学 | 基于时间戳调制和载体选择的高容量行为隐写方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Long et al. | Sentiment analysis of text based on bidirectional LSTM with multi-head attention | |
CN109325112B (zh) | 一种基于emoji的跨语言情感分析方法和装置 | |
CN110188200A (zh) | 一种使用社交上下文特征的深度微博情感分析方法 | |
WO2018218705A1 (zh) | 一种基于神经网络概率消歧的网络文本命名实体识别方法 | |
CN109241255A (zh) | 一种基于深度学习的意图识别方法 | |
CN107958091A (zh) | 一种基于金融垂直知识图谱的nlp人工智能方法及交互*** | |
CN110929030A (zh) | 一种文本摘要和情感分类联合训练方法 | |
Shuang et al. | AELA-DLSTMs: attention-enabled and location-aware double LSTMs for aspect-level sentiment classification | |
CN108829662A (zh) | 一种基于条件随机场结构化注意力网络的对话行为识别方法及*** | |
Cai et al. | Intelligent question answering in restricted domains using deep learning and question pair matching | |
CN105701210A (zh) | 一种基于混杂特征计算的微博主题情感分析方法 | |
CN112527966B (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
CN113435211B (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN110909529B (zh) | 一种公司形象提升***的用户情感分析和预判*** | |
CN110489523A (zh) | 一种基于网购评价的细粒度情感分析方法 | |
CN110362797B (zh) | 一种研究报告生成方法及相关设备 | |
CN111079409A (zh) | 一种利用上下文和方面记忆信息的情感分类方法 | |
CN109325120A (zh) | 一种分离用户和产品注意力机制的文本情感分类方法 | |
CN110263147A (zh) | 推送信息的生成方法及装置 | |
Zhang et al. | A BERT fine-tuning model for targeted sentiment analysis of Chinese online course reviews | |
Wu et al. | Research on the Application of Deep Learning-based BERT Model in Sentiment Analysis | |
CN116245110A (zh) | 基于图注意力网络的多维度信息融合用户立场检测方法 | |
CN117494727B (zh) | 用于大语言模型的去偏倚方法 | |
Fei et al. | GFMRC: A machine reading comprehension model for named entity recognition | |
CN111723127A (zh) | 基于文本摘要情感挖掘的股票趋势预测方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190830 |