CN116701569A - 一种基于多视角协同的多领域虚假新闻检测方法 - Google Patents
一种基于多视角协同的多领域虚假新闻检测方法 Download PDFInfo
- Publication number
- CN116701569A CN116701569A CN202310515854.2A CN202310515854A CN116701569A CN 116701569 A CN116701569 A CN 116701569A CN 202310515854 A CN202310515854 A CN 202310515854A CN 116701569 A CN116701569 A CN 116701569A
- Authority
- CN
- China
- Prior art keywords
- domain
- news
- view
- steps
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 64
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 230000008451 emotion Effects 0.000 claims description 68
- 230000004927 fusion Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 230000002996 emotional effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 5
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- YZMCKZRAOLZXAZ-UHFFFAOYSA-N sulfisomidine Chemical compound CC1=NC(C)=CC(NS(=O)(=O)C=2C=CC(N)=CC=2)=N1 YZMCKZRAOLZXAZ-UHFFFAOYSA-N 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000002679 ablation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3334—Selection or weighting of terms from queries, including natural language queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/27—Regression, e.g. linear or logistic regression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于多视角协同的多领域虚假新闻检测方法,旨在解决现有虚假新闻检测方法在领域转移上存在的问题,以提高模型在多领域场景中的性能表现。本方法基于多视角协同和专家网络特征提取,通过引入领域门网络学习领域和视角之间的关系,实现了对领域特征的有效利用。本发明所提供的多领域虚假新闻检测方法可以应用于社交媒体、新闻传媒、在线问答等领域,为用户提供可靠、准确的信息,具有广泛的应用前景。
Description
技术领域
本发明涉及虚假新闻检测领域,具体为一种基于多视角协同的多领域虚假新闻检测方法。
背景技术
随着互联网的普及和社交媒体的流行,虚假新闻已经成为一个严重的问题。虚假新闻不仅会误导人们的思想,而且会对社会产生严重的影响。因此,虚假新闻检测成为一个热门的研究方向。虚假新闻检测的目的是将新闻内容分为真假两类。现有的方法主要可以分为基于内容的方法和基于社交上下文的方法。
在基于内容的方法中,研究者主要通过分析新闻的文本内容,从中提取特征来检测虚假新闻。这些特征包括词汇特征、语义特征和统计特征等。一些研究者还利用外部证据,如知识图谱或事实核查网站中的信息,来进行虚假新闻检测。基于内容的方法的优点是可以独立地分析新闻文本,但缺点是可能忽略了社交上下文信息。
基于社交上下文的方法主要是通过对新闻传播过程进行建模,挖掘新闻传播的结构信号。这些方法可以通过分析社交媒体实体之间的交互来捕捉社交上下文信息。另一方面,一些研究者利用群体智慧,如情感和立场等,来检测虚假新闻。
多领域虚假新闻检测是虚假新闻检测的一个重要分支。不同领域的新闻有着不同的特征,因此需要使用不同的模型来检测虚假新闻。多领域虚假新闻检测方法旨在从不同领域的数据中学习到通用的特征,以提高虚假新闻检测的准确性和泛化性能。
基于情感的虚假新闻检测是另一种虚假新闻检测的方法。研究表明,情感特征对于虚假新闻的检测非常重要。一些研究者利用情感特征、新颖性以及情绪等多个任务来进行多任务学习,以提高虚假新闻检测的性能。
综上所述,虚假新闻检测是一个重要的研究方向,可以通过基于内容、基于社交上下文、多领域和基于情感等多种方法来进行。这些方法可以分别或结合使用来提高虚假新闻检测的准确性和泛化性能。未来,虚假新闻检测的研究将继续发展,同时也需要不断地探索新的技术和方法,以应对新的虚假新闻的挑战。
发明内容
本发明的目的是针对现有技术的缺陷,提供一种基于多视角协同的多领域虚假新闻检测方法,以解决上述背景技术提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于多视角协同的多领域虚假新闻检测方法,按如下步骤完成判断该新闻是否为虚假新闻:
S1:接收新闻内容输入,将输入新闻内容经过BERT模型处理,获得词嵌入向量;
S2:将词嵌入向量通过双向LSTM处理,提取新闻的顺序特征;
S3:使用语义网络和领域网络分别处理新闻内容,得到新闻的语义特征和领域特定特征;
S4:通过混合专家***处理新闻内容,获得情感特征和风格特征;
S5:将语义特征、领域特定特征、情感特征和风格特征输入跨视角融合模块实现自适应跨视图表示;
S6:根据领域网络获得的权重,对融合后的特征进行加权求和,得到总的特征表示;
S7:将总的特征表示输入分类器模块,对新闻内容进行真假性判断;
S8:输出新闻真假性判断结果。
作为本发明的一种优选技术方案:所述虚假新闻检测问题的建模包含以下步骤:
K1:将新闻P的文本内容使用BERT预训练模型编码为长度为T的标记序列;
K2:从新闻P中提取情感特征E和风格特征S,其中情感特征E和风格特征S都是数值特征;
K3:将新闻P的域标签g作为输入,结合情感特征E和风格特征S,使用多任务学习的方法,训练一个多领域虚假新闻检测模型;
K4:对于新闻P,输入其文本标记序列、情感特征E和风格特征S,结合其域标签g,使用训练好的多领域虚假新闻检测模型,输出其真假标签y;
K5:对于多个域标签,重复步骤K3和K4,得到每个域下的真假标签y,最终将多个域下的真假标签y结合起来,得到新闻P的最终真假标签;
K6:对于新闻P的每个域标签,使用一组混淆矩阵、准确率、召回率、F1分数等指标,评估该域下的虚假新闻检测性能。
作为本发明的一种优选技术方案:所述多视角协同的具体提取流程包含如下步骤:
(a):设置超参数T,表示专家网络中的专家个数;
(b):构建混合专家网络,包括语义网络、情感网络、风格网络和领域网络;
(c):将输入新闻文本转换为词向量W;
(d):对于每个专家网络执行以下操作:
(d1):确定各个专家网络模型结构以及其中的可学习参数θi;
(d2):利用词向量W和可学习参数θi,计算专家网络的输出表示ri;
(e):根据各个专家网络的输出表示ri,获得输入新闻文本的多视角特征表示;
其中,每个专家网络(1≤i≤T)都有自己擅长的领域,善于提取某一领域的特征。
作为本发明的一种优选技术方案:所述S5中跨视角融合的具体流程步骤为:
S51:接收多个视图的输入数据,其中每个视图表示一个特定的数据特征,包括但不限于语义、情感和风格;
S52:为每个视图计算对应的权重系数,其中wsem,wemo和wstl分别表示语义、情感和风格视图的权重系数;
S53:计算跨视图交互表示z,通过将不同视图的权重系数与对应的视图表示相乘并求和得到,其中计算公式为:
其中ksem,kemo,kstl分别代表语义网络,情感网络以及风格网络中的专家个数,其中lnrsem,lnremo和lnrstl分别表示语义、情感和风格视图的视图表示,wdomain和lnrdomain代表领域权重和领域局部视图表示;
S54:设置多头跨视角融合,每个头自适应地学习一种跨视图表示,生成一组跨视图表示集合其中H代表跨视图表示的数量;
S55:根据生成的跨视图表示集合对输入数据进行分类或回归任务处理并输出结果。
作为本发明的一种优选技术方案:所述S7中分类器模块的具体特征为:
S71:采用不同的专家网络获取新闻文章的跨视图表示;
S71:将领域标签输入领域门,以建模领域差异,得到权重分数,权重函数表示为softmax(MLP(g));
S71:根据计算得到的权重分数聚合跨视图表示,公式为:
S71:将聚合后的跨视图表示输入一个具有softmax输出层的多层感知分类器,用于虚假新闻的二分类问题;
S71:采用二分类交叉熵损失函数进行网络训练,损失函数表示为yi代表的是真实标签,/>代表的是预测标签。
作为本发明的一种优选技术方案:所述(b)中构建混合专家网络的具体步骤如下:
(b1):对新闻文本进行BERT标记和LSTM序列信息提取,获得新闻文本的语义特征表示rsem;
(b2):对情感类别、情感词典、情感强度、情感分数和辅助特征五方面作为情感特征输入情感网络,使用混合专家网络提取情感特征,获得新闻文本的情感特征表示remo;
(b3):对可读性、逻辑性、可信性、规范性、交互性、有趣性、情绪性和完整性八方面作为风格特征输入风格网络,使用混合专家网络提取风格特征,获得新闻文本的风格特征表示rstl;
(b4):对每个领域使用一个特定的领域特征提取网络,使用TextCNN提取领域特征,获得新闻文本的领域特定特征表示rdomain;
(b5):将三组不同来源的特征表示rsem、remo、rstl和领域特定特征表示rdomain进行组合,得到多维特征表示,全面描述新闻文本的内容和特征。
本发明所述一种基于多视角协同的多领域虚假新闻检测方法,采用以上技术方案与现有技术相比,具有以下技术效果:
本发明的有益效果是:本发明提出的一种基于多视角协同的多领域虚假新闻检测方法,可以更好地利用领域信息,实现在多领域场景下的假新闻修正。有了专家网络进入特征提取,引入领域门户网络学习领域与视角之间的关系,并利用多视角融合和BiLSTM模块有效地捕捉新闻的多视角特征表示。多种虚拟假新闻检测方法的比较,试验证明了该方法的有效性和优良性。本发明的有效果是提高了假新闻检测的准确率和可靠率,可以在新闻媒体、社交网络等陵墓下进行多领希望减少虚假信息对公众和社会的影响影响,保护信息安全和社会稳定。
附图说明
图1为本发明所述多视角协同的多领域虚假新闻检测方法的模型架构图。
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易被本领域人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
实施例:请参阅图1,本发明提供一种技术方案:一种基于多视角协同的多领域虚假新闻检测方法,包括按如下S1至S8完成判断该新闻是否为虚假新闻:S1:接收新闻内容输入,将输入新闻内容经过BERT模型处理,获得词嵌入向量;
S2:将词嵌入向量通过双向LSTM处理,提取新闻的顺序特征;S3:使用语义网络和领域网络分别处理新闻内容,得到新闻的语义特征和领域特定特征;S4:通过混合专家***处理新闻内容,获得情感特征和风格特征;S5:将语义特征、领域特定特征、情感特征和风格特征输入跨视角融合模块,进行特征融合;S6:根据领域网络获得的权重,对融合后的特征进行加权求和,得到总的特征表示;S7:将总的特征表示输入分类器模块,对新闻内容进行真假性判断;S8:输出新闻真假性判断结果。本发明在公开数据集上进行实验,包括中文数据集和英文数据集。
此方法的虚假新闻检测问题的建模包含以下步骤:将新闻P的文本内容使用BERT预训练模型编码为长度为T的标记序列;从新闻P中提取情感特征E和风格特征S,其中情感特征E和风格特征S都是数值特征;将新闻P的域标签g作为输入,结合情感特征E和风格特征S,使用多视角协同的方法,训练一个多领域虚假新闻检测模型;对于新闻P,输入其文本标记序列、情感特征E和风格特征S,结合其域标签g,使用训练好的多领域虚假新闻检测模型,输出其真假标签y;对于多个域标签,重复步骤,得到每个域下的真假标签y,最终将多个域下的真假标签y结合起来,得到新闻P的最终真假标签;对于新闻P的每个域标签,使用一组混淆矩阵、准确率、召回率、F1分数等指标,评估该域下的虚假新闻检测性能。
此方法的多视角协同的具体提取包含以下步骤:设置超参数T,表示专家网络中的专家个数;构建混合专家网络,包括语义网络、情感网络、风格网络和领域网络;将输入新闻文本转换为词向量W;对于每个专家网络(1≤i≤T),执行以下操作:确定各个专家网络中的可学习参数θi;利用词向量W和可学习参数θi,计算专家网络/>的输出表示ri;根据各个专家网络的输出表示ri,获得输入新闻文本的多视角特征表示;其中,每个专家网络/>(1≤i≤T)都有自己擅长的领域,善于提取某一领域的特征。
此方法构建混合专家网络具体包含如下步骤:对新闻文本进行BERT标记和LSTM序列信息提取,获得新闻文本的语义特征表示rsem;对情感类别、情感词典、情感强度、情感分数和辅助特征五方面作为情感特征输入情感网络,使用混合专家网络提取情感特征,获得新闻文本的情感特征表示remo;对可读性、逻辑性、可信性、规范性、交互性、有趣性、情绪性和完整性八方面作为风格特征输入风格网络,使用混合专家网络提取风格特征,获得新闻文本的风格特征表示rstl;对每个领域使用一个特定的领域特征提取网络,使用TextCNN提取领域特征,获得新闻文本的领域特定特征表示rdomain;将三组不同来源的特征表示rsem、remo、rstl和领域特定特征表示rdomain进行组合,得到多维特征表示,全面描述新闻文本的内容和特征。
此方法的跨视角融合的具体流程步骤:接收多个视图的输入数据,其中每个视图表示一个特定的数据特征,包括但不限于语义、情感和风格;为每个视图计算对应的权重系数,其中wsem,wemo和wstl分别表示语义、情感和风格视图的权重系数;计算跨视图交互表示z,通过将不同视图的权重系数与对应的视图表示相乘并求和得到,其中计算公式为: 设置多头跨视角融合,每个头自适应地学习一种跨视图表示,生成一组跨视图表示集合/>其中H代表跨视图表示的数量;根据生成的跨视图表示集合/>对输入数据进行分类或回归任务处理并输出结果。
此方法的分类器模块的具体特征为:采用不同的专家网络获取新闻文章的跨视图表示;将领域标签输入领域门,以建模领域差异,得到权重分数,权重函数表示为softmax(MLP(g));根据计算得到的权重分数聚合跨视图表示,公式为:将聚合后的跨视图表示输入一个具有softmax输出层的多层感知分类器,用于虚假新闻的二分类问题;采用二分类交叉熵损失函数进行网络训练,损失函数表示为/> yi代表的是真实标签,/>代表的是预测标签。
通过以上流程,基于多视角协同的多领域虚假新闻检测方法可以在多个领域有效地检测虚假新闻,提高准确性和鲁棒性。该方法充分利用了新闻文本的各个视角特征,如语义、情感和风格等,有助于提高新闻真假性判断的准确率。同时,通过多视角特征融合,可以进一步提高检测性能。
实施例:本发明采用常用的评价指标AUC,F1以及准确率来评估虚假新闻检测模型的性能。AUC是受视工作特性曲线下方的面积,该曲线在二维空间中绘制,以假阳性率作为x坐标,真实阳性率作为y坐标。AUC由于不受类别不平衡的影响并且独立于预测阈值,因此被广泛使用,以用于评估不同模型的性能。F1综合查准率与查全率两个指标,准确率表示分类正确占总的比重。
基线总共可以分为三类,第一类是单领域检测方法,分别为每个领域建立模型进行训练。TextCNN_s:这是常用的文本分类模型,我们用5个内核实现TextCNN。具有相同64个通道的5个内核具有不同的步长分别为1、2、3、5和10。BiGRU_s:将新闻文本通过BiGRU建模获得文本的顺序信息,使用MLP得到预测结果。GRU的隐藏层尺寸设为300。BERT_s:我们利用BERT对新闻文本的token进行编码,并将提取的平均值嵌入到MLP中,得到最终的预测结果。
第二类是混合域基线,它将所有领域数据混合在一起进行训练。该组中的BiGRU_a、TextCNN_a、BERT_a的实现与第一组相同。这类的另外两个基线是:StyleLSTM:首先利用BiLSTM从内容中提取新闻表示。然后,将新闻表示和风格特征结合输入MLP,得到最终的预测结果。DualEmo:通过BiGRU提取新闻的特征表示,并从新闻文本以及评论提取情感特征,将两者融合实现虚假新闻检测。
第三类是多域方法,MMoE:是一个多任务模型,将每个领域设置为一个单独的任务,通过在各个领域共享混合专家(MoE),每个领域都有其特定的头部。MoSE:它在MMoE的专家之前增加LSTM以获取文本的顺序信息。Mdfend:是多领域虚假新闻检测模型,它利用领域来选择MoE的有用专家。
实验分析:为了验证本发明提出模型的有效性,我们将模型与基线方法在中英文数据集上进行了对比实验,对比指标为F1,Acc以及AUC.实验的结果见表1以及表2。
表1:中文数据集模型方法性能比较
表2:英文数据集模型方法性能比较
本发明提出的模型及其变体在中文数据集的各项指标如表3所示。为了验证多视图融合和BiLSTM模块对所提出模型的重要性,分别对这两个模块进行分析。
1)、多视角的影响。首先,我们通过实验验证了不同视图的贡献,比较了本文提出的模型和变体MMFND-sem,MMFND-emo,MMFND-stl,分别代表从MMFND中去除语义视图、情感视图和风格视图。我们发现所有视图都有利于假新闻检测,尤其是语义视图,这是现有大多数方法的核心。由于情感和风格特征是人工从文本内容中提取的,这些特征通常被用作语义视图建模的辅助信息。此外,我们观察到情感观比风格观更有效。原因可能是情感特征包含发布者和社交特征,而风格特征只代表发布者偏好。
2)、BiLSTM的影响。为了建模新闻文本的顺序信息,在语义网络之前增加BiLSTM模块。为了评价提出的顺序建模模块的有效性,设计提出了模型的变体MMFND-BiLSTM,它没有包含BiLSTM模块,只是将文本特征直接输入到语义网络中,忽略了文本的顺序联系。经过实验验证,与变体MMFND-BiLSTM相比,MMFND具有更好的性能,这表示BiLSTM能够有效的对新闻文本的顺序信息进行建模,有助于检测性能的提升。
表3:消融实验
实验结论:可以看到,本发明的模型MMFND在多项指标上优于对比模型。其中,在中文和英文两个数据集上都有非常好的表现效果。在大多数任务上,混合领域模型较单域模型性能提高,这表示联合多领域域联合训练数据不仅有助于提高多个领域的整体性能,而且有助于提高单个领域的性能。同时StyleLSTM和DualEmo的检测结果优于BiGRU,由于这两个模型是将BiGRU提取的文本特征与风格特征和情感特征相结合,这说明引入更多的视图有利于多域假新闻检测。我们发现MMFND在大多数任务中都显著优于对比模型,这表明MMDFND不仅可以提高整体检测性能,还可以提高特定域的性能。主要原因是MMFND丰富了域信息,并通过聚合不同域的有用的跨视图交互显式地对各种领域差异建模。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (6)
1.一种基于多视角协同的多领域虚假新闻检测方法,其特征在于:其采用了多视角协同的办法结合领域信息解决多领域虚假新闻检测问题,具体包括以下步骤完成判断该新闻是否为虚假新闻:
S1:接收新闻内容P,将输入新闻内容经过BERT模型处理,获得词嵌入向量;
S2:将词嵌入向量通过双向LSTM处理,提取新闻的顺序特征;
S3:使用语义网络和领域网络分别处理新闻内容,得到新闻的语义特征和领域特定特征;
S4:通过混合专家***处理新闻内容P,获得情感特征E和风格特征S;
S5:将语义特征、领域特定特征、情感特征和风格特征输入跨视角融合模块实现自适应跨视图表示;
S6:根据领域网络获得的权重,对融合后的特征进行加权求和,得到总的特征表示;
S7:将总的特征表示输入分类器模块,对新闻内容进行真假性判断;
S8:输出新闻真假性判断结果。
2.根据权利要求1所述的一种基于多视角协同的多领域虚假新闻检测方法,其特征在于:所述解决虚假新闻检测问题中,其建模包含以下步骤:
K1:将新闻内容P的文本内容使用BERT预训练模型编码为长度为T的文本标记序列;
K2:从新闻内容P中提取情感特征E和风格特征S,其中情感特征E和风格特征S都是数值特征;
K3:将新闻P的域标签g作为输入,结合情感特征E和风格特征S,使用多任务学习的方法,训练一个多领域虚假新闻检测模型,其中域标签g∈{Domian1,…,SomainN},Domian代表域的具体值;
K4:对于新闻P,输入其文本标记序列、情感特征E和风格特征S,结合其域标签g,使用训练好的多领域虚假新闻检测模型,输出其真假标签y;
K5:对于多个域标签,重复步骤K3和K4,得到每个域下的真假标签y,最终将多个域下的真假标签y结合起来,得到新闻P的最终真假标签;
K6:对于新闻P的每个域标签g,使用一组评估指标,评估指标包括混淆矩阵、准确率、召回率以及F1分数,评估该域下的虚假新闻检测性能。
3.根据权利要求1所述的一种基于多视角协同的多领域虚假新闻检测方法,其特征在于:所述多视角协同的办法:其具体提取流程包含如下步骤:
(a):设置超参数T,表示专家网络中的专家个数;
(b):构建混合专家网络,包括语义网络、情感网络、风格网络和领域网络;
(c):将输入新闻内容P的文本内容转换为词向量W;
(d):对于每个专家网络执行以下操作:
(d1):确定每个专家网络的模型结构以及其中的可学习参数θi;
(d2):利用词向量W和可学习参数θi,计算专家网络的输出表示ri;
(e):根据各个专家网络的输出表示ri,获得输入新闻文本的多视角特征表示;
其中,每个专家网络用于提取不同领域的特征。
4.根据权利要求1所述的一种基于多视角协同的多领域虚假新闻检测方法,其特征在于:所述S5中跨视角融合模块的具体操作流程步骤包含为:
S51:接收多个视图的输入数据,其中每个视图表示一个特定的数据特征,包括但不限于语义、情感和风格;
S52:为每个视图计算对应的权重系数,其中Wsem,wemo和wstl分别表示语义、情感和风格视图的权重系数;
S53:计算跨视图交互表示z,通过将不同视图的权重系数与对应的视图表示相乘并求和得到,其中计算公式为:
其中ksem,kemo,kstl分别代表语义网络,情感网络以及风格网络中的专家个数,其中lnrsem,lnremo和lnrstl分别表示语义、情感和风格视图的视图表示,wdomain和lnrdomain代表领域权重和领域局部视图表示;
S54:设置多头跨视角融合,每个头自适应地学习一种跨视图表示,生成一组跨视图表示集合其中H代表跨视图表示的数量;
S55:根据生成的跨视图表示集合对输入数据进行分类或回归任务处理并输出结果。
5.根据权利要求1所述的一种基于多视角协同的多领域虚假新闻检测方法,其特征在于:所述S7中分类器模块的具体工作流程为:
S71:采用不同的专家网络获取新闻文章的跨视图表示;
S72:将领域标签输入领域门,以建模领域差异,得到权重分数,权重函数表示为softmax(MLP(g));
S73:根据计算得到的权重分数聚合跨视图表示,公式为:
S74:将聚合后的跨视图表示输入一个具有softmax输出层的多层感知分类器,进行虚假新闻的二分类;
S75:采用二分类交叉熵损失函数进行网络训练,损失函数表示为yi代表的是真实标签,/>代表的是预测标签。
6.根据权利要求3所述一种基于多视角协同的多领域虚假新闻检测方法,其特征在于:所述(b)中构建混合专家网络的具体步骤如下:
(b1):对新闻文本进行BERT标记和LSTM序列信息提取,获得新闻文本的语义特征表示rsem;
(b2):将情感特征输入情感网络,情感特征包含情感类别、情感词典、情感强度、情感分数和辅助特征五方面,使用混合专家网络提取情感特征,获得新闻文本的情感特征表示remo;
(b3):将风格特征输入风格网络,风格特征包含可读性、逻辑性、可信性、规范性、交互性、有趣性、情绪性和完整性八个方面,使用混合专家网络提取风格特征,获得新闻文本的风格特征表示rstl;
(b4):对每个领域使用一个特定的领域特征提取网络,使用TextCNN提取领域特征,获得新闻文本的领域特定特征表示rdomain;
(b5):将三组不同来源的特征表示rsem、remo、rstl和领域特定特征表示rdomain进行组合,得到多维特征表示,多维特征表示用于全面描述新闻文本的内容和特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310515854.2A CN116701569A (zh) | 2023-05-09 | 2023-05-09 | 一种基于多视角协同的多领域虚假新闻检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310515854.2A CN116701569A (zh) | 2023-05-09 | 2023-05-09 | 一种基于多视角协同的多领域虚假新闻检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116701569A true CN116701569A (zh) | 2023-09-05 |
Family
ID=87838304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310515854.2A Pending CN116701569A (zh) | 2023-05-09 | 2023-05-09 | 一种基于多视角协同的多领域虚假新闻检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116701569A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117972497A (zh) * | 2024-04-01 | 2024-05-03 | 中国传媒大学 | 基于多视图特征分解的虚假信息检测方法及*** |
-
2023
- 2023-05-09 CN CN202310515854.2A patent/CN116701569A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117972497A (zh) * | 2024-04-01 | 2024-05-03 | 中国传媒大学 | 基于多视图特征分解的虚假信息检测方法及*** |
CN117972497B (zh) * | 2024-04-01 | 2024-06-18 | 中国传媒大学 | 基于多视图特征分解的虚假信息检测方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Creating something from nothing: Unsupervised knowledge distillation for cross-modal hashing | |
Huang et al. | Speech emotion recognition from variable-length inputs with triplet loss function. | |
CN110990564B (zh) | 一种基于情感计算与多头注意力机制的负面新闻识别方法 | |
Tang et al. | CTFN: Hierarchical learning for multimodal sentiment analysis using coupled-translation fusion network | |
Guo et al. | LD-MAN: Layout-driven multimodal attention network for online news sentiment recognition | |
CN105279495A (zh) | 一种基于深度学习和文本总结的视频描述方法 | |
Wang et al. | Deep cascaded cross-modal correlation learning for fine-grained sketch-based image retrieval | |
Cai et al. | Intelligent question answering in restricted domains using deep learning and question pair matching | |
CN110321563A (zh) | 基于混合监督模型的文本情感分析方法 | |
CN110532379A (zh) | 一种基于lstm的用户评论情感分析的电子资讯推荐方法 | |
CN107145514B (zh) | 基于决策树和svm混合模型的中文句型分类方法 | |
CN110287314B (zh) | 基于无监督聚类的长文本可信度评估方法及*** | |
CN111177554A (zh) | 一种基于生成对抗学习的可解释探索的假新闻识别***及方法 | |
CN115309860B (zh) | 基于伪孪生网络的虚假新闻检测方法 | |
Sun et al. | Transformer based multi-grained attention network for aspect-based sentiment analysis | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
CN116701569A (zh) | 一种基于多视角协同的多领域虚假新闻检测方法 | |
Luo et al. | Bi-vldoc: Bidirectional vision-language modeling for visually-rich document understanding | |
Hou et al. | Semantic alignment network for multi-modal emotion recognition | |
Liu et al. | A multimodal approach for multiple-relation extraction in videos | |
Chen et al. | Identifying Cantonese rumors with discriminative feature integration in online social networks | |
CN113806545B (zh) | 基于标签描述生成的评论文本情感分类方法 | |
Yao et al. | Multi-modal spatial relational attention networks for visual question answering | |
Wu et al. | Audio-visual kinship verification: a new dataset and a unified adaptive adversarial multimodal learning approach | |
CN113361615B (zh) | 基于语义相关性的文本分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |