CN115099188A - 一种基于词嵌入和生成式神经网络的主题挖掘方法 - Google Patents
一种基于词嵌入和生成式神经网络的主题挖掘方法 Download PDFInfo
- Publication number
- CN115099188A CN115099188A CN202210708418.2A CN202210708418A CN115099188A CN 115099188 A CN115099188 A CN 115099188A CN 202210708418 A CN202210708418 A CN 202210708418A CN 115099188 A CN115099188 A CN 115099188A
- Authority
- CN
- China
- Prior art keywords
- distribution
- document
- word
- topic
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000005065 mining Methods 0.000 title claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 16
- 238000009826 distribution Methods 0.000 claims abstract description 155
- 239000013598 vector Substances 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000005070 sampling Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000000126 substance Substances 0.000 claims description 12
- 230000005484 gravity Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 14
- 230000001537 neural effect Effects 0.000 description 10
- 230000000052 comparative effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- JCJIZBQZPSZIBI-UHFFFAOYSA-N 2-[2,6-di(propan-2-yl)phenyl]benzo[de]isoquinoline-1,3-dione Chemical compound CC(C)C1=CC=CC(C(C)C)=C1N(C1=O)C(=O)C2=C3C1=CC=CC3=CC=C2 JCJIZBQZPSZIBI-UHFFFAOYSA-N 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于词嵌入和生成式神经网络的主题挖掘方法,属于自然语言处理领域。本方法包括:对语料库中的文本进行预处理;将文档词袋表示作为编码器网络的输入,将编码器网络的输出作为表示该文档主题分布的主题向量;文档主题向量经过加噪后作为高斯解码器的输入,将高斯解码器的输出作为表示该文档词分布的生成式词袋表示;以自编码器网络的重构损失和狄利克雷先验分布对齐的正则化损失最小为目标,对模型进行训练。本发明利用多维高斯分布在词向量空间对主题进行建模,融入了词向量中的外部语义知识,有效提高了主题的一致性;同时采用优化最大平均差的方法进行狄利克雷先验分布对齐,提高了主题的准确性。
Description
技术领域
本发明涉及一种基于词嵌入和生成式神经网络的主题挖掘方法,属于自然语言处理领域。
背景技术
随着网络技术的快速发展,越来越多的信息以文本的形式发布在互联网上,如新闻报道、百科词条、公众号推文等,这些文本中往往包含着大量的主题信息,但若人工地阅读它们需要消耗大量的人力和时间,无法适应文本信息的增长速度。因此人们迫切需要一种能够从大量非结构化的无标注文本中自动挖掘隐含主题的方法,同时希望抽取的主题具有较好的语义连贯性和多样性。
主题建模主要研究从大量文本中发现一组潜在的主题,每个主题描述一个可解释的语义概念,它被广泛的应用于机器学习、自然语言处理和文本挖掘等领域。其中最著名的是Blei等人在2003年提出的隐狄利克雷分配(LDA),它可以挖掘文档中隐含的主题。但由于精确求解的困难,大多数LDA变量都要采用近似推理的方法(如变分推理、吉布斯采样等),这导致该模型需要复杂的数学推导、求解困难、不易扩展。
使用神经网络进行主题建模可以解决该问题。近年来,许多学者基于变分自编码器(VAE)设计了神经主题模型,如Miao等提出的神经变分文档模型(NVDM)和Srivastava等提出的主题模型的自动编码变分推理(NVLDA)等,但这些模型中使用的先验分布(如高斯分布和逻辑正态分布等)都无法捕捉多模态,不利于主题的抽取。针对这一问题,Wang等基于对抗训练提出对抗-神经主题模型(ATM),然而ATM无法推断文档主题分布,因此出现了双向对抗神经主题模型(BAT)。但对抗训练需要达到纳什均衡,梯度下降法无法保证训练的稳定性。于是,Feng等基于Wasserstein自编码器提出了W-LDA,该模型采用最小化最大平均差(MMD)进行狄利克雷先验分布对齐。但该模型基于词袋模型,没有考虑词之间的语义相关性。
综上所述,当前的神经主题模型仍存在有以下不足:
1)已有神经主题模型难以将适合于文本主题建模的狄利克雷先验在主题分布空间建模,限制了模型挖掘出主题的质量。
2)目前的神经主题模型无法将已有的外部语义知识(如词向量等)融入到神经主题建模的过程中,限制了模型挖掘出主题的质量。
3)目前的神经主题模型挖掘出的主题之间相互独立,难以准确地挖掘出主题与主题之间的语义关系。
发明内容
针对上述存在的问题,本发明提供了一种基于词嵌入和生成式神经网络的主题挖掘方法,通过使用最小化最大平均差来实现主题分布空间的隐含文档-主题分布与狄利克雷先验分布对齐,同时利用多维高斯分布在词向量空间对主题进行建模,融入了词向量中的外部语义知识,有效提高了主题的准确性、一致性以及语意连贯性,
本发明为解决上述技术问题采用的技术方案如下:
一种基于词嵌入和生成式神经网络的主题挖掘方法,具体包括如下步骤:
S1、对语料库中的文本进行预处理,将文档用词袋表示;
S2、将步骤S1得到的文档词袋表示作为编码器网络的输入,将编码器网络的输出作为表示该文档主题分布的主题向量;
S3、将步骤S2得到的文档主题向量经过加噪后作为高斯解码器的输入,将高斯解码器的输出作为表示该文档词分布的生成式词袋表示;
S4、以自编码器网络的重构损失和狄利克雷先验分布对齐的正则化损失最小为目标,对模型进行训练。
步骤S1中所述将文档用词袋表示采用TF-IDF表示法,所述TF-IDF表示法的具体计算方法如下:
tf-idfv,d=tfv,d×idfv
其中,nv,d表示词表第v个词出现在文档d中的次数,|D|表示语料中文档的个数,|Dv|表示语料库中包含词表中第v个词的文档的个数;因此,每个文档可以被表示为一个V维的多项式分布且第v维表示词表中第v个词与该文档的语义相关度。
S302、利用多维高斯分布对每个主题进行建模
解码器网络D用一个词向量维度的高斯分布来建模第k个主题,其中,和Σk是可训练参数,分别代表该高斯分布的均值和协方差矩阵;对于词表中的第v∈{1,2,...,V}个词,根据高斯分布的概率密度计算公式,其在第k个主题中的概率φk,v可由下式得出:
S303、计算主题词分布
其中,θ(k)为第k个主题所占的比重。
步骤S4中所述自编码器网络的重构损失和狄利克雷先验分布对齐的正则化损失具体如下:
正则化损失计算主要分为两步:一是从狄利克雷分布中采样文档主题分布;二是计算编码器编码后得到的的文档主题分布和狄利克雷采样得到的文档主题分布的最大平均差;所述正则化损失计算的具体步骤如下:
a)从狄利克雷分布中采样文档主题分布
b)计算编码器编码后得到的文档主题分布和狄利克雷采样得到的文档主题分布的最大平均差
采用最小化最大平均差(MMD)进行先验分布对齐,需要定义如下正则项:
综上所述,整体模型的训练目标定义如下:
步骤S4中所述的训练过程具体包括:
S401、设置正则化系数λ(λ>0),初始化编码器网络E和解码器网络D的参数;
S403、根据所述重构损失函数和正则化损失函数进行随机梯度下降优化,更新编码器网络E和解码器网络D的参数,即
S404、重复步骤S402-S403,直至收敛。
本发明的技术方案能产生以下的技术效果:
1.本发明提供的基于词嵌入和生成式神经网络的主题挖掘方法,使用最小化最大平均差(MMD)的方法进行狄利克雷先验分布对齐,更贴近主题的真实分布,提高了主题的准确性;
2.与现有技术相比较,本发明通过利用多维高斯分布在词向量空间对主题进行建模,融入了词向量中的外部语义知识,提高了主题的一致性和语义连贯性,能有效提高挖掘出的主题质量;
3.本发明可以通过计算每个主题的多维高斯分布之间的距离挖掘出主题与主题之间的语义关系,定量地体现不同主题之间的联系,避免了主观性。
附图说明
图1为本发明实施例所述的方法流程图;
图2为本发明的神经网络模型架构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及对应的附图对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
本实施例中,如图2所示为本发明所述的基于词嵌入和生成式神经网络模型的整体架构,该网络模型的整体架构主要分为两个部分:一是基于Wasserstein自编码器结构的模型框架,其中编码器网络E实现文档-词分布到文档-主题分布的映射;解码器网络D融入词嵌入实现文档-主题分布到文档-词分布的映射;二是通过最小化最大平均差(MMD)来实现主题分布空间的隐含文档-主题分布与先验狄利克雷分布的对齐。通过优化重构损失函数和正则化损失函数训练模型,从而实现主题挖掘和文档聚类。
如图1所示,本实施例的具体实施过程包括如下步骤:
S1、对语料库中的文本进行预处理,将文档用词袋表示;
从语料库中加载数据,然后通过计算TF-IDF将文档用词袋表示。所述计算TF-IDF的具体方法如下:
tf-idfv,d=tfv,d×idfv
其中,nv,d表示词表第v个词出现在文档d中的次数,|D|表示语料中文档的个数,|Dv|表示语料库中包含词表中第v个词的文档的个数。因此,每个文档可以被表示为一个V维的多项式分布且第v维表示词表中第v个词与该文档的语义相关度。
与词袋模型不同,TF-IDF不仅关注词频,还关注逆向文件频率,这使得某个单词不仅要在某篇文章中出现频率很高,同时还要在其他文章中很少出现,才能较好地反映主题。
S2、将步骤S1得到的文档词袋表示作为编码器网络的输入,将编码器网络的输出作为表示该文档主题分布的主题向量;
所述编码器网络E包含2个全连接层,将文档词袋表示输入编码器网络E,得到表示文档主题分布的主题向量,上述过程的具体实现步骤如下:
在本发明实施例中,编码器的设置维度为n-100-100-K,其中n为词向量的维度,K为主题向量的维度。
所述步骤S3的具体实现步骤如下:
其中,采样自先验狄利克雷分布;β为比例系数,当β=0时,说明高斯解码器的输入就是编码器的输出,当β=1时,说明高斯解码器的输入完全采样自先验分布,而不考虑编码器的输出结果;在本实施例中,采样自参数α=0.1的狄利克雷分布,加噪的比例系数β=0.5
S302、利用多维高斯分布对每个主题进行建模
通过解码器网络D用一个词向量维度的高斯分布来建模第k个主题,其中,和Σk是可训练参数,分别代表该高斯分布的均值和协方差矩阵。对于词表中的第v∈{1,2,...,V}个词,根据高斯分布的概率密度计算公式,其在第k个主题中的概率φk,v可由下式得出:
S303、计算主题词分布
其中,θ(k)为第k个主题所占的比重。
S4、以自编码器网络的重构损失和狄利克雷先验分布对齐的正则化损失最小为目标,对模型进行训练,直至收敛。
所述正则化损失的计算主要分为两步:一是从狄利克雷分布中采样文档主题分布;二是计算编码器编码后得到的的文档主题分布和狄利克雷采样得到的文档主题分布的最大平均差。其具体步骤如下:
a)从狄利克雷分布中采样文档主题分布
b)计算编码器编码后得到的文档主题分布和狄利克雷采样得到的文档主题分布的最大平均差
采用最小化最大平均差(MMD)进行先验分布对齐,需要定义如下正则项:
综上所述,整体模型的训练目标定义如下:
S401、设置正则化系数λ(λ>0),初始化编码器E和解码器D的参数;
S403、根据重构损失函数和正则化损失函数进行随机梯度下降优化,更新编码器E和解码器D的参数,即
S404、重复步骤S402-S403,直至收敛,完成训练后打印每个主题的前10个主题词进行测试。
本实施例所述的一种基于词嵌入和生成式神经网络的主题挖掘方法的训练算法如下:
为了验证本发明的有效性,在相同的文本中使用不同的主流模型进行测试,并与本发明的实施例进行对比。
对比例1:按照(Yishu,Miao et al.”Neural variational inference for textprocessing.”In International Conference on Machine Learning,2016,pages 1727-1736)里的NVDM方法;
对比例2:按照(Yishu,Miao et al.”Discovering discrete latent topicswith neural variational inference.”In International Conference on MachineLearning,2017,pages 2410-2419)里的NVDM方法;
对比例3:按照(Rui,Wang et al.”Neural Topic Modeling with BidirectionalAdversarial Training.”In Proceedings of the 58th Annual Meeting of theAssociation for Computational Linguistics,2020,pages 340-350)里的BAT方法。
测试结果表明,本发明提出的基于词嵌入和生成式神经网络的主题挖掘方法,在Groli r数据集上的C_P为0.2571、C_A为0.2556、NPMI为0.0749、UCI为0.2423,所有指标均高于对比实验,其中对比实验中最高为C_P为0.2312、C_A为0.2108、NPMI为0.0608、UCI为0.1709,说明本实施例的方法提高了主题一致性和语义连贯性,能有效提高挖掘出的主题质量。
上述仅为本发明的优选实施例,并不对本发明起到任何限制作用。任何所属技术领域的技术人员,在不脱离本发明的技术方案的范围内,对本发明揭露的技术方案和技术内容做任何形式的等同替换或修改等变动,均属未脱离本发明的技术方案的内容,仍属于本发明的保护范围之内。
Claims (6)
1.一种基于词嵌入和生成式神经网络的主题挖掘方法,其特征在于,具体包括如下步骤:
S1、对语料库中的文本进行预处理,将文档用词袋表示;
S2、将步骤S1得到的文档词袋表示作为编码器网络的输入,将编码器网络的输出作为表示该文档主题分布的主题向量;
S3、将步骤S2得到的文档主题向量经过加噪后作为高斯解码器的输入,将高斯解码器的输出作为表示该文档词分布的生成式词袋表示;
S4、以自编码器网络的重构损失和狄利克雷先验分布对齐的正则化损失最小为目标,对模型进行训练。
3.根据权利要求2所述的一种基于词嵌入和生成式神经网络的主题挖掘方法,其特征在于,步骤S2中所述编码器网络由2个全连接层组成,所述编码器网络以真实语料中随机采样的真实文档的V维向量表示为输入,并将其变换为K维服从多项式分布的文档-主题分布所述步骤S2的具体实现步骤如下:
4.根据权利要求3所述的一种基于词嵌入和生成式神经网络的主题挖掘方法,其特征在于,所述步骤S3中使用的高斯解码器以从编码器网络得到的文档主题分布加噪后的为输入,通过非线性变换将其转换为与之对应的V维文档词分布其具体实现步骤如下:
S302、利用多维高斯分布对每个主题进行建模
解码器网络D用一个词向量维度的高斯分布来建模第k个主题,其中,和Σk是可训练参数,分别代表该高斯分布的均值和协方差矩阵;对于词表中的第v∈{1,2,...,V}个词,根据高斯分布的概率密度计算公式,其在第k个主题中的概率φk,v可由下式得出:
S303、计算主题词分布
其中,θ(k)为第k个主题所占的比重。
5.根据权利要求4所述的一种基于词嵌入和生成式神经网络的主题挖掘方法,其特征在于,步骤S4中所述自编码器网络的重构损失和狄利克雷先验分布对齐的正则化损失具体如下:
正则化损失计算主要分为两步:一是从狄利克雷分布中采样文档主题分布;二是计算编码器编码后得到的的文档主题分布和狄利克雷采样得到的文档主题分布的最大平均差;所述正则化损失计算的具体步骤如下:
a)从狄利克雷分布中采样文档主题分布
b)计算编码器编码后得到的文档主题分布和狄利克雷采样得到的文档主题分布的最大平均差
采用最小化最大平均差(MMD)进行先验分布对齐,需要定义如下正则项:
综上所述,整体模型的训练目标定义如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210708418.2A CN115099188A (zh) | 2022-06-22 | 2022-06-22 | 一种基于词嵌入和生成式神经网络的主题挖掘方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210708418.2A CN115099188A (zh) | 2022-06-22 | 2022-06-22 | 一种基于词嵌入和生成式神经网络的主题挖掘方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115099188A true CN115099188A (zh) | 2022-09-23 |
Family
ID=83292124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210708418.2A Pending CN115099188A (zh) | 2022-06-22 | 2022-06-22 | 一种基于词嵌入和生成式神经网络的主题挖掘方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115099188A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116415593A (zh) * | 2023-02-28 | 2023-07-11 | 北京市农林科学院 | 一种研究前沿识别方法、***、电子设备及存储介质 |
CN117236330A (zh) * | 2023-11-16 | 2023-12-15 | 南京邮电大学 | 一种基于互信息和对抗神经网络的增强主题多样性方法 |
CN117573811A (zh) * | 2024-01-16 | 2024-02-20 | 卓世科技(海南)有限公司 | 基于深度迁移学习的大语言模型数据挖掘方法 |
CN117808104A (zh) * | 2024-02-29 | 2024-04-02 | 南京邮电大学 | 一种面向热点话题的基于自监督表示学习的观点挖掘方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012106885A1 (zh) * | 2011-07-13 | 2012-08-16 | 华为技术有限公司 | 基于潜在狄利克雷模型的参数推断方法、计算装置及*** |
CN111581962A (zh) * | 2020-05-14 | 2020-08-25 | 福州大学 | 一种基于主题词向量与混合神经网络的文本表示方法 |
US20200293902A1 (en) * | 2019-03-15 | 2020-09-17 | Baidu Usa Llc | Systems and methods for mutual learning for topic discovery and word embedding |
CN114417852A (zh) * | 2021-12-06 | 2022-04-29 | 重庆邮电大学 | 基于Wasserstein自编码器和高斯混合分布作为先验的主题建模方法 |
-
2022
- 2022-06-22 CN CN202210708418.2A patent/CN115099188A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012106885A1 (zh) * | 2011-07-13 | 2012-08-16 | 华为技术有限公司 | 基于潜在狄利克雷模型的参数推断方法、计算装置及*** |
US20200293902A1 (en) * | 2019-03-15 | 2020-09-17 | Baidu Usa Llc | Systems and methods for mutual learning for topic discovery and word embedding |
CN111581962A (zh) * | 2020-05-14 | 2020-08-25 | 福州大学 | 一种基于主题词向量与混合神经网络的文本表示方法 |
CN114417852A (zh) * | 2021-12-06 | 2022-04-29 | 重庆邮电大学 | 基于Wasserstein自编码器和高斯混合分布作为先验的主题建模方法 |
Non-Patent Citations (3)
Title |
---|
FENG NAN 等: "Topic Modeling with Wasserstein Autoencoders", ARXIV, 6 December 2019 (2019-12-06), pages 1 - 37 * |
张青 等: "基于词向量和变分自动编码器的短文本主题模型", 河北工业科技, no. 06, 3 December 2018 (2018-12-03) * |
王睿: "基于词嵌入与生成式神经网络的主题模型研究", 中国博士学位论文全文数据库信息科技辑, 15 February 2022 (2022-02-15), pages 5 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116415593A (zh) * | 2023-02-28 | 2023-07-11 | 北京市农林科学院 | 一种研究前沿识别方法、***、电子设备及存储介质 |
CN116415593B (zh) * | 2023-02-28 | 2023-10-31 | 北京市农林科学院 | 一种研究前沿识别方法、***、电子设备及存储介质 |
CN117236330A (zh) * | 2023-11-16 | 2023-12-15 | 南京邮电大学 | 一种基于互信息和对抗神经网络的增强主题多样性方法 |
CN117236330B (zh) * | 2023-11-16 | 2024-01-26 | 南京邮电大学 | 一种基于互信息和对抗神经网络的增强主题多样性方法 |
CN117573811A (zh) * | 2024-01-16 | 2024-02-20 | 卓世科技(海南)有限公司 | 基于深度迁移学习的大语言模型数据挖掘方法 |
CN117573811B (zh) * | 2024-01-16 | 2024-03-19 | 卓世科技(海南)有限公司 | 基于深度迁移学习的大语言模型数据挖掘方法 |
CN117808104A (zh) * | 2024-02-29 | 2024-04-02 | 南京邮电大学 | 一种面向热点话题的基于自监督表示学习的观点挖掘方法 |
CN117808104B (zh) * | 2024-02-29 | 2024-04-30 | 南京邮电大学 | 一种面向热点话题的基于自监督表示学习的观点挖掘方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115099188A (zh) | 一种基于词嵌入和生成式神经网络的主题挖掘方法 | |
Gallant et al. | Representing objects, relations, and sequences | |
Roshanfekr et al. | Sentiment analysis using deep learning on Persian texts | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN111444700A (zh) | 一种基于语义文档表达的文本相似度量方法 | |
CN111797241B (zh) | 基于强化学习的事件论元抽取方法及装置 | |
Jin et al. | Back to common sense: Oxford dictionary descriptive knowledge augmentation for aspect-based sentiment analysis | |
CN112926322A (zh) | 融合自注意力机制和深度学习的文本分类方法及*** | |
Zhou | A review of text classification based on deep learning | |
Zhao et al. | AP-BERT: enhanced pre-trained model through average pooling | |
Xu et al. | Learning transferable features in meta-learning for few-shot text classification | |
Law et al. | Ltsg: Latent topical skip-gram for mutually learning topic model and vector representations | |
CN112347245A (zh) | 面向投融资领域机构的观点挖掘方法、装置和电子设备 | |
CN115222048A (zh) | 文献摘要生成模型的训练方法、装置、设备及介质 | |
CN111723572A (zh) | 基于CNN卷积层和BiLSTM的中文短文本相关性度量方法 | |
CN116629361A (zh) | 基于本体学习和注意力机制的知识推理方法 | |
Yu et al. | Multi-module Fusion Relevance Attention Network for Multi-label Text Classification. | |
Li et al. | TransExplain: Using neural networks to find suitable explanations for Chinese phrases | |
Sun et al. | A BERT-based deontic logic learner | |
Qin et al. | Enhancing named entity recognition from military news with bert | |
He et al. | Distant supervised relation extraction via long short term memory networks with sentence embedding | |
Xu et al. | Multi text classification model based on bret-cnn-bilstm | |
Yuan et al. | An encoder-decoder architecture with graph convolutional networks for abstractive summarization | |
Kibria et al. | Context-driven bengali text generation using conditional language model | |
Gultepe et al. | Document classification using convolutional neural networks with small window sizes and latent semantic analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |