CN113361615A - 基于语义相关性的文本分类方法 - Google Patents
基于语义相关性的文本分类方法 Download PDFInfo
- Publication number
- CN113361615A CN113361615A CN202110665361.8A CN202110665361A CN113361615A CN 113361615 A CN113361615 A CN 113361615A CN 202110665361 A CN202110665361 A CN 202110665361A CN 113361615 A CN113361615 A CN 113361615A
- Authority
- CN
- China
- Prior art keywords
- text
- word
- monitor
- semantic
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于语义相关性的文本分类方法,对有标签文本数据进行预处理,从而获取有标签文本数据中的文本监督器,所述文本监督器为文本中与文本类别语义密切相关的一系列词;通过文本关联结构信息,构建文本监督器识别子模型,获取无标签文本中的文本监督器;根据文本监督器和文本类别之间的强关联性,将标注有文本监督的文本数据作为输入,采用经典的双向长短时记忆网络模型,提取原始文本的语义特征,利用特征增强机制获取基于文本监督器增强表示的文本特征,采用拼接的方式将原始文本的语义特征和基于文本监督器增强表示的文本特征进行融合,将融合结果经SoftMax函数,进而获取文本分类结果。
Description
技术领域
本发明涉及自然语言处理索领域,具体涉及一种基于语义相关性的文本分类方法。
背景技术
随着互联网和大数据时代的到来,文本数据海量增长,文本分类成为了人们处理海量数据的关键性技术,对于数据挖掘与信息检索至关重要,并在情感分析、话题检测、垃圾邮件过滤、网页分类等等领域得到广泛应用。
传统的文本分类技术只关注了文本中某个或者几个目标词来实现文本分类问题,这样存在的缺陷是对有上下文语义联系的短语将会将会出现判断错误。随着深度学习的发展,利用神经网络方法使用大量人工标注数据集能够针对特定数据训练得到高性能的文本分类模型,并取得不错的效果,至今已经有很多优秀的算法被提出,Tang等人利用递归神经网络(RecurrentNeural Network,RNN)可以学习到词序信息,在文档建模方面取得了很好的成果;基于RNN的变体如LSTM网络引入“门控”来控制信息的累计速度从而解决了RNN网络中存在的长距离依赖问题;双向长短时记忆网络是LSTM网络的进一步扩展,通过将前向隐状态和后向隐状态结合向下一个网络层中传递,增强文本上下文之间的联系,更好解决文本分类问题,Liu等人提出一种基于自注意力机制的BILSTM神经网络模型,能够学习句子内部更加丰富的语义信息,在长句子的文本分类中取得突破性进展。这些方法都是利用现有的只标注文本类别的数据集训练模型,高质量文本分类模型需要大量的人工标注数据,然而海量数据下的本类型复杂多样,使得用人工标注的方法标注大量训练数据变得异常困难,耗时、耗力且代价昂贵,已经无法满足用户需求,因此如何经济高效地从海量文本数据中获取更多有效的监督数据进行文本分类已经成为自然语言处理中的重点研究问题。
发明内容
本发明提供了一种基于语义相关性的文本分类方法,本发明通过文本信息的语义相关性经济高效地获取文本监督器,有效减少人工标注成本,并利用文本监督器和文本类别之间的语义关系,进而提升文本分类的准确率,详见下文描述:
对有标签文本数据进行预处理,从而获取有标签文本数据中的文本监督器,所述文本监督器为文本中与文本类别语义密切相关的一系列词;
通过文本关联结构信息,构建文本监督器识别子模型,获取无标签文本中的文本监督器;
根据文本监督器和文本类别之间的强关联性,将标注有文本监督的文本数据作为输入,采用经典的双向长短时记忆网络(Bi-directional Long Short-Term Memory,BILSTM)模型,提取原始文本的语义特征;
利用特征增强机制获取基于文本监督器增强表示的文本特征,采用拼接的方式将原始文本的语义特征和基于文本监督器增强表示的文本特征进行融合;
将融合结果经SoftMax函数,进而获取文本分类结果。
进一步地,所述对有标签文本数据进行预处理,从而获取有标签文本数据中的文本监督器包括:
将有标签文本数据进行词嵌入,所述词嵌入采用基于词级别和字符级别的向量,获取有标签文本中每一个词xi所对应的词向量Wi=[wi:ci],以及文本类别词的语义特征T,其中wi为词级别向量,ci为字符级别向量,然后通过文本中每一个词所对应的词向量和文本类别词的语义特征进行内积得到内积分数向量Escore=<Wi,T>,再利用归一化方法将Escore归一化到区间[0,1],选择归一化分数大于阈值α1的词作为文本监督器词,所述α1设置为0.6。
所述文本监督器识别子模型包括图构造、图分解、图嵌入、词节点分类:
对于图构造方式是基于输入的文本序列信息构造句子图,并通过顺序边和语义边两种边融合进行句子图的连接;
其中顺序边按照文本中词节点的顺序依次连接;语义边是根据文本中各个词节点所对应的词向量之间相互内积得到内积分数向量Escore,再利用归一化方法将Escore归一化到区间[0,1],选择归一化分数大于阈值α2的两个词节点进行连接,所述α2设置为0.7;
对于图分解方式是依次选取文本中的词节点作为中心词节点,并取其一阶邻居子图将句子图分解为N个词节点子图,并添加一个节点特征,从而区分词节点子图的中心词节点和其它词节点;然后利用图神经网络(GNN)嵌入词节点子图,捕获中心词节点的一阶邻居子图的结构信息,并将这些结构信息聚合到中心词节点,获取每一个中心词节点的嵌入特征,得到词节点嵌入特征矩阵;
将词节点嵌入特征矩阵作为输入,通过一个词节点分类器,获取每一个词节点分数,进而获取文本类别监督识别结果。
所述特征增强机制包括:
将原始文本特征,通过多通道注意力机制(StructuredAttention)学习多组权重向量来拟合文本中文本监督器不同成份的重要性,深入捕获文本监督器的语义信息,计算方式如下:
αm=SoftMax(U2tanh(U1MT))fm=αmM
其中,M代表了文本中所有文本监督器词的隐藏层特征矩阵,U1和U2和代表了计算文本监督器注意力分数的可学习参数矩阵,αm分别代表了文本监督器特征的注意力权重,fm代表了文本监督器特征。
为了获取基于文本监督器增强表示的文本特征H',通过引入全局注意力机制(Global Attention),关注当前单词与文本中其它单词相关性,得到该单词在文本层面的特征表示,深入学习句级别的语义信息,如下所示:
α=SoftMax(vTtanh(W1HT+W2fm T)T)
H'=αH
其中,v,W1,W2为可学习参数矩阵,α为基于文本监督器增强表示的文本特征的注意力权重。
本发明提供的技术方案的有益效果是:
1、本发明提出了一种文本监督器识别子模型,利用文本监督器与文本整体的关联信息,经济高效地获取文本监督器并将其作为额外监督数据帮助进行文本分类,有效减少人工标注成本。
2、本发明充分利用文本、文本监督器和文本类别之间的语义关联性,加强文本监督器在特征学习过程中的指导作用,实现对文本分类模型的性能提升,从而提高文本分类的准确性。
附图说明
图1为一种基于语义相关性的文本分类方法的流程图;
图2为文本监督器示例图;
图3为文本监督器识别子模型网络结构的示意图;
图4位文本分类子模型网络结构示意图。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行更加详细的描述。
图1为本申请实施例的基于语义相关性的文本分类方法的流程示意图。
如图1所示的基于语义相关性的文本分类方法包括:
步骤1:对有标签文本数据进行预处理,从而获取有标签文本数据中的文本监督器;
步骤2:通过文本关联结构信息,构建文本监督器识别子模型,获取无标签文本中的文本监督器;
步骤3:根据文本监督器和文本类别之间的强关联性,将标注有文本监督器的文本数据作为输入,通过词嵌入层进行词嵌入,采用经典的双向长短时记忆网络模型,提取原始文本的语义特征;
步骤4:利用特征增强机制获取基于文本监督器增强表示的文本特征,采用拼接的方式将原始文本的语义特征和基于文本监督器增强表示的文本特征进行融合,
步骤5:将融合结果经过SoftMax函数,进而获取文本分类结果。
在本实施例中,步骤1:对有标签文本数据进行预处理,从而获取有标签文本数据中的文本监督器包括:
步骤11:对有标签文本数据进行词嵌入,获取有标签文本中每一个词xi所对应的词向Wi=[wi:ci],以及文本类别词的语义特征T;
其中wi为词级别向量,ci为字符级别向量。
步骤12:通过文本中每一个词所对应的词向量和文本类别词的语义特征进行内积得到内积分数Escore=<Wi,T>;
步骤13:利用归一化方法将Escore归一化到区间[0,1],选择归一化分数大于阈值α1的词作为文本监督器词,可以得到标注有文本监督器的文本数据;
如图2中的示例所示选择“broadcasting...basketball game”作为输入文本的文本监督器,帮助识别“sports”这个文本类别。
在本实施例中,步骤2:通过文本监督器识别子模型,从而获取无标签文本中的文本监督器包括图构造、图分解、图嵌入、词节点分类:
步骤21:充分考虑文本监督器组合的模式化及其与文本整体的关联信息,利用图结构对关联信息的表征作用,基于输入的文本序列信息构造句子图Gs=(V,E),V是词节点x1,x2,...,xN的集合,E是边的集合;
步骤22:句子图构造通过以下两种边连接方式进行融合:1)顺序边:按照文本中词节点x1,x2,...,xN的顺序依次连接,保证了词节点间的结构顺序并允许利用文本的上下文信息;2)语义边:根据文本中词节点xi和xj对应的词向量Wi和Wj相互内积得到内积分数Escore=<Wi,Wj>,其中1≤i,j≤N且i≠j,利用归一化方法将Escore归一化到区间[0,1],选择归一化分数大于阈值0.6的词节点xi和xj进行连接,保存语义相关的词与词之间的结构信息;
步骤23:选取词节点xi作为中心词节点,并取其一阶邻居子图Gs将句子图分解为N个词节点子图,并添加一个节点特征,从而区分词节点子图的中心词节点和其他词节点;
步骤24:将词节点子图通过图神经网络(GNN)进行嵌入,捕获中心词节点的一阶邻居子图的结构信息Gw,并将这些结构信息聚合到中心词节点xi,获取每一个中心词节点的嵌入特征fi,得到词节点嵌入特征矩阵Fw={f1,f2,...,fN};
步骤25:将词节点嵌入特征矩阵通过softmax函数得到每一个中心词节点分数,对词节点进行分类,最终获取文本中和类别语义密切相关的文本监督器词,公式如下所示:
Si=SoftMax(Q2relu(Q1Fw))
其中,Q1和Q2分别为可学习参数矩阵。
在本实施例中,步骤3:将标注有文本监督器的文本数据作为输入,通过词嵌入层进行词嵌入,采用经典的双向长短时记忆网络网络模型,提取原始文本的语义特征包括:
步骤31:将标注有文本监督器的文本数据作为输入,通过词嵌入层进行词嵌入,获取每一个词xi所对应的词向量Wi;
步骤32:将文本词向量Wi作为双向长短时记忆网络网络模型的输入,提取文本中每个词所对应的隐藏层状态特征hi,将所有词的隐藏层状态特征进行拼接作为原始文本的语义特征H={h1,h2,...,hN};
在本实施例中,步骤4:利用特征增强机制获取基于文本监督器增强表示的文本特征,采用拼接的方式将原始文本的语义特征和基于文本监督器增强表示的文本特征进行融合包括:
步骤41:将原始文本特征,通过多通道注意力机制(StructuredAttention)学习多组权重向量来拟合文本中文本监督器不同成份的重要性,深入捕获文本监督器的语义信息,计算方式如下:
αm=SoftMax(U2tanh(U1MT))fm=αmM
其中,M代表了文本中所有文本监督器词的隐藏层特征矩阵,U1和U2和代表了计算文本监督器注意力分数的可学习参数矩阵,αm分别代表了文本和文本监督器特征的注意力权重,fm代表了文本监督器特征。
步骤42:为了获取基于文本监督器增强表示的文本特征H',通过引入全局注意力机制(GlobalAttention),关注当前单词与文本中其它单词相关性,得到该单词在文本层面的特征表示,深入学习句级别的语义信息,如下所示:
α=SoftMax(vTtanh(W1HT+W2fm T)T)
H'=αH
其中,v,W1,W2为可学习参数矩阵,α为基于文本监督器增强表示的文本特征的注意力权重。
步骤43:采用拼接的方式将原始文本特征和基于文本监督器增强表示的文本特征进行融合,并将融合结果经SoftMax函数,进而获取文本分类结果。
综上所述,本发明实施例通过文本信息的语义相关性,经济高效地获取文本监督器作为额外监督数据帮助文本分类,有效减少人工标注成本,并提升文本分类的准确率。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于语义相关性的文本分类方法,其特征在于,所述方法包括以下步骤:
对有标签文本数据进行预处理,从而获取有标签文本数据中的文本监督器,所述文本监督器为文本中与文本类别语义密切相关的一系列词;
通过文本关联结构信息,构建文本监督器识别子模型,获取无标签文本中的文本监督器;
根据文本监督器和文本类别之间的强关联性,将标注有文本监督的文本数据作为输入,采用经典的双向长短时记忆网络(Bi-directional Long Short-Term Memory,BILSTM)模型,提取原始文本的语义特征;
利用特征增强机制获取基于文本监督器增强表示的文本特征,采用拼接的方式将原始文本的语义特征和基于文本监督器增强表示的文本特征进行融合;
将融合结果经SoftMax函数,进而获取文本分类结果。
2.根据权利要求1所述的一种语义相关性的文本分类方法,其特征在于,所述对有标签文本数据进行预处理,从而获取有标签文本数据中的文本监督器包括:
将有标签文本数据进行词嵌入,所述词嵌入采用基于词级别和字符级别的向量进行拼接,获取有标签文本中每一个词所对应的词向量,以及文本类别词的语义特征;然后通过文本中每一个词所对应的词向量和文本类别词的语义特征进行内积得到内积分数向量Escore,再利用归一化方法将Escore归一化到区间[0,1],选择归一化分数大于阈值α1的词作为文本监督器词,所述α1设置为0.6。
3.根据权利要求1所述的一种语义相关性的文本分类方法,其特征在于,所述构建文本监督器识别子模型包括图构造、图分解、图嵌入、词节点分类:
对于图构造方式是基于输入的文本序列信息构造句子图,并通过顺序边和语义边两种边融合进行句子图的连接;
其中顺序边按照文本中词节点的顺序依次连接;语义边是根据文本中各个词节点所对应的词向量之间相互内积得到内积分数向量Escore,再利用归一化方法将Escore归一化到区间[0,1],选择归一化分数大于阈值α2的两个词节点进行连接,所述α2设置为0.7;
对于图分解方式是依次选取文本中的词节点作为中心词节点,并取其一阶邻居子图将句子图分解为N个词节点子图,并添加一个节点特征,从而区分词节点子图的中心词节点和其它词节点;然后利用图神经网络(GNN)嵌入词节点子图,捕获中心词节点的一阶邻居子图的结构信息,并将这些结构信息聚合到中心词节点,获取每一个中心词节点的嵌入特征,得到词节点嵌入特征矩阵;
将词节点嵌入特征矩阵作为输入,通过一个词节点分类器,获取每一个词节点分数,进而获取文本类别监督识别结果。
4.根据权利要求1所述的一种语义相关性的文本分类方法,其特征在于,所述特征增强机制包括:
将原始文本特征,通过多通道注意力机制(Structured Attention)学习多组权重向量来拟合文本中文本监督器不同成份的重要性,深入捕获文本监督器的语义信息,计算方式如下:
αm=SoftMax(U2tanh(U1MT))fm=αmM
其中,M代表了文本中所有文本监督器词的隐藏层特征矩阵,U1和U2和代表了计算文本监督器注意力分数的可学习参数矩阵,αm分别代表了文本监督器特征的注意力权重,fm代表了文本监督器特征。
为了获取基于文本监督器增强表示的文本特征H',通过引入全局注意力机制(GlobalAttention),关注当前单词与文本中其它单词相关性,得到该单词在文本层面的特征表示,深入学习句级别的语义信息,如下所示:
α=SoftMax(vTtanh(W1HT+W2fm T)T)
H'=αH
其中,v,W1,W2为可学习参数矩阵,α为基于文本监督器增强表示的文本特征的注意力权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110665361.8A CN113361615B (zh) | 2021-06-16 | 2021-06-16 | 基于语义相关性的文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110665361.8A CN113361615B (zh) | 2021-06-16 | 2021-06-16 | 基于语义相关性的文本分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113361615A true CN113361615A (zh) | 2021-09-07 |
CN113361615B CN113361615B (zh) | 2022-11-11 |
Family
ID=77534586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110665361.8A Active CN113361615B (zh) | 2021-06-16 | 2021-06-16 | 基于语义相关性的文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113361615B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118171648A (zh) * | 2024-05-11 | 2024-06-11 | 中移(苏州)软件技术有限公司 | 文本提取方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388914A (zh) * | 2018-02-26 | 2018-08-10 | 中译语通科技股份有限公司 | 一种基于语义计算的分类器构建方法、分类器 |
CN110134757A (zh) * | 2019-04-19 | 2019-08-16 | 杭州电子科技大学 | 一种基于多头注意力机制的事件论元角色抽取方法 |
CN110781271A (zh) * | 2019-09-02 | 2020-02-11 | 国网天津市电力公司电力科学研究院 | 一种基于层次注意力机制的半监督网络表示学习模型 |
-
2021
- 2021-06-16 CN CN202110665361.8A patent/CN113361615B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388914A (zh) * | 2018-02-26 | 2018-08-10 | 中译语通科技股份有限公司 | 一种基于语义计算的分类器构建方法、分类器 |
CN110134757A (zh) * | 2019-04-19 | 2019-08-16 | 杭州电子科技大学 | 一种基于多头注意力机制的事件论元角色抽取方法 |
CN110781271A (zh) * | 2019-09-02 | 2020-02-11 | 国网天津市电力公司电力科学研究院 | 一种基于层次注意力机制的半监督网络表示学习模型 |
Non-Patent Citations (2)
Title |
---|
张柯文等: "一种基于WSD层级记忆网络建模的文档表示方法", 《淮阴工学院学报》 * |
王丽客等: "基于远程监督的藏文实体关系抽取", 《中文信息学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118171648A (zh) * | 2024-05-11 | 2024-06-11 | 中移(苏州)软件技术有限公司 | 文本提取方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113361615B (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110427463B (zh) | 搜索语句响应方法、装置及服务器和存储介质 | |
CN108363743B (zh) | 一种智能问题生成方法、装置和计算机可读存储介质 | |
CN114064918B (zh) | 一种多模态事件知识图谱构建方法 | |
CN110717339A (zh) | 语义表示模型的处理方法、装置、电子设备及存储介质 | |
CN108984530A (zh) | 一种网络敏感内容的检测方法及检测*** | |
CN113505200B (zh) | 一种结合文档关键信息的句子级中文事件检测的方法 | |
Guo et al. | LD-MAN: Layout-driven multimodal attention network for online news sentiment recognition | |
CN108549658A (zh) | 一种基于语法分析树上注意力机制的深度学习视频问答方法及*** | |
CN110321563A (zh) | 基于混合监督模型的文本情感分析方法 | |
CN108874896B (zh) | 一种基于神经网络和幽默特征的幽默识别方法 | |
CN113516198B (zh) | 一种基于记忆网络和图神经网络的文化资源文本分类方法 | |
CN111159345B (zh) | 一种中文知识库答案获取方法及其装置 | |
CN114756681B (zh) | 一种基于多注意力融合的评教文本细粒度建议挖掘方法 | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及*** | |
CN114492460B (zh) | 基于衍生提示学习的事件因果关系抽取方法 | |
CN113988075A (zh) | 基于多任务学习的网络安全领域文本数据实体关系抽取法 | |
CN110852071B (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN114417851A (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN115659947A (zh) | 基于机器阅读理解及文本摘要的多项选择答题方法及*** | |
CN113361615B (zh) | 基于语义相关性的文本分类方法 | |
CN117216617A (zh) | 文本分类模型训练方法、装置、计算机设备和存储介质 | |
CN116401373A (zh) | 一种试题知识点的标注方法、存储介质及设备 | |
CN113901172B (zh) | 基于关键词结构编码的涉案微博评价对象抽取方法 | |
CN115081445A (zh) | 一种基于多任务学习的短文本实体消歧方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |