CN111475622A - 一种文本分类方法、装置、终端及存储介质 - Google Patents

一种文本分类方法、装置、终端及存储介质 Download PDF

Info

Publication number
CN111475622A
CN111475622A CN202010268806.4A CN202010268806A CN111475622A CN 111475622 A CN111475622 A CN 111475622A CN 202010268806 A CN202010268806 A CN 202010268806A CN 111475622 A CN111475622 A CN 111475622A
Authority
CN
China
Prior art keywords
text
classification
model
data
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010268806.4A
Other languages
English (en)
Inventor
王涛
周佳乐
邓健峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202010268806.4A priority Critical patent/CN111475622A/zh
Publication of CN111475622A publication Critical patent/CN111475622A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供了一种文本分类方法、装置、终端及存储介质,其中方法包括:获取文本数据;通过预设的Bert文本处理模型对所述文本数据进行分词处理,得到词向量;通过预设的上下文特征提取模型,从所述文本数据提取各个所述词向量对应的上下文特征数据;将所述上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。本申请采用结合Bert、GAT、胶囊网络的方法,通过Bert预处理,GAT学习文本上下文特征,然后通过胶囊网络对特征进行主题分类通过胶囊网络中动态路由的过程,减少了卷积神经网络中数据在反向传播过程中可能给文本分类器模型带来的一些弊端,从而提高文本分类的准确性,解决了现有的深度学习方法文本分类准确率低的技术问题。

Description

一种文本分类方法、装置、终端及存储介质
技术领域
本申请涉及文本分类领域,尤其涉及一种文本分类方法、装置、终端及存储介质。
背景技术
伴随着大数据时代的发展,产生积累了大量的文本数据,文本数据涉及到的类别主题各式各样,通用领域当中,通过对这些文本数据分析处理,可以更深入的了解其中的关系。然而,在得到的各类文本中多种多样,难以被计算机理解,涉及到的主题有所不同,假设能把这些文本进行有效的分类识别,对大数据处理工作有很大的正向作用。
目前,用于文本分类的主流的方法有:GNN、CNN。循环神经网络GNN虽然能够获取文本的上下文特征,但它存在梯度***的问题;卷积神经网络CNN则存在池化层中会丢失信息,无法获取文本全局信息等问题,导致现有的深度学习方法难以获得较高的文本分类准确率。
发明内容
本申请提供了一种文本分类方法、装置、终端及存储介质,用于解决现有的深度学习方法文本分类准确率低的技术问题。
有鉴于此,本申请第一方面提供了一种文本分类方法,包括:
获取文本数据;
通过预设的Bert文本处理模型对所述文本数据进行分词处理,得到词向量;
通过预设的上下文特征提取模型,从所述文本数据提取各个所述词向量对应的上下文特征数据;
将所述上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。
可选地,所述获取文本数据之后还包括:
对所述文本数据进行预处理,其中所述预处理包括,去除停用词和去除标点符号。
可选地,所述上下文特征提取模型具体为GAT图注意网络模型。
可选地,还包括:
将预置的训练样本数据输入至初始胶囊网络模型,对所述初始胶囊网络模型进行训练,得到所述胶囊网络分类模型,其中,所述训练样本数据为将预置的样本文本数据通过所述Bert文本处理模型和所述上下文特征提取模型处理得到的上下文特征样本数据。
本申请第二方面提供了一种文本分类装置,包括:
文本获取单元,用于获取文本数据;
分词处理单元,用于通过预设的Bert文本处理模型对所述文本数据进行分词处理,得到词向量;
上下文特征提取单元,用于通过预设的上下文特征提取模型,从所述文本数据提取各个所述词向量对应的上下文特征数据;
文本分类单元,用于将所述上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。
可选地,所述获取文本数据之后还包括:
预处理单元,用于对所述文本数据进行预处理,其中所述预处理包括,去除停用词和去除标点符号。
可选地,所述上下文特征提取模型具体为GAT图注意网络模型。
可选地,还包括:
胶囊网络分类模型训练单元,用于将预置的训练样本数据输入至初始胶囊网络模型,对所述初始胶囊网络模型进行训练,得到所述胶囊网络分类模型,其中,所述训练样本数据为将预置的样本文本数据通过所述Bert文本处理模型和所述上下文特征提取模型处理得到的上下文特征样本数据。
本申请第三方面提供了一种终端,包括:存储器和处理器;
所述存储器用于存储与本申请第一方面所述的文本分类方法对应的程序代码;
所述处理器用于执行所述程序代码。
本申请第四方面提供了一种存储介质,所述存储介质中保存有与本申请第一方面所述的文本分类方法对应的程序代码。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请提供了一种文本分类方法,包括:获取文本数据;通过预设的Bert文本处理模型对所述文本数据进行分词处理,得到词向量;通过预设的上下文特征提取模型,从所述文本数据提取各个所述词向量对应的上下文特征数据;将所述上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。
本申请采用结合Bert、GAT、胶囊网络的方法,通过Bert预处理,GAT学习文本上下文特征,然后通过胶囊网络对特征进行主题分类通过胶囊网络中动态路由的过程,减少了卷积神经网络中数据在反向传播过程中可能给文本分类器模型带来的一些弊端,从而提高文本分类的准确性,解决了现有的深度学习方法文本分类准确率低的技术问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请提供的一种文本分类方法的第一个实施例的流程示意图;
图2为本申请提供的一种文本分类方法的第二个实施例的流程示意图;
图3为本申请提供的一种文本分类装置的第一个实施例的结构示意图;
图4为GAT提取文本上下文特征流程图;
图5为胶囊网络主题分类示例图。
具体实施方式
本申请实施例提供了一种文本分类方法、装置、终端及存储介质,用于解决现有的深度学习方法文本分类准确率低的技术问题。
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
请参阅图1,本申请第一方面提供了一种文本分类方法,包括:
步骤101、获取文本数据。
步骤102、通过预设的Bert文本处理模型对文本数据进行分词处理,得到词向量。
需要说明的是,本实施例在获取到待分类处理的文本数据后,首先利用Bert文本处理模型对文本数据进行第一步分词处理,包括词嵌入,将输入文本转为向量输出,得到词向量。
Bert模型首先对input进行编码,转为模型需要的编码格式,使用辅助标记符[CLS]和[SEP]来表示句子的开始和分隔。然后根据输入得到对应的embedding,每个单词有三个embedding:位置信息embedding,单词embedding,句子embedding,把单词对应的三个embedding叠加,就形成了GAT的输入。
其中,本实施例采用的Bert文本处理模型是一个句子级别的语言模型,采用Bert文本处理模型可以进一步增加词向量模型泛化能力,充分描述字符级、词级、句子级甚至句间关系特征,大大提高了模型表示的效率。
步骤103、通过预设的上下文特征提取模型,从文本数据提取各个词向量对应的上下文特征数据。
需要说明的是,如图4所示,本实施例采用的上下文特征提取模型具体为GAT图注意网络模型,GAT通过注意力机制对邻居节点做聚合操作,实现对不同邻居权重的分配,对重点内容配以更大的注意力权重,从而大大提高了图神经网络模型的表达能力。它的作用在于,把知识表述成图,并且用attention机制,对每个输入词向量进行attention计算,为每个节点分配不同权重,用权重参数体现邻域节点对中心节点的影响力大小,学习上下文句子之间的依赖关系,提取文本中的上下文特征,从而提高文本的语义表达能力,实现对文本的理解由浅层分析转向深度融合,发现文本中不同句子的注意力,可以快速过滤注意力较小的信息,减少计算任务的复杂度。关注作用比较大的节点,而忽视一些作用较小的节点。在处理局部信息的时候同时能够关注整体的信息,以便更加精确地对节点特征进行提取。
更具体地,本实施例的利用隐藏的自注意层解决现有的基于图卷积及其类似方法的缺点。通过堆叠这样的一些层,层里的节点能够注意其邻近节点的特征,为邻近的不同节点指定不同的权重,将前一层得到的向量转化为图中的节点。主要由编码器和解码器两部分组成,编码器由若干对自注意力层组成,解码器结构同编码器大致一样,区别是在两层中间新添加了一个Attention层,用于聚焦当前解码单词对应的输入部分,主要是通过自注意力机制来表示句子的上下文特征,通过将得到的向量转化为节点表示,利用GAT的注意力层,GAT的计算也分为两步:计算注意力系数和加权求和。
计算注意力系数:
输入是一个节点特征向量集合
Figure BDA0002442270360000051
N代表节点数目,F为每个节点的特征数。该层产生一个新的节点特征集合
Figure BDA0002442270360000052
作为输出。为了去获得足够的把输入的特征转化为更高层次的特征的表现力,至少需要一个可学习的线性转换。为此目的,作为一个初始化步骤,一个共享的参数为一个权重矩阵W∈RF'×F的线性转换应用在每个节点上。然后在节点上使用自我注意地机制,一个共享的注意力机制a,以此用来计算注意力因子
Figure BDA0002442270360000053
上面的公式表示节点j的特征对于节点i的重要性。在其最通用的表述中,j将是i的第一阶邻居。为了使不同节点的因子容易比较,我们使用柔性最大值函数均一化
Figure BDA0002442270360000054
一旦获得均一化的注意力因子,它将用来计算与之相关的特征的线性组合,结果作为每个节点的最终输出。
Figure BDA0002442270360000055
加权求和:
得到归一化的注意力系数后,使用归一化的值计算对应特征的线性组合,作为每个顶点最后的输出特征,将输出量输入到下一层网络中。这里巧妙的依赖到上下文的信息,使得任务与文本结合更加紧密,以提高准确率,表现出更好的特征抽取效果。
例如输入一个句子,那么里面的每个词都要和该句子中的所有词进行attention计算。目的是学习句子内部的词依赖关系,捕获句子的内部结构。在长距离依赖上,由于self-attention是每个词和所有词都要计算attention,所以不管他们中间有多长距离,最大的路径长度也都只是1。可以捕获长距离依赖关系。
步骤104、将上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。
需要说明的是,如图5所示,本实施例的胶囊网络分类模型为利用胶囊网络的压缩函数,如式(1)所示,即每个胶囊的模长,而模长可以归一化到0和1之间,以此来表示分类的概率胶囊数量为n个。
Figure BDA0002442270360000061
其中,vj为胶囊最终输出向量,sj(j∈[0,m])为低级胶囊的输出向量。基于上一层得到的文本向量进行表达,并作为胶囊网络的输入,训练胶囊网络文本分类模型具体为:
对文本向量进行局部特征提取;
对文本特征进行特征重构,从低维度空间将其映射到更高维度的空间中;
利用胶囊层进行分类,胶囊层的输入神经元向量通过加权、耦合、挤压、动态路由在输入胶囊到输出胶囊之间流动;
胶囊层的计算公式如(2)-(3)所示。
sj=∑icijuj|i (2)
uj|i=wijli (3)
其中,wij代表的是权重矩阵,uj|i为低级胶囊的输出向量。li(i∈[0,N])为胶囊网络的输入。cij为权重参数,可以通过胶囊网络中包含的动态路由算法计算得出,更具体的,本实施例的动态路由算法的输入为向量uj|i,迭代次数r,输出为分类胶囊向量vj
首先,初始化。对所有低级胶囊i和高级胶囊j,设定参数bij,初始为0。胶囊层的输入神经元向量通过加权、耦合、挤压、动态路由在输入胶囊到输出胶囊之间流动。其次,针对每次迭代的过程,对每个低级胶囊i运算,ci=softmax(bi),对每个高级胶囊j,有sj=∑icijuj|i,对高级胶囊输出进行挤压操作,有vj=squash(sj),最后更新bij的操作为bij=bij+uj|i*vj
本发明针对传统网络在文本分类下存在梯度***和无法获取文本全局信息等问题,采用结合Bert、GAT、胶囊网络的方法,通过Bert预处理,GAT学习文本上下文特征,然后通过胶囊网络对特征进行主题分类。本发明通过胶囊网络中动态路由的过程,减少了卷积神经网络中数据在反向传播过程中可能给文本分类器模型带来的一些弊端,利用胶囊网络的归一化得出分类的概率,最终也能得到较好的效果。
以上为本申请提供的一种文本分类方法的第一个实施例的详细说明,下面为本申请提供的一种文本分类方法的第二个实施例的详细说明。
请参阅图2,本申请实施例在上述第一个实施例提供的一种文本分类方法的基础上,在步骤101还包括:
步骤201、对文本数据进行预处理,其中预处理包括,去除停用词和去除标点符号。
进一步地,还可以包括:
步骤200、将预置的训练样本数据输入至初始胶囊网络模型,对初始胶囊网络模型进行训练,得到胶囊网络分类模型,其中,训练样本数据为将预置的样本文本数据通过Bert文本处理模型和上下文特征提取模型处理得到的上下文特征样本数据。
以上为本申请提供的一种文本分类方法的第二个实施例的详细说明,下面为本申请提供的一种文本分类装置的第一个实施例的详细说明。
请参阅图3,本申请第二方面提供了一种文本分类装置,包括:
文本获取单元301,用于获取文本数据;
分词处理单元302,用于通过预设的Bert文本处理模型对文本数据进行分词处理,得到词向量;
上下文特征提取单元303,用于通过预设的上下文特征提取模型,从文本数据提取各个词向量对应的上下文特征数据;
文本分类单元304,用于将上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。
进一步地,获取文本数据之后还包括:
预处理单元305,用于对文本数据进行预处理,其中预处理包括,去除停用词和去除标点符号。
进一步地,还包括:
胶囊网络分类模型训练单元306,用于将预置的训练样本数据输入至初始胶囊网络模型,对初始胶囊网络模型进行训练,得到胶囊网络分类模型,其中,训练样本数据为将预置的样本文本数据通过Bert文本处理模型和上下文特征提取模型处理得到的上下文特征样本数据。
以上为本申请提供的一种文本分类装置的第一个实施例的详细说明,下面为本申请提供的一种文本分类方法对应的终端和存储介质的详细说明。
本申请第四个实施例提供了一种终端,包括:存储器和处理器;
存储器用于存储与本申请第一方面的文本分类方法对应的程序代码;
处理器用于执行程序代码。
本申请第五个实施例提供了一种存储介质,存储介质中保存有与本申请第一方面的文本分类方法对应的程序代码。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种文本分类方法,其特征在于,包括:
获取文本数据;
通过预设的Bert文本处理模型对所述文本数据进行分词处理,得到词向量;
通过预设的上下文特征提取模型,从所述文本数据提取各个所述词向量对应的上下文特征数据;
将所述上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。
2.根据权利要求1所述的一种文本分类方法,其特征在于,所述获取文本数据之后还包括:
对所述文本数据进行预处理,其中所述预处理包括,去除停用词和去除标点符号。
3.根据权利要求1所述的一种文本分类方法,其特征在于,所述上下文特征提取模型具体为GAT图注意网络模型。
4.根据权利要求1所述的一种文本分类方法,其特征在于,还包括:
将预置的训练样本数据输入至初始胶囊网络模型,对所述初始胶囊网络模型进行训练,得到所述胶囊网络分类模型,其中,所述训练样本数据为将预置的样本文本数据通过所述Bert文本处理模型和所述上下文特征提取模型处理得到的上下文特征样本数据。
5.一种文本分类装置,其特征在于,包括:
文本获取单元,用于获取文本数据;
分词处理单元,用于通过预设的Bert文本处理模型对所述文本数据进行分词处理,得到词向量;
上下文特征提取单元,用于通过预设的上下文特征提取模型,从所述文本数据提取各个所述词向量对应的上下文特征数据;
文本分类单元,用于将所述上下文特征数据输入至预设的胶囊网络分类模型进行主题分类运算,输出分类结果。
6.根据权利要求5所述的一种文本分类装置,其特征在于,所述获取文本数据之后还包括:
预处理单元,用于对所述文本数据进行预处理,其中所述预处理包括,去除停用词和去除标点符号。
7.根据权利要求5所述的一种文本分类装置,其特征在于,所述上下文特征提取模型具体为GAT图注意网络模型。
8.根据权利要求5所述的一种文本分类装置,其特征在于,还包括:
胶囊网络分类模型训练单元,用于将预置的训练样本数据输入至初始胶囊网络模型,对所述初始胶囊网络模型进行训练,得到所述胶囊网络分类模型,其中,所述训练样本数据为将预置的样本文本数据通过所述Bert文本处理模型和所述上下文特征提取模型处理得到的上下文特征样本数据。
9.一种终端,其特征在于,包括:存储器和处理器;
所述存储器用于存储与权利要求1至4任意一项所述的文本分类方法对应的程序代码;
所述处理器用于执行所述程序代码。
10.一种存储介质,其特征在于,所述存储介质中保存有与权利要求1至4任意一项所述的文本分类方法对应的程序代码。
CN202010268806.4A 2020-04-08 2020-04-08 一种文本分类方法、装置、终端及存储介质 Pending CN111475622A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010268806.4A CN111475622A (zh) 2020-04-08 2020-04-08 一种文本分类方法、装置、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010268806.4A CN111475622A (zh) 2020-04-08 2020-04-08 一种文本分类方法、装置、终端及存储介质

Publications (1)

Publication Number Publication Date
CN111475622A true CN111475622A (zh) 2020-07-31

Family

ID=71750189

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010268806.4A Pending CN111475622A (zh) 2020-04-08 2020-04-08 一种文本分类方法、装置、终端及存储介质

Country Status (1)

Country Link
CN (1) CN111475622A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112131391A (zh) * 2020-11-25 2020-12-25 江苏电力信息技术有限公司 一种基于胶囊网络的供电服务客户诉求文本分类方法
CN112163069A (zh) * 2020-09-27 2021-01-01 广东工业大学 一种基于图神经网络节点特征传播优化的文本分类方法
CN112232058A (zh) * 2020-10-15 2021-01-15 济南大学 基于深度学习三层语义抽取框架的假新闻识别方法及***
CN112380861A (zh) * 2020-11-13 2021-02-19 北京京东尚科信息技术有限公司 模型训练方法、装置及意图识别方法、装置
CN112463972A (zh) * 2021-01-28 2021-03-09 成都数联铭品科技有限公司 一种基于类别不均衡的样本分类方法
CN113158679A (zh) * 2021-05-20 2021-07-23 广东工业大学 基于多特征叠加胶囊网络的海洋产业实体识别方法及装置
CN113553848A (zh) * 2021-07-19 2021-10-26 北京奇艺世纪科技有限公司 长文本分类方法、***、电子设备、计算机可读存储介质
CN114461804A (zh) * 2022-02-10 2022-05-10 电子科技大学 一种基于关键信息与动态路由的文本分类方法、分类器及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110457710A (zh) * 2019-08-19 2019-11-15 电子科技大学 一种基于动态路由机制的机器阅读理解网络模型、方法、存储介质及终端
CN110544470A (zh) * 2019-09-11 2019-12-06 拉扎斯网络科技(上海)有限公司 语音识别方法、装置、可读存储介质和电子设备
CN110943981A (zh) * 2019-11-20 2020-03-31 中国人民解放军战略支援部队信息工程大学 基于层次学习的跨架构漏洞挖掘方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110457710A (zh) * 2019-08-19 2019-11-15 电子科技大学 一种基于动态路由机制的机器阅读理解网络模型、方法、存储介质及终端
CN110544470A (zh) * 2019-09-11 2019-12-06 拉扎斯网络科技(上海)有限公司 语音识别方法、装置、可读存储介质和电子设备
CN110943981A (zh) * 2019-11-20 2020-03-31 中国人民解放军战略支援部队信息工程大学 基于层次学习的跨架构漏洞挖掘方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIANFENG DENG等: "Self-attention-based BiGRU and capsule network for named entity recognition" *
JIANFENG DENG等: "Self-attention-based BiGRU and capsule network for named entity recognition", ARXIV.ORG/ABS/2002.00735, pages 1 *
许晶航等: "基于图注意力网络的因果关系抽取", 计算机研究与发展, pages 159 - 174 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112163069A (zh) * 2020-09-27 2021-01-01 广东工业大学 一种基于图神经网络节点特征传播优化的文本分类方法
CN112163069B (zh) * 2020-09-27 2024-04-12 广东工业大学 一种基于图神经网络节点特征传播优化的文本分类方法
CN112232058B (zh) * 2020-10-15 2022-11-04 济南大学 基于深度学习三层语义抽取框架的假新闻识别方法及***
CN112232058A (zh) * 2020-10-15 2021-01-15 济南大学 基于深度学习三层语义抽取框架的假新闻识别方法及***
CN112380861A (zh) * 2020-11-13 2021-02-19 北京京东尚科信息技术有限公司 模型训练方法、装置及意图识别方法、装置
CN112131391A (zh) * 2020-11-25 2020-12-25 江苏电力信息技术有限公司 一种基于胶囊网络的供电服务客户诉求文本分类方法
CN112131391B (zh) * 2020-11-25 2021-09-17 江苏电力信息技术有限公司 一种基于胶囊网络的供电服务客户诉求文本分类方法
CN112463972A (zh) * 2021-01-28 2021-03-09 成都数联铭品科技有限公司 一种基于类别不均衡的样本分类方法
CN112463972B (zh) * 2021-01-28 2021-05-18 成都数联铭品科技有限公司 一种基于类别不均衡的文本样本分类方法
CN113158679A (zh) * 2021-05-20 2021-07-23 广东工业大学 基于多特征叠加胶囊网络的海洋产业实体识别方法及装置
CN113158679B (zh) * 2021-05-20 2023-07-04 广东工业大学 基于多特征叠加胶囊网络的海洋产业实体识别方法及装置
CN113553848B (zh) * 2021-07-19 2024-02-02 北京奇艺世纪科技有限公司 长文本分类方法、***、电子设备、计算机可读存储介质
CN113553848A (zh) * 2021-07-19 2021-10-26 北京奇艺世纪科技有限公司 长文本分类方法、***、电子设备、计算机可读存储介质
CN114461804A (zh) * 2022-02-10 2022-05-10 电子科技大学 一种基于关键信息与动态路由的文本分类方法、分类器及***
CN114461804B (zh) * 2022-02-10 2023-04-07 电子科技大学 一种基于关键信息与动态路由的文本分类方法、分类器及***

Similar Documents

Publication Publication Date Title
CN111475622A (zh) 一种文本分类方法、装置、终端及存储介质
CN107085581B (zh) 短文本分类方法和装置
CN109948149B (zh) 一种文本分类方法及装置
CN111159485B (zh) 尾实体链接方法、装置、服务器及存储介质
CN110969020A (zh) 基于cnn和注意力机制的中文命名实体识别方法、***及介质
CN112052684A (zh) 电力计量的命名实体识别方法、装置、设备和存储介质
CN106886580A (zh) 一种基于深度学习的图片情感极性分析方法
CN109471944A (zh) 文本分类模型的训练方法、装置及可读存储介质
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN112101031B (zh) 一种实体识别方法、终端设备及存储介质
CN112308115B (zh) 一种多标签图像深度学习分类方法及设备
CN110968725B (zh) 图像内容描述信息生成方法、电子设备及存储介质
CN112231477A (zh) 一种基于改进胶囊网络的文本分类方法
CN113051914A (zh) 一种基于多特征动态画像的企业隐藏标签抽取方法及装置
CN110969023B (zh) 文本相似度的确定方法及装置
CN113836992A (zh) 识别标签的方法、训练标签识别模型的方法、装置及设备
CN107392229B (zh) 一种基于最面向社会关系抽取的网络表示方法
CN110569355B (zh) 一种基于词块的观点目标抽取和目标情感分类联合方法及***
CN111898704A (zh) 对内容样本进行聚类的方法和装置
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN113177118A (zh) 文本分类模型、文本分类的方法以及装置
CN113536015A (zh) 一种基于深度辨识度迁移的跨模态检索方法
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法
CN113076744A (zh) 一种基于卷积神经网络的文物知识关系抽取方法
CN117033961A (zh) 一种上下文语境感知的多模态图文分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination