CN113761195A - 文本分类方法、装置、计算机设备及计算机可读存储介质 - Google Patents
文本分类方法、装置、计算机设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113761195A CN113761195A CN202110567630.7A CN202110567630A CN113761195A CN 113761195 A CN113761195 A CN 113761195A CN 202110567630 A CN202110567630 A CN 202110567630A CN 113761195 A CN113761195 A CN 113761195A
- Authority
- CN
- China
- Prior art keywords
- node
- graph
- semantic
- nodes
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000012545 processing Methods 0.000 claims description 137
- 238000013145 classification model Methods 0.000 claims description 93
- 239000011159 matrix material Substances 0.000 claims description 33
- 230000015654 memory Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 abstract description 34
- 238000013473 artificial intelligence Methods 0.000 abstract description 15
- 238000012549 training Methods 0.000 description 27
- 238000005516 engineering process Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000003058 natural language processing Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 239000003795 chemical substances by application Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 235000013399 edible fruits Nutrition 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 240000008790 Musa x paradisiaca Species 0.000 description 1
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 1
- 244000062793 Sorghum vulgare Species 0.000 description 1
- 235000009754 Vitis X bourquina Nutrition 0.000 description 1
- 235000012333 Vitis X labruscana Nutrition 0.000 description 1
- 240000006365 Vitis vinifera Species 0.000 description 1
- 235000014787 Vitis vinifera Nutrition 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 235000019713 millet Nutrition 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种文本分类方法、装置、计算机设备及计算机可读存储介质,属于人工智能技术领域。本申请通过应用语义图来表示目标文本对应的实体和概念之间的关联关系,以充分获取到目标文本中实体和概念的关系信息,基于语义图确定出第一分类信息,再直接基于目标文本的上下文信息确定出第二分类信息,结合第一分类信息和第二分类信息,确定出目标文本所属的类别,也即是,在文本分类过程中综合目标文本中实体之间的关系和目标文本的上下文这两方面的信息,基于更为全面的文本信息来确定目标文本所属的类别,从而有效提高文本分类结果的准确率。
Description
技术领域
本申请涉及人工智能技术领域,特别涉及一种文本分类方法、装置、计算机设备及计算机可读存储介质。
背景技术
自然语言处理(Nature Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。文本分类作为自然语言处理中的一个重要环节,被广泛应用于问答匹配、内容检测等多种场景。
目前,在进行文本分类时,通常是基于词典、词袋模型等对文本进行向量化表示,再基于文本的向量化表示进行特征提取以及分类,得到文本所属的类别。但是,在上述文本分类过程中,没有考虑到文本所包括的实体之间的关联关系,文本分类的准确率较低。
发明内容
本申请实施例提供了一种文本分类方法、装置、计算机设备及计算机可读存储介质,能够提高文本分类结果的准确率。该技术方案如下:
一方面,提供了一种文本分类方法,该方法包括:
获取目标文本对应的语义图,该语义图中的节点对应于该目标文本中的实体或该实体对应的语义概念,该语义图中的边用于指示任两个节点之间的关联关系;
基于该语义图,确定该目标文本的第一分类信息;
基于该目标文本的上下文信息,确定该目标文本的第二分类信息;
基于该第一分类信息和该第二分类信息,得到该目标文本的分类信息。
一方面,提供了一种文本分类装置,该装置包括:
获取模块,用于获取目标文本对应的语义图,该语义图中的节点对应于该目标文本中的实体或该实体对应的语义概念,该语义图中的边用于指示任两个节点之间的关联关系;
第一确定模块,用于基于该语义图,确定该目标文本的第一分类信息;
第二确定模块,用于基于该目标文本的上下文信息,确定该目标文本的第二分类信息;
第三确定模块,用于基于该第一分类信息和该第二分类信息,得到该目标文本的分类信息。
在一种可能实现方式中,该第一确定模块,包括:
特征提取子模块,用于通过第一文本分类模型中的至少一个图处理层,基于该语义图中的该节点以及该任两个节点之间的关联关系,提取该语义图的图特征;
分类子模块,用于通过该第一文本分类模型中的分类层基于该图特征进行分类,得到该第一分类信息。
在一种可能实现方式中,该特征提取子模块用于:
该至少一个图处理层为L层图处理层,在L为大于1的正整数的情况下,
对于该第一文本分类模型中的第一个图处理层,通过该第一个图处理层对该语义图中的该节点和该任两个节点之间的关联关系进行软聚类,得到中间图;
对于该第一文本分类模型中的第l+1个图处理层,通过该第l+1个图处理层对目标中间图中的节点以及任两个节点之间的关联关系进行软聚类,得到一个新的中间图,该目标中间图是第l个图处理层输出的中间图,l为大于或等于1小于L的正整数;
基于该第一文本分类模型中最后一个图处理层输出的中间图,确定该图特征。
在一种可能实现方式中,该特征提取子模块,包括:
特征更新单元,用于通过该图处理层中的至少一个子层,对各个节点的第一节点特征和各个关联关系的第一关系特征进行至少一次更新,得到各个节点的第二节点特征和各个关联关系的第二关系特征,该第一节点特征是节点所指示的实体或语义概念的特征表示,该第一关系特征是关联关系的特征表示;
第一聚类单元,用于基于该语义图中该各个节点的第二节点特征,对该各个节点进行软聚类,得到该中间图中的至少一个节点;
第二聚类单元,用于基于该语义图中该各个关联关系的第二关系特征,对该各个关联关系进行聚类处理,得到该中间图中该至少一个节点之间的关联关系。
在一种可能实现方式中,该特征更新单元,包括:
第一子单元,用于对于该图处理层中的任一子层,通过该任一子层基于任一节点的第一节点特征、该任一节点的相连节点的第一节点特征、至少一个候选关联关系的第一关系特征,确定该任一节点对应的中间节点特征,该候选关联关系是该任一节点与任一相连节点之间的关联关系;
第二子单元,用于通过该任一子层对任一关联关系的第一关系特征进行线性处理,得到该任一关联关系的中间关系特征;
第三子单元,用于将该各个节点的中间节点特征、各个关联关系的中间关系特征作为新的第一节点特征和第一关系特征输入下一子层,得到该下一子层输出的新的中间节点特征和新的中间关系特征;
第四子单元,用于将该图处理层中最后一个子层输出的各个节点的中间节点特征、各个关联关系的中间关系特征,分别作为该第二节点特征和该第二关系特征。
在一种可能实现方式中,该第一子单元,用于:
将该任一节点的第一节点特征分别与至少一个候选关联关系的第一关系特征进行组合,得到该任一节点对应的至少一个第一中间特征;
对该至少一个第一中间特征进行加权求和,得到第二中间特征;
基于该第二中间特征以及该任一节点对应的第一节点特征,确定该任一节点对应的中间节点特征。
在一种可能实现方式中,该第一子单元,用于:
对该第二中间特征以及该任一节点的第一节点特征进行加权求和,得到第三中间特征;
对该第三中间特征进行线性处理,得到该任一节点对应的中间节点特征。
在一种可能实现方式中,该装置还包括:
矩阵确定模块,用于对于任一个图处理层,基于该图处理层所输入的图中节点的节点特征和该图中节点之间关联关系的关系特征,确定该图处理层对应的聚类分配矩阵,该聚类分配矩阵用于在本层中进行软聚类处理。
在一种可能实现方式中,该第一聚类单元,用于:
将该各个节点的第二节点特征与本层对应的该聚类分配矩阵相乘,得到节点特征矩阵,该节点特征矩阵中的一列表示该中间图中一个节点的节点特征。
在一种可能实现方式中,该第二聚类单元,用于:
对于该中间图中任意两个节点,在本层对应的该聚类分配矩阵所包括的元素中,确定该任意两个节点对应的候选元素;
基于该候选元素,对该语义图中各个关联关系的第一关系特征进行加权处理求和,得到该中间图中任意两个节点之间关联关系的关系特征。
一方面,提供了一种计算机设备,该计算机设备包括一个或多个处理器和一个或多个存储器,该一个或多个存储器中存储有至少一条计算机程序,该至少一条计算机程序由该一个或多个处理器加载并执行以实现该文本分类方法所执行的操作。
一方面,提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行以实现该文本分类方法所执行的操作。
一方面,提供了一种计算机程序产品,该计算机程序产品包括至少一条计算机程序,该至少一条计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该至少一条计算机程序,处理器执行该至少一条计算机程序,使得该计算机设备执行上述文本分类方法所执行的操作。
本申请实施例所提供的技术方案,通过应用语义图来表示目标文本对应的实体和概念之间的关联关系,以充分获取到目标文本中实体和概念的关系信息,基于语义图确定出第一分类信息,再直接基于目标文本的上下文信息确定出第二分类信息,结合第一分类信息和第二分类信息,确定出目标文本所属的类别,也即是,在文本分类过程中综合目标文本中实体之间的关系和目标文本的上下文这两方面的信息,基于更为全面的文本信息来确定目标文本所属的类别,从而有效提高文本分类结果的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种文本分类***的结构框图;
图2是本申请实施例提供的一种文本分类方法的流程图;
图3是本申请实施例提供的一种文本分类方法的流程图;
图4是本申请实施例提供的一种语义图的图特征获取方法的示意图;
图5是本申请实施例提供的一种文本分类过程的示意图;
图6是本申请实施例提供的一种文本分类模型的训练方法流程图;
图7是本申请实施例提供的一种文本分类装置的结构示意图;
图8是本申请实施例提供的一种终端的结构示意图;
图9是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
本申请实施例提供的技术方案涉及人工智能(Artificial Intelligence,AI)技术,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向,本申请实施例涉及人工智能技术中的自然语言处理技术。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术,在本申请实施例中,基于自然语言处理技术对文本内容进行分类。
为了便于对本申请实施例进行理解,以下对本申请实施例所涉及的一些名词进行解释:
软聚类:也称为模糊聚类,是指将数据以一定的概率分到各类中,允许每个数据以不同概率同时属于多个类别。在本申请实施例中,对节点进行软聚类,也即是按照一定概率将一个节点分配到至少一个簇中。
图1是本申请实施例提供的一种文本分类***的结构框图。该文本分类***100包括:终端110和文本分类平台140。
其中,终端110安装和运行有支持文本分类功能的目标应用程序。可选的,该终端110是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,本申请实施例对该终端110的设备类型不做限定。示例性的,终端110是用户使用的终端,终端110中运行的应用程序内登录有用户账号。终端110泛指多个终端中的一个,本实施例仅以终端110来举例说明。
在一种可能实现方式中,文本分类平台140是一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。文本分类平台140用于为上述目标应用程序提供后台服务。可选的,文本分类平台140承担主要的文本数据处理工作,终端110承担次要的文本数据处理工作;或者,文本分类平台140承担次要的文本数据处理工作,终端110承担主要的文本数据处理工作;或者,文本分类平台140或终端110分别单独承担文本数据处理工作。可选的,服务器140包括:接入服务器、文本分类服务器和数据库。接入服务器用于为终端110提供接入服务。文本分类服务器用于为目标应用程序中的文本分类功能提供后台服务。示例性的,文本分类服务器是一台或多台。当文本分类服务器是多台时,存在至少两台文本分类服务器用于提供不同的服务,和/或,存在至少两台文本分类服务器用于提供相同的服务,比如以负载均衡方式提供同一种服务,本申请实施例对此不加以限定。在本申请实施例中,文本分类服务器中设置有文本分类模型。示例性的,上述服务器是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式***,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(ContentDelivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器,本申请实施例对服务器的数量和设备类型不作限定。
图2是本申请实施例提供的一种文本分类方法的流程图。该方法应用于上述终端或者文本分类平台,而终端和服务器均可以视为一种计算机设备,在本申请实施例中,以计算机设备作为执行主体,对该文本分类方法进行介绍,参见图2,在一种可能实现方式中,该实施例包括以下步骤:
201、计算机设备获取目标文本对应的语义图,该语义图中的节点对应于该目标文本中的实体或该实体对应的语义概念,该语义图中的边用于指示任两个节点之间的关联关系。
其中,实体是指具有可区别性且独立存在的事物,例如,人、角色、动物、事件等。语义概念用于对实体的含义进行解释,一个语义概念对应于至少一个实体,例如,实体“小米”所对应的语义概念包括“食物”和“公司”。该语义图包括多个节点和多个边,在本申请实施例中,该语义图能够指示目标文本中各个实体之间的关联关系,该关联关系包括语法关系、语义关系中的至少一项,需要说明的是,该语义图可以表示为图结构,也可以表示为树结构,本申请实施例对此不作限定。
202、计算机设备基于该语义图,确定该目标文本的第一分类信息。
在一种可能实现方式中,计算机设备通过文本分类模型对该语义图进行进一步特征提取,得到该第一分类信息。示例性的,该文本分类模型是基于卷积神经网络构建的,计算机设备通过该分类模型中的至少一个运算层将该语义图映射为该第一分类信息。可选的,该第一分类信息表示为向量的形式,该第一分类信息中的一个元素用于指示该目标文本属于一个类别的概率。
203、计算机设备基于该目标文本的上下文信息,确定该目标文本的第二分类信息。
其中,上下文信息是指文本中的一个对象与位于该一个对象前、后的各个对象之间的关联信息,也即是一个对象与前后文的关联信息,该对象是文本中的字符或词组;目标文本的上下文信息是指目标文本中的各个对象与前后文的关联信息。在一种可能实现方式中,该计算机设备通过卷积神经网络对直接对该目标文本进行特征提取,得到文本特征,该文本特征中包含了目标文本的上下文信息,该卷积神经网络基于该文本特征输出该目标文本的第二分类信息。
需要说明的是,在本申请实施例中,以先执行获取第一分类信息的步骤,再执行获取第二分类信息的步骤的顺序进行描述,在一些实施例中,也可以先执行获取第二分类信息的步骤,再执行获取第一分类信息的步骤,或者两个步骤同时执行,本申请实施例对此不作限定。
204、计算机设备基于该第一分类信息和该第二分类信息,得到该目标文本的分类信息。
在一种可能实现方式中,计算机设备对该第一分类信息和第二分类信息进行加权求和,得到该目标文本的分类信息,也即是,在本申请实施例中,基于语义图和上下文信息两个方面的数据,分别得到目标文本的分类信息,再综合确定出目标文本所属的类别。
本申请实施例所提供的技术方案,通过应用语义图来表示目标文本对应的实体和概念之间的关联关系,以充分获取到目标文本中实体和概念的关系信息,基于语义图确定出第一分类信息,再直接基于目标文本的上下文信息确定出第二分类信息,结合第一分类信息和第二分类信息,确定出目标文本所属的类别,也即是,在文本分类过程中综合目标文本中实体之间的关系和目标文本的上下文这两方面的信息,基于更为全面的文本信息来确定目标文本所属的类别,从而有效提高文本分类结果的准确率。
上述实施例是对本申请实施方式的一种简要介绍,图3是本申请实施例提供的一种文本分类方法的流程图,以下结合图3对该文本分类方法进行说明,在一种可能实现方式中,该实施例包括一下步骤:
301、计算机设备获取待分类的目标文本。
在一种可能实现方式中,计算机设备响应于文本分类指令,获取待分类的目标文本。示例性的,该目标文本是存储在计算机设备中的一段文本,或者是用户实时输入的文本,或者是从任一类型的应用程序、网页中所获取的文本,本申请实施例对此不作限定。
在一种可能实现方式中,计算机设备对获取到的目标文本进行预处理,基于预处理后的目标文本执行后续的文本分类步骤。示例性的,计算机设备所获取到的目标文本包括标题和正文,计算机设备对该目标文本进行预处理即为对标题和正文进行拼接。示例性的,该预处理过程还包括去除目标文本中的HTML(HyperText Markup Language,超文本标记语言)标签、英文字母、特殊字符等,本申请实施例对目标文本进行预处理的方法不作限定。
302、计算机设备获取目标文本对应的语义图,其中,该语义图中的节点对应于目标文本中的实体或实体对应的概念,该语义图中的边用于指示任两个节点之间的关联关系。
在一种可能实现方式中,该计算机设备获取该语义图的过程包括以下步骤:
步骤一、计算机设备获取目标文本中的实体以及各个实体对应的语义概念。
在一种可能实现方式中,计算机设备基于实体链接算法确定该目标文本所包括的至少一个实体,再从概念知识库中获取该至少一个实体所对应的至少一个语义概念。
示例性的,首先,该计算机设备先对该目标文本进行分词处理,得到该目标文本所包括的至少一个词组。然后,计算机设备从实体知识库中获取每个词组对应的实体,其中,该实体知识库用于存储词组与实体之间的对应关系,示例性的,实体是一种对事物的标准化表述,目标文本中的一些词组是对事物的非标准化表述,如词组是绰号、别称等,示例性的,目标文本中包括词组“山城”,该词组对应的实体为“重庆”,在本申请实施例中,基于实体知识库确定词组对应的实体,便于进行后续进行语义图构建。最后,计算机设备基于获取到的实体从概念知识库中检索出每个实体对应的至少一个语义概念,其中,该概念知识库用于存储实体与概念之间的对应关系,例如,该概念知识库是MCG(Microsoft ConceptGraph,微软概念图谱)。
在一种可能实现方式中,计算机设备在获取实体对应的语义概念时,对实体所对应的语义概念进行筛选,获取在该目标文本的语境下,与该实体的相关性较大的语义概念。示例性的,对于任一实体,计算机设备从概念知识库中获取该任一实体对应的至少一个候选语义概念,响应于获取到的候选语义概念的数目小于或等于第一数目,该计算机设备将该至少一个候选语义概念确定为该任一实体所对应的语义概念;响应于获取到的候选语义概念的数目大于该第一数目,计算机设备基于每个候选语义概念与该目标文本中其他实体的语义概念之间的重合度,确定每个候选语义概念的权重,获取权重最大的前第一数目的候选语义概念,作为该任一实体对应的语义概念。其中,候选语义概念与目标文本中其他实体的语义概念之间的重合度越大,表示在当前目标文本的语境下,该候选语义概念与该实体的相关性越大,例如,实体“苹果”所对应的候选语义概念包括“水果”和“公司”,若目标文本中还出现了其他实体“香蕉”、“葡萄”,其他实体均对应于语义概念“水果”,则计算机设备确定实体“苹果”所对应的候选语义概念“水果”与其他实体的语义概念之间的重合度较大,在当前语境下,候选语义概念“水果”与实体“苹果”的相关性更大,计算机设备为该候选语义概念“水果”赋予一个较大的权重,为候选语义概念“公司”赋予一个较小的权重。需要说明的是,上述对确定候选语义概念对应的权重的方法的说明,仅是一种可能实现方式的示例性说明,本申请实施例对采用哪种方法确定候选语义概念的权重不作限定。在本申请实施例中,计算机设备在概念知识库中检索每个实体对应的语义概念时,会获取到多个语义概念,例如,在MCG概念知识库中,与实体“水”相关的语义概念超过15000个,在这种情况下,采用为各个语义概念赋予权重,基于权重对语义概念进行筛选的方式,能够有效对每个实体所对应的语义概念的数目进行限制,避免获取到的语义概念数目过多,构建出的语义图结构过于复杂。
步骤二、计算机设备基于该目标文本中的该实体和对应的语义概念,确定语义图中的节点。
在本申请实施例中,计算机设备将目标文本中的实体、各个实体对应的语义概念分别确定为语义图中的一个节点。
步骤三、计算机设备在该语义图中具有关联关系的节点之间添加边。
在本申请实施例中,若任意两个节点所指示的实体或语义概念之间具有关联关系,则该任意两个节点之间具有关联关系。在一种可能实现方式中,若任两个第一节点所对应的实体之间具有语法关系,则在该任两个第一节点之间添加边。其中,第一节点是指目标文本中的实体所对应的节点。示例性的,计算机设备对目标文本进行语法分析,确定出目标文本中的各个实体在语法上的最短依存路径,基于实体之间的最短依存路径,确定实体之间的语法关系。其中,最短依存路径是指两个实体建立起关系的最短路径,例如,对于文本“中央公园的假山后面的草地上有花”,其中,“中央公园”和“花”之间的最短依存路径为“中央公园”-“有”-“花”,该最短依存路径用于确定实体之间的语法关系。在一种可能实现方式中,若任一个第一节点具有对应的第二节点,则在该第一节点和该第二节点之间添加边,其中,该第二节点对应于该第一节点所指示实体的语义概念,也即是,任一实体具有语义概念,则在该任一实体的节点和对应的语义概念的节点之间添加边。
303、计算机设备通过第一文本分类模型中的至少一个图处理层,基于该语义图中的该节点以及该任两个节点之间的关联关系,提取该语义图的图特征。
在一种可能实现方式中,该第一文本分类模型包括至少一个图处理层和一个分类层,该至少一个图处理层用于基于该语义图中的该节点以及该任两个节点之间的关联关系,提取该语义图的图特征,该分类层用于基于该图特征对目标文本进行分类。
在一种可能实现方式中,该至少一个图处理层为L层图处理层,在L为大于1的正整数的情况下,对于该第一文本分类模型中的第一个图处理层,计算机设备通过该第一个图处理层对该语义图中的节点和任两个节点之间的关联关系进行软聚类,得到中间图;对于该第一文本分类模型中的第l+1个图处理层,计算机设备通过该第l+1个图处理层对目标中间图中的节点以及任两个节点之间的关联关系进行软聚类,得到一个新的中间图,其中,该目标中间图是第l个图处理层输出的中间图,l为大于或等于1小于L的正整数;计算机设备基于该第一文本分类模型中最后一个图处理层输出的中间图,确定该图特征。在一种可能实现方式中,若该第一文本分类模型包括一个图处理层,则计算机设备通过该一个图处理层对该语义图的节点和任两个节点之间的关联关系进行软聚类,得到中间图,基于该一个图处理层所输出的中间图确定该图特征。需要说明的是,本申请实施例对第一文本模型所包括图处理层的数目不作限定,在本申请实施例中,以第一文本模型包括多个图处理层为例进行说明。在本申请实施例中,第l+1个图处理层所输出的中间图所包括节点的数目,小于输入第l+1个图处理层的图所包括的节点数目,最后一个图处理层所输出的中间图包括一个节点。以将第l个图处理层输出的中间图称为中间图l为例,第l+1个图处理层通过软聚类将中间图l中的多个节点分为多个簇,将一个簇作为一个新的节点,得到中间图l+1中的一个节点。
在本申请实施例中,任一个图处理层对输入的图进行数据处理的过程包括对节点和关联关系的特征表示进行更新的过程,以及,基于更新后的节点和关联关系进行软聚类的过程。在一种可能实现方式中,该任一个图处理层包括一个平面图神经网络(Flat GNN)和一个软聚类网络,该平面图神经网络(Flat GNN,Flat Graph Neural Network)包括至少一个级联的子层,也即是,一个子层的输出为下一级子层的输入,该至少一个子层用于对节点和关联关系的特征表示进行更新,该软聚类网络获取最后一个子层输出的更新后的特征表示,基于更新后的特征表示对节点和关联关系进行软聚类处理。图4是本申请实施例提供的一种语义图的图特征获取方法的示意图,如图4所示,任一图处理层通过Flat GNN的至少一个子层对输入的语义图或中间图中的节点和关联关系的特征表示进行更新,再对节点和关联关系进行软聚类,生成新的中间图。在本申请实施例中,任一图处理层所输出的中间图所包括节点的数目,少于输入的中间图或语义图所包括节点的数目。以下以第一文本分类模型中的第一个图处理层为例,分别对上述特征表示更新的过程和软聚类的过程进行说明:
(1)对节点和关联关系的特征表示进行更新的过程。
在本申请实施例中,将语义图中任一节点所指示的实体或语义概念的特征表示称为第一节点特征,可选的,该第一节点特征表示为向量的形式,示例性的,实体知识库和概念知识库中分别存储有各个实体和语义概念所对应的向量。将该语义图中任一关联关系的特征表示称为第一关系特征,可选的,该第一关系特征为一个有向向量,示例性的,该任一关联关系的第一关系特征基于该任一关联关系所连接的两个节点确定。在一种可能实现方式中,将两个节点的特征表示按照关联关系所指示的方向进行拼接,得到关联关系的特征表示,例如,实体A对应于节点1,实体A的语义概念对应于节点2,则关联关系所指示的方式是由节点1指向节点2,将节点1和节点2按照关联关系所指示的方向进行拼接是指,将节点2的特征表示拼接在节点1的特征表示之后,得到关联关系的特征表示。需要说明的是,本申请实施例对确定节点和关联关系的特征表示的方法不作限定。
在本申请实施例中,计算机设备通过该图处理层中的至少一个子层,对各个节点的第一节点特征和各个关联关系的第一关系特征进行至少一次更新,得到各个节点的第二节点特征和各个关联关系的第二关系特征。以该图处理层包括多个子层,计算机设备通过图处理层中的任一子层对第一节点特征和第一关系特征进行更新为例,在一种可能实现方式中,该过程包括以下步骤:
步骤一、计算机设备通过任一子层基于任一节点的第一节点特征、该任一节点的相连节点的第一节点特征、至少一个候选关联关系的第一关系特征,确定该任一节点对应的中间节点特征,其中,该候选关联关系是该任一节点与任一相连节点之间的关联关系。
在一种可能实现方式中,首先,该计算机设备将该任一节点的第一节点特征分别与至少一个候选关联关系的第一关系特征进行组合,得到该任一节点对应的至少一个第一中间特征,其中,对一个第一节点特征和一个第一关系特征进行组合通过组合函数(cancat函数)实现;然后,计算机设备对该至少一个第一中间特征进行加权求和,得到第二中间特征;最后,计算机设备基于该第二中间特征以及该任一节点对应的第一节点特征,确定该任一节点对应的中间节点特征,示例性的,计算机设备对该第二中间特征以及该任一节点的第一节点特征进行加权求和,得到第三中间特征,再对该第三中间特征进行线性处理,得到该任一节点对应的中间节点特征。在一种可能实现方式中,该步骤一的过程可以表示为下述公式(1)至公式(3):
其中,k表示图处理层中的第k个子层,k大于或等于1;表示该任一节点的相连节点的集合(相连节点也可以称为邻居节点),e’是节点ei的相连节点,是节点e’在第k个子层中的特征表示;ei表示节点,表示节点ei在第k个子层中的特征表示,也即是上述第一节点特征,表示节点ei在第(k+1)个子层中的特征表示,也即是,上述中间节点特征。
步骤二、计算机设备通过该任一子层对任一关联关系的第一关系特征进行线性处理,得到该任一关联关系的中间关系特征。
在一种可能实现方式中,该步骤二可以表示为下述公式(4):
步骤三、计算机设备将该各个节点的中间节点特征、各个关联关系的中间关系特征作为新的第一节点特征和第一关系特征输入下一子层,得到该下一子层输出的新的中间节点特征和新的中间关系特征。
在本申请实施例中,该下一个子层对各个节点的第一节点特征和各个关联关系的第一关系特征进行数据处理的方式与上述步骤一同理,在此不做赘述。
步骤四、计算机设备获取该图处理层中最后一个子层输出的各个节点的中间节点特征、各个关联关系的中间关系特征,分别作为该第二节点特征和该第二关系特征。
需要说明的是,若图处理层包括一个子层,则计算机设备通过一个子层对节点的第一节点特征和关联关系的第一关系特征分别进行一次更新后,得到节点的第二节点特征和关联关系的第二关系特征。
(2)对节点和关联关系进行聚类的过程。
在一种可能实现方式中,对于任一个图处理层,计算机设备基于该图处理层所输入的图中节点的节点特征和该图中节点之间关联关系的关系特征,确定该图处理层对应的聚类分配矩阵,该聚类分配矩阵用于在本层中进行软聚类处理。在一种可能实现方式中,该聚类分配矩阵的确定过程表示为下述公式(5)至公式(6):
其中,S(l)表示第l个图处理层对应的聚类分配矩阵;表示第l个图处理层中的平面图神经网络所输出的各个节点的第二节点特征,也即是上述步骤四中所获取的各个节点的第二节点特征;表示节点ei和节点ej之间关联关系的第二关系特征;的数值在第一文本分类模型的训练过程中确定;A(l)基于确定,A(l)中的一个元素为 是权重矩阵,是节点i和节点j之间的邻接权重,基于的加权内积得到,在这种情况下,A(l)就能够被解释为图Gl在第l层的广义邻接矩阵,由于邻接矩阵是刻画图结构的一个重要指标,因此以A(l)为输入的聚类分配矩阵S(l)将能够很好地捕捉图的全局信息。
在一种可能实现方式中,计算机设备基于该语义图中该各个节点的第二节点特征,对该各个节点进行软聚类,得到该中间图中的至少一个节点。其中,该中间图中的一个节点对应于语义图中的至少一个节点,在软聚类过程中,语义图中的每个节点被映射到一个或多个簇中,一个簇能够形成一个新的节点,作为中间图中的一个节点,在本申请实施例中,该中间图所包括节点的数目少于该语义图所包括节点的数目。示例性的,计算机设备将该各个节点的第二节点特征与本层对应的该聚类分配矩阵相乘,得到节点特征矩阵,该节点特征矩阵中的一列表示该中间图中一个节点的节点特征,该过程可以表示为下述公式(7):
E(l+1)=ZlS(l) (7)
其中,是第l个图处理层中的平面图神经网络所输出的第二节点特征;E(1+1)的第j列是图G1+1中节点的特征表示,等价于第l个图处理层中的平面图神经网络所输出的第二节点特征的加权平均,其中权重由聚类分配矩阵S(l)确定。
在一种可能实现方式中,基于该语义图中该各个关联关系的第二关系特征,对该各个关联关系进行聚类处理,得到该中间图中该至少一个节点之间的关联关系。示例性的,对于该中间图中任意两个节点,计算机设备在本层对应的该聚类分配矩阵所包括的元素中,确定该任意两个节点对应的候选元素;基于该候选元素,对该语义图中各个关联关系的第一关系特征进行加权处理求和,得到该中间图中任意两个节点之间关联关系的关系特征。在一种可能实现方式中,上述过程可以表示为下述公式(8):
需要说明的是,上述对图处理层进行数据处理的过程的说明,仅是一种可能实现方式的示例性说明,本申请实施例对图处理层采用哪种方式对输入的图进行数据处理不作限定。在本申请实施例中,仅以第一个图处理层进行数据处理的过程为例进行说明,其他图处理层进行数据处理的过程与上述步骤一至步骤四同理,在此不作赘述。
在本申请实施例中,计算机设备基于该第一文本分类模型中最后一个图处理层输出的中间图,确定该图特征。在一种可能实现方式中,该过程可以表示为下述公式(9):
g=σ(W(L)Concat(e(L),r(L))+bL) (9)
在本申请实施例中,通过多个图处理层对语义图进行多次处理,能够充分学习到语义图的局部信息和全部信息,并将语义图的局部信息和全局信息融合到最终提取到的图特征中,便于后续进行更准确的文本分类。
304、计算机设备通过该第一文本分类模型中的分类层基于该图特征进行分类,得到该第一分类信息。
其中,该第一文本分类模型中的分类层可以实现为一个卷积神经网络,对输入的图特征进行处理后得到该第一分类信息,可选的,该第一分类信息表示为向量的形式,该第一分类信息中的一个元素用于指示该目标文本属于一个类别的概率。
需要说明的是,上述步骤303至步骤304,是基于该语义图,确定该目标文本的第一分类信息的步骤。在本申请实施例中,通过获取语义图,来充分获取目标文本所对应的实体和概念之间的关系信息,通过对语义图的特征进行学习,来充分提取语义图的局部信息和全局信息,将语义图的局部信息和全局信息融合在最终提取到的图特征中,从而在后续基于图特征进行文本分类时,能够得到一个更为准确的分类结果。
305、计算机设备基于该目标文本的上下文信息,确定该目标文本的第二分类信息。
在一种可能实现方式中,该计算机设备中部署有第二文本分类模型,示例性的,该第二文本分类模型是FastText(快速文本)模型、Char-CNN(Character-levelConvolutional Networks,字符级卷积神经网络)模型、BERT(Bidirectional EncoderRepresentations from Transformers,转换器的双向编码表示)模型等,本申请实施例对此不作限定。
在本申请实施例中,该计算机设备通过该第二文本分类模型,基于该目标文本的上下文信息,确定该目标文本的第二分类信息。以该第二文本分类模型为BERT模型为例,示例性的,首先,计算机设备通过BERT模型对目标文本进行预处理,将目标文本切分为多个字符组成的字符序列,再将各个字符映射为向量,得到目标文本对应的向量序列;然后,计算机设备通过BERT模型中的多个运算层(Transformers)对向量序列进行编码运算和解码运算,以提取该目标文本的文本特征,该文本特征中包括该目标文本的上下文信息;最后,计算机设备通过BERT模型基于提取到的文本特征对该目标文本所属的类别进行预测,输出第二分类信息,可选的的,该第二分类信息表示为向量的形式,该第二分类信息中的一个元素用于指示目标文本属于一个类别的概率。
需要说明的是,上述对计算机设备通过第二文本分类模型对文本信息进行分类的说明,仅是一种可能实现方式的示例性说明,本申请实施例对采用哪种方法获取该第二分类信息不作限定。
306、计算机设备基于该第一分类信息和该第二分类信息,得到该目标文本的分类信息。
在一种可能实现方式中,计算机设备可以对该第一分类信息和第二分类信息进行加权求和,得到该目标文本的分类信息,即确定出该目标文本所属的类别。示例性的,该过程可以表示为下述公式(10):
Score(y)=(1-λ)P1(y|g)+λP2(y|s) (10)
其中,Score(y)表示目标文本的分类信息;p1(y|g)表示第一分类信息,p2(y|s)表示第二分类信息;g表示目标文本的语义图,s表示目标文本;λ表示先验权重,λ的数值由开发人员进行设置。
图5是本申请实施例提供的一种文本分类过程的示意图,以下结合图5对上述文本分类过程进行说明。在一种可能实现方式中,对于输入的目标文本,计算机设备分别通过第一文本分类模型501和第二文本分类模型502执行文本分类过程,如图5所示,计算机设备通过第一文本分类模型501提取目标文本对应的实体、概念以及关联关系,再构建语义图,也即是执行上述步骤202的过程,计算机设备基于该语义图提取图特征,通过第一文本分类模型中的分类器基于图特征进行分类,得到第一分类信息;计算机设备通过第二文本分类模型502提取目标文本的上下文信息,对目标文本进行分类,得到第二文本分信息,对第二分类信息和第二分类信息进行融合,得到该目标文本对应的分类信息。
本申请实施例所提供的技术方案,通过应用语义图来表示目标文本对应的实体和概念之间的关联关系,以充分获取到目标文本中实体和概念的关系信息,基于语义图确定出第一分类信息,再直接基于目标文本的上下文信息确定出第二分类信息,结合第一分类信息和第二分类信息,确定出目标文本所属的类别,也即是,在文本分类过程中综合目标文本中实体之间的关系和目标文本的上下文这两方面的信息,基于更为全面的文本信息来确定目标文本所属的类别,从而有效提高文本分类结果的准确率。
上述实施例中的第一文本分类模型、第二文本分类模型是计算机设备中存储的预先训练好的模型,这两个文本分类模型是该计算机设备训练的模型,或者是其他设备训练的模型。图6是本申请实施例提供的一种文本分类模型的训练方法流程图,参见图6,在一种可能实现方式中,该方法包括以下步骤:
601、计算机设备获取待训练的第一文本分类模型和第二文本分类模型。
在一种可能实现方式中,该第一文本分类模型视为一种基于层次图学习的文本分类器,能够学习文本数据所对应语义图的图特征,进而基于图特征进行文本分类。该第二文本分类模型视为一种基于文本数据的上下文信息进行文本分类的模型,示例性的,该第二文本分类模型为FastText模型、Char-CNN、BERT等,本申请实施例对此不作限定。
602、计算机设备获取训练数据。
在一种可能实现方式中,以AG’s News公开数据集作为训练数据集,AG’s News包括大量的新闻文章,即训练数据,在本申请实施例中,应用12万条数据作为训练数据,7600条数据作为测试数据.AG’s News中的训练数据被分为4个类别,每个类别下的训练数据和测试数据的数量均相同,分别是30000条训练数据和1900条测试数据。AG’s News中的原始文本包含新闻标题和文章描述,在本申请实施例中,将新闻标题和文章描述进行拼接,作为后续模型训练的输入。
603、计算机设备将训练数据分别输入该第一文本分类模型和第二文本分类模型,得到该训练数据对应的分类信息。
在本申请实施例中,计算机设备通过第一文本分类模型和第二文本分类模型对训练数据进行分类,得到训练数据对应的分类信息的过程与上述步骤202至步骤206的过程同理,在此不做赘述。
604、计算机设备基于该训练数据对应的分类信息与正确分类信息之间的误差,分别对该第一文本分类模型和第二文本分类模型的模型参数进行调整。
在一种可能实现方式中,该计算机设备基于交叉熵损失函数确定该训练数据对应的分类信息与正确分类信息之间的误差,将该误差反向传播至第一文本分类模型第二文本分类模型,基于梯度下降算法来调整第一文本分类模型和第二文本分类模型中的模型参数。需要说明的是,本申请实施例对采用哪种方法调整两个文本分类模型的模型参数不作限定。
605、计算机设备响应于该第一文本分类模型和第二文本分类模型满足参考条件,获取训练完成的第一文本分类模型进和第二文本分类模型。
其中,该参考条件由开发人员进行设置,本申请实施例对此不作限定。示例性的,该参考条件包括模型训练轮数的轮数阈值,若模型训练轮数达到该轮数阈值,则获取到训练完成的第一文本分类模型和第二文本分类模型;若模型训练轮数未达到该轮数阈值,则继续获取下一批次的训练数据对该第一文本分类模型和第二文本分类模型进行训练。示例性的,该参考条件包括误差阈值,若模型输出的分类信息对应的误差小于该误差阈值的次数达到目标次数,则确定该第一文本分类模型和第二文本分类模型满足参考条件,获取到训练完成的第一文本分类模型和第二文本分类模型;否则,继续获取下一批次的训练数据进行模型训练。
在一种可能实现方式中,上述模型训练过程中,模型的超参数设置如下:
在第一文本分类模型中,超参数设置如下:学***面图神经网络中所包括的图处理层的层数为5,每个图处理层所输出的图中的节点数分别为100、64、32、8、1;每个图处理层所包括的子层数目为2。
若第二文本分类模型为Char-CNN模型,该Char-CNN模型的超参数设置如下:学习率为10-4,训练轮数为400,样本批次大小(batch size)为32,优化器为Adam,dropout率p等于0.5。
若第二文本分类模型为FastText模型,该FastText模型超参数设置如下:学习率为0.21,训练轮数为11,批量大小为32,优化器为Adam,dropout率p等于0.5。
若第二文本分类模型为BERT模型,在本申请实施例中采用“BERT-Base-Uncased”版本的开源模型,该BERT模型的超参数设置如下:学习率为5*10-5,最大序列长度为200,训练轮数为2,样本批次大小(batch size)为8。
在模型训练过程中,上述公式10中的先验权重λ,在Char-CNN、FastText和BERT上分别设置为0.51、0.68和0.55。
表1示出了不同模型在对AG’s News数据集中的数据进行文本分类的准确率。
表1
Char-CNN | FastText | BERT | |
单独模型 | 87.54% | 91.20% | 94.15% |
与第一文本分类模型相结合 | 89.28% | 91.76% | 94.29% |
改进 | +1.74% | +0.56% | +0.14% |
如表1所示,Char-CNN、FastText、BERT这三个模型分别与第一文本分类模型相结合时,所输出的分类结果的准确率,比三个模型直接输出的分类结果的准确率,有所提高。Char-CNN在AG’s News数据集上的准确率为87.54%,借助层次图学习和结果级融合,也即是结合第一文本分类模型,与第一文本分类模型的分类结合进行融合后,最终准确率达到了89.28%,提高了1.74%。FastText的原始准确率为91.20%,与第一文本分类模型输出的结果融合后的准确率为91.76%,提高了0.56%。BERT在AG’s News上取得94.15%的准确率,通过与第一文本分类模型的输出结果相结合,最终准确率为94.29%,提高了0.15%。基于以上数据可知,应用本申请实施例提供的文本分类方法,能够有效地提高文本分类任务的性能,例如,尽管BERT在AG’s News上已经达到了很高的准确率,是AG’s News数据集上最优的模型之一,结合本申请所提出的文本分类方法,仍能够提高0.14%的准确率。
不同第二文本分类模型在不同类别的数据上,输出结果的准确率,以及,不同第二文本分类模型分别与第一文本分类模型结合后,在不同类别的数据上,输出结果的准确率的增长值,如下述表2所示:
表2
表2中括号内的数据为第二文本分类模型与第一文本分类模型相结合后,输出结果准确率的增长值。第二文本分类模型模型在“Sports(运动)”类别,即上述类别2上具有最高的分类精度,与第一文本分类模型相结合后的Char-CNN和FastText输出结果准确率分别提高了2.26%和0.42%。基于表2中的数据可知,本方案提出的文本分类方法,能够对分类性能较差的模型能带来更大的性能提升,例如,在不同类别中,对Char-CNN的提升要比BERT更显著,也即是,在第二文本分类模型不能完全捕捉文本特征时,本方案所提出的文本分类方法能够有效提高分类性能。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
图7是本申请实施例提供的一种文本分类装置的结构示意图,参见图7,该装置包括:
获取模块701,用于获取目标文本对应的语义图,该语义图中的节点对应于该目标文本中的实体或该实体对应的语义概念,该语义图中的边用于指示任两个节点之间的关联关系;
第一确定模块702,用于基于该语义图,确定该目标文本的第一分类信息;
第二确定模块703,用于基于该目标文本的上下文信息,确定该目标文本的第二分类信息;
第三确定模块704,用于基于该第一分类信息和该第二分类信息,得到该目标文本的分类信息。
在一种可能实现方式中,该关联关系包括语义关系和语法关系中的至少一项;
该获取模块701,用于:
基于该目标文本中的该实体和对应的语义概念,确定该语义图中的节点;
若任两个第一节点所对应的实体之间具有语法关系,则在该任两个第一节点之间添加边;
若任一个第一节点具有对应的第二节点,则在该第一节点和该第二节点之间添加边,其中,该第二节点对应于该第一节点所指示实体的语义概念。
在一种可能实现方式中,该第一确定模块702,包括:
特征提取子模块,用于通过第一文本分类模型中的至少一个图处理层,基于该语义图中的该节点以及该任两个节点之间的关联关系,提取该语义图的图特征;
分类子模块,用于通过该第一文本分类模型中的分类层基于该图特征进行分类,得到该第一分类信息。
在一种可能实现方式中,该特征提取子模块用于:
该至少一个图处理层为L层图处理层,在L为大于1的正整数的情况下,
对于该第一文本分类模型中的第一个图处理层,通过该第一个图处理层对该语义图中的该节点和该任两个节点之间的关联关系进行软聚类,得到中间图;
对于该第一文本分类模型中的第l+1个图处理层,通过该第l+1个图处理层对目标中间图中的节点以及任两个节点之间的关联关系进行软聚类,得到一个新的中间图,该目标中间图是第l个图处理层输出的中间图,l为大于或等于1小于L的正整数;
基于该第一文本分类模型中最后一个图处理层输出的中间图,确定该图特征。
在一种可能实现方式中,该特征提取子模块,包括:
特征更新单元,用于通过该图处理层中的至少一个子层,对各个节点的第一节点特征和各个关联关系的第一关系特征进行至少一次更新,得到各个节点的第二节点特征和各个关联关系的第二关系特征,该第一节点特征是节点所指示的实体或语义概念的特征表示,该第一关系特征是关联关系的特征表示;
第一聚类单元,用于基于该语义图中该各个节点的第二节点特征,对该各个节点进行软聚类,得到该中间图中的至少一个节点;
第二聚类单元,用于基于该语义图中该各个关联关系的第二关系特征,对该各个关联关系进行聚类处理,得到该中间图中该至少一个节点之间的关联关系。
在一种可能实现方式中,该特征更新单元,包括:
第一子单元,用于对于该图处理层中的任一子层,通过该任一子层基于任一节点的第一节点特征、该任一节点的相连节点的第一节点特征、至少一个候选关联关系的第一关系特征,确定该任一节点对应的中间节点特征,该候选关联关系是该任一节点与任一相连节点之间的关联关系;
第二子单元,用于通过该任一子层对任一关联关系的第一关系特征进行线性处理,得到该任一关联关系的中间关系特征;
第三子单元,用于将该各个节点的中间节点特征、各个关联关系的中间关系特征作为新的第一节点特征和第一关系特征输入下一子层,得到该下一子层输出的新的中间节点特征和新的中间关系特征;
第四子单元,用于将该图处理层中最后一个子层输出的各个节点的中间节点特征、各个关联关系的中间关系特征,分别作为该第二节点特征和该第二关系特征。
在一种可能实现方式中,该第一子单元,用于:
将该任一节点的第一节点特征分别与至少一个候选关联关系的第一关系特征进行组合,得到该任一节点对应的至少一个第一中间特征;
对该至少一个第一中间特征进行加权求和,得到第二中间特征;
基于该第二中间特征以及该任一节点对应的第一节点特征,确定该任一节点对应的中间节点特征。
在一种可能实现方式中,该第一子单元,用于:
对该第二中间特征以及该任一节点的第一节点特征进行加权求和,得到第三中间特征;
对该第三中间特征进行线性处理,得到该任一节点对应的中间节点特征。
在一种可能实现方式中,该装置还包括:
矩阵确定模块,用于对于任一个图处理层,基于该图处理层所输入的图中节点的节点特征和该图中节点之间关联关系的关系特征,确定该图处理层对应的聚类分配矩阵,该聚类分配矩阵用于在本层中进行软聚类处理。
在一种可能实现方式中,该第一聚类单元,用于:
将该各个节点的第二节点特征与本层对应的该聚类分配矩阵相乘,得到节点特征矩阵,该节点特征矩阵中的一列表示该中间图中一个节点的节点特征。
在一种可能实现方式中,该第二聚类单元,用于:
对于该中间图中任意两个节点,在本层对应的该聚类分配矩阵所包括的元素中,确定该任意两个节点对应的候选元素;
基于该候选元素,对该语义图中各个关联关系的第一关系特征进行加权处理求和,得到该中间图中任意两个节点之间关联关系的关系特征。
本申请实施例所提供的装置,通过应用语义图来表示目标文本对应的实体和概念之间的关联关系,以充分获取到目标文本中实体和概念的关系信息,基于语义图确定出第一分类信息,再直接基于目标文本的上下文信息确定出第二分类信息,结合第一分类信息和第二分类信息,确定出目标文本所属的类别,也即是,在文本分类过程中综合目标文本中实体之间的关系和目标文本的上下文这两方面的信息,基于更为全面的文本信息来确定目标文本所属的类别,从而有效提高文本分类结果的准确率。
需要说明的是:上述实施例提供的文本分类装置在文本分类时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的文本分类装置与文本分类方法实施例属于同一构思,其实现过程详见方法实施例,这里不再赘述。
上述技术方案所提供的计算机设备可以实现为终端或服务器,例如,图8是本申请实施例提供的一种终端的结构示意图。示例性的,该终端800是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端800包括有:一个或多个处理器801和一个或多个存储器802。
在一种可能实现方式中,处理器801包括一个或多个处理核心,比如4核心处理器、8核心处理器等。可选的,处理器801采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(ProgrammableLogic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。在一种可能实现方式中,处理器801包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801在集成有GPU(GraphicsProcessing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。在一些实施例中,处理器801还包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
在一种可能实现方式中,存储器802包括一个或多个计算机可读存储介质,示例性的,该计算机可读存储介质是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一条程序代码,该至少一条程序代码用于被处理器801所执行以实现本申请中方法实施例提供的文本分类方法。
在一些实施例中,终端800还可选包括有:***设备接口803和至少一个***设备。在一种可能实现方式中,处理器801、存储器802和***设备接口803之间通过总线或信号线相连。在一种可能实现方式中,各个***设备通过总线、信号线或电路板与***设备接口803相连。示例性的,***设备包括:射频电路804、显示屏805、摄像头组件806、音频电路807、定位组件808和电源809中的至少一种。
***设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和***设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和***设备接口803中的任意一个或两个在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804能够通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏805用于显示UI(UserInterface,用户界面)。示例性的,该UI包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号能够作为控制信号输入至处理器801进行处理。此时,显示屏805还用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805为一个,设置终端800的前面板;在另一些实施例中,显示屏805为至少两个,分别设置在终端800的不同表面或呈折叠设计;在一些实施例中,显示屏805是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用LCD(Liquid CrystalDisplay,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还包括闪光灯。可选的,闪光灯是单色温闪光灯,或者是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,能够用于不同色温下的光线补偿。
在一些实施例中,音频电路807包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。可选的,出于立体声采集或降噪的目的,麦克风为多个,分别设置在终端800的不同部位。或者麦克风是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。可选的,扬声器是传统的薄膜扬声器,或者是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅能将电信号转换为人类可听见的声波,也能将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。示例性的,定位组件808是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源809用于为终端800中的各个组件进行供电。示例性的,电源809是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池能够支持有线充电或无线充电。该可充电电池还能够用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器810。该一个或多个传感器810包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
在一些实施例中,加速度传感器811能够检测以终端800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811用于检测重力加速度在三个坐标轴上的分量。在一些实施例中,处理器801能够根据加速度传感器811采集的重力加速度信号,控制显示屏805以横向视图或纵向视图进行用户界面的显示。在一些实施例中,加速度传感器811还用于游戏或者用户的运动数据的采集。
在一些实施例中,陀螺仪传感器812能够检测终端800的机体方向及转动角度,陀螺仪传感器812能够与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,能够实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
在一些实施例中,压力传感器813设置在终端800的侧边框和/或显示屏805的下层。当压力传感器813设置在终端800的侧边框时,能够检测用户对终端800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在显示屏805的下层时,由处理器801根据用户对显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。在一些实施例中,指纹传感器814被设置终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一些实施例中,处理器801能够根据光学传感器815采集的环境光强度,控制显示屏805的显示亮度。示例性的,当环境光强度较高时,调高显示屏805的显示亮度;当环境光强度较低时,调低显示屏805的显示亮度。在另一个实施例中,处理器801还能够根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在终端800的前面板。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制显示屏805从息屏状态切换为亮屏状态。
本领域技术人员能够理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图9是本申请实施例提供的一种服务器的结构示意图,该服务器900可因配置或性能不同而产生比较大的差异,在一些实施例中,服务器900包括一个或多个处理器(CentralProcessing Units,CPU)901和一个或多个的存储器902,其中,该一个或多个存储器902中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器901加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器900还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器900还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括至少一条程序代码的存储器,上述至少一条程序代码可由处理器执行以完成上述实施例中的文本分类方法。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,该计算机程序产品包括至少一条计算机程序,该至少一条计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该至少一条计算机程序,处理器执行该至少一条计算机程序,使得该计算机设备执行上述文本分类方法所执行的操作。
本领域普通技术人员能够理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种文本分类方法,其特征在于,所述方法包括:
获取目标文本对应的语义图,所述语义图中的节点对应于所述目标文本中的实体或所述实体对应的语义概念,所述语义图中的边用于指示任两个节点之间的关联关系;
基于所述语义图,确定所述目标文本的第一分类信息;
基于所述目标文本的上下文信息,确定所述目标文本的第二分类信息;
基于所述第一分类信息和所述第二分类信息,得到所述目标文本的分类信息。
2.根据权利要求1所述的方法,其特征在于,所述关联关系包括语义关系和语法关系中的至少一项;
所述获取目标文本对应的语义图,包括:
基于所述目标文本中的所述实体和对应的语义概念,确定所述语义图中的节点;
若任两个第一节点所对应的实体之间具有语法关系,则在所述任两个第一节点之间添加边;
若任一个第一节点具有对应的第二节点,则在所述第一节点和所述第二节点之间添加边,其中,所述第二节点对应于所述第一节点所指示实体的语义概念。
3.根据权利要求1所述的方法,其特征在于,所述基于所述语义图,确定所述目标文本的第一分类信息,包括:
通过第一文本分类模型中的至少一个图处理层,基于所述语义图中的所述节点以及所述任两个节点之间的关联关系,提取所述语义图的图特征;
通过所述第一文本分类模型中的分类层基于所述图特征进行分类,得到所述第一分类信息。
4.根据权利要求3所述的方法,其特征在于,所述通过第一文本分类模型中的至少一个图处理层,基于所述语义图中的所述节点以及所述任两个节点之间的关联关系,提取所述语义图的图特征,包括:
所述至少一个图处理层为L层图处理层,在L为大于1的正整数的情况下,
对于所述第一文本分类模型中的第一个图处理层,通过所述第一个图处理层对所述语义图中的所述节点和所述任两个节点之间的关联关系进行软聚类,得到中间图;
对于所述第一文本分类模型中的第l+1个图处理层,通过所述第l+1个图处理层对目标中间图中的节点以及任两个节点之间的关联关系进行软聚类,得到一个新的中间图,所述目标中间图是第l个图处理层输出的中间图,l为大于或等于1小于L的正整数;
基于所述第一文本分类模型中最后一个图处理层输出的中间图,确定所述图特征。
5.根据权利要求4所述的方法,其特征在于,所述对于所述第一文本分类模型中的第一个图处理层,通过所述第一个图处理层对所述语义图中的所述节点和所述任两个节点之间的关联关系进行软聚类,得到中间图,包括:
通过所述图处理层中的至少一个子层,对各个节点的第一节点特征和各个关联关系的第一关系特征进行至少一次更新,得到各个节点的第二节点特征和各个关联关系的第二关系特征,所述第一节点特征是节点所指示的实体或语义概念的特征表示,所述第一关系特征是关联关系的特征表示;
基于所述语义图中所述各个节点的第二节点特征,对所述各个节点进行软聚类,得到所述中间图中的至少一个节点;
基于所述语义图中所述各个关联关系的第二关系特征,对所述各个关联关系进行聚类处理,得到所述中间图中所述至少一个节点之间的关联关系。
6.根据权利要求5所述的方法,其特征在于,所述通过所述图处理层中的至少一个子层,对各个节点的第一节点特征和各个关联关系的第一关系特征进行至少一次更新,得到各个节点的第二节点特征和各个关联关系的第二关系特征,包括:
对于所述图处理层中的任一子层,通过所述任一子层基于任一节点的第一节点特征、所述任一节点的相连节点的第一节点特征、至少一个候选关联关系的第一关系特征,确定所述任一节点对应的中间节点特征,所述候选关联关系是所述任一节点与任一相连节点之间的关联关系;
通过所述任一子层对任一关联关系的第一关系特征进行线性处理,得到所述任一关联关系的中间关系特征;
将所述各个节点的中间节点特征、各个关联关系的中间关系特征作为新的第一节点特征和第一关系特征输入下一子层,得到所述下一子层输出的新的中间节点特征和新的中间关系特征;
将所述图处理层中最后一个子层输出的各个节点的中间节点特征、各个关联关系的中间关系特征,分别作为所述第二节点特征和所述第二关系特征。
7.根据权利要求6所述的方法,其特征在于,所述通过所述任一子层基于任一节点的第一节点特征、所述任一节点的相连节点的第一节点特征、至少一个候选关联关系的第一关系特征,确定所述任一节点对应的中间节点特征,包括:
将所述任一节点的第一节点特征分别与至少一个候选关联关系的第一关系特征进行组合,得到所述任一节点对应的至少一个第一中间特征;
对所述至少一个第一中间特征进行加权求和,得到第二中间特征;
基于所述第二中间特征以及所述任一节点对应的第一节点特征,确定所述任一节点对应的中间节点特征。
8.根据权利要求7所述的方法,其特征在于,所述基于所述第二中间特征以及所述任一节点对应的第一节点特征,确定所述任一节点对应的中间节点特征,包括:
对所述第二中间特征以及所述任一节点的第一节点特征进行加权求和,得到第三中间特征;
对所述第三中间特征进行线性处理,得到所述任一节点对应的中间节点特征。
9.根据权利要求5所述的方法,其特征在于,所述基于所述语义图中所述各个节点的第二节点特征,对所述各个节点进行软聚类,得到所述中间图中的至少一个节点之前,所述方法还包括:
对于任一个图处理层,基于所述图处理层所输入的图中节点的节点特征和所述图中节点之间关联关系的关系特征,确定所述图处理层对应的聚类分配矩阵,所述聚类分配矩阵用于在本层中进行软聚类处理。
10.根据权利要求9所述的方法,其特征在于,所述基于所述语义图中所述各个节点的第二节点特征,对所述各个节点进行软聚类,得到所述中间图中的至少一个节点,包括:
将所述各个节点的第二节点特征与本层对应的所述聚类分配矩阵相乘,得到节点特征矩阵,所述节点特征矩阵中的一列表示所述中间图中一个节点的节点特征。
11.根据权利要求9所述的方法,其特征在于,所述基于所述语义图中所述各个关联关系的第二关系特征,对所述各个关联关系进行聚类处理,得到所述中间图中所述至少一个节点之间的关联关系,包括:
对于所述中间图中任意两个节点,在本层对应的所述聚类分配矩阵所包括的元素中,确定所述任意两个节点对应的候选元素;
基于所述候选元素,对所述语义图中各个关联关系的第一关系特征进行加权处理求和,得到所述中间图中任意两个节点之间关联关系的关系特征。
12.一种文本分类装置,其特征在于,所述装置包括:
获取模块,用于获取目标文本对应的语义图,所述语义图中的节点对应于所述目标文本中的实体或所述实体对应的语义概念,所述语义图中的边用于指示任两个节点之间的关联关系;
第一确定模块,用于基于所述语义图,确定所述目标文本的第一分类信息;
第二确定模块,用于基于所述目标文本的上下文信息,确定所述目标文本的第二分类信息;
第三确定模块,用于基于所述第一分类信息和所述第二分类信息,得到所述目标文本的分类信息。
13.根据权利要求12所述的装置,其特征在于,所述关联关系包括语义关系和语法关系中的至少一项;
所述获取模块,用于:
基于所述目标文本中的所述实体和对应的语义概念,确定所述语义图中的节点;
若任两个第一节点所对应的实体之间具有语法关系,则在所述任两个第一节点之间添加边;
若任一个第一节点具有对应的第二节点,则在所述第一节点和所述第二节点之间添加边,其中,所述第二节点对应于所述第一节点所指示实体的语义概念。
14.一种计算机设备,其特征在于,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条计算机程序,所述至少一条计算机程序由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求11任一项所述的文本分类方法所执行的操作。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行以实现如权利要求1至权利要求11任一项所述的文本分类方法所执行的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110567630.7A CN113761195A (zh) | 2021-05-24 | 2021-05-24 | 文本分类方法、装置、计算机设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110567630.7A CN113761195A (zh) | 2021-05-24 | 2021-05-24 | 文本分类方法、装置、计算机设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113761195A true CN113761195A (zh) | 2021-12-07 |
Family
ID=78787195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110567630.7A Pending CN113761195A (zh) | 2021-05-24 | 2021-05-24 | 文本分类方法、装置、计算机设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113761195A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114970446A (zh) * | 2022-07-14 | 2022-08-30 | 深圳前海环融联易信息科技服务有限公司 | 文本转换显示方法及其装置、设备、介质、产品 |
-
2021
- 2021-05-24 CN CN202110567630.7A patent/CN113761195A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114970446A (zh) * | 2022-07-14 | 2022-08-30 | 深圳前海环融联易信息科技服务有限公司 | 文本转换显示方法及其装置、设备、介质、产品 |
CN114970446B (zh) * | 2022-07-14 | 2022-11-01 | 深圳前海环融联易信息科技服务有限公司 | 文本转换显示方法及其装置、设备、介质、产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111476306B (zh) | 基于人工智能的物体检测方法、装置、设备及存储介质 | |
CN110852100A (zh) | 关键词提取方法、装置、电子设备及介质 | |
CN111243668B (zh) | 分子结合位点检测方法、装置、电子设备及存储介质 | |
CN112069414A (zh) | 推荐模型训练方法、装置、计算机设备及存储介质 | |
CN113515942A (zh) | 文本处理方法、装置、计算机设备及存储介质 | |
CN111930964B (zh) | 内容处理方法、装置、设备及存储介质 | |
CN112733970B (zh) | 图像分类模型处理方法、图像分类方法及装置 | |
CN111192262A (zh) | 基于人工智能的产品缺陷分类方法、装置、设备及介质 | |
CN111368116B (zh) | 图像分类方法、装置、计算机设备及存储介质 | |
CN111339737B (zh) | 实体链接方法、装置、设备及存储介质 | |
CN114722937B (zh) | 一种异常数据检测方法、装置、电子设备和存储介质 | |
CN111738365B (zh) | 图像分类模型训练方法、装置、计算机设备及存储介质 | |
CN113569042A (zh) | 文本信息分类方法、装置、计算机设备及存储介质 | |
CN111581958A (zh) | 对话状态确定方法、装置、计算机设备及存储介质 | |
CN113392180A (zh) | 文本处理方法、装置、设备及存储介质 | |
CN114281956A (zh) | 文本处理方法、装置、计算机设备及存储介质 | |
CN110555102A (zh) | 媒体标题识别方法、装置及存储介质 | |
CN113836946A (zh) | 训练评分模型的方法、装置、终端及存储介质 | |
CN112287070A (zh) | 词语的上下位关系确定方法、装置、计算机设备及介质 | |
CN113570510A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN117454954A (zh) | 模型训练方法、装置、计算机设备及存储介质 | |
CN113761195A (zh) | 文本分类方法、装置、计算机设备及计算机可读存储介质 | |
CN115168643B (zh) | 音频处理方法、装置、设备及计算机可读存储介质 | |
CN113343709B (zh) | 意图识别模型的训练方法、意图识别方法、装置及设备 | |
CN113486260B (zh) | 互动信息的生成方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |