CN113157927B - 文本分类方法、装置、电子设备及可读存储介质 - Google Patents
文本分类方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN113157927B CN113157927B CN202110581189.8A CN202110581189A CN113157927B CN 113157927 B CN113157927 B CN 113157927B CN 202110581189 A CN202110581189 A CN 202110581189A CN 113157927 B CN113157927 B CN 113157927B
- Authority
- CN
- China
- Prior art keywords
- text
- sequence
- classified
- word
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013145 classification model Methods 0.000 claims abstract description 87
- 238000000605 extraction Methods 0.000 claims abstract description 57
- 230000011218 segmentation Effects 0.000 claims abstract description 57
- 230000004927 fusion Effects 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 34
- 230000001537 neural effect Effects 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims description 73
- 239000013598 vector Substances 0.000 claims description 64
- 230000006870 function Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000007726 management method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及语义解析领域,揭露一种文本分类方法,包括:对文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;将文本集及目标标签集进行文本拼接处理,得到样本序列集;利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的迭代训练,直至所述文本分类模型收敛,得到训练完成的文本分类模型;当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。本发明还涉及一种区块链技术,所述文本集可以存储在区块链节点中。本发明还提出一种文本分类装置、电子设备以及存储介质。本发明可以提高文本分类的准确率。
Description
技术领域
本发明涉及语义解析领域,尤其涉及一种文本分类方法、装置、电子设备及可读存储介质。
背景技术
随着人工智能的发展,自然语言处理领域成为了人工智能的重要组成部分,文本分类作为自然语言处理领域的基础技术也因此受到了人们的重视。
但是,目前的文本分类依靠模型进行文本分类,模型分类过程中只考虑了词与词之间简单的特征融合,特征提取的不全面,导致文本分类的准确率较低。
发明内容
本发明提供一种文本分类方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高文本分类的准确率。
为实现上述目的,本发明提供的一种文本分类方法,包括:
对文本集中的每个文本进行意图识别,并根据意图识别的结果对所述文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;
将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列;
将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集;
利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型;
当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
可选地,所述将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集,包括:
将所述目标标签集中的所有标签进行随机组合,得到标签序列;
利用预设字符将每个所述文本序列与所述标签序列进行拼接,得到样本序列;
汇总所有的样本序列,得到所述样本序列集。
可选地,所述将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列,包括:
利用预设的分词词典对所述文本集中的每个文本进行分词,得到对应的初始文本词语集;
利用所述初始文本词语集进行停用词删除,得到所述文本词语集;
将所述文本词语集中每个词语按照在对应文本中的先后顺序进行组合,得到每个文本的文本序列。
可选地,所述利用利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型,包括:
步骤A:利用所述文本分类模型的编码层将每个所述样本序列中的词语转化为向量,将转化得到的所有向量按照所述样本序列中对应的词语的顺序进行组合,得到样本矩阵;
步骤B:利用所述文本分类模型的特征提取层将所述样本矩阵进行神经特征融合提取,得到融合特征矩阵;
步骤C:利用所述文本分类模型的注意力机制层对所述融合特征矩阵进行权重计算,得到目标矩阵;
步骤D:利用预设的激活函数计算所述目标矩阵对应的分类预测概率值;
步骤E:根据所述样本矩阵对应的所述文本的类别标签确定样本分类真实值,利用预设的损失函数计算所述分类预测概率值与所述样本分类真实值之间的损失值;
步骤F:当所述损失值大于或等于预设损失阈值时,更新所述文本分类模型的模型参数,并返回上述的步骤A进行迭代训练,直到所述损失值小于预设损失阈值时,停止训练,得到所述训练完成的文本分类模型。
可选地,所述利用所述文本分类模型的特征提取层将所述样本矩阵进行神经特征融合提取,得到融合特征矩阵,包括:
通过遍历选取所述样本矩阵的列,得到目标列;
对所述目标列进行神经特征融合提取,得到特征词向量;
将所有的特征词向量按照对应的目标列在所述样本矩阵中的顺序进行横向组合,得到所述特征矩阵。
可选地,所述利用所述文本分类模型的特征提取层将所述样本矩阵进行神经特征融合提取,得到融合特征矩阵,包括:
遍历选取所述样本矩阵的列,得到目标列;
对所述目标列进行神经特征融合提取,得到特征词向量;
将所有的特征词向量按照对应的目标列在所述样本矩阵中的顺序进行横向组合,得到所述特征矩阵。
可选地,所述对所述目标列进行神经特征融合提取,得到特征词向量,包括:
将所述目标列与所述样本矩阵的每一列进行张量乘法计算,得到第一词向量矩阵;
将所有所述第一词向量矩阵按照所述样本矩阵中对应的列的顺序进行堆叠,得到三维词向量矩阵;
将所述三维词向量矩阵按列进行纵向切分,得到多个第二词向量矩阵;
选取每个第二词向量矩阵中的最大值进行组合,得到所述特征词向量。
可选地,所述对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果,包括:
将所述待分类文本进行分词处理,得到分词词语集;
将所述分词词语集按照每个词语在所述待分类文本中的先后顺序进行组合,得到待分类文本序列;
利用所述预设字符将所述待分类文本序列与所述标签序列进行拼接,得到待分类文本序列;
利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到所述分类结果。
为了解决上述问题,本发明还提供一种文本分类装置,所述装置包括:
数据处理模块,用于对文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;将所述文本集及所述目标标签集进行文本拼接处理,得到样本序列集;
模型训练模块,用于利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的迭代训练,直至所述文本分类模型收敛,得到训练完成的文本分类模型;
文本分类模块,用于当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的文本分类方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的文本分类方法。
本发明实施例对文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;将所述文本集及所述目标标签集进行文本拼接处理,得到样本序列集;利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的迭代训练,直至所述文本分类模型收敛,得到训练完成的文本分类模型;当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果,所述文本分类模型包含的特征提取层,可以对待分类文本进行神经特征融合提取,特征提取更全面,因此,训练完成的文本分类模型基于特征提取的能力更强,文本分类准确度更高。因此,本发明实施例提出的文本分类方法、装置、电子设备及计算机可读存储介质提高了文本分类的准确率。
附图说明
图1为本发明一实施例提供的文本分类方法的流程示意图;
图2为本发明一实施例提供的文本分类装置的模块示意图;
图3为本发明一实施例提供的实现文本分类方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种文本分类方法。所述文本分类方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述文本分类方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示的本发明一实施例提供的文本分类方法的流程示意图,在本发明实施例中,所述文本分类方法包括:
S1、对文本集中的每个文本进行意图识别,并根据意图识别的结果对所述文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;
本发明实施例中所述文本集由多条某一场景的用户对话文本组成,可选地,所述文本集可以从某公司的客服数据库中获取,
本发明的另一实施例中,还可以将所述文本集可以存储在区块链节点,利用区块链对数据的高吞吐性,提高文本集的存取效率。
进一步地,为了后续的模型进行更好地训练,本发明实施例中,对所述文本集中的每个文本进行类别标签标记,其中,所述类别标签为文本意图,如:所述文本集为旅游场景的文本集合,所述文本集中包含的文本A为“酒店还有明天的房间吗”,文本A对应的文本意图为酒店订购,那么将所述文本A标记为酒店订购类别标签。
可选地,本发明实施例利用预构建的意图识别模型对所述文本集中的每个文本进行意图识别,得到意图识别结果;根据所述意图识别结果对对应的文本进行类别标签标记,如:所述文本集为旅游场景的文本集合,所述文本集中包含的文本A为“酒店还有明天的房间吗”,识别文本A对应的文本意图为酒店订购,那么将所述文本A标记为酒店订购类别标签。
进一步地,由于不同的文本可以对应相同的标签,为了避免统计重复的标签,本发明实施例中,汇总标记后所述文本集中的每个文本及对应的类别标签,得到初始标签集,由于不同的文本可以对应相同的标签,所述初始标签集中存在重复标签,因此,需要对所述初始标签集进行去重,得到所述目标标签集。如:所述文本集中包含文本A、文本B及文本C,对文本A标记甲类别标签、对文本B标记乙类别标签、对文本C标记甲类别标签,那么所述初始标签集包含两个甲类别标签和一个一类别标签,对所述初始标签集进行去重,去除一个重复的甲类别标签,得到目标标签集,对所述目标标签集包括一个甲类别标签和一个乙类别标签。
S2、将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列;
本发明实施例中,为了构建模型训练的样本,将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列。
详细地,本发明实施例中,对所述文本集中的每个文本进行分词处理,得到每个文本的文本词语集;将所述文本词语集中每个词语在对应文本中的先后顺序进行组合,得到对应的文本序列,如:文本A为“我是中国人”,文本A对应的文本词语集包含“我”、“中国人”、“是”共三个词语,将“我”、“中国人”、“是”按照每个词语在文本A中的先后顺序进行组合,得到文本序列[我,是,中国人];可选地,本发明实施例利用预设的分词词典对所述文本集中的每个文本进行分词,得到初始文本词语集;进一步地,利用所述分词词语集进行停用词删除,得到所述文本词语集。其中,所述停用词为无意义的词语,包括:语气助词、副词、介词、连接词等,如“的”、“在”。
S3、将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集;
具体的,本发明实施例将所述目标标签集中的所有标签进行随机组合,得到标签序列,进一步地,本发明实施例为了文本与标签进行区别,利用预设字符将每个所述文本序列与所述标签序列进行拼接,得到样本序列,如:文本序列为[A],标签序列为[B],将文本序列与标签序列用一个特殊字符SEP拼接,表示为样本序列为[A,SEP,B];汇总所有的样本序列,得到所述样本序列集。
S4、利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型;
本发明实施例中为了后续能对待分类文本进行更好的模型分类,本发明实施例中,利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型。
具体地,所述文本分类模型拥有神经特征融合提取的能力,特征提取的维度全面,训练完成的文本分类模型的文本分类也更准确。
可选地,本发明实施例中,所述文本分类模型包含:编码层、特征提取层、注意力机制层。所述文本分类模型包含的特征提取层,可以对待分类文本进行神经特征融合提取,特征提取更全面,模型的文本分类准确度更高。
可选地,所述编码层为Embedding。
详细地,本发明实施例,利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的迭代训练,直至所述文本分类模型收敛,得到训练完成的文本分类模型,包括:
步骤A:利用所述文本分类模型的编码层将每个所述样本序列中的词语转化为向量,将转化得到的所有向量按照所述样本序列中对应的词语的顺序进行组合,得到样本矩阵;
步骤B:利用所述文本分类模型的特征提取层将所述样本矩阵进行神经特征融合提取,得到融合特征矩阵;
步骤C:利用所述文本分类模型的注意力机制层对所述融合特征矩阵进行权重计算,得到目标矩阵;
步骤D:利用预设的激活函数计算所述目标矩阵对应的分类预测概率值;
可选地,所述激活函数为relu函数;
步骤E:根据所述样本矩阵对应的所述文本的类别标签确定样本分类真实值,利用预设的损失函数计算所述分类预测概率值与所述样本分类真实值之间的损失值;
如:所述目标标签集包括一个甲类别标签和一个乙类别标签,所述样本矩阵对应的所述文本的类别标签为甲类别,那么对应的真实值为甲类别为1、乙类别为0。
可选地,本发明实施例中,所述损失函数为交叉熵损失函数。
步骤F:当所述损失值大于或等于预设损失阈值时,更新所述文本分类模型的模型参数,并返回上述的步骤A进行迭代训练,直到所述损失值小于预设损失阈值时,停止训练,得到所述训练完成的文本分类模型。
详细地,本发明实施例中,利用所述特征提取层将所述样本矩阵进行特征融合提取,得到融合特征矩阵,包括:遍历选取所述样本矩阵的列,得到目标列,对所述目标列进行神经特征融合提取,得到特征词向量,将所有的特征词向量按照对应的目标列在所述样本矩阵中的顺序进行横向组合,得到融合特征矩阵,例如:样本矩阵共有三列,样本矩阵中每一列对应的特征词向量依次为B、A、C,B对应样本矩阵中的第一列,A对应样本矩阵中的第二列,C对应样本矩阵中的第三列,那么将B作为第一列,A作为第二列,C作为第三列,进行横向组合,得到融合特征矩阵[B A C]。
进一步地,本发明实施例中,对所述目标列进行神经特征融合提取,得到特征词向量,包括:选取所述目标列与所述样本矩阵的每一列进行张量乘法计算,得到对应的第一词向量矩阵,将所有所述第一词向量矩阵按照对应的所述样本矩阵中的列的顺序进行堆叠,得到三维词向量矩阵,将所述三维词向量矩阵按列进行纵向切分,得到多个第二词向量矩阵,选取每个第二词向量矩阵中的最大值进行组合得到特征词向量。例如:所述目标列为1*n列向量,所述样本矩阵共m列,所述目标列与所述样本矩阵的每一列进行张量乘法计算,得到对应的n*n的第一词向量矩阵,例如:向量与向量/>进行张量乘法得到矩阵共得到m个n*n的第一词向量矩阵,将m个n*n的第一词向量矩阵按照对应的所述样本矩阵中的列的顺序进行堆叠,得到n*n*m的三维词向量矩阵,如第一词向量矩阵为所述目标列与所述样本矩阵中的第一列张量乘法计算结果,那么将第一词向量矩阵堆叠在第一层;将n*n*m的三维词向量矩阵按列进行纵向切分得到n个n*m第二词向量矩阵,即选取n*n*m的三维词向量矩阵每一层的相同列,如每一层的第一列、第二列、第三列等,组成n*m第二词向量矩阵,得到n个n*m第二词向量矩阵,选取每个n*m第二词向量矩阵中的最大值按照对应的三维词向量矩阵的列的顺序进行纵向组合得到n*1的特征词向量。
通过,利用所述特征提取层将所述样本矩阵进行神经特征融合提取,提高了特征提取的准确度,从而提高训练完成的文本分类模型模型分类的准确度。
S5、当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
详细地,本发明实施例中,所述待分类文本是指需要进行文本分类的文本,为了分类更准确。
进一步地,本发明实施例中为了,利用所述文本分类模型更好地对所述待分类文本进行分类,需要对所述待分类文本进行预处理。
详细地,本发明实施例中对所述待分类文本进行预处理,包括:将所述待分类文本进行分词处理,将对待分类文本分词处理后得到的所有词语按照每个词语在所述待分类文本中的先后顺序进行组合,得到待分类文本序列,如:待分类文本为“我是中国人”,分词后得到“我”、“中国人”、“是”共三个词语,将“我”、“中国人”、“是”按照每个词语在所述待分类文本中的先后顺序进行组合,得到待分类文本序列[我,是,中国人];利用所述预设字符将所述待分类文本序列与所述标签序列进行拼接,得到待分类文本序列;其中,分词处理及拼接所用技术手段与前文一致,在此不在赘述。
进一步地,本发明实施例利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到所述分类结果。
如图2所示,是本发明文本分类装置的功能模块图。
本发明所述文本分类装置100可以安装于电子设备中。根据实现的功能,所述文本分类装置可以包括数据处理模块101、模型训练模块102、文本分类模块103,本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述数据处理模块101用于对文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;将所述文本集及所述目标标签集进行文本拼接处理,得到样本序列集;
本发明实施例中所述文本集由多条某一场景的用户对话文本组成,可选地,所述文本集可以从某公司的客服数据库中获取。
本发明的另一实施例中,还可以将所述文本集可以存储在区块链节点,利用区块链对数据的高吞吐性,提高文本集的存取效率。
进一步地,为了后续的模型进行更好地训练,本发明实施例中,所述数据处理模块101对所述文本集中的每个文本进行类别标签标记,其中,所述类别标签为文本意图,如:所述文本集为旅游场景的文本集合,所述文本集中包含的文本A为“酒店还有明天的房间吗”,文本A对应的文本意图为酒店订购,那么将所述文本A标记为酒店订购类别标签。
进一步地,由于不同的文本可以对应相同的标签,为了避免统计重复的标签,本发明实施例中,所述数据处理模块101汇总标记后所述文本集中的每个文本及对应的类别标签,得到初始标签集,由于不同的文本可以对应相同的标签,所述初始标签集中存在重复标签,因此,所述数据处理模块101需要对所述初始标签集进行去重,得到所述目标标签集。如:所述文本集中包含文本A、文本B及文本C,对文本A标记甲类别标签、对文本B标记乙类别标签、对文本C标记甲类别标签,那么所述初始标签集包含两个甲类别标签和一个一类别标签,对所述初始标签集进行去重,去除一个重复的甲类别标签,得到目标标签集,对所述目标标签集包括一个甲类别标签和一个乙类别标签。
本发明实施例中,为了构建模型训练的样本,所述数据处理模块101将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列。
详细地,本发明实施例中,所述数据处理模块101对所述文本集中的每个文本进行分词处理,得到每个文本的文本词语集;将所述文本词语集中每个词语在对应文本中的先后顺序进行组合,得到对应的文本序列,如:文本A为“我是中国人”,文本A对应的文本词语集包含“我”、“中国人”、“是”共三个词语,将“我”、“中国人”、“是”按照每个词语在文本A中的先后顺序进行组合,得到文本序列[我,是,中国人];可选地,本发明实施例利用预设的分词词典对所述文本集中的每个文本进行分词,得到初始文本词语集;进一步地,利用所述分词词语集进行停用词删除,得到所述文本词语集。其中,所述停用词为无意义的词语,包括:语气助词、副词、介词、连接词等,如“的”、“在”。
具体的,本发明实施例所述数据处理模块101将所述目标标签集中的所有标签进行随机组合,得到标签序列,进一步地,本发明实施例为了文本与标签进行区别,进行时区别利用预设字符将每个所述文本序列与所述标签序列进行拼接,得到样本序列,如:文本序列为[A],标签序列为[B],将文本序列与标签序列用一个特殊字符SEP拼接,表示为样本序列为[A,SEP,B];汇总所有的样本序列,得到所述样本序列集。
所述模型训练模块102用于利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的迭代训练,直至所述文本分类模型收敛,得到训练完成的文本分类模型;
本发明实施例中为了后续能对待分类文本进行更好的模型分类,本发明实施例中,利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的迭代训练,直至所述文本分类模型收敛,得到训练完成的文本分类模型。
具体地,所述文本分类模型拥有神经特征融合提取的能力,特征提取的维度全面,训练完成的文本分类模型的文本分类也更准确。
可选地,本发明实施例中,所述文本分类模型包含:编码层、特征提取层、注意力机制层。所述文本分类模型包含的特征提取层,可以对待分类文本进行神经特征融合提取,特征提取更全面,模型的分类准确度更高。
可选地,所述编码层为Embedding。
详细地,本发明实施例,所述模型训练模块102利用如下手段,得到所述训练完成的文本分类模型,包括:
步骤A:利用所述文本分类模型的编码层将每个所述样本序列中的词语转化为向量,将转化得到的所有向量按照所述样本序列中对应的词语的顺序进行组合,得到样本矩阵;
步骤B:利用所述文本分类模型的特征提取层将所述样本矩阵进行神经特征融合提取,得到融合特征矩阵;
步骤C:利用所述文本分类模型的注意力机制层对所述融合特征矩阵进行权重计算,得到目标矩阵;
步骤D:利用预设的激活函数计算所述目标矩阵对应的分类预测概率值;
可选地,所述激活函数为relu函数;
步骤E:根据所述样本矩阵对应的所述文本的类别标签确定样本分类真实值,利用预设的损失函数计算所述分类预测概率值与所述样本分类真实值之间的损失值;
如:所述目标标签集包括一个甲类别标签和一个乙类别标签,所述样本矩阵对应的所述文本的类别标签为甲类别,那么对应的真实值为甲类别为1、乙类别为0。
可选地,本发明实施例中,所述损失函数为交叉熵损失函数。
步骤F:当所述损失值大于或等于预设损失阈值时,更新所述文本分类模型的模型参数,并返回上述的步骤A进行迭代训练,直到所述损失值小于预设损失阈值时,停止训练,得到所述训练完成的文本分类模型。
详细地,本发明实施例中,利用所述特征提取层将所述样本矩阵进行特征融合提取,得到融合特征矩阵,包括:遍历选取所述样本矩阵的列,得到目标列,对所述目标列进行神经特征融合提取,得到特征词向量,将所有的特征词向量按照对应的目标列在所述样本矩阵中的顺序进行横向组合,得到融合特征矩阵,例如:样本矩阵共有三列,样本矩阵中每一列对应的特征词向量依次为B、A、C,B对应样本矩阵中的第一列,A对应样本矩阵中的第二列,C对应样本矩阵中的第三列,那么将B作为第一列,A作为第二列,C作为第三列,进行横向组合,得到融合特征矩阵[B A C]。
进一步地,本发明实施例中,所述模型训练模块102对所述目标列进行神经特征融合提取,得到特征词向量,包括:选取所述目标列与所述样本矩阵的每一列进行张量乘法计算,得到对应的第一词向量矩阵,将所有所述第一词向量矩阵按照对应的所述样本矩阵中的列的顺序进行堆叠,得到三维词向量矩阵,将所述三维词向量矩阵按列进行纵向切分,得到多个第二词向量矩阵,选取每个第二词向量矩阵中的最大值进行组合得到特征词向量。例如:所述目标列为1*n列向量,所述样本矩阵共m列,所述目标列与所述样本矩阵的每一列进行张量乘法计算,得到对应的n*n的第一词向量矩阵,例如:向量与向量/>进行张量乘法得到矩阵/>共得到m个n*n的第一词向量矩阵,将m个n*n的第一词向量矩阵按照对应的所述样本矩阵中的列的顺序进行堆叠,得到n*n*m的三维词向量矩阵,如第一词向量矩阵为所述目标列与所述样本矩阵中的第一列张量乘法计算结果,那么将第一词向量矩阵堆叠在第一层;将n*n*m的三维词向量矩阵按列进行纵向切分得到n个n*m第二词向量矩阵,即选取n*n*m的三维词向量矩阵每一层的相同列,如每一层的第一列、第二列、第三列等,组成n*m第二词向量矩阵,得到n个n*m第二词向量矩阵,选取每个n*m第二词向量矩阵中的最大值按照对应的三维词向量矩阵的列的顺序进行纵向组合得到n*1的特征词向量。
通过,利用所述特征提取层将所述样本矩阵进行神经特征融合提取,提高了特征提取的准确度,从而提高训练完成的文本分类模型模型分类的准确度。
所述文本分类模块103用于当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
详细地,本发明实施例中,所述待分类文本是指需要进行文本分类的文本,为了分类更准确。
进一步地,本发明实施例中为了,利用所述文本分类模型更好地对所述待分类文本进行分类,需要对所述待分类文本进行预处理。
详细地,本发明实施例中所述文本分类模块103对所述待分类文本进行预处理,包括:将所述待分类文本进行分词处理,将对待分类文本分词处理后得到的所有词语按照每个词语在所述待分类文本中的先后顺序进行组合,得到待分类文本序列,如:待分类文本为“我是中国人”,分词后得到“我”、“中国人”、“是”共三个词语,将“我”、“中国人”、“是”按照每个词语在所述待分类文本中的先后顺序进行组合,得到待分类文本序列[我,是,中国人];利用所述预设字符将所述待分类文本序列与所述标签序列进行拼接,得到待分类文本序列;其中,分词处理及拼接所用技术手段与前文一致,在此不在赘述。
进一步地,本发明实施例利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到所述分类结果。
如图3所示,是本发明实现文本分类方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如文本分类程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如文本分类程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如文本分类程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(perIPheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的文本分类程序12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
对文本集中的每个文本进行意图识别,并根据意图识别的结果对所述文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;
将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列;
将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集;
利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型;
当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以是非易失性的,也可以是易失性的。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还可以提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
对文本集中的每个文本进行意图识别,并根据意图识别的结果对所述文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;
将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列;
将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集;
利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型;
当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (7)
1.一种文本分类方法,其特征在于,所述方法包括:
对文本集中的每个文本进行意图识别,并根据意图识别的结果对所述文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;
将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列;
将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集;
利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型;
当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果;
其中,所述利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型,包括:步骤A:利用所述文本分类模型的编码层将每个所述样本序列中的词语转化为向量,将转化得到的所有向量按照所述样本序列中对应的词语的顺序进行组合,得到样本矩阵;步骤B:利用所述文本分类模型的特征提取层将所述样本矩阵进行神经特征融合提取,得到融合特征矩阵;步骤C:利用所述文本分类模型的注意力机制层对所述融合特征矩阵进行权重计算,得到目标矩阵;步骤D:利用预设的激活函数计算所述目标矩阵对应的分类预测概率值;步骤E:根据所述样本矩阵对应的所述文本的类别标签确定样本分类真实值,利用预设的损失函数计算所述分类预测概率值与所述样本分类真实值之间的损失值;步骤F:当所述损失值大于或等于预设损失阈值时,更新所述文本分类模型的模型参数,并返回上述的步骤A进行迭代训练,直到所述损失值小于预设损失阈值时,停止训练,得到所述训练完成的文本分类模型;
所述利用所述文本分类模型的特征提取层将所述样本矩阵进行神经特征融合提取,得到融合特征矩阵,包括:通过遍历选取所述样本矩阵的列,得到目标列;对所述目标列进行神经特征融合提取,得到特征词向量;将所有的特征词向量按照对应的目标列在所述样本矩阵中的顺序进行横向组合,得到所述特征矩阵;
所述对所述目标列进行神经特征融合提取,得到特征词向量,包括:将所述目标列与所述样本矩阵的每一列进行张量乘法计算,得到第一词向量矩阵;将所有所述第一词向量矩阵按照所述样本矩阵中对应的列的顺序进行堆叠,得到三维词向量矩阵;将所述三维词向量矩阵按列进行纵向切分,得到多个第二词向量矩阵;选取每个第二词向量矩阵中的最大值进行组合,得到所述特征词向量。
2.如权利要求1所述的文本分类方法,其特征在于,所述将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集,包括:
将所述目标标签集中的所有标签进行随机组合,得到标签序列;
利用预设字符将每个所述文本序列与所述标签序列进行拼接,得到样本序列;
汇总所有的样本序列,得到所述样本序列集。
3.如权利要求2所述的文本分类方法,其特征在于,所述将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列,包括:
利用预设的分词词典对所述文本集中的每个文本进行分词,得到对应的初始文本词语集;
利用所述初始文本词语集进行停用词删除,得到所述文本词语集;
将所述文本词语集中每个词语按照在对应文本中的先后顺序进行组合,得到每个文本的文本序列。
4.如权利要求1至3中任意一项所述的文本分类方法,其特征在于,所述对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果,包括:
将所述待分类文本进行分词处理,得到分词词语集;
将所述分词词语集按照每个词语在所述待分类文本中的先后顺序进行组合,得到待分类中间文本序列;
利用预设字符将所述待分类中间文本序列与所述标签进行拼接,得到待分类文本序列;
利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到所述分类结果。
5.一种文本分类装置,用于实现如权利要求1至4中任一项所述的文本分类方法,其特征在于,包括:
数据处理模块,用于对文本集中的每个文本进行意图识别,并根据意图识别的结果对所述文本集中的每个文本进行类别标签标记,得到所述文本集的目标标签集;将所述文本集中每个文本进行分词处理,并根据分词处理的结果进行序列组合,得到每个文本的文本序列;将所述目标标签集中的所有标签与所述文本序列进行文本拼接处理,得到样本序列集;
模型训练模块,用于利用所述样本序列集对预构建的文本分类模型进行基于神经特征融合提取的模型训练,得到训练完成的文本分类模型;
文本分类模块,用于当接收待分类文本时,对所述分类文本进行分词及标签拼接,得到待分类文本序列,利用所述训练完成的文本分类模型对所述待分类文本序列进行分类,得到分类结果。
6.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至4中任一项所述的文本分类方法。
7.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的文本分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110581189.8A CN113157927B (zh) | 2021-05-27 | 2021-05-27 | 文本分类方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110581189.8A CN113157927B (zh) | 2021-05-27 | 2021-05-27 | 文本分类方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113157927A CN113157927A (zh) | 2021-07-23 |
CN113157927B true CN113157927B (zh) | 2023-10-31 |
Family
ID=76877849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110581189.8A Active CN113157927B (zh) | 2021-05-27 | 2021-05-27 | 文本分类方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113157927B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114330357B (zh) * | 2021-08-04 | 2024-05-10 | 腾讯科技(深圳)有限公司 | 一种文本处理方法、装置、计算机设备和存储介质 |
CN113688239B (zh) * | 2021-08-20 | 2024-04-16 | 平安国际智慧城市科技股份有限公司 | 少样本下的文本分类方法、装置、电子设备及存储介质 |
CN113806540B (zh) * | 2021-09-18 | 2023-08-08 | 平安银行股份有限公司 | 文本打标签方法、装置、电子设备及存储介质 |
CN113836303A (zh) * | 2021-09-26 | 2021-12-24 | 平安科技(深圳)有限公司 | 一种文本类别识别方法、装置、计算机设备及介质 |
CN113919344B (zh) * | 2021-09-26 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 文本处理方法和装置 |
CN115098688B (zh) * | 2022-07-20 | 2024-05-31 | 平安科技(深圳)有限公司 | 多标签分类模型训练方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543032A (zh) * | 2018-10-26 | 2019-03-29 | 平安科技(深圳)有限公司 | 文本分类方法、装置、计算机设备和存储介质 |
CN111061881A (zh) * | 2019-12-27 | 2020-04-24 | 浪潮通用软件有限公司 | 文本分类方法、设备及存储介质 |
CN112015863A (zh) * | 2020-08-26 | 2020-12-01 | 华东师范大学 | 一种基于图神经网络的多元特征融合中文文本分类方法 |
CN112597312A (zh) * | 2020-12-28 | 2021-04-02 | 深圳壹账通智能科技有限公司 | 文本分类方法、装置、电子设备及可读存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7041281B2 (ja) * | 2019-07-04 | 2022-03-23 | 浙江大学 | ディープニューラルネットワークモデルに基づくアドレス情報特徴抽出方法 |
-
2021
- 2021-05-27 CN CN202110581189.8A patent/CN113157927B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543032A (zh) * | 2018-10-26 | 2019-03-29 | 平安科技(深圳)有限公司 | 文本分类方法、装置、计算机设备和存储介质 |
CN111061881A (zh) * | 2019-12-27 | 2020-04-24 | 浪潮通用软件有限公司 | 文本分类方法、设备及存储介质 |
CN112015863A (zh) * | 2020-08-26 | 2020-12-01 | 华东师范大学 | 一种基于图神经网络的多元特征融合中文文本分类方法 |
CN112597312A (zh) * | 2020-12-28 | 2021-04-02 | 深圳壹账通智能科技有限公司 | 文本分类方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113157927A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113157927B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN112380343B (zh) | 问题解析方法、装置、电子设备及存储介质 | |
CN112528616B (zh) | 业务表单生成方法、装置、电子设备及计算机存储介质 | |
CN113658002B (zh) | 基于决策树的交易结果生成方法、装置、电子设备及介质 | |
CN113435308B (zh) | 文本多标签分类方法、装置、设备及存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113505273B (zh) | 基于重复数据筛选的数据排序方法、装置、设备及介质 | |
CN113656690B (zh) | 产品推荐方法、装置、电子设备及可读存储介质 | |
CN113344125B (zh) | 长文本匹配识别方法、装置、电子设备及存储介质 | |
CN115409041B (zh) | 一种非结构化数据提取方法、装置、设备及存储介质 | |
CN113626605B (zh) | 信息分类方法、装置、电子设备及可读存储介质 | |
CN116578696A (zh) | 文本摘要生成方法、装置、设备及存储介质 | |
CN116701635A (zh) | 培训视频文本二分类方法、装置、设备及存储介质 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN114548114B (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN113591881B (zh) | 基于模型融合的意图识别方法、装置、电子设备及介质 | |
CN112434157B (zh) | 文书多标签分类方法、装置、电子设备及存储介质 | |
CN114677526A (zh) | 图像分类方法、装置、设备及介质 | |
CN114708073A (zh) | 一种围标串标智能检测方法、装置、电子设备及存储介质 | |
CN113723114A (zh) | 基于多意图识别的语义分析方法、装置、设备及存储介质 | |
CN113822215A (zh) | 设备操作指引文件生成方法、装置、电子设备及存储介质 | |
CN113706207A (zh) | 基于语义解析的订单成交率分析方法、装置、设备及介质 | |
CN113704478B (zh) | 文本要素提取方法、装置、电子设备及介质 | |
CN115146627B (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN113672722B (zh) | 线上课程智能推荐方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |