CN111401063A - 一种基于多池化网络的文本处理方法、装置和相关设备 - Google Patents
一种基于多池化网络的文本处理方法、装置和相关设备 Download PDFInfo
- Publication number
- CN111401063A CN111401063A CN202010492270.4A CN202010492270A CN111401063A CN 111401063 A CN111401063 A CN 111401063A CN 202010492270 A CN202010492270 A CN 202010492270A CN 111401063 A CN111401063 A CN 111401063A
- Authority
- CN
- China
- Prior art keywords
- sample
- information
- target
- pooling
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种基于多池化网络的文本处理方法、装置和相关设备,该方法包括:获取反馈文本信息;反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;由与反馈文本信息相关联的目标文本模型输出反馈文本信息中的目标分词相关联的分词关联特征;将分词关联特征分别输入目标文本模型中的多个池化层,通过多个池化层分别对分词关联特征进行多池化处理,输出与多个池化层相关联的池化结果向量,根据与多个池化层相关联的池化结果向量,生成目标拼接向量信息;通过目标文本模型对目标拼接向量信息进行分类处理,得到与目标拼接向量信息相匹配的反馈类型标签。采用本申请,可以提高对文本分类的准确度。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种基于多池化网络的文本处理方法、装置和相关设备。
背景技术
当用户在使用某些软件(例如,软件X)的时候,会通过统一的反馈入口对该软件X中所涉及的某些业务进行反馈,进而会使该软件X的后台收到针对不同业务的反馈文本信息。若采用人工分类的方式对这些反馈文本信息中的每条反馈文本信息进行归类处理,则可能存在误归类的现象,比如,可能会将反馈文本信息A的分类类型(例如,分类1)错误地归类到其他分类类型(例如,分类2),以至于会降低文本分类的准确度。
发明内容
本申请提供一种基于多池化网络的文本处理方法、装置和相关设备,可以提高对图像的分类准确率。
本申请实施例一方面提供一种基于多池化网络的文本处理方法,包括:
获取反馈文本信息;反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;
获取与反馈文本信息相关联的目标文本模型,将反馈文本信息中的目标分词输入目标文本模型,由目标文本模型输出与反馈文本信息相关联的分词关联特征;
将分词关联特征分别输入目标文本模型中的多个池化层,通过多个池化层对分词关联特征进行多池化处理,输出与多个池化层相关联的池化结果向量,根据与多个池化层相关联的池化结果向量,生成目标拼接向量信息;
通过目标文本模型对目标拼接向量信息进行分类处理,得到与目标拼接向量信息相匹配的反馈类型标签。
本申请实施例一方面提供一种基于多池化网络的文本处理装置,包括:
反馈信息获取模块,用于获取反馈文本信息;反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;
分词特征获取模块,用于获取与反馈文本信息相关联的目标文本模型,将反馈文本信息中的目标分词输入目标文本模型,由目标文本模型输出与反馈文本信息相关联的分词关联特征;
池化结果拼接模块,用于将分词关联特征分别输入目标文本模型中的多个池化层,通过多个池化层对分词关联特征进行多池化处理,输出与多个池化层相关联的池化结果向量,根据与多个池化层相关联的池化结果向量,生成目标拼接向量信息;
反馈标签确定模块,用于通过目标文本模型对目标拼接向量信息进行分类处理,得到与目标拼接向量信息相匹配的反馈类型标签。
其中,装置还包括:
异常过滤模块,用于获取具有异常符号过滤功能的正则关系表,基于正则关系表对反馈文本信息中的异常符号进行过滤处理,将过滤处理后的反馈文本信息作为待处理文本信息;
分词处理模块,用于获取与目标文本模型相关联的分词词典,基于分词词典对待处理文本信息进行分词处理,得到与待处理文本信息相关联的N个分词,将N个分词分别作为反馈文本信息中的目标分词;N为正整数。
其中,分词特征获取模块包括:
目标模型获取单元,用于获取与反馈文本信息相关联的目标文本模型;
目标向量确定单元,用于通过目标文本模型中的词向量层分别对N个目标分词进行编码处理,得到每个目标分词对应的目标编码向量;每个目标分词对应的目标编码向量的维度信息均为1×L;L为正整数;
目标序列确定单元,用于在反馈文本信息中确定每个目标分词的位置信息,基于每个目标分词的位置信息对每个目标分词对应的目标编码向量进行拼接处理,得到与反馈文本信息相关联的目标向量序列;目标向量序列的维度信息为N×L;
特征提取单元,用于通过目标文本模型中的卷积层,从目标向量序列中提取N个目标分词之间的局部依赖关系,将提取到的局部依赖关系作为目标向量序列中的分词关联特征。
其中,特征提取单元包括:
卷积核获取子单元,用于获取目标文本模型的卷积层中的K个卷积核;K为正整数,且K个卷积核中的每个卷积核的尺寸信息互不相同;
卷积核确定子单元,用于在K个卷积核中获取第i个卷积核;第i个卷积核的尺寸信息为Ri×L;i为小于或者等于K的正整数;
卷积处理子单元,用于将维度信息为N×L的目标向量序列输入尺寸信息为Ri×L的第i个卷积核,由第i个卷积核对目标向量序列进行卷积处理,以提取N个目标分词之间的局部依赖关系;
关联特征确定子单元,用于将提取到的局部依赖关系作为目标向量序列中的分词关联特征;一个卷积核对应一个分词关联特征,且第i个卷积核对应的分词关联特征的维度信息为(N-Ri+1)×1。
其中,多个池化层包含第一池化层和第二池化层;
池化结果拼接模块包括:
第一结果向量确定单元,用于将分词关联特征输入第一池化层,得到与第一池化层相关联的第一池化结果向量;
第二结果向量确定单元,用于将分词关联特征输入第二池化层,得到与第二池化层相关联的第二池化结果向量;第一池化结果向量的维度信息与第二池化结果向量的维度信息相同;
结果向量拼接单元,用于通过目标文本模型中的全连接层,将第一池化结果向量和第二池化结果向量进行拼接处理,得到与多个池化层相关联的目标拼接向量信息。
其中,装置还包括:
分组标签获取模块,用于获取与反馈类型标签相匹配的业务分组标签;
反馈文本推送模块,用于基于业务分组标签将反馈文本信息推送给业务分组标签所绑定的公共广播群组,以使与公共广播群组相关联的第二终端输出反馈文本信息。
本申请实施例一方面提供一种基于多池化网络的文本处理方法,包括:
获取与用户反馈界面相关联的训练样本信息和训练样本信息的样本分类标签;训练样本信息为在用户反馈界面中所录入的反馈样本信息;
获取包含多个池化层的初始文本模型,将训练样本信息中的样本分词输入初始文本模型,由初始文本模型输出与训练样本信息相关联的样本关联特征;
将样本关联特征分别输入初始文本模型中的多个池化层,通过多个池化层对样本关联特征进行多池化处理,输出与多个池化层相关联的样本池化向量,根据与多个池化层相关联的样本池化向量,生成样本拼接向量信息;
通过初始文本模型对样本拼接向量信息进行分类处理,得到与样本拼接向量信息相匹配的预测样本标签;
基于预测样本标签、样本分类标签对初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
本申请实施例一方面提供一种基于多池化网络的文本处理装置,包括:
训练样本获取模块,用于获取与用户反馈界面相关联的训练样本信息和训练样本信息的样本分类标签;训练样本信息为在用户反馈界面中所录入的反馈样本信息;
样本特征获取模块,用于获取包含多个池化层的初始文本模型,将训练样本信息中的样本分词输入初始文本模型,由初始文本模型输出与训练样本信息相关联的样本关联特征;
池化处理模块,用于将样本关联特征分别输入初始文本模型中的多个池化层,通过多个池化层对样本关联特征进行多池化处理,输出与多个池化层相关联的样本池化向量,根据与多个池化层相关联的样本池化向量,生成样本拼接向量信息;
预测标签确定模块,用于通过初始文本模型对样本拼接向量信息进行分类处理,得到与样本拼接向量信息相匹配的预测样本标签;
初始模型训练模块,用于基于预测样本标签、样本分类标签对初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
其中,训练样本获取模块包括:
样本信息确定单元,用于将携带第一样本标签的反馈样本信息作为第一样本信息,将携带第二标签信息的反馈样本信息作为第二样本信息;第一样本标签不同于第二样本标签;
训练样本确定单元,用于将第一样本信息和第二样本信息,作为与用户反馈界面相关联的训练样本信息;
样本标签确定单元,用于将第一样本标签和第二样本标签作为训练样本信息的样本分类标签。
其中,样本特征获取模块包括:
初始模型构建单元,用于构建包含多个池化层的初始文本模型;初始文本模型还包含词向量层和卷积层;
样本向量确定单元,用于通过初始文本模型中的词向量层分别对训练样本信息中的M个样本分词进行编码处理,得到每个样本分词对应的样本编码向量;每个样本分词对应的样本编码向量的维度信息均为1×L;M为正整数;M个样本分词是基于与初始文本模型相关联的分词词典对训练样本信息进行分词处理后所得到的;
样本向量拼接单元,用于在训练样本信息中确定M个样本分词的位置信息,基于每个样本分词的位置信息对每个样本分词对应的样本编码向量进行拼接处理,得到与训练样本信息相关联的样本向量序列;样本向量序列的维度信息为M×L;
样本特征确定单元,用于获取初始文本模型中的卷积层所包含的K个卷积核,将维度信息为M×L的样本向量序列分别输入K个卷积核,由K个卷积核中的每个卷积核分别对样本向量序列进行卷积处理,得到每个卷积核从样本向量序列中提取到的M个样本分词之间的局部依赖关系,将每个卷积核所提取到的局部依赖关系作为样本向量序列中的样本关联特征;一个卷积核对应一个样本关联特征。
其中,池化处理模块包括:
样本特征输入单元,用于将K个卷积核中的每个卷积核对应的样本关联特征,输入初始文本模型中的多个池化层;
池化向量输出单元,用于通过初始文本模型中的每个池化层对每个卷积核对应的样本关联特征进行池化处理,输出每个池化层分别对应的样本池化向量;
池化向量拼接单元,用于通过初始文本模型中的全连接层对每个池化层对应的样本池化向量进行拼接处理,得到与多个池化层相关联的样本拼接向量信息。
其中,预测标签确定模块包括:
匹配概率输出单元,用于将样本拼接向量信息输入全连接层中的分类器,输出与分类器中的F个样本属性特征相匹配的第一匹配概率;一个样本属性特征对应一个第一匹配概率;F为正整数;
匹配概率处理单元,用于对F个第一匹配概率进行归一化处理,得到与每个样本属性特征相关联的第二匹配概率;一个第一匹配概率对应一个第二匹配概率;
预测标签确定单元,用于在F个第二匹配概率中将具有最大第二匹配概率的样本属性特征作为目标样本属性特征,将目标样本属性特征对应的属性分类标签,作为与样本拼接向量信息相关联的预测样本标签。
其中,初始模型训练模块包括:
初始函数确定单元,用于基于预测样本标签对应的预测概率值和样本分类标签对应的真实概率值,确定用于对初始文本模型中的模型参数进行调整的初始损失函数值;
模型参数调整单元,用于若初始损失函数值不满足模型收敛条件,则基于初始损失函数值调整初始文本模型中的模型参数,通过训练样本信息对调整后的初始文本模型进行迭代训练,得到迭代训练后的初始文本模型的目标损失函数值;
目标模型确定单元,用于若目标损失函数值满足模型收敛条件,则将满足模型收敛条件的迭代训练后的初始文本模型确定为目标文本模型。
本申请实施例一方面提供了一种计算机设备,包括:处理器、存储器、网络接口;
处理器与存储器、网络接口相连,其中,网络接口用于提供数据通信功能,存储器用于存储计算机程序,处理器用于调用计算机程序,以执行本申请实施例中的方法。
本申请实施例一方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序包括程序指令,上述程序指令被处理器执行时,执行本申请实施例中的方法。
本申请实施例中的计算机设备可以在获取到第一终端发送的反馈文本信息时,通过已经训练好的文本模型(即目标文本模型)提取反馈文本信息中的词与词之间的局部依赖关系,以将提取到的局部依赖关系作为与反馈文本信息中的目标分词相关联的分词关联特征;其中,这里的反馈文本信息可以为第一用户在第一终端的用户反馈界面中所录入的文本信息;进一步的,计算机设备可以将分词关联特征分别输入到目标文本模型中的多个池化层,以通过多个池化层的池化网络对分词关联特征进行多池化处理,进而可以输出与多个池化层相关联的池化结果向量。其中,可以理解的是,这里的每个池化层的池化网络所具备的池化处理功能可以互不相同,进而可以通过多个池化层(例如,5个)中的部分池化层(例如,2个)或者全部池化层(例如,5个)的池化网络所具备的池化处理功能,得到多个不同的池化结果向量,以丰富池化处理后的池化结果向量的特征类型,基于此,当将这些池化结果向量进行拼接处理之后,可以尽可能地得到用于准确描述该反馈文本信息的真实内容的目标拼接向量信息;进一步的,当计算机设备通过该目标文本模型对目标拼接向量信息进行分类处理之后,可以自动且准确地分类得到与该目标拼接向量信息相匹配的反馈类型标签,进而可以提高文本分类的准确度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络架构的结构示意图;
图2是本申请实施例提供的一种进行数据交互的场景示意图;
图3是本申请实施例提供的一种基于多池化网络的文本处理方法的流程示意图;
图4是本申请实施例提供的一种对反馈文本信息进行分词处理的场景示意图;
图5是本申请实施例提供的一种目标向量序列的场景示意图;
图6是本申请实施例提供的一种多个池化层的场景示意图;
图7是本申请实施例提供的一种基于多池化网络的文本处理方法的流程示意图;
图8是本申请实施例提供的一种确定训练样本信息的场景示意图;
图9是本申请实施例提供的一种通过初始文本模型获取样本向量序列的场景图;
图10是本申请实施例提供的一种在第二终端中显示反馈文本信息的场景示意图;
图11是本申请实施例提供的一种基于多池化网络的文本处理方法;
图12是本申请实施例提供的一种基于多池化网络的文本处理装置的结构示意图;
图13是本申请实施例提供的一种计算机设备的示意图;
图14是本申请实施例提供的一种基于多池化网络的文本处理装置的结构示意图;
图15是本申请实施例提供的一种计算机设备的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
人工智能(Artificial Intelligence, AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的方案属于人工智能领域下的机器学习((Machine Learning,ML)。可以理解的是,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
请参见图1,图1是本申请实施例提供的一种网络架构的结构示意图。如图1所示,该网络架构可以包括第一用户终端集群、第二用户终端集群和业务服务器2000,其中,可以理解的是,这里的第一用户终端集群和第二用户终端集群中均可以包括一个或者多个用户终端,这里将不对各用户终端集群中的用户终端的数量进行限制。其中,如图1所示,第一终端集群可以包含多个用户终端,具体可以包含图1所示的用户终端3000a、用户终端3000b、用户终端3000c、…、用户终端3000n。如图1所示,用户终端3000a、用户终端3000b、用户终端3000c、…、用户终端3000n可以和业务服务器2000进行网络连接,以便于第一用户终端集群中的每个用户终端可以通过该网络连接与业务服务器2000进行数据交互。比如,在业务反馈场景下,这里的业务服务器2000可以接收第一用户终端集群中的每个用户终端针对某项业务所发送的反馈文本信息。
其中,可以理解的是,这里的业务服务器2000在接收到该第一用户终端集群中的一个或者多个用户终端所反馈的反馈文本信息时,可以通过已经训练好的文本模型(即包含多个池化层的目标文本模型)对这些反馈文本信息进行归类处理,以得到每个反馈文本信息的分类类型,进而可以在实现对反馈文本信息的快速分类的同时,还可以提高文本分类的准确性。其中,本申请实施例可以将目标文本模型所能够预测得到的每个反馈文本信息的分类类型统称为反馈类型标签。为便于理解,本申请实施例可以将训练之前的文本模型统称为初始文本模型,并将对初始文本模型进行训练后所得到的新的文本模型统称为前述目标文本模型。另外,本申请实施例还可以在该第一用户终端集群中,将发送文本反馈信息的用户终端统称为第一终端,并将该第一终端对应的反馈用户统称为第一用户。
其中,可以理解的是,这里的第一终端可以包括:智能手机、平板电脑、笔记本电脑、桌上型电脑、智能电视等具有文本录入功能的智能终端。例如,本申请实施例可以将图1所示的用户终端3000a作为第一终端,该第一终端中可以运行一个或者多个应用客户端,这些应用客户端均可以提供能够帮助反馈用户(即第一用户)针对某些业务进行反馈的统一反馈接口。这样,当第一终端对应的第一用户在使用某个应用客户端(例如,客户端A)时,可以触发该客户端A中的统一反馈接口,以使第一终端的显示界面切换为用户反馈界面,此时,第一用户可以在该用户反馈界面中针对该客户端A所提供的某些业务的业务性能进行建议或者投诉。可以理解的是,本申请实施例可以将第一用户在该用户反馈界面中所录入的文本信息(比如,建议内容或者投诉内容等)统称为反馈用户信息。其中,这里的应用客户端可以包括社交客户端、多媒体客户端(例如,视频客户端)、娱乐客户端(例如,游戏客户端)、教育客户端、软件管理客户端(例如,杀毒客户端)、办公客户端等具有文本信息录入功能的客户端。
其中,如图1所示的第二终端集群中的也可以包含多个用户终端,具体可以包含图1所示的用户终端4000a、用户终端4000b、用户终端4000c、…、用户终端4000n。如图1所示,用户终端4000a、用户终端4000b、用户终端4000c、…、用户终端4000n可以和业务服务器2000进行网络连接,以便于第二用户终端集群中的每个用户终端可以通过该网络连接与业务服务器2000进行数据交互。比如,在上述业务反馈场景下,第二终端集群中的每个用户终端可以接收该业务服务器2000所自动推送的反馈文本信息(例如,上述反馈文本信息1)。比如,该业务服务器2000可以根据上述目标文本模型所预测得到的反馈类型标签,准确地在第二终端集群中定位到用于接收该反馈文本信息1的用户终端,并可以在该第二用户终端集群中将用于接收该反馈文本信息1的用户终端(也可以为业务处理终端)统称为第二终端,并可以将该第二终端所对应的业务处理方统称为第二用户。
其中,这里的第二终端可以包括:智能手机、平板电脑、笔记本电脑、桌上型电脑、智能电视等具有文本显示功能的智能终端。例如,本申请实施例可以将图1所示的第二用户终端集群中的用户终端4000a作为第二终端,该第二终端在获取到上述反馈文本信息1时,可以将上述反馈文本信息呈现给用于对接相应业务的业务处理方(即第二用户),以便于第二用户可以快速获知相应业务所提供的服务业务的不足,例如,可以获知该业务在相应业务性能等方面的问题。
其中,如图1所示的业务服务器2000可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器,这里将不对其进行限定。
为便于理解,本申请实施例以当前运行在第一终端中的应用客户端为上述软件管理客户端为例,以阐述通过目标文本模型对在该软件管理客户端对应的用户反馈界面中所录入的反馈文本信息进行归类处理的具体过程。
进一步的,请参见图2,图2是本申请实施例提供的一种进行数据交互的场景示意图。如图2所示的第一终端可以为上述图1所示的用户终端3000a。如图2所示的第一用户可以在第一终端的用户反馈界面上录入图2所示的反馈文本信息,然后,第一终端可以将录入的反馈文本信息发送给图2的业务服务器。应当理解,这里的反馈文本信息可以为图2所示的第一用户针对该软件管理客户端中的某项业务(例如,垃圾清理业务)所录入的文本信息,例如,该反馈文本信息可以为一个句子或者一段话等,这里将不对反馈文本信息的文本长度进行具体限制。
如图2所示的业务服务器可以为上述图1所示的业务服务器2000,该业务服务器可以用于获取第一终端发送的反馈文本信息,该反馈文本信息可以为针对上述垃圾清理业务所录入的文本信息,例如,该反馈文本信息可以为“垃圾清理功能没法使用”或者“清理按钮点击不成功”等。进一步的,如图2所示,业务服务器可以在获取到反馈文本信息之后,进一步通过目标文本模型(这里的目标文本模型可以为上述已经训练好的文本模型)确定出该反馈文本信息所属的反馈类型标签,进而可以根据该确定出的反馈类型标签快速从上述第二用户终端集群中找到用于接收该反馈文本信息的业务处理终端,以将该反馈文本信息(例如,“垃圾清理功能没法使用”或者“清理按钮点击不成功”等)推送给该业务处理终端。其中,可以理解的是,这里到的业务处理终端可以为图2所示的第二终端,该第二终端可以为上述图1所对应实施例中的用户终端4000a,该用户终端4000a对应的第二用户可以为上述垃圾清理业务对应的业务处理方。
应当理解,对于上述应用客户端为软件管理客户端而言,该软件管理客户端可以提供包含多种业务,每种业务可以对应一个业务处理方,这里的业务处理方所属的业务分组标签可以包含以业务小组或者业务部门等形式所呈现的分组标签,这里将不对其进行限定。比如,当反馈文本信息为“垃圾清理功能没法使用”时,该业务处理方所属的业务分组可以为后台优化组。可选的,该业务处理方所属的业务部门还可以为后台优化部门。应当理解,本申请实施例可以为某项业务所对应的某个业务分组或者业务部门统称为业务分组标签。由此可见,本申请实施例采用图2所示的目标文本模型可以快速且准确地对获取到的反馈文本信息进行文本分类,以便于后续可以快速地将第一用户所反馈的意见(即反馈文本信息)准确地推送给相应的业务处理方(即应用运维人员),进而可以尽可能快的帮助应用运维人员获知该软件管理客户端中的上述垃圾清理业务所存在的不足,从而可以针对性的对该软件管理客户端中的上述垃圾清理业务的业务功能进行完善,以增加用户的黏度。
其中,如图2所示的目标文本模型具体可以包含多个网络模型(简称为多个网络),多个网络具体可以包含图2所示的词向量层10a、卷积层20a、多个池化层(例如,图2所示的池化层30a、...、池化层30b)以及带有分类能够的全连接层40a。如图2所示的分类器50a可以具有分类处理的功能。
可以理解的是,图2所示的目标文本模型为针对上述初始文本模型进行模型训练后所得到的文本模型,这意味着在模型训练阶段中所构建的初始文本模型也可以包含图2所示的目标文本模型中的多个网络,比如,具体可以包含训练前的词向量层、训练前的卷积层、训练前的多个池化层以及训练前的带有分类能够的全连接层。可以理解的是,这里的目标文本模型的模型参数(例如,模型参数2)不同于初始文本模型的模型参数(例如,模型参数1),这是因为在初始文本模型的训练过程中,会不断对初始文本模型中的多个网络的模型参数进行调整,以便于后续可以继续对调整模型参数后的初始文本模型进行迭代训练,直到训练后的初始文本模型具有最小损失函数时,认为训练后的初始文本模型满足模型收敛条件,进而可以将具有最小损失函数值的训练后的初始文本模型确定为目标文本模型。
其中,可以理解的是,词向量层10a也可以称之为词向量网络,可以用于对上述图2所示的业务服务器所获取到的反馈文本信息的目标分词进行编码处理,以构建得到每个目标分词所对应的低维稠密度的编码向量。这里的目标分词的数量可以为N个,N可以为正整数。其中,应当理解,在模型预测阶段,本申请实施例可以通过该目标文本模型中的词向量层10a,对反馈文本信息中的每个目标分词所编码得到的编码向量统称为目标编码向量,进而可以将由该目标文本模型中的词向量层10a对目标编码向量进行拼接后所输出的向量序列统称为目标向量序列;可选的,应当理解,在针对上述初始文本模型进行模型训练阶段,本申请实施例可以将通过该初始文本模型中的词向量层10a,对训练样本信息中的每个样本分词所编码得到的编码向量统称为样本编码向量,进而可以将由该初始文本模型中的词向量层10a对样本编码向量进行拼接后所输出的向量序列统称为样本向量序列。
其中,卷积层20a也可以叫做卷积神经网络(convolutional neural network,CNN),是一种专门用来处理具有类似网格结构的数据的神经网络。该网络使用了卷积这种特殊的线性数学运算。这里的卷积层20a可以包含K个卷积核,K可以为正整数,这里的K个卷积核中的每个卷积核均可以用于捕捉文本之间的局部依赖关系(即文本中的词与词之间的局部特征)。应当理解,这里的K个卷积核中的每个卷积核的尺寸信息可以互不相同,以学习到不同层次的文本信息的语义。应当理解,本申请实施例可以在模型预测阶段,将通过该目标文本模型中的卷积层20a从上述目标向量序列中所学习到的词与词之间的局部依赖关***称为分词关联特征;还可以在模型训练阶段,将通过该初始文本模型中的卷积层20a从上述样本向量序列中所学习到的词与词之间的局部依赖关***称为样本关联特征。
其中,应当理解,本申请实施例中所采用的多个池化层可以称之为多池化网络,具体可以包含图2所示的池化层30a、...、池化层30b。其中,池化层30a可以为平均池化层(AvgPooling),池化层30b可以为最大池化层(Max Pooling),这里将不对多个池化层中的每个池化层进行一一列举。应当理解,这里的多个池化层中的每个池化层所采用的池化函数可以不同,这些池化函数可以具有不同的池化处理功能,进而可以在模型预测阶段中,使用该目标文本模型中的多个池化层中的部分池化层或者全部池化层进行多池化处理,以得到不同的池化结果向量,这里将不对进行多池化处理过程中所采用的池化层的具体数量进行限定。同理,在模型预测阶段中,可以使用上述初始文本模型中的多个池化层得到不同的样本池化向量。其中,可以理解的是,平均池化层可以用于从卷积层20a所输出的分词关联特征或者样本关联特征中提取到用于描述相应文本的整体语义的整体池化特征。最大池化层可以用于从卷积层20a所输出的分词关联特征或者样本关联特征中提取到用于描述相应文本的最强池化特征,当然,本申请实施例还可以包含具有其他功能的池化层(例如,池化层30c,未在上述图2中示出),比如,池化层30c可以用于将最大池化层所得到的最强池化特征和平均池化层所得到的整体池化特征进行加权处理,以得到加权池化特征等。
其中,全连接层40a可以为具有分类功能的全连接层(即具有分类功能的全连接网络),全连接层40a的每一个结点都可以与上一层的所有结点相连,用于将参与多池化处理的每个池化层所提取到的池化特征进行综合处理,以通过全连接层40a中的分类器50a对综合处理后的特征进行线性映射。比如,在模型预测阶段,可以通过目标文本模型中的全连接层40a将参与多池化处理的每个池化层所输出的池化结果向量进行拼接处理,以将拼接处理后的特征统称为目标拼接向量信息,进而可以基于目标文本模型中的分类器50a对该目标拼接向量信息进行分类处理,以得到模型预测阶段中的反馈文本信息所属的反馈类型标签。同理,在模型训练阶段,可以通过初始文本模型中的全连接层40a将参与多池化处理的每个池化层所输出的样本池化向量进行拼接处理,以将拼接处理后的特征统称为样本拼接向量信息,进而可以基于初始文本模型中的分类器50a对该样本拼接向量信息进行分类处理,以得到模型训练阶段中的训练样本信息所属的预测样本标签。
可选的,可以理解的是,当上述图1所示的业务服务器2000为其他应用客户端(例如,视频客户端)所对应的后台服务器时,可以接收第一用户在该视频客户端的用户反馈界面中所录入的其他反馈文本信息(比如,反馈文本信息2)。例如,该视频客户端对应的反馈文本信息2可以为“视频播放界面加载失败”等。其中,业务服务器2000对第一用户通过其他应用客户端所反馈的反馈文本信息进行归类的具体实现方式,可以一并参照上述图2所对应实施例中对通过软件管理客户端所对应的反馈文本信息进行归类的具体过程的描述,这里将不再继续进行赘述。
可选的,可以理解的是,上述图1所示的业务服务器2000在接收到第一用户终端集群中的每个用户终端针对某些业务所反馈的文本信息时,还可以用于对这些用户终端所反馈的文本信息进行存储,以便于后续可以批量性地对这些反馈的文本信息进行归类处理,以得到每个反馈文本信息的反馈类型标签。
其中,可以理解的是,集成在上述应用客户端中的统一反馈接口,可以用于帮助第一用户终端集群中的每个反馈用户(例如,第一用户)在对应的用户反馈界面中针对某些业务反馈相应的文本信息,并可以将针对这些业务所反馈的文本信息统称为反馈文本信息。可选的,上述图2所示的目标文本模型还可以应用在第一终端中,这样,当第一用户在第一终端的用户反馈界面中录入相应的反馈文本信息之后,则可以在第一终端的本地通过目标文本模型对获取到的反馈文本信息的分类类型进行预测,进而可以将预测得到的反馈文本信息所属的反馈类型标签发送给上述图1所示的业务服务器2000,以使业务服务器可以找到与该反馈类型标签相匹配的业务分组标签,进而可以向找到的业务分组标签所绑定的公共广播群组(例如,企业微信、微信或者QQ等社交客户端中的群组号等)推送相应的反馈文本信息,以确保与该公共广播群组相关联的业务处理方可以快速获悉相应业务所提供的服务功能中的不足。
其中,业务服务器2000获取反馈文本信息、通过目标文本模型对反馈文本信息所属的分类标签进行预测的具体实现方式可以参见下述图3-图11所对应实施例的描述。
进一步地,请参见图3,图3是本申请实施例提供的一种基于多池化网络的文本处理方法的流程示意图。其中,可以理解的是,本申请实施例提供的方法可以由计算机设备执行,这里的计算机设备包括但不限于用户终端或服务器。为便于理解,本申请实施例以该计算机设备为服务器为例,以阐述在该服务器中对获取到的反馈文本信息进行文本分类的具体过程。其中,这里的服务器可以为上述图2所对应实施例中的业务服务器。如图3所示,该方法至少可以包括下述步骤S101-步骤S104:
步骤S101,获取反馈文本信息。
其中,反馈文本信息可以为在第一终端的用户反馈界面中所录入的文本信息;比如,当该第一终端对应的反馈用户(即上述第一用户)在使用上述应用客户端(例如,上述软件管理客户端)时,若发现该软件管理客户端中的某些业务(例如,手机杀毒业务)无法使用时,可以在该第一终端的用户反馈界面中通过文字编辑或者语音输入等方式录入针对该手机杀毒业务的投诉文本信息。应当理解,本申请实施例可以将在该用户反馈界面中所编辑的投诉文本信息统称为上述反馈文本信息。当第一用户确认完成在该用户反馈界面中的录入操作之后,该第一终端可以将获取到反馈文本信息发送给该软件管理客户端对应的后台服务器(例如,上述图2所对应实施例中的业务服务器)。此时,该后台服务器可以获取到第一终端发送的反馈文本信息,进而可以继续执行下述步骤S102-步骤S104。
步骤S102,获取与反馈文本信息相关联的目标文本模型,将反馈文本信息中的目标分词输入目标文本模型,由目标文本模型输出与反馈文本信息相关联的分词关联特征;
具体的,计算机设备可以获取与反馈文本信息相关联的目标文本模型;进一步的,计算机设备可以通过目标文本模型中的词向量层分别对N个目标分词进行编码处理,得到每个目标分词对应的目标编码向量;其中,每个目标分词对应的目标编码向量的维度信息均为1×L;其中,L为正整数;可以理解的是,这里的L为一个超参数,该超参数用于表征对每个目标分词进行编码处理后所得到的编码向量的维度,例如,L的取值可以100、128等,这里将不对其进行限制。进一步的,计算机设备可以在反馈文本信息中确定每个目标分词的位置信息,基于每个目标分词的位置信息对每个目标分词对应的目标编码向量进行拼接处理,得到与反馈文本信息相关联的目标向量序列;目标向量序列的维度信息为N×L;进一步的,计算机设备可以通过目标文本模型中的卷积层,从目标向量序列中提取N个目标分词之间的局部依赖关系,将提取到的局部依赖关系作为目标向量序列中的分词关联特征。
其中,可以理解的是,本申请实施例可以将反馈文本信息中的每个分词统称为目标分词,以便于后续可以对反馈文本信息中的N个目标分词进行编码处理。应当理解,计算机设备在获取到反馈文本信息之后,可以获取与上述软件管理客户端相关联的分词词典(例如,分词词典1),进而可以基于获取到的分词词典1直接对反馈文本信息进行分词处理,以得到该反馈文本信息中的N个目标分词。
其中,可选的,可以理解的是,本申请实施例在执行步骤S102之前,还可以获取具有异常符号过滤功能的正则关系表,进而可以基于正则关系表对反馈文本信息中的异常符号进行过滤处理,并可以将过滤处理后的反馈文本信息作为待处理文本信息。进一步的,计算机设备可以获取与目标文本模型相关联的分词词典,以基于分词词典对待处理文本信息进行分词处理,进而可以得到与待处理文本信息相关联的N个分词,并可以将N个分词分别作为反馈文本信息中的目标分词。
为便于理解,进一步的,请参见图4,图4是本申请实施例提供的一种对反馈文本信息进行分词处理的场景示意图。其中,如图4所示的反馈文本信息60a可以为反馈文本信息A,如上述图4所示,计算机设备在获取到该反馈文本信息A时,可以进一步获取用于对该反馈文本信息A中的异常符号进行正则处理的正则关系表,以通过该正则关系表去除该反馈文本信息A中的异常符号。
可以理解的是,这里的异常符号指的是该反馈文本信息A中所存在的无实际语义的脏数据,通过该正则关系表可以查找出该反馈文本信息A中的所有脏数据,进而可以将查找到的脏数据作为异常符号进行过滤处理,以将过滤处理后的反馈文本信息作为待处理文本信息,该待处理文本信息可以为图4所示的反馈文本信息60b。比如,该反馈文本信息60b可以表示为“A1A2A3...AS”,其中,下标S用于表征该反馈文本信息60b中的所有字符(例如,英文、中文、数字等具有实际语义的字符)的总长度。
为便于理解,本申请实施例可以为该反馈文本信息60a为“小火箭开不了时该怎么办!##”为例,其中,该反馈文本信息60a中的符号“!”和符号“##”可以为与正则关系表中的异常符号相匹配的符号。基于此,通过该正则关系表对该反馈文本信息60a中的异常符号(例如,符号“!”和符号“##”)进行过滤处理,该过滤处理后反馈文本信息(即图4所示的反馈文本信息60b)可以为“小火箭开不了时该怎么办”,此时,计算机设备可以确定反馈文本信息60b的整个句子的总长度为11(即S=11),换言之,该反馈文本信息60b可以表示为“A1A2A3...A11”。
进一步的,如图4所示,计算机设备在获取到图4所示的分词词典70a时,可以将该反馈文本信息60b中的多个连续相邻的词进行组合,以判断组合后所得到的这些组合词(也可以理解为分词)是否为分词词典70a中的关键分词,若确定该反馈文本信息60b中存在与该分词词典70a中的关键分词相匹配的分词,则可以根据与该分词词典70b中的关键分词相匹配的分词,快速对该反馈文本信息60b进行分词处理,以得到该反馈文本信息60b中的N个分词,如图4所示的N个分词具体可以为图4所示的分词1、分词2、...、分词N。可以理解的是,该反馈文本信息60b中的N个分词即为上述反馈文本信息60a中的目标分词。
可选的,可以理解的是,当上述图4所示的反馈文本信息60a中不存在异常符号时,反馈文本信息60a中的文本内容和反馈文本信息60b中的文本内容是相同的。为便于理解,本申请实施例可以将异常符号过滤前的文本信息(即图4所示的反馈文本信息60a)和异常符号过滤后的文本信息(即图4所示的反馈文本信息60a)统称为反馈文本信息,进而可以基于上述分词词典70a对反馈文本信息中的N个分词进行分词处理。
例如,若该计算机设备获取到的上述反馈文本信息A为“小火箭功能打不开”,此时,由于该反馈文本信息A的每个字符中并不存在与正则关系表中的异常符号相匹配的字符,所以,在采用正则关系表对该反馈文本信息A进行过滤处理后,将会使过滤前后的文本信息是一致的,即过滤前后的文本信息的整个句子的总长度是保持不变的。此时,如上述图4所示,计算机设备可以根据获取到的分词词典70a(例如,上述软件管理客户端对应的分词词典1)对该反馈文本信息B(等效于对反馈文本信息A)进行分词处理后,以得到该反馈文本信息A中的3(即N=3)个目标分词,例如,目标分词1可以为“小火箭”、目标分词2可以为“功能”、目标分词3可以为“打不开”。
其中,可以理解的是,对于第一终端中所集成的具有反馈功能的每个应用客户端而言,都可以预先构建与每个应用客户端所提供的业务相关联的分词词典,以确保对相应客户端所对应的反馈文本信息进行分词处理的准确性。例如,可以预先构建针对社交客户端的分词词典(例如,分词词典2),以便于该计算机设备在获取到第一用户针对社交客户端中的新闻推送功能所提交的另一反馈文本信息(例如,反馈文本信息C)时,可以快速获取与该社交客户端相关联的分词词典2,对该反馈文本信息C进行分词处理。其中,计算机设备对反馈文本信息C进行分词处理的具体过程,可以参见上述对反馈文本信息A的描述,这里将不再继续进行赘述。
可以理解的是,该计算机设备在构建好每个应用客户端对应的分词词典之后,可以将这些分词词典分别更新到分词数据库(例如,一种用于进行分词处理的中文分词库),以便于后续在获取到新的反馈文本信息时,可以直接基于当前分词词库中所存在的分词词典对获取到的新的反馈文本信息进行分词处理,以提高分词处理的效率。
进一步的,可以理解的是,当得到该反馈文本信息A中的3个目标分词之后,可以进一步通过上述词向量层1对这3个目标分词进行编码处理,以得到每个目标分词的编码向量。可以理解的是,本申请实施例可以将每个目标分词的编码向量统称为每个目标分词对应的目标编码向量。
例如,目标分词1(即“小火箭”)的编码向量A1可以表示为:
A11×L=[0.234, -0.125, …, 0.666];
同理,目标分词2(即“功能”)的编码向量A2可以表示为:
A21×L=[0.344, -0.685, …, 0.036];
同理,目标分词3(即“打不开”)的编码向量A3可以表示为:
A31×L=[0.154, -0.982, …, 0.020]。
进一步的,可以理解的是,计算机设备在反馈文本信息中确定这3个目标分词的位置信息,比如,目标分词1的位置信息可以为位置信息1’,目标分词2的位置信息可以为位置信息2’,目标分词3的位置信息可以为位置信息3’。可以理解的是,此时,计算机设备可以基于每个目标分词的位置信息对每个目标分词对应的目标编码向量(即上述A11×L、A21×L和A21×L)进行拼接处理,以得到与反馈文本信息相关联的目标向量序列(例如,目标向量序列1)。
例如,目标向量序列1可以表示为向量序列X3×L;
即X3×L=[[0.234, -0.125, …, 0.666], [0.344, -0.685, …, 0.036], [0.154, -0.982, …, 0.020]]。其中,可以理解的是,此时,该目标向量序列1的维度信息为N×L(即3×L),这意味着目标向量序列1的行数是由该反馈文本信息A中的目标分词的数量N所决定的,该目标向量序列的列数是由目标文本模型中的词向量层(例如,上述词向量层1)所对应的统一编码维度(即L)所确定的。
其中,可以理解的是,这里的目标文本模型可以为上述图2所对应实施例中的目标文本模型。这意味着该目标文本模型中的词向量层(例如,词向量层1)可以为上述图2所对应实施例中的词向量层10a,在运用该目标文本模型对反馈文本信息进行文本分类的过程中,可以利用该词向量层1对获取到的反馈文本信息中的目标分词(例如,N个分词)进行编码处理(也可以称之为进行向量编码处理),以得到每个分词对应的目标编码向量。
由此可见,计算机设备在得到反馈文本信息(例如,反馈文本信息B)中的N个目标分词之后,可以对N个目标分词中的每个目标分词进行编码处理,以得到每个目标分词的编码词向量,进而可以在将这些编码词向量进行拼接处理后,得到用于描述整个反馈文本信息的向量序列。可以理解的是,在模型预测阶段,本申请实施例可以将用于描述整个反馈文本信息的向量序列统称为目标向量序列。
为便于理解,进一步的,请参见图5,图5是本申请实施例提供的一种目标向量序列的场景示意图。其中,如图5所示的词向量层和卷积层均为目标文本模型中的网络层。其中,如图5所示的N(例如,N=6)个分词均为反馈文本信息B中的目标分词。其中,本申请实施例获取反馈文本信息B中的6个目标分词的具体实现方式可以参见上述对反馈文本信息A的描述,这里将不再继续进行赘述。
如图5所示,计算机设备在得到该反馈文本信息B的6个目标分词之后,可以通过目标文本模型中的词向量层分别对6个目标分词进行编码处理,以得到每个目标分词对应的目标编码向量。比如,如图5所示的分词1对应的目标编码向量可以为图5所示的编码向量B1、如图5所示的分词2对应的目标编码向量可以为图5所示的编码向量B2、如图5所示的分词3对应的目标编码向量可以为图5所示的编码向量B3、如图5所示的分词4对应的目标编码向量可以为图5所示的编码向量B4、如图5所示的分词5对应的目标编码向量可以为图5所示的编码向量B5、如图5所示的分词6对应的目标编码向量可以为图5所示的编码向量B6。
如图5所示,计算机设备在得到这6个目标分词分别对应的目标编码向量之后,可以基于这6个目标分词在反馈文本信息B中的位置信息,依次对图5所示的编码向量B1、编码向量B2、编码向量B3、编码向量B4、编码向量B5、编码向量B6进行拼接处理,以得到图5所示的向量序列100a,可以理解的是,这里的向量序列100a即为与反馈文本信息B相关联的目标向量序列。
为便于理解,具体的,计算机设备可以获取目标文本模型的卷积层中的K个卷积核;K可以为正整数,且K个卷积核中的每个卷积核的尺寸信息互不相同;进一步的,计算机设备可以在K个卷积核中获取第i个卷积核;其中,第i个卷积核的尺寸信息可以为Ri×L;i为小于或者等于K的正整数;进一步的,计算机设备可以将维度信息为N×L的目标向量序列输入尺寸信息为Ri×L的第i个卷积核,由第i个卷积核对目标向量序列进行卷积处理,以提取N个目标分词之间的局部依赖关系;进一步的,计算机设备将提取到的局部依赖关系作为目标向量序列中的分词关联特征;一个卷积核可以对应一个分词关联特征,且第i个卷积核对应的分词关联特征的维度信息为(N-Ri+1)×1。可以理解的是,K个卷积核中的每个卷积核均可以用于提取与目标向量序列相关联的N个目标分词之间的局部依赖关系。
其中,为便于理解,本申请实施例以该词向量层的编码维度(即上述L)为8为例,以阐述通过不同尺寸信息的卷积核从目标向量序列中提取分词关联特征的具体过程。其中,如图5所示,该向量序列100a(目标向量序列)的维度信息为N×L;其中,N=6,L=8。可以理解的是,为便于理解,这里可以采用图5所示的K=3个具有不同尺寸信息的卷积核。比如,如图5所示,计算机设备在通过词向量层得到用于描述上述反馈文本信息B的目标向量序列(例如,图5所示的向量序列100a)之后,可以将该向量序列100a分别传递给图5所示的卷积层中的每个卷积核,以通过具有不同尺寸信息的卷积核分别学习该向量序列100a中的词与词之间的局部依赖关系。可以理解的是,这里的局部依赖关系可以用于描述上述反馈文本信息中的位置上相邻的每个目标分词之间的互相关度,进而可以将通过每个卷积核所提取到的这些目标分词之间的互相关度作为上述分词关联特征。
其中,图5所示的卷积核200a为该卷积层中的第1个卷积核,即i=1时的卷积核,该卷积核200a的尺寸信息为R1×L;其中,R1=5,L=8。同理,图5所示的卷积核200b为该卷积层中的第2个卷积核,即i=2时的卷积核,该卷积核200b的尺寸信息为R2×L;其中,R2=4,L=8。同理,图5所示的卷积核200c为该卷积层中的第3个卷积核,即i=3时的卷积核,该卷积核200c的尺寸信息为R3×L;其中,R3=3,L=8。可以理解的是,卷积核的尺寸信息越小,则参与进行卷积计算所需要的参数越少,进而使得通过这类尺寸信息的卷积核所学习到的词与词之间的局部依赖关系就会越弱。为了确保后续文本分类的效率和文本分类准确性,本申请实施例可以根据实际需求情况,使参与学习的第i个卷积核的尺寸信息中的Ri为大于2且小于或者等于N的正整数,此时,第i个卷积核对应的分词关联特征的维度信息即为(N-Ri+1)×1。
比如,如图5所示,计算机设备在将维度信息为6×8的向量序列100a输入图5所示的卷积层之后,可以将图5所示的尺寸信息为5×8的卷积核与该维度信息为6×8的向量序列100a进行卷积运算,以输出图5所示的维度信息为2×1的分词关联特征300a;同理,计算机设备还可以将图5所示的尺寸信息为4×8的卷积核与该维度信息为6×8的向量序列100a进行卷积运算,以输出图5所示的维度信息为3×1的分词关联特征300a;依次类推,同理,计算机设备还可以将图5所示的尺寸信息为3×8的卷积核与该维度信息为6×8的向量序列100a进行卷积运算,以输出图5所示的维度信息为4×1的分词关联特征300a。
计算分词关联特征的计算公式可以为下述公式(1):
C=CNN(X)公式(1)
上述公式(1)中的X可以为上述图5所示的向量序列100a,CNN可以用于表示卷积层中的每个卷积核所对应的卷积神经网络。其中,C可以用于描述通过每个卷积核所对应的卷积神经网络所提取到的分词关联特征,例如,这里的分词关联特征可以包含上述图5所示的分词关联特征300a、分词关联特征300b和分词关联特征300c。
应当理解,计算机设备在通过不同尺寸的卷积核,分别提取目标向量序列中目标分词之间的局部依赖关系(例如,上述向量序列100a中的词与词之间的n-gram信息)的过程中,由于每个卷积核的尺寸信息中的L均与目标向量序列中的列数是相同的,所以,在通过每个卷积核对目标向量序列进行卷积计算的过程中,可以将尺寸信息为Ri×L的第i个卷积核作为滑动窗口,在维度信息为N×L的目标向量序列对应的矩阵图像上滑动,以得到图5所示的维度信息(N-Ri+1)×1的分词关联特征。应当理解,一个卷积核可以对应一个分词关联特征。进一步的,可以理解的是,当计算机设备得到与每个卷积分别对应的分词关联特征之后,可以继续执行下述步骤S103。
步骤S103,将分词关联特征分别输入目标文本模型中的多个池化层,通过多个池化层对分词关联特征进行多池化处理,输出与多个池化层相关联的池化结果向量,根据与多个池化层相关联的池化结果向量,生成目标拼接向量信息;
具体的,为便于理解,本申请实施例可以以多个池化层中的两个池化层为例,其中,这两个池化层中的一个池化层可以为第一池化层,另一个池化层可以为第二池化层。其中,该第一池化层可以为上述平均池化层(Avg Pooling);第二池化层可以为上述最大池化层(Max Pooling)。此时,计算机设备可以将分词关联特征输入第一池化层,得到与第一池化层相关联的第一池化结果向量;与此同时,计算机设备还可以将分词关联特征输入第二池化层,得到与第二池化层相关联的第二池化结果向量;可以理解的是,这里的第一池化结果向量的维度信息与第二池化结果向量的维度信息是相同的;进一步的,计算机设备可以通过目标文本模型中的全连接层,将第一池化结果向量和第二池化结果向量进行拼接处理,得到与多个池化层相关联的目标拼接向量信息。
其中,可以理解的是,本申请实施例可以通过多个池化层学***均池化层、最大池化层、加权池化层等)时,上述两个池化层可以为多个池化层中的部分池化层;可选的,当多个池化层包含2个池化层(例如,上述平均池化层、最大池化层)时,上述两个池化层可以为多个池化层中的全部池化层;这里将不对参与进行多池化处理的池化层的数量和种类进行限定。可以理解的是,本申请实施例可以根据接收到的反馈文本信息的总长度,自适应地选取相应数量的池化层进行多池化处理。比如,若反馈文本信息为一个总长度小于预设的长度阈值的句子,则可以通过最大池化层可以提取到用于描述上述反馈文本信息的最强池化特征,还可以通过平均池化层则提取到用于描述上述反馈文本信息的整体池化特征。又比如,若反馈文本信息为一个总长度大于或者等于预测的长度阈值的段落,则可以选取更多种类的池化层学习这个段落中的不同目标分词之间的池化特征,以丰富学习到的池化特征的多样性。可以理解的是,在模型预测阶段,本申请实施例可以将通过不同池化层所学习到的池化特征(例如,最强池化特征、整体池化特征、加权池化特征等)统称为池化结果向量。
为便于理解,进一步的,请参见图6,图6是本申请实施例提供的一种多个池化层的场景示意图。其中,为便于理解,图6所示卷积层可以为上述图5所对应实施例中的卷积层,此时,图6所示的分词关联特征C1可以为上述图5所对应实施例中的分词关联特征300a;同理,图6所示的分词关联特征C2可以为上述图5所对应实施例中的分词关联特征300b;以此类推,图6所示的分词关联特征C3可以为上述图5所对应实施例中的分词关联特征300c。
其中,可以理解的是,如图6所示,计算机设备在获取到图6所示的分词关联特征C1、分词关联特征C2和分词关联特征C3之后,可以将这些分词关联特征输入至图6所示的多个池化层中的第一池化层(例如,平均池化层),以通过图6所示的第一池化层对这3个分词关联特征分别进行平均池化处理,以得到维度信息为1×K的第一池化结果向量,这里的K为图6所示的卷积核的数量,例如,3。该第一池化结果向量可以为图6所示的池化向量D1。比如,计算机设备可以通过第一池化层对图6所示的分词关联特征C1进行平均池化处理,以从该分词关联特征C1中提取用于描述上述反馈文本信息B的整体池化特征1,并可以通过第一池化层对图6所示的分词关联特征C2进行平均池化处理,以从该分词关联特征C2中提取用于描述上述反馈文本信息B的整体池化特征2,还可以通过第一池化层对图6所示的分词关联特征C3进行平均池化处理,以从该分词关联特征C3中提取用于描述上述反馈文本信息B的整体池化特征3。进一步的,计算机设备可以将与每个分词关联特征相关联的整体池化特征(比如,整体池化特征1、整体池化特征2和整体池化特征3)进行拼接处理,以得到图6所示的池化结果向量D1。
同理,如图6所示,计算机设备还可以将这些分词关联特征输入至图6所示的多个池化层中的第二池化层(例如,最大池化层),以通过图6所示的第二池化层对这3个分词关联特征分别进行最大池化处理,以得到维度信息为1×K的第二池化结果向量,这里的K为3。该第二池化结果向量可以为图6所示的池化向量D2。比如,计算机设备可以通过第二池化层对图6所示的分词关联特征C1进行最大池化处理,以从该分词关联特征C1中提取用于描述上述反馈文本信息B的最强池化特征1,并可以通过第二池化层对图6所示的分词关联特征C2进行最大池化处理,以从该分词关联特征C2中提取用于描述上述反馈文本信息B的最强池化特征2,还可以通过第二池化层对图6所示的分词关联特征C3进行最大池化处理,以从该分词关联特征C3中提取用于描述上述反馈文本信息B的最强池化特征3。进一步的,计算机设备可以将与每个分词关联特征相关联的最强池化特征(比如,最强池化特征1、最强池化特征2和最强池化特征3)进行拼接处理,以得到图6所示的池化结果向量D2。
进一步的,计算机设备在得到每个池化层分别对应的池化结果向量之后,可以通过图6所示的带有分类功能的全连接层,对第一池化结果向量和第二池化结果向量进行拼接处理,以得到与多个池化层相关联的目标拼接向量信息,进而可以继续执行下述步骤S104。其中,该目标拼接向量信息可以为图6所示的拼接向量信息Z。
其中,计算机设备通过图6所示的全连接层计算拼接向量信息Z的具体公式为下述公式(2):
在公式(2)中,Concat函数用于代表可以通过图6所示的带有分类功能的全连接层对每个池化层对应的池化结果向量进行向量拼接。比如,上述池化结果向量D1=[a1,a2,...,an],上述池化结果向量D2=[b1,b2,...,bn],在通过该全连接层对这两个向量进行拼接处理之后,可以使目标拼接向量信息(例如,图6所示的拼接向量信息)为[a1,a2,...,an,b1,b2,...,bn]。应当理解,本申请实施例中的多个池化层还可以包含除上述第一池化层和第二池化层之外的其他池化层(例如,上述加权池化层)。
步骤S104,通过目标文本模型对目标拼接向量信息进行分类处理,得到与目标拼接向量信息相匹配的反馈类型标签。
其中,可以理解的是,图6所示的带有分类功能的全连接层可以为上述图2所对应实施例中的全连接层40a。可以理解的是,当计算机设备执行完上述步骤S103之后,可以进一步通过该目标文本模型中的全连接层(例如,图6所示的全连接层)对目标拼接向量信息进行分类处理。具体的,计算机设备可以将将目标拼接向量信息(例如,图6所示的拼接向量信息Z)输入至图6所示的全连接层中的分类器(这里的分类器可以为上述图2所对应实施例中的分类器50a),以输出与该分类器中的F个样本属性特征相匹配的第一预测概率;其中,在模型预测阶段,一个样本属性特征可以对应一个第一预测概率。
其中,可以理解的是,这里的F可以为正整数;对于运行在第一终端中的应用客户端为上述软件管理客户端(例如,手机杀毒客户端)而言,这里的F个样本属性特征可以大致包含:手机卡顿类标签对应的样本属性特征1、垃圾清理功能不彻底类标签对应的样本属性特征2、软件无法更新类标签对应的样本属性特征3、软件无法卸载类标签对应的样本属性特征4、无法安装应用客户端类标签对应的样本属性特征5等,这里将不对F个样本属性特征中的每个样本属性特征进行一一列举。其中,手机卡顿类标签、垃圾清理功能不彻底类标签、软件无法更新类标签、软件无法卸载类标签和无法安装应用客户端类标签等可以统称为样本属性特征对应的属性分类标签。
进一步的,可以理解的是,计算机设备还可以对F个第一预测概率进行归一化处理,以得到与每个样本属性特征相关联的第二预测概率;可以理解的是,一个第一预测概率可以对应一个第二预测概率。进一步的,计算机设备可以在F个第二预测概率中将具有最大第二预测概率的样本属性特征作为目标样本属性特征,将该目标样本属性特征对应的属性分类标签,作为与目标拼接向量信息相关联的反馈类型标签,该反馈类型标签可以为上述图6所示的反馈类型标签。
其中,可以理解的是,上述图6所示的全连接层中的分类器可以为softmax分类器。该softmax分类器可以用于对全连接层所拼接得到的目标拼接向量信息进行分类处理,以输出得到与上述F个样本属性特征相匹配的第一预测概率。可以理解的是,进一步的,本申请实施例还可以通过该softmax分类器对F个第一预测概率进行归一化处理,以得到上述F个第二预测概率,可以理解的是,这里的每个第二预测概率均可以理解为该softmax分类器所能够预测输出的每个属性分类标签所对应的概率。可以理解的是,计算机设备最后可以从这F个第二预测概率中挑选出具有最大概率值的属性分类标签作为上述反馈文本信息所属的文本分类类别(即可以得到上述反馈文本信息B所属的反馈类型标签)。
其中,通过上述图6所示的带有分类功能的全连接层输出目标样本属性特征对应的属性分类标签对应的预测概率值的计算公式可以用下述公式(3)表示:
在该公式(3)中,W为该全连接层的全连接矩阵,b为该全连接层的偏置项。y为该全连接层最终所输出的属性分类标签所对应的预测概率值(例如,上述F个第二预测概率中的最大第二预测概率)。应当理解,可选的,本申请实施例还可以采用该公式(3)计算该softmax分类器中的其他属性分类标签对应的预测概率值,这里将不对其进行限定。
应当理解,可选的,当上述目标文本模型集成在上述第一终端(这里的第一终端可以为上述第一用户终端集群中的任意一个用户终端)时,该第一终端也可以基于预先训练好的文本模型(即上述目标文本模型)直接对第一用户所编辑好的反馈文本信息进行文本分类,以提高文本分类的效率。
可选的,可以理解的是,由于该目标文本模型中可以包含多个池化层,当多个池化层中的每个池化层均参与进行多池化处理时,多个池化层中的每个池化层均可以用于对卷积层所输出的分词关联特征进行池化处理,进而可以提取到能够真实反映该反馈文本信息的池化特征,进而在通过目标文本模型中的带有分类功能的全连接层进行文本分类时,可以有效地提高文本分类的准确性。
本申请实施例中的计算机设备可以在获取到第一终端发送的反馈文本信息时,通过已经训练好的文本模型(即目标文本模型)提取反馈文本信息中的词与词之间的局部依赖关系,以将提取到的局部依赖关系作为与反馈文本信息中的目标分词相关联的分词关联特征;其中,这里的反馈文本信息可以为第一用户在第一终端的用户反馈界面中所录入的文本信息;进一步的,计算机设备可以将分词关联特征分别输入到目标文本模型中的多个池化层,以通过多个池化层的池化网络对分词关联特征进行多池化处理,进而可以输出与多个池化层相关联的池化结果向量。其中,可以理解的是,这里的每个池化层的池化网络所具备的池化处理功能可以互不相同,进而可以通过多个池化层(例如,5个)中的部分池化层(例如,2个)或者全部池化层(例如,5个)的池化网络所具备的池化处理功能,得到多个不同的池化结果向量,以丰富池化处理后的池化结果向量的特征类型,基于此,当将这些池化结果向量进行拼接处理之后,可以尽可能地得到用于准确描述该反馈文本信息的真实内容的目标拼接向量信息;进一步的,当计算机设备通过该目标文本模型对目标拼接向量信息进行分类处理之后,可以自动且准确地分类得到与该目标拼接向量信息相匹配的反馈类型标签,进而可以提高文本分类的准确度。
进一步的,请参见图7,图7是本申请实施例提供的一种基于多池化网络的文本处理方法的流程示意图。其中,可以理解的是,本申请实施例提供的方法可以由计算机设备执行,这里的计算机设备包括但不限于用户终端或服务器。如图7所示,该方法至少可以包括下述步骤S201-步骤S211;
步骤S201,获取与用户反馈界面相关联的训练样本信息和训练样本信息的样本分类标签;
具体的,计算机设备可以将携带第一样本标签的反馈样本信息作为第一样本信息,将携带第二标签信息的反馈样本信息作为第二样本信息;其中,这里的第一样本标签为不同于第二样本标签的文本分类标签;进一步的,计算机设备可以将第一样本信息和第二样本信息,作为与用户反馈界面相关联的训练样本信息;进一步的,计算机设备可以将第一样本标签和第二样本标签作为训练样本信息的样本分类标签。其中,可以理解的是,这里的训练样本信息可以为在用户反馈界面中所录入的反馈样本信息。
为便于理解,进一步的,请参见图8,图8是本申请实施例提供的一种确定训练样本信息的场景示意图。如图8所示的反馈文本数据库可以用于存储上述图1所对应实施例中的第一用户终端中的每个反馈用户所录入的反馈文本信息。可以理解的是,如图8所示,为确保训练好的目标文本模型能够准确地对大量的反馈文本信息所涉及的不同业务进行分类处理,本申请实施例可以对在图8所示的反馈文本数据库中的反馈文本信息进行标注处理,并可以将标注有样本分类标签的反馈文本信息作为反馈样本信息添加到标注区域(未在图8示出),以便于后续可以在图8所示的反馈文本数据库的标注区域中通过采样的方式采集标注有不同样本分类标签的反馈样本信息,作为训练样本信息。比如,如图8所示,可以从该反馈文本数据库的标注区域中选取图8所示的具有第一样本标签的第一样本信息,并可以从该反馈文本数据库的标注区域中选取图8所示的具有第二样本标签的第二样本信息。进一步的,计算机设备可以将选取的第一样本信息和第二样本信息统称为训练样本信息,以得到图8所示的训练样本信息3a。可以理解的是,该训练样本信息3a可以为对第一样本信息和第二样本信息进行异常符号过滤后的反馈样本信息。其中,该计算机设备通过正则关系表对第一样本信息和第二样本信息进行过滤处理的具体实现方式可以参见上述图3所对应实施例中对反馈文本信息A的描述,这里将不再继续进行赘述。
其中,可以理解的是,本申请实施例可以将对第一样本信息所标注的第一样本标签和对第二样本信息所标注的第二样本标签统称为样本分类标签,可以理解的是,在模型训练阶段中,这里的样本分类标签可以作为对图8所示的文本模型5a进行迭代训练时的真实标签。
其中,可以理解的是,如图8所示,本申请实施例还可以基于图8所示的分词词典对获取到的训练样本信息3a进行分词处理,以得到图8的训练样本信息中的样本分词4a。其中,计算机设备对训练样本信息3a进行分词处理的具体实现方式可以参见上述图3所对应实施例中对反馈文本信息B的描述,这里将不再继续进行赘述。
步骤S202,获取包含多个池化层的初始文本模型,将训练样本信息中的样本分词输入初始文本模型,由初始文本模型输出与训练样本信息相关联的样本关联特征;
具体的,在模型训练阶段,计算机设备可以构建包含多个池化层的初始文本模型;其中,初始文本模型还可以包含词向量层和卷积层;进一步的,计算机设备可以通过初始文本模型中的词向量层分别对训练样本信息中的M个样本分词进行编码处理,得到每个样本分词对应的样本编码向量;每个样本分词对应的样本编码向量的维度信息均为1×L;M为正整数;M个样本分词是基于与初始文本模型相关联的分词词典对训练样本信息进行分词处理后所得到的;进一步的,计算机设备在训练样本信息中确定M个样本分词的位置信息,基于每个样本分词的位置信息对每个样本分词对应的样本编码向量进行拼接处理,得到与训练样本信息相关联的样本向量序列;样本向量序列的维度信息为M×L;进一步的,计算机设备可以获取初始文本模型中的卷积层所包含的K个卷积核,将维度信息为M×L的样本向量序列分别输入K个卷积核,由K个卷积核中的每个卷积核分别对样本向量序列进行卷积处理,得到每个卷积核从样本向量序列中提取到的M个样本分词之间的局部依赖关系,将每个卷积核所提取到的局部依赖关系作为样本向量序列中的样本关联特征;其中,一个卷积核可以对应一个样本关联特征;其中,可以理解的是,K个卷积核中的第i个卷积核的尺寸信息可以为Ri×L;i为小于或者等于K的正整数;Ri为大于2且小于或者等于M的正整数;第i个卷积核对应的样本关联特征的维度信息为(M-Ri+1)×1。
为便于理解,进一步的,请参见图9,图9是本申请实施例提供的一种通过初始文本模型获取样本向量序列的场景图。如图9所示的初始文本模型中可以包含图9所示的词向量层、卷积层、多个池化层(例如,图9所示的第一池化层和第二池化层)以及图9所示的带有分类功能的全连接层。如图9所示,计算机设备可以通过图9所示的词向量层对训练样本信息中的样本分词进行编码处理,以得到每个样本分词的样本编码向量。其中,训练样本信息中的样本分词可以为该计算机设备通过上述图8所示的分词词典6a对训练样本信息3a进行分析处理后所得到的M个分词,这里的M个分词中的每个分词均可以为上述图8所对应实施例中的训练样本信息中的样本分词4a。如图9所示,初始文本模型中的词向量层可以用于将M个样本分词对应的样本编码向量进行拼接处理,以形成一个矩阵(该矩阵可以为图9所示的样本向量序列)。其中,可以理解的是,该样本向量序列的每行可以用于代表一个样本分词的样本编码向量。
进一步的,如图9所示的初始文本模型中的卷积层可以包含K个卷积核,第i个卷积核的大小为filter_size ×embedding_size=Ri×L。其中,embedding_size可以为每个样本编码向量的维数(例如,上述L);filter_size可以代表第i个卷积核在该矩阵(即样本向量序列)的纵向上所能够覆盖的样本分词的个数;例如,Ri的取值可以为小于或者等于M的正整数,比如,上述3个、4个、5个等。可以理解的是,对于训练样本信息中的每个样本分词而言,相邻几个样本分词之间是存在词序关系的,所以,本申请实施例可以将通过每个卷积核所提取到的M个样本分词之间的词序关系称之为从样本向量序列中所提取到的样本关联特征。其中,该初始文本模型通过不同尺寸信息的卷积核提取到样本关联特征的具体实现方式,可以参见上述图3所对应实施例中对分词关联特征的描述,这里将不再继续进行赘述。
步骤S203,将样本关联特征分别输入初始文本模型中的多个池化层,通过多个池化层对样本关联特征进行多池化处理,输出与多个池化层相关联的样本池化向量,根据与多个池化层相关联的样本池化向量,生成样本拼接向量信息;
进一步的,计算机设备可以将K个卷积核中的每个卷积核对应的样本关联特征,输入初始文本模型中的多个池化层;进一步的,计算机设备可以通过初始文本模型中的每个池化层对每个卷积核对应的样本关联特征进行池化处理,输出每个池化层分别对应的样本池化向量;进一步的,计算机设备可以通过初始文本模型中的全连接层对每个池化层对应的样本池化向量进行拼接处理,得到与多个池化层相关联的样本拼接向量信息。
如上述图9所示,计算机设备在得到三个样本关联特征之后,可以将这三个样本关联特征分别输入上述图9所示的初始文本模型中的每个池化层,以通过图9所示的多个池化层(例如,图9所示的第一池化层和第二池化层)对这三个样本关联特征进行多池化处理,以得到每个池化层分别对应的样本池化向量。其中,该计算机设备通过初始文本模型得到样本池化向量的具体实现方式可以参见上述图3所对应实施例中对得到池化结果向量的描述,这里将不再继续进行赘述。另外,该计算机设备通过图9所示的带有分类功能的全连接层对每个池化结果向量进行拼接的具体实现方式可以参见上述图3所对应实施例中对每个池化结果向量进行拼接的具体过程的描述,这里将不再继续进行赘述。
步骤S204,通过初始文本模型对样本拼接向量信息进行分类处理,得到与样本拼接向量信息相匹配的预测样本标签;
具体的,计算机设备可以将样本拼接向量信息输入全连接层中的分类器,输出与分类器中的F个样本属性特征相匹配的第一匹配概率;一个样本属性特征对应一个第一匹配概率;F为正整数;进一步的,计算机设备可以对F个第一匹配概率进行归一化处理,得到与每个样本属性特征相关联的第二匹配概率;一个第一匹配概率对应一个第二匹配概率;进一步的,计算机设备可以在F个第二匹配概率中将具有最大第二匹配概率的样本属性特征作为目标样本属性特征,将目标样本属性特征对应的属性分类标签,作为与样本拼接向量信息相关联的预测样本标签。
其中,如上述图9所示,计算机设备可以通过该带有分类功能的全连接层预测得到上述训练样本信息(例如,上述图8所示的训练样本信息3a)所属的预测样本标签。可以理解的是,该预测样本标签可以为上述图9所示的预测标签。其中,该计算机设备得到该预测标签的具体实现方式可以参见上述图3所对应实施例中对反馈类型标签的描述,这里将不再继续进行赘述。
步骤S205,基于预测样本标签、样本分类标签对初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;
具体的,计算机设备可以基于预测样本标签对应的预测概率值和样本分类标签对应的真实概率值,确定用于对初始文本模型中的模型参数进行调整的初始损失函数值;进一步的,若计算机设备确定初始损失函数值不满足模型收敛条件,则基于初始损失函数值调整初始文本模型中的模型参数,进而可以通过训练样本信息对调整后的初始文本模型进行迭代训练,以得到迭代训练后的初始文本模型的目标损失函数值;进一步的,若目标损失函数值满足模型收敛条件,则计算机设备可以将满足模型收敛条件的迭代训练后的初始文本模型确定为目标文本模型。其中,目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
其中,如上述图9所示,计算机设备在预测得到图9所示的预测标签之后,可以将其与训练样本信息的真实标签(例如,上述图8所对应实施例中的训练样本信息3a的样本分类标签)进行比较,以得到图9所示的损失函数的初始损失函数值。可以理解的是,若该初始损失函数值不满足图9所示的模型收敛条件(例如,该初始损失函数值并不是模型训练阶段中的最小损失函数值),则该计算机设备可以基于该初始损失函数值反向调整上述图9所示的初始文本模型中的模型参数,以通过新的训练样本信息对调整后的初始文本模型进行迭代训练,直到迭代训练后的初始文本模型的目标损失函数值满足模型收敛条件,则将满足模型收敛条件的迭代训练后的初始文本模型确定为目标文本模型。
可以理解的是,该计算机设备在从上述图8所示的反馈文本数据库中采样具有不同样本标签的反馈样本信息的过程中,可能存在采样到的具有不同样本标签的反馈样本信息的比例不平衡的情况,例如某一类别的样本信息的数量比较多,但另一个类别的样本信息的数量比较少等,因此,在每一轮模型训练过程中计算损失函数的过程中,可以采用上述图9所示的损失函数(例如,Focal loss,FL)损失函数来优化采用到的样本信息中存在的样本不平衡问题。
其中,通过Focal loss损失函数计算损失函数值的表达式可以为下述公式(4):
在公式(4)中,pt代表模型训练过程中所得到的损失函数值,本申请实施例可以将模型训练过程中不满足模型收敛条件的损失函数值统称为上述初始函数值,并将模型训练过程中满足模型收敛条件的损失函数值统称为上述目标函数值。其中,y’代表上述图9所示的真实标签对应的样本概率值;y代表上述图9所示的由训练过程中的初始文本模型所最终输出的预测样本标签对应的最大预测概率值;此外,αt和Υ均为上述图9所示的损失函数中的超参数。
其中,可以理解的是,上述步骤S201-步骤S205可以为对当前构建好的包含多个池化层的初始文本模型进行预训练的步骤。这样,当完成对初始文本模型的训练时,可以将具有最小损失函数值的初始文本模型确定为满足上述模型收敛条件的文本模型,以得到用于对反馈文本信息(即上述图8所示的预测样本信息)进行文本归类的目标文本模型,以进一步执行下述步骤S206-步骤S211;
步骤S206,获取反馈文本信息;
其中,反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;应当理解,这里的反馈文本信息可以为上述图8所对应实施例中的预测样本信息3b。
步骤S207,获取与反馈文本信息相关联的目标文本模型,将反馈文本信息中的目标分词输入目标文本模型,由目标文本模型输出与反馈文本信息相关联的分词关联特征;
其中,可以理解的是,本申请实施例在执行步骤S207之前,还可以预先通过上述图8所示的分词词典6a对获取到的待预测的反馈文本信息(例如,上述图8所示的预测样本信息3b)进行分词处理,以得到该反馈文本信息中的目标分词(即可以得到上述图8所示的预测样本信息中的目标分词4b)。其中,计算机设备得到反馈文本信息中的目标分词的具体实现方式,可以一并参见上述图3所对应实施例中对反馈文本信息A的描述,这里将不再继续进行赘述。
步骤S208,将分词关联特征分别输入目标文本模型中的多个池化层,通过多个池化层对分词关联特征进行多池化处理,输出与多个池化层相关联的池化结果向量,根据与多个池化层相关联的池化结果向量,生成目标拼接向量信息;
步骤S209,通过目标文本模型对目标拼接向量信息进行分类处理,得到与目标拼接向量信息相匹配的反馈类型标签。
其中,步骤S206-步骤S209的具体实现方式可以参见上述图3所对应实施例中对步骤S101-步骤S104的描述,这里将不再继续进行赘述。
步骤S210,获取与反馈类型标签相匹配的业务分组标签;
步骤S211,基于业务分组标签将反馈文本信息推送给业务分组标签所绑定的公共广播群组,以使与公共广播群组相关联的第二终端输出反馈文本信息。
可以理解的是,计算机设备可以将该反馈文本信息的***推送至与业务分组标签所绑定的公共广播群组,这样,第二终端所对应的第二用户可以基于自己的访问权限访问该***访问到该反馈文本信息。
为便于理解,进一步的,请参见图10,图10是本申请实施例提供的一种在第二终端中显示反馈文本信息的场景示意图。如图10所示,当第二终端对应的第二用户在获取到上述计算机设备所推送在公共广播群组中的***时,该第二用户可以根据自己的访问权限去访问到计算机设备所推送的反馈文本信息。该反馈文本信息可以为图10所示的反馈文本信息X(例如,预测样本信息3b)。
可以理解的是,为确保数据访问的安全性,第二终端对应的第二用户在通过***访问该反馈文本信息X时,需要验证该第二用户的访问权限,这样,可以确保上述第一用户所反馈的反馈文本信息的隐私性。
可选的,计算机设备在获取到与反馈类型标签相匹配的业务分组标签时,还可以直接基于该业务分组标签所绑定的公共广播群组中找到需要处理该反馈文本信息的第二用户,以将该反馈文本信息推送给与该公共广播群组相关联的第二用户所对应的第二终端。
可以理解的是,本申请实施例通过采用基于多池化网络的用户反馈分类法,可以较好地识别出用户的反馈真实内容。另外,通过训练好的具有多个池化层(即多池化网络)的目标文本模型可以实现对用户反馈内容的快速分类,以将针对不同业务的反馈内容快速反馈至不同的小组或者部门,以使这些小组或者部门中的第二用户(即业务处理方)可以高效地接收用户反馈。最后,本申请实施例通过训练好的目标文本模型可以实现文本分类的高准确率,进而降低了人工识别成本,且还可以提高文本分类的效率。
本申请实施例中的计算机设备可以在获取到第一终端发送的反馈文本信息时,通过已经训练好的文本模型(即目标文本模型)提取反馈文本信息中的词与词之间的局部依赖关系,以将提取到的局部依赖关系作为与反馈文本信息中的目标分词相关联的分词关联特征;其中,这里的反馈文本信息可以为第一用户在第一终端的用户反馈界面中所录入的文本信息;进一步的,计算机设备可以将分词关联特征分别输入到目标文本模型中的多个池化层,以通过多个池化层的池化网络对分词关联特征进行多池化处理,进而可以输出与多个池化层相关联的池化结果向量。其中,可以理解的是,这里的每个池化层的池化网络所具备的池化处理功能可以互不相同,进而可以通过多个池化层(例如,5个)中的部分池化层(例如,2个)或者全部池化层(例如,5个)的池化网络所具备的池化处理功能,得到多个不同的池化结果向量,以丰富池化处理后的池化结果向量的特征类型,基于此,当将这些池化结果向量进行拼接处理之后,可以尽可能地得到用于准确描述该反馈文本信息的真实内容的目标拼接向量信息;进一步的,当计算机设备通过该目标文本模型对目标拼接向量信息进行分类处理之后,可以自动且准确地分类得到与该目标拼接向量信息相匹配的反馈类型标签,进而可以提高文本分类的准确度。
进一步的,请参见图11,图11是本申请实施例提供的一种基于多池化网络的文本处理方法,该方法可以由上述计算机设备执行,其中,该方法可以包含以下步骤S301-步骤S305;
步骤S301,获取与用户反馈界面相关联的训练样本信息和训练样本信息的样本分类标签;训练样本信息为在用户反馈界面中所录入的反馈样本信息;
步骤S302,获取包含多个池化层的初始文本模型,将训练样本信息中的样本分词输入初始文本模型,由初始文本模型输出与训练样本信息相关联的样本关联特征;
步骤S303,将样本关联特征分别输入初始文本模型中的多个池化层,通过多个池化层对样本关联特征进行多池化处理,输出与多个池化层相关联的样本池化向量,根据与多个池化层相关联的样本池化向量,生成样本拼接向量信息;
步骤S304,通过初始文本模型对样本拼接向量信息进行分类处理,得到与样本拼接向量信息相匹配的预测样本标签;
步骤S305,基于预测样本标签、样本分类标签对初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
其中,步骤S301-步骤S305的具体实现方式可以参见上述图7所对应实施例中对训练初始文本模型的描述,这里将不再继续进行赘述。另外,可以理解的是,本申请实施例通过采用不同样本分类标签的反馈样本信息对初始文本模型进行训练,可以解决反馈样本信息所对应的样本分类标签不均衡的问题,进而可以得到通用的目标文本模型,从而在采用目标文本模型对后续所获取到的反馈文本信息进行文本分类时,可以有效地确保文本分类的准确性。
进一步地,请参见图12,图12是本申请实施例提供的一种基于多池化网络的文本处理装置的结构示意图。上述基于多池化网络的文本处理装置1可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该基于多池化网络的文本处理装置1可以为一个应用软件;该装置可以用于执行本申请实施例提供的方法中的相应步骤。其中,该基于多池化网络的文本处理装置1可以包括:反馈信息获取模块11、分词特征获取模块12、池化结果拼接模块13、反馈标签确定模块14、异常过滤模块15、分词处理模块16、分组标签获取模块17和反馈文本推送模块18。
反馈信息获取模块11,用于获取反馈文本信息;反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;
分词特征获取模块12,用于获取与反馈文本信息相关联的目标文本模型,将反馈文本信息中的目标分词输入目标文本模型,由目标文本模型输出与反馈文本信息相关联的分词关联特征;
其中,分词特征获取模块12包括:目标模型获取单元121、目标向量确定单元122、目标序列确定单元123和特征提取单元124;
目标模型获取单元121,用于获取与反馈文本信息相关联的目标文本模型;
目标向量确定单元122,用于通过目标文本模型中的词向量层分别对N个目标分词进行编码处理,得到每个目标分词对应的目标编码向量;每个目标分词对应的目标编码向量的维度信息均为1×L;L为正整数;
目标序列确定单元123,用于在反馈文本信息中确定每个目标分词的位置信息,基于每个目标分词的位置信息对每个目标分词对应的目标编码向量进行拼接处理,得到与反馈文本信息相关联的目标向量序列;目标向量序列的维度信息为N×L;
特征提取单元124,用于通过目标文本模型中的卷积层,从目标向量序列中提取N个目标分词之间的局部依赖关系,将提取到的局部依赖关系作为目标向量序列中的分词关联特征。
其中,特征提取单元124包括:卷积核获取子单元1241、卷积核确定子单元1242、卷积处理子单元1243和关联特征确定子单元1244;
卷积核获取子单元1241,用于获取目标文本模型的卷积层中的K个卷积核;K为正整数,且K个卷积核中的每个卷积核的尺寸信息互不相同;
卷积核确定子单元1242,用于在K个卷积核中获取第i个卷积核;第i个卷积核的尺寸信息为Ri×L;i为小于或者等于K的正整数;
卷积处理子单元1243,用于将维度信息为N×L的目标向量序列输入尺寸信息为Ri×L的第i个卷积核,由第i个卷积核对目标向量序列进行卷积处理,以提取N个目标分词之间的局部依赖关系;
关联特征确定子单元1244,用于将提取到的局部依赖关系作为目标向量序列中的分词关联特征;一个卷积核对应一个分词关联特征,且第i个卷积核对应的分词关联特征的维度信息为(N-Ri+1)×1。
其中,卷积核获取子单元1241、卷积核确定子单元1242、卷积处理子单元1243和关联特征确定子单元1244的具体实现方式可以参见上述图3所对应实施例中对获取分词关联特征的具体过程的描述,这里将不再继续进行赘述。
其中,目标模型获取单元121、目标向量确定单元122、目标序列确定单元123和特征提取单元124的具体实现方式可以参见上述图3所对应实施例中对步骤S102的描述,这里将不再继续进行赘述。
池化结果拼接模块13,用于将分词关联特征分别输入目标文本模型中的多个池化层,通过多个池化层对分词关联特征进行多池化处理,输出与多个池化层相关联的池化结果向量,根据与多个池化层相关联的池化结果向量,生成目标拼接向量信息;
其中,多个池化层包含第一池化层和第二池化层;
池化结果拼接模块13包括:第一结果向量确定单元131、第二结果向量确定单元132和结果向量拼接单元133;
第一结果向量确定单元131,用于将分词关联特征输入第一池化层,得到与第一池化层相关联的第一池化结果向量;
第二结果向量确定单元132,用于将分词关联特征输入第二池化层,得到与第二池化层相关联的第二池化结果向量;第一池化结果向量的维度信息与第二池化结果向量的维度信息相同;
结果向量拼接单元133,用于通过目标文本模型中的全连接层,将第一池化结果向量和第二池化结果向量进行拼接处理,得到与多个池化层相关联的目标拼接向量信息。
其中,第一结果向量确定单元131、第二结果向量确定单元132和结果向量拼接单元133的具体实现方式可以参见上述图3所对应实施例中对目标拼接向量信息的描述,这里将不再继续进行赘述。
反馈标签确定模块14,用于通过目标文本模型对目标拼接向量信息进行分类处理,得到与目标拼接向量信息相匹配的反馈类型标签。
可选的,异常过滤模块15,用于获取具有异常符号过滤功能的正则关系表,基于正则关系表对反馈文本信息中的异常符号进行过滤处理,将过滤处理后的反馈文本信息作为待处理文本信息;
分词处理模块16,用于获取与目标文本模型相关联的分词词典,基于分词词典对待处理文本信息进行分词处理,得到与待处理文本信息相关联的N个分词,将N个分词分别作为反馈文本信息中的目标分词;N为正整数。
可选的,分组标签获取模块17,用于获取与反馈类型标签相匹配的业务分组标签;
反馈文本推送模块18,用于基于业务分组标签将反馈文本信息推送给业务分组标签所绑定的公共广播群组,以使与公共广播群组相关联的第二终端输出反馈文本信息。
其中,反馈信息获取模块11、分词特征获取模块12、池化结果拼接模块13、反馈标签确定模块14的具体实现方式可以参见上述图3所对应实施例中对步骤S101-步骤S104的描述,这里将不再继续进行赘述;进一步的,异常过滤模块15、分词处理模块16的具体实现方式可以参见上述图3所对应实施例中对目标分词的描述,这里将不再继续进行赘述。进一步的,分组标签获取模块17和反馈文本推送模块18的具体实现方式可以参见上述图7所对应实施例中对推送反馈文本信息的具体过程的描述,这里将不再继续进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
进一步地,请参见图13,图13是本申请实施例提供的一种计算机设备的示意图。如图13所示的计算机设备1000可以包括:至少一个处理器1001,例如CPU,至少一个网络接口1004,用户接口1003,存储器1005,至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,网络接口1004可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选地还可以是至少一个位于远离前述处理器1001的存储装置。如图13所示,作为一种计算机存储介质的存储器1005可以包括操作***、网络通信模块、用户接口模块以及设备控制应用程序。
在图13所示的计算机设备1000中,网络接口1004主要用于提供网络通信功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取反馈文本信息;反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;
获取与反馈文本信息相关联的目标文本模型,将反馈文本信息中的目标分词输入目标文本模型,由目标文本模型输出与反馈文本信息相关联的分词关联特征;
将分词关联特征分别输入目标文本模型中的多个池化层,通过多个池化层对分词关联特征进行多池化处理,输出与多个池化层相关联的池化结果向量,根据与多个池化层相关联的池化结果向量,生成目标拼接向量信息;
通过目标文本模型对目标拼接向量信息进行分类处理,得到与目标拼接向量信息相匹配的反馈类型标签。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图3或图7所对应实施例中对该反馈文本处理方法的描述,也可执行前文图12所对应实施例中对该基于多池化网络的文本处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且上述计算机可读存储介质中存储有前文提及的计算机设备1000所执行的计算机程序,且上述计算机程序包括程序指令,当上述处理器执行上述程序指令时,能够执行前文图3或图7所对应实施例中对上述反馈文本处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
进一步的,请参见图14,图14是本申请实施例提供的一种基于多池化网络的文本处理装置的结构示意图。该基于多池化网络的文本处理装置2可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该基于多池化网络的文本处理装置2可以为一个应用软件;该装置可以用于执行本申请实施例提供的方法中的相应步骤。该基于多池化网络的文本处理装置2可以包含训练样本获取模块21、样本特征获取模块22、池化处理模块23、预测标签确定模块24和初始模型训练模块25;
训练样本获取模块21,用于获取与用户反馈界面相关联的训练样本信息和训练样本信息的样本分类标签;训练样本信息为在用户反馈界面中所录入的反馈样本信息;
其中,训练样本获取模块21包括:样本信息确定单元211、训练样本确定单元212和样本标签确定单元213;
样本信息确定单元211,用于将携带第一样本标签的反馈样本信息作为第一样本信息,将携带第二标签信息的反馈样本信息作为第二样本信息;第一样本标签不同于第二样本标签;
训练样本确定单元212,用于将第一样本信息和第二样本信息,作为与用户反馈界面相关联的训练样本信息;
样本标签确定单元213,用于将第一样本标签和第二样本标签作为训练样本信息的样本分类标签。
其中,样本信息确定单元211、训练样本确定单元212和样本标签确定单元213的具体实现方式可以参见上述图7所对应实施例中对步骤S201的描述,这里将不再继续进行赘述。
样本特征获取模块22,用于获取包含多个池化层的初始文本模型,将训练样本信息中的样本分词输入初始文本模型,由初始文本模型输出与训练样本信息相关联的样本关联特征;
其中,样本特征获取模块22包括:初始模型构建单元221、样本向量确定单元222、样本向量拼接单元223和样本特征确定单元224;
初始模型构建单元221,用于构建包含多个池化层的初始文本模型;初始文本模型还包含词向量层和卷积层;
样本向量确定单元222,用于通过初始文本模型中的词向量层分别对训练样本信息中的M个样本分词进行编码处理,得到每个样本分词对应的样本编码向量;每个样本分词对应的样本编码向量的维度信息均为1×L;M为正整数;M个样本分词是基于与初始文本模型相关联的分词词典对训练样本信息进行分词处理后所得到的;
样本向量拼接单元223,用于在训练样本信息中确定M个样本分词的位置信息,基于每个样本分词的位置信息对每个样本分词对应的样本编码向量进行拼接处理,得到与训练样本信息相关联的样本向量序列;样本向量序列的维度信息为M×L;
样本特征确定单元224,用于获取初始文本模型中的卷积层所包含的K个卷积核,将维度信息为M×L的样本向量序列分别输入K个卷积核,由K个卷积核中的每个卷积核分别对样本向量序列进行卷积处理,得到每个卷积核从样本向量序列中提取到的M个样本分词之间的局部依赖关系,将每个卷积核所提取到的局部依赖关系作为样本向量序列中的样本关联特征;一个卷积核对应一个样本关联特征。
其中,初始模型构建单元221、样本向量确定单元222、样本向量拼接单元223和样本特征确定单元224的具体实现方式可以参见上述图7所对应实施例中对步骤S202的描述,这将不再继续进行赘述。
池化处理模块23,用于将样本关联特征分别输入初始文本模型中的多个池化层,通过多个池化层对样本关联特征进行多池化处理,输出与多个池化层相关联的样本池化向量,根据与多个池化层相关联的样本池化向量,生成样本拼接向量信息;
其中,池化处理模块23包括:样本特征输入单元231、池化向量输出单元232和池化向量拼接单元233;
样本特征输入单元231,用于将K个卷积核中的每个卷积核对应的样本关联特征,输入初始文本模型中的多个池化层;
池化向量输出单元232,用于通过初始文本模型中的每个池化层对每个卷积核对应的样本关联特征进行池化处理,输出每个池化层分别对应的样本池化向量;
池化向量拼接单元233,用于通过初始文本模型中的全连接层对每个池化层对应的样本池化向量进行拼接处理,得到与多个池化层相关联的样本拼接向量信息。
其中,样本特征输入单元231、池化向量输出单元232和池化向量拼接单元233的具体实现方式可以参见上述图7所对应实施例中对步骤S203的描述,这里将不再继续进行赘述。
预测标签确定模块24,用于通过初始文本模型对样本拼接向量信息进行分类处理,得到与样本拼接向量信息相匹配的预测样本标签;
其中,预测标签确定模块24包括:匹配概率输出单元241、匹配概率处理单元242和预测标签确定单元243;
匹配概率输出单元241,用于将样本拼接向量信息输入全连接层中的分类器,输出与分类器中的F个样本属性特征相匹配的第一匹配概率;一个样本属性特征对应一个第一匹配概率;F为正整数;
匹配概率处理单元242,用于对F个第一匹配概率进行归一化处理,得到与每个样本属性特征相关联的第二匹配概率;一个第一匹配概率对应一个第二匹配概率;
预测标签确定单元243,用于在F个第二匹配概率中将具有最大第二匹配概率的样本属性特征作为目标样本属性特征,将目标样本属性特征对应的属性分类标签,作为与样本拼接向量信息相关联的预测样本标签。
其中,匹配概率输出单元241、匹配概率处理单元242和预测标签确定单元243的具体实现方式可以参见上述图7所对应实施例中对步骤S204的描述,这里将不再继续进行赘述。
初始模型训练模块25,用于基于预测样本标签、样本分类标签对初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
其中,初始模型训练模块25包括:初始函数确定单元251、模型参数调整单元252和目标模型确定单元253;
初始函数确定单元251,用于基于预测样本标签对应的预测概率值和样本分类标签对应的真实概率值,确定用于对初始文本模型中的模型参数进行调整的初始损失函数值;
模型参数调整单元252,用于若初始损失函数值不满足模型收敛条件,则基于初始损失函数值调整初始文本模型中的模型参数,通过训练样本信息对调整后的初始文本模型进行迭代训练,得到迭代训练后的初始文本模型的目标损失函数值;
目标模型确定单元253,用于若目标损失函数值满足模型收敛条件,则将满足模型收敛条件的迭代训练后的初始文本模型确定为目标文本模型。
其中,初始函数确定单元251、模型参数调整单元252和目标模型确定单元253的具体实现方式可以参见上述图7所对应实施例中对步骤S205的描述,这里将不再继续进行赘述。
其中,训练样本获取模块21、样本特征获取模块22、池化处理模块23、预测标签确定模块24和初始模型训练模块25的具体实现方式可以参见上述图7所对应实施例中对步骤S201-步骤S205的描述,这里将不再继续进行赘述;另外,对采用相同方法的有益效果描述,也不再进行赘述。
进一步地,请参见图15,图15是本申请实施例提供的一种计算机设备的示意图。如图15所示的计算机设备3000可以包括:至少一个处理器3001,例如CPU,至少一个网络接口3004,用户接口3003,存储器3005,至少一个通信总线3002。其中,通信总线3002用于实现这些组件之间的连接通信。其中,网络接口3004可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器3005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器3005可选地还可以是至少一个位于远离前述处理器3001的存储装置。如图15所示,作为一种计算机存储介质的存储器3005可以包括操作***、网络通信模块、用户接口模块以及设备控制应用程序。
在图15所示的计算机设备3000中,网络接口3004主要用于提供网络通信功能;而用户接口3003主要用于为用户提供输入的接口;而处理器3001可以用于调用存储器3005中存储的设备控制应用程序,以实现:
获取与用户反馈界面相关联的训练样本信息和训练样本信息的样本分类标签;训练样本信息为在用户反馈界面中所录入的反馈样本信息;
获取包含多个池化层的初始文本模型,将训练样本信息中的样本分词输入初始文本模型,由初始文本模型输出与训练样本信息相关联的样本关联特征;
将样本关联特征分别输入初始文本模型中的多个池化层,通过多个池化层对样本关联特征进行多池化处理,输出与多个池化层相关联的样本池化向量,根据与多个池化层相关联的样本池化向量,生成样本拼接向量信息;
通过初始文本模型对样本拼接向量信息进行分类处理,得到与样本拼接向量信息相匹配的预测样本标签;
基于预测样本标签、样本分类标签对初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
应当理解,本申请实施例中所描述的计算机设备3000可执行前文图7或图10所对应实施例中对该反馈文本处理方法的描述,也可执行前文图14所对应实施例中对该基于多池化网络的文本处理装置2的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且上述计算机可读存储介质中存储有前文提及的计算机设备3000所执行的计算机程序,且上述计算机程序包括程序指令,当上述处理器执行上述程序指令时,能够执行前文图7或图10所对应实施例中对上述反馈文本处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (15)
1.一种基于多池化网络的文本处理方法,其特征在于,包括:
获取反馈文本信息;所述反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;
获取与所述反馈文本信息相关联的目标文本模型,将所述反馈文本信息中的目标分词输入所述目标文本模型,由所述目标文本模型输出与所述反馈文本信息相关联的分词关联特征;
将所述分词关联特征分别输入所述目标文本模型中的多个池化层,通过所述多个池化层对所述分词关联特征进行多池化处理,输出与所述多个池化层相关联的池化结果向量,根据与所述多个池化层相关联的池化结果向量,生成目标拼接向量信息;
通过所述目标文本模型对所述目标拼接向量信息进行分类处理,得到与所述目标拼接向量信息相匹配的反馈类型标签。
2.根据权利要求1所述的方法,其特征在于,在所述获取与所述反馈文本信息相关联的目标文本模型,将所述反馈文本信息中的目标分词输入所述目标文本模型,由所述目标文本模型输出与所述反馈文本信息相关联的分词关联特征之前,还包括:
获取具有异常符号过滤功能的正则关系表,基于所述正则关系表对所述反馈文本信息中的异常符号进行过滤处理,将过滤处理后的反馈文本信息作为待处理文本信息;
获取与所述目标文本模型相关联的分词词典,基于所述分词词典对所述待处理文本信息进行分词处理,得到与所述待处理文本信息相关联的N个分词,将所述N个分词分别作为所述反馈文本信息中的目标分词;所述N为正整数。
3.根据权利要求2所述的方法,其特征在于,所述获取与所述反馈文本信息相关联的目标文本模型,将所述反馈文本信息中的目标分词输入所述目标文本模型,由所述目标文本模型输出与所述反馈文本信息相关联的分词关联特征,包括:
获取与所述反馈文本信息相关联的目标文本模型;
通过所述目标文本模型中的词向量层分别对N个目标分词进行编码处理,得到每个目标分词对应的目标编码向量;所述每个目标分词对应的目标编码向量的维度信息均为1×L;所述L为正整数;
在所述反馈文本信息中确定所述每个目标分词的位置信息,基于所述每个目标分词的位置信息对所述每个目标分词对应的目标编码向量进行拼接处理,得到与所述反馈文本信息相关联的目标向量序列;所述目标向量序列的维度信息为N×L;
通过所述目标文本模型中的卷积层,从所述目标向量序列中提取所述N个目标分词之间的局部依赖关系,将提取到的局部依赖关系作为所述目标向量序列中的分词关联特征。
4.根据权利要求3所述的方法,其特征在于,所述通过所述目标文本模型中的卷积层,从所述目标向量序列中提取所述N个目标分词之间的局部依赖关系,将提取到的局部依赖关系作为所述目标向量序列中的分词关联特征,包括:
获取所述目标文本模型的卷积层中的K个卷积核;所述K为正整数,且所述K个卷积核中的每个卷积核的尺寸信息互不相同;
在所述K个卷积核中获取第i个卷积核;所述第i个卷积核的尺寸信息为Ri×L;所述i为小于或者等于所述K的正整数;
将维度信息为N×L的所述目标向量序列输入尺寸信息为Ri×L的所述第i个卷积核,由所述第i个卷积核对所述目标向量序列进行卷积处理,以提取所述N个目标分词之间的局部依赖关系;
将提取到的局部依赖关系作为所述目标向量序列中的分词关联特征;一个卷积核对应一个分词关联特征,且所述第i个卷积核对应的分词关联特征的维度信息为(N-Ri+1)×1。
5.根据权利要求1所述的方法,其特征在于,所述多个池化层包含第一池化层和第二池化层;
所述将所述分词关联特征分别输入所述目标文本模型中的多个池化层,通过所述多个池化层对所述分词关联特征进行多池化处理,输出与所述多个池化层相关联的池化结果向量,根据与所述多个池化层相关联的池化结果向量,生成目标拼接向量信息,包括:
将所述分词关联特征输入所述第一池化层,得到与所述第一池化层相关联的第一池化结果向量;
将所述分词关联特征输入所述第二池化层,得到与所述第二池化层相关联的第二池化结果向量;所述第一池化结果向量的维度信息与所述第二池化结果向量的维度信息相同;
通过所述目标文本模型中的全连接层,将所述第一池化结果向量和所述第二池化结果向量进行拼接处理,得到与所述多个池化层相关联的目标拼接向量信息。
6.根据权利要求1所述的方法,其特征在于,还包括:
获取与所述反馈类型标签相匹配的业务分组标签;
基于所述业务分组标签将所述反馈文本信息推送给所述业务分组标签所绑定的公共广播群组,以使与所述公共广播群组相关联的第二终端输出所述反馈文本信息。
7.一种基于多池化网络的文本处理方法,其特征在于,包括:
获取与用户反馈界面相关联的训练样本信息和所述训练样本信息的样本分类标签;所述训练样本信息为在用户反馈界面中所录入的反馈样本信息;
获取包含多个池化层的初始文本模型,将所述训练样本信息中的样本分词输入所述初始文本模型,由所述初始文本模型输出与所述训练样本信息相关联的样本关联特征;
将所述样本关联特征分别输入所述初始文本模型中的多个池化层,通过所述多个池化层对所述样本关联特征进行多池化处理,输出与所述多个池化层相关联的样本池化向量,根据与所述多个池化层相关联的样本池化向量,生成样本拼接向量信息;
通过所述初始文本模型对所述样本拼接向量信息进行分类处理,得到与所述样本拼接向量信息相匹配的预测样本标签;
基于所述预测样本标签、所述样本分类标签对所述初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;所述目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
8.根据权利要求7所述的方法,其特征在于,所述获取与用户反馈界面相关联的训练样本信息和所述训练样本信息的样本分类标签,包括:
将携带第一样本标签的反馈样本信息作为第一样本信息,将携带第二标签信息的反馈样本信息作为第二样本信息;所述第一样本标签不同于所述第二样本标签;
将所述第一样本信息和所述第二样本信息,作为与用户反馈界面相关联的训练样本信息;
将所述第一样本标签和所述第二样本标签作为所述训练样本信息的样本分类标签。
9.根据权利要求7所述的方法,其特征在于,所述获取包含多个池化层的初始文本模型,将所述训练样本信息中的样本分词输入所述初始文本模型,由所述初始文本模型输出与所述训练样本信息相关联的样本关联特征,包括:
构建包含多个池化层的初始文本模型;所述初始文本模型还包含词向量层和卷积层;
通过所述初始文本模型中的词向量层分别对所述训练样本信息中的M个样本分词进行编码处理,得到每个样本分词对应的样本编码向量;所述每个样本分词对应的样本编码向量的维度信息均为1×L;所述M为正整数;所述M个样本分词是基于与所述初始文本模型相关联的分词词典对所述训练样本信息进行分词处理后所得到的;
在所述训练样本信息中确定所述M个样本分词的位置信息,基于所述每个样本分词的位置信息对所述每个样本分词对应的样本编码向量进行拼接处理,得到与所述训练样本信息相关联的样本向量序列;所述样本向量序列的维度信息为M×L;
获取所述初始文本模型中的卷积层所包含的K个卷积核,将维度信息为M×L的所述样本向量序列分别输入所述K个卷积核,由所述K个卷积核中的每个卷积核分别对所述样本向量序列进行卷积处理,得到所述每个卷积核从所述样本向量序列中提取到的所述M个样本分词之间的局部依赖关系,将所述每个卷积核所提取到的局部依赖关系作为所述样本向量序列中的样本关联特征;一个卷积核对应一个样本关联特征。
10.根据权利要求9所述的方法,其特征在于,所述将所述样本关联特征分别输入所述初始文本模型中的多个池化层,通过所述多个池化层对所述样本关联特征进行多池化处理,输出与所述多个池化层相关联的样本池化向量,根据与所述多个池化层相关联的样本池化向量,生成样本拼接向量信息,包括:
将所述K个卷积核中的每个卷积核对应的样本关联特征,输入所述初始文本模型中的多个池化层;
通过所述初始文本模型中的每个池化层对所述每个卷积核对应的样本关联特征进行池化处理,输出所述每个池化层分别对应的样本池化向量;
通过所述初始文本模型中的全连接层对所述每个池化层对应的样本池化向量进行拼接处理,得到与所述多个池化层相关联的样本拼接向量信息。
11.根据权利要求10所述的方法,其特征在于,所述通过所述初始文本模型对所述样本拼接向量信息进行分类处理,得到与所述样本拼接向量信息相匹配的预测样本标签,包括:
将所述样本拼接向量信息输入所述全连接层中的分类器,输出与所述分类器中的F个样本属性特征相匹配的第一匹配概率;一个样本属性特征对应一个第一匹配概率;所述F为正整数;
对F个第一匹配概率进行归一化处理,得到与每个样本属性特征相关联的第二匹配概率;一个第一匹配概率对应一个第二匹配概率;
在F个第二匹配概率中将具有最大第二匹配概率的样本属性特征作为目标样本属性特征,将所述目标样本属性特征对应的属性分类标签,作为与所述样本拼接向量信息相关联的预测样本标签。
12.根据权利要求7所述的方法,其特征在于,所述基于所述预测样本标签和所述样本分类标签,对所述初始文本模型进行训练,将训练后的初始文本模型确定为用于预测反馈类型标签的目标文本模型,包括:
基于所述预测样本标签对应的预测概率值和所述样本分类标签对应的真实概率值,确定用于对所述初始文本模型中的模型参数进行调整的初始损失函数值;
若所述初始损失函数值不满足模型收敛条件,则基于所述初始损失函数值调整所述初始文本模型中的模型参数,通过所述训练样本信息对调整后的初始文本模型进行迭代训练,得到迭代训练后的初始文本模型的目标损失函数值;
若所述目标损失函数值满足所述模型收敛条件,则将满足所述模型收敛条件的迭代训练后的初始文本模型确定为目标文本模型。
13.一种基于多池化网络的文本处理装置,其特征在于,包括:
反馈信息获取模块,用于获取反馈文本信息;所述反馈文本信息为在第一终端的用户反馈界面中所录入的文本信息;
分词特征获取模块,用于获取与所述反馈文本信息相关联的目标文本模型,将所述反馈文本信息中的目标分词输入所述目标文本模型,由所述目标文本模型输出与所述反馈文本信息相关联的分词关联特征;
池化结果拼接模块,用于将所述分词关联特征分别输入所述目标文本模型中的多个池化层,通过所述多个池化层对所述分词关联特征进行多池化处理,输出与所述多个池化层相关联的池化结果向量,根据与所述多个池化层相关联的池化结果向量,生成目标拼接向量信息;
反馈标签确定模块,用于通过所述目标文本模型对所述目标拼接向量信息进行分类处理,得到与所述目标拼接向量信息相匹配的反馈类型标签。
14.一种基于多池化网络的文本处理装置,其特征在于,包括:
训练样本获取模块,用于获取与用户反馈界面相关联的训练样本信息和所述训练样本信息的样本分类标签;所述训练样本信息为在用户反馈界面中所录入的反馈样本信息;
样本特征获取模块,用于获取包含多个池化层的初始文本模型,将所述训练样本信息中的样本分词输入所述初始文本模型,由所述初始文本模型输出与所述训练样本信息相关联的样本关联特征;
池化处理模块,用于将所述样本关联特征分别输入所述初始文本模型中的多个池化层,通过所述多个池化层对所述样本关联特征进行多池化处理,输出与所述多个池化层相关联的样本池化向量,根据与所述多个池化层相关联的样本池化向量,生成样本拼接向量信息;
预测标签确定模块,用于通过所述初始文本模型对所述样本拼接向量信息进行分类处理,得到与所述样本拼接向量信息相匹配的预测样本标签;
初始模型训练模块,用于基于所述预测样本标签、所述样本分类标签对所述初始文本模型进行训练,将训练后的初始文本模型确定为目标文本模型;所述目标文本模型用于预测获取到的反馈文本信息的反馈类型标签。
15.一种计算机设备,其特征在于,包括:处理器、存储器、网络接口;
所述处理器与存储器、网络接口相连,其中,网络接口用于提供数据通信功能,所述存储器用于存储计算机程序,所述处理器用于调用所述计算机程序,以执行如权利要求1-12任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010492270.4A CN111401063B (zh) | 2020-06-03 | 2020-06-03 | 一种基于多池化网络的文本处理方法、装置和相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010492270.4A CN111401063B (zh) | 2020-06-03 | 2020-06-03 | 一种基于多池化网络的文本处理方法、装置和相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401063A true CN111401063A (zh) | 2020-07-10 |
CN111401063B CN111401063B (zh) | 2020-09-11 |
Family
ID=71431867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010492270.4A Active CN111401063B (zh) | 2020-06-03 | 2020-06-03 | 一种基于多池化网络的文本处理方法、装置和相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401063B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036167A (zh) * | 2020-08-25 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、服务器及存储介质 |
CN113723095A (zh) * | 2020-12-16 | 2021-11-30 | 北京沃东天骏信息技术有限公司 | 文本审核方法、装置、电子设备和计算机可读介质 |
CN114491040A (zh) * | 2022-01-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 信息挖掘方法及装置 |
CN116842960A (zh) * | 2023-05-31 | 2023-10-03 | 海信集团控股股份有限公司 | 一种特征提取模型训练、提取方法及设备 |
CN117828030A (zh) * | 2024-03-01 | 2024-04-05 | 微网优联科技(成都)有限公司 | 基于大数据的用户分析方法及电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066553A (zh) * | 2017-03-24 | 2017-08-18 | 北京工业大学 | 一种基于卷积神经网络与随机森林的短文本分类方法 |
CN108009284A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 采用半监督卷积神经网络的法律文本分类方法 |
CN108334605A (zh) * | 2018-02-01 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN109299269A (zh) * | 2018-10-23 | 2019-02-01 | 阿里巴巴集团控股有限公司 | 一种文本分类方法和装置 |
US10373022B1 (en) * | 2018-02-28 | 2019-08-06 | Konica Minolta Laboratory U.S.A., Inc. | Text image processing using stroke-aware max-min pooling for OCR system employing artificial neural network |
CN110134786A (zh) * | 2019-05-14 | 2019-08-16 | 南京大学 | 一种基于主题词向量与卷积神经网络的短文本分类方法 |
CN111046175A (zh) * | 2019-11-18 | 2020-04-21 | 杭州天翼智慧城市科技有限公司 | 基于自学习的电子案卷分类方法及装置 |
CN111061873A (zh) * | 2019-11-28 | 2020-04-24 | 北京工业大学 | 一种基于Attention机制的多通道的文本分类方法 |
CN111143515A (zh) * | 2019-12-27 | 2020-05-12 | 三角兽(北京)科技有限公司 | 文本匹配方法及装置 |
-
2020
- 2020-06-03 CN CN202010492270.4A patent/CN111401063B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066553A (zh) * | 2017-03-24 | 2017-08-18 | 北京工业大学 | 一种基于卷积神经网络与随机森林的短文本分类方法 |
CN108009284A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 采用半监督卷积神经网络的法律文本分类方法 |
CN108334605A (zh) * | 2018-02-01 | 2018-07-27 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
US10373022B1 (en) * | 2018-02-28 | 2019-08-06 | Konica Minolta Laboratory U.S.A., Inc. | Text image processing using stroke-aware max-min pooling for OCR system employing artificial neural network |
CN109299269A (zh) * | 2018-10-23 | 2019-02-01 | 阿里巴巴集团控股有限公司 | 一种文本分类方法和装置 |
CN110134786A (zh) * | 2019-05-14 | 2019-08-16 | 南京大学 | 一种基于主题词向量与卷积神经网络的短文本分类方法 |
CN111046175A (zh) * | 2019-11-18 | 2020-04-21 | 杭州天翼智慧城市科技有限公司 | 基于自学习的电子案卷分类方法及装置 |
CN111061873A (zh) * | 2019-11-28 | 2020-04-24 | 北京工业大学 | 一种基于Attention机制的多通道的文本分类方法 |
CN111143515A (zh) * | 2019-12-27 | 2020-05-12 | 三角兽(北京)科技有限公司 | 文本匹配方法及装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036167A (zh) * | 2020-08-25 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、服务器及存储介质 |
CN112036167B (zh) * | 2020-08-25 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、服务器及存储介质 |
CN113723095A (zh) * | 2020-12-16 | 2021-11-30 | 北京沃东天骏信息技术有限公司 | 文本审核方法、装置、电子设备和计算机可读介质 |
CN114491040A (zh) * | 2022-01-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 信息挖掘方法及装置 |
CN114491040B (zh) * | 2022-01-28 | 2022-12-02 | 北京百度网讯科技有限公司 | 信息挖掘方法及装置 |
CN116842960A (zh) * | 2023-05-31 | 2023-10-03 | 海信集团控股股份有限公司 | 一种特征提取模型训练、提取方法及设备 |
CN117828030A (zh) * | 2024-03-01 | 2024-04-05 | 微网优联科技(成都)有限公司 | 基于大数据的用户分析方法及电子设备 |
CN117828030B (zh) * | 2024-03-01 | 2024-05-07 | 微网优联科技(成都)有限公司 | 基于大数据的用户分析方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111401063B (zh) | 2020-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401063B (zh) | 一种基于多池化网络的文本处理方法、装置和相关设备 | |
CN109344884B (zh) | 媒体信息分类方法、训练图片分类模型的方法及装置 | |
CN111582409B (zh) | 图像标签分类网络的训练方法、图像标签分类方法及设备 | |
CN111738357B (zh) | 垃圾图片的识别方法、装置及设备 | |
CN111611436A (zh) | 一种标签数据处理方法、装置以及计算机可读存储介质 | |
CN111507350B (zh) | 一种文本识别方法和装置 | |
CN113434716B (zh) | 一种跨模态信息检索方法和装置 | |
CN111666400B (zh) | 消息获取方法、装置、计算机设备及存储介质 | |
JP2022520000A (ja) | データ処理方法、データ処理装置、コンピュータプログラム及び電子装置 | |
CN113392651A (zh) | 训练词权重模型及提取核心词的方法、装置、设备和介质 | |
CN113297351A (zh) | 文本数据标注方法及装置、电子设备及存储介质 | |
CN115130538A (zh) | 文本分类模型的训练方法、文本处理的方法、设备及介质 | |
CN110659392B (zh) | 检索方法及装置、存储介质 | |
WO2023155304A1 (zh) | 关键词推荐模型训练方法、推荐方法和装置、设备、介质 | |
CN114444476B (zh) | 信息处理方法、装置和计算机可读存储介质 | |
CN112015903B (zh) | 题目判重方法、装置、存储介质、计算机设备 | |
CN114491010A (zh) | 信息抽取模型的训练方法及装置 | |
CN115129976A (zh) | 一种资源召回方法、装置、设备及存储介质 | |
CN114363664A (zh) | 生成视频合集标题的方法及装置 | |
CN114443904A (zh) | 视频查询方法、装置、计算机设备及计算机可读存储介质 | |
CN110163761B (zh) | 基于图像处理的可疑项目成员识别方法及装置 | |
CN113822521A (zh) | 题库题目的质量检测方法、装置及存储介质 | |
CN113535946A (zh) | 基于深度学习的文本鉴别方法、装置、设备及存储介质 | |
KR102060110B1 (ko) | 컨텐츠에 포함되는 객체를 분류하는 방법, 장치 및 컴퓨터 프로그램 | |
Li et al. | Sentence-level online handwritten chinese character recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40025775 Country of ref document: HK |