CN111858848B - 一种语义的分类方法、装置、电子设备及存储介质 - Google Patents

一种语义的分类方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111858848B
CN111858848B CN202010445604.2A CN202010445604A CN111858848B CN 111858848 B CN111858848 B CN 111858848B CN 202010445604 A CN202010445604 A CN 202010445604A CN 111858848 B CN111858848 B CN 111858848B
Authority
CN
China
Prior art keywords
semantic
vocabulary
classifier
sentence
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010445604.2A
Other languages
English (en)
Other versions
CN111858848A (zh
Inventor
张发恩
魏畅毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Innovation Qizhi Technology Group Co.,Ltd.
Original Assignee
Qingdao Chuangxin Qizhi Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Chuangxin Qizhi Technology Group Co ltd filed Critical Qingdao Chuangxin Qizhi Technology Group Co ltd
Priority to CN202010445604.2A priority Critical patent/CN111858848B/zh
Publication of CN111858848A publication Critical patent/CN111858848A/zh
Application granted granted Critical
Publication of CN111858848B publication Critical patent/CN111858848B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供一种语义的分类方法、装置、电子设备及存储介质。通过将文本分别输入到预设的多个语义分类器中处理,获得每个语义分类器输出的文本中句子的语义类别,再通过将这多个语义类别综合,则可以降低不准确的分类对结果造成的影响,以提高分类的准确性。

Description

一种语义的分类方法、装置、电子设备及存储介质
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种语义的分类方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的迅猛发展,网络中的信息呈现***式增长的态势,而这些信息的主要体现形式就是文本,如何对海量的文本做规范化的管理也变得愈发重要。
对文本中的句子做有效的分类处理显然是对文本做规范化管理的重要一步。当前的分类方法通常是采用模型对文本中的句子进行分类,比如采用CNN模型对文本中的句子进行分类,亦或者采用LSTM模型对文本中的句子进行分类。但随着应用场景的不断扩展,对分类准确性的要求也越来越高,目前的准确性已逐渐无法满足实际需求。
发明内容
本申请实施例的目的在于提供一种语义的分类方法、装置、电子设备及存储介质,用以实现更准确的对文本进行分类。
第一方面,本申请实施例提供了一种语义的分类方法,所述方法包括:
获得待处理的文本;将所述文本分别输入到预设的多个语义分类器中处理,获得每个所述语义分类器输出的所述文本中句子的语义类别;综合多个所述语义类别,以确定出所述句子最终的语义类别。
在本申请实施例中,通过将文本分别输入到预设的多个语义分类器中处理,获得每个语义分类器输出的文本中句子的语义类别,再通过将这多个语义类别综合,则可以降低不准确的分类对结果造成的影响,以提高分类的准确性。
结合第一方面,在第一种可能的实现方式中,所述多个语义分类器包括:卷积式分类器和快速分类器,将所述文本分别输入到预设的多个语义分类器中处理,获得每个所述语义分类器输出的所述文本中句子的语义类别,包括:
将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别;以及,将所述文本输入到所述快速分类器处理,获得所述快速分类器输出的所述句子的语义类别。
在本申请实施例中,卷积式分类器和快速分类器是两种完全不同的模型,通过将文本分别输入到两个不同的模型中处理,可进一步提高分类的准确性。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中,将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别,包括:
通过所述卷积式分类器中的Bert模型处理所述文本,获得所述文本中每个词汇的向量;通过所述卷积式分类器中的CNN模型处理所述向量,获得所述句子的语义类别。
在本申请实施例中,由于CNN模型的特点是对向量进行处理,通过Bert模型将文本中的每个词汇转换成向量,使得CNN模型通过处理向量来进行分类,以实现更准确的分类。
结合第一方面的第二种可能的实现方式,在第三种可能的实现方式中,通过所述卷积式分类器中的CNN模型处理所述向量,获得所述句子的语义类别,包括:
将组成所述句子的所有词汇的向量按预设的矩阵格式叠加,获得向量矩阵;通过所述CNN模型处理所述向量矩阵,获得所述句子的语义类别。
在本申请实施例中,由于CNN模型的卷积特点是对矩阵进行进行卷积,因此,将所有词汇的向量按预设的矩阵格式叠加成向量矩阵,能够更便于CNN模型进行卷积,以获得更准确的分类结果。
结合第一方面的第二种可能的实现方式,在第四种可能的实现方式中,在将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别之前,所述方法还包括:
获取包含各种句子的各训练文本;利用训练样本集,对所述Bert模型进行调整,以及对CNN网络进行训练从而获得所述CNN模型。
在本申请实施例中,通过训练文本来训练CNN网络以及调整Bert模型,使得后续实际应用中,Bert模型和CNN模型配合能够实现更准确的进行语义分类。
结合第一方面的第四种可能的实现方式,在第五种可能的实现方式中,利用训练样本集,对所述Bert模型进行调整,包括:
基于各预设的词汇,从所述各种句子中确定出由所述预设的词汇构成的句子,以及确定出所述各预设的词汇中没有的词汇;从所述各预设的词汇中确定出与所述没有的词汇释义最接近的词汇;调整所述释义最接近的词汇的向量,以获得所述没有的词汇的向量;基于所述没有的词汇和所述没有的词汇的向量,调整所述Bert模型,其中,在所述Bert模型调整后,所述Bert模型处理所述没有的词汇,则对应输出所述没有的词汇的向量。
在本申请实施例中,通过调整释义最接近的词汇的向量这种便捷的方式,可以快速的为各预设的词汇中没有的词汇也确定其对应的向量。
结合第一方面的第五种可能的实现方式,在第六种可能的实现方式中,调整所述释义最接近的词汇的向量,以获得所述没有的词汇的向量,包括:
所述释义最接近的词汇的向量进行多次不同的调整,一一对应的获得所述没有的词汇的多个最初向量;利用所述CNN网络处理分别处理所述多个最初向量,一一对应的获得所述没有的词汇的多个语义分类;从所述多个语义分类中选择出与所述没有的词汇实际的语义分类最接近的语义分类,其中,所述最接近的语义分类对应的一个最初向量即为所述没有的词汇的向量。
在本申请实施例中,通过CNN网络的处理,以选择出与实际的语义分类最接近的语义分类,那么将最接近的语义分类对应最初向量作为该没有的词汇的向量,则使得最终确定出的该没有的词汇的向量能够更准确。
结合第一方面的第一种可能的实现方式,在第七种可能的实现方式中,将所述文本输入到所述快速分类器处理,获得所述快速分类器输出的所述句子的语义类别,包括:
通过所述快速分类器中的语言叠加层将组成所述句子的最小词汇进行组合,获得组合后的词汇;通过所述快速分类器中的向量层处理所述最小词汇以及所述组合后的词汇,获得所述最小词汇以及所述组合后的词汇各自对应的向量;通过所述快速分类器中的分类层处理所述向量,获得所述句子的语义类别。
在本申请实施例中,通过语言叠加层将组成句子的最小词汇进行组合,可以扩充构成一个句子的词汇的数量,而利用更多数量的词汇参与分类,则可以得到句子更准确的分类结果。
结合第一方面的第七种可能的实现方式,在第八种可能的实现方式中,通过所述快速分类器中的分类层处理所述向量,获得所述句子的语义类别,包括:
按照预设的采集步长依次对所述向量进行特征采集,并将每一次采集到特征输入到所述分类层处理,从而获得所述分类层输出的与每一次采集对应的语义类别,其中,每一次采集到特征的长度大于等于所述采集步长;通过所述分类层综合所述对应的语义类别,获得所述句子的语义类别。
在本申请实施例中,采用滑动窗的方式对句子进行分类,可得到同一句子的多个语义类别,通过综合这多个语义类别,可得到更准确的最终分类,以提高分类的准确度。
结合第一方面,在第九种可能的实现方式中,综合多个所述语义类别,以确定出所述句子最终的语义类别,包括:
按每个所述语义分类器的权重,一一对应的将多个所述语义类别加权平均,以确定出所述句子最终的语义类别。
在本申请实施例中,由于权重可以放大正确结果的影响,以及缩小错误的影响,故按权重将多个语义类别加权平均,可以使得最终确定出的语义类别更加合理和准确。
结合第一方面的第九种可能的实现方式,在第十种可能的实现方式中,确定出所述权重的步骤包括:
按照每个所述语义分类器进行语义分类的准确率,确定出每个所述语义分类器的权重,其中,所述准确率越高则确定出的所述权重越大。
在本申请实施例中,由于权重是按照语义分类的准确率确定的,故可以进一步确保放大正确结果的影响以及缩小错误的影响,进一步提高最终分类结果的准确性。
第二方面,本申请实施例提供了一种语义的分类装置,所述装置包括:
文本获取模块,用于获得待处理的文本;文本处理模块,用于将所述文本分别输入到预设的多个语义分类器中处理,获得每个所述语义分类器输出的所述文本中句子的语义类别;综合多个所述语义类别,以确定出所述句子最终的语义类别。
结合第二方面,在第一种可能的实现方式中,
所述多个语义分类器包括:卷积式分类器和快速分类器,所述文本获取模块,用于将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别;以及,将所述文本输入到所述快速分类器处理,获得所述快速分类器输出的所述句子的语义类别。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中,
所述文本获取模块,用于通过所述卷积式分类器中的Bert模型处理所述文本,获得所述文本中每个词汇的向量;通过所述卷积式分类器中的CNN模型处理所述向量,获得所述句子的语义类别。
结合第二方面的第二种可能的实现方式,在第三种可能的实现方式中,
所述文本获取模块,用于将组成所述句子的所有词汇的向量按预设的矩阵格式叠加,获得向量矩阵;通过所述CNN模型处理所述向量矩阵,获得所述句子的语义类别。
结合第二方面的第二种可能的实现方式,在第四种可能的实现方式中,
所述装置还包括:训练模块,在所述文本获取模块将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别之前,所述训练模块,用于获取包含各种句子的各训练文本;利用训练样本集,对所述Bert模型进行调整,以及对CNN网络进行训练从而获得所述CNN模型。
结合第二方面的第四种可能的实现方式,在第五种可能的实现方式中,
所述训练模块,用于基于各预设的词汇,从所述各种句子中确定出由所述预设的词汇构成的句子,以及确定出所述各预设的词汇中没有的词汇;从所述各预设的词汇中确定出与所述没有的词汇释义最接近的词汇;调整所述释义最接近的词汇的向量,以获得所述没有的词汇的向量;基于所述没有的词汇和所述没有的词汇的向量,调整所述Bert模型,其中,在所述Bert模型调整后,所述Bert模型处理所述没有的词汇,则对应输出所述没有的词汇的向量。
结合第二方面的第五种可能的实现方式,在第六种可能的实现方式中,
所述训练模块,用于所述释义最接近的词汇的向量进行多次不同的调整,一一对应的获得所述没有的词汇的多个最初向量;利用所述CNN网络处理分别处理所述多个最初向量,一一对应的获得所述没有的词汇的多个语义分类;从所述多个语义分类中选择出与所述没有的词汇实际的语义分类最接近的语义分类,其中,所述最接近的语义分类对应的一个最初向量即为所述没有的词汇的向量。
结合第二方面的第一种可能的实现方式,在第七种可能的实现方式中,
所述文本获取模块,用于通过所述快速分类器中的语言叠加层将组成所述句子的最小词汇进行组合,获得组合后的词汇;通过所述快速分类器中的向量层处理所述最小词汇以及所述组合后的词汇,获得所述最小词汇以及所述组合后的词汇各自对应的向量;通过所述快速分类器中的分类层处理所述向量,获得所述句子的语义类别。
结合第二方面的第七种可能的实现方式,在第八种可能的实现方式中,
所述文本获取模块,用于按照预设的采集步长依次对所述向量进行特征采集,并将每一次采集到特征输入到所述分类层处理,从而获得所述分类层输出的与每一次采集对应的语义类别,其中,每一次采集到特征的长度大于等于所述采集步长;通过所述分类层综合所述对应的语义类别,获得所述句子的语义类别。
结合第二方面,在第九种可能的实现方式中,
所述文本获取模块,用于按每个所述语义分类器的权重,一一对应的将多个所述语义类别加权平均,以确定出所述句子最终的语义类别。
结合第二方面的第九种可能的实现方式,在第十种可能的实现方式中,
所述文本获取模块,用于按照每个所述语义分类器进行语义分类的准确率,确定出每个所述语义分类器的权重,其中,所述准确率越高则确定出的所述权重越大。
第三方面,本申请实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令;
当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述处理器执行所述机器可读指令,以执行如第一方面或第一方面的任一种可能的实现方式所述的语义的分类方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被计算机运行时,执行如第一方面或第一方面的任一种可能的实现方式所述的语义的分类方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种语义的分类方法的流程图;
图2为本申请实施例提供的一种电子设备的结构框图;
图3为本申请实施例提供的一种语义的分类装置的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
请参阅图1,本申请实施例提供了一种语义的分类方法,该语义的分类方法可以由电子设备来执行,该电子设备可以是终端或者服务器,其中,终端可以是个人电脑(personal computer,PC)、平板电脑、智能手机、个人数字助理(personal digitalassistant,PDA)等;服务器可以为网络服务器、数据库服务器、云服务器或由多个子服务器构成的服务器集成等。
具体的,该语义的分类方法可以包括:步骤S100、步骤S200和步骤S300。
步骤S100:获得待处理的文本。
步骤S200:将该文本分别输入到预设的多个语义分类器中处理,获得每个语义分类器输出的该文本中句子的语义类别。
步骤S300:综合多个语义类别,以确定出该文本中句子最终的语义类别。
下面将分别就模型的训练和实际应用对上述流程进行详细说明。
针对模型的训练:
电子设备可以获得包含各种句子的各种训练文本来作为训练样本集,以对多个语义分类器进行训练。为确保良好的训练效果,需要训练样本集中训练文本的数量足够大量,比如,获取10万份不同的训练文本来构成训练样本集。
由于电子设备对每一个训练样本的获取方式都大致相同,下面将以电子设备获取某一个训练样本为例来进行说明。
具体的,通过用户的输入或者电子设备自动从网络上下载,电子设备可以获取原始文本,其中,原始文本可以是完整的文章、论文、报道、用户行为记录等具有语言含义的文字段。
为降低后续训练时的数据处理量,电子设备对原始文本做预处理,以将原始文本中不必要的内容删除,从而获得的训练文本。示例性,电子设备可以基于预设的分词汇器比如mmseg4j分词汇器、IKAnalyzer分词汇器、Ansj分词汇器或paoding分词汇器等,将原始文本分成构成该原始文本中句子的最小词汇。电子设备中预设了停词汇表,其中,停词汇表中记录的词汇可以是文本中不需要的冗余词汇,通过遍历该停词汇表则可以将分词汇后获得的各词汇中不需要的冗余词汇删除,从而删除后的词汇构成文本则是该训练文本。
当然,对原始文本做预处理仅为本实施例的一种示例性的方式,并不作为对本实施例的限定,本实施例也可以直接利用原始文本来进行训练。
获得由大量的训练文本构成的训练样本集后,电子设备则可以利用训练样本集对多个语义分类器进行训练。
本实施例中,多个语义分类器可以是相同的分类器比如多个卷积式分类器,也可以是不同的分类器比如至少一个卷积式分类器和至少一个快速分类器,其中,快速分类器可以是Fasttext模型或者也可以是用户自己基于各种已有的网络层构建出的模型结构。为便于理解和说明,本实施例以多个语义分类器包括一个卷积式分类器和一个快速分类器为例进行说明。
针对卷积式分类器的训练:
卷积式分类器可以包括:Bert(Bidirectional Encoder Representation fromTransformers,双向编码器)模型和CNN(Convolutional Neural Networks,卷积神经网络)模型,其中,Bert模型用于将文本中的每个词汇转换成对应的向量,而CNN模型则通过对Bert模型得到的向量进行卷积、池化以及全连接处理,从而获得文本中句子的语义类别。
本实施例中,Bert模型是一个开源的模型,换言之,Bert模型将什么样的词汇转换成什么样的向量已经设定好。若这种设定好的转换能够满足实际需求,则可以不对Bert模型进行调整,而仅针对CNN网络进行训练以获得CNN模型。但若这种设定好的转换无法满足实际需求,比如实际应用场景中涉及的很多词汇,Bert模型预先都没有设定,则在训练CNN网络的同时,也需要结合CNN网络联动的对Bert模型进行调整。
若不需要对Bert模型进行调整,则电子设备可以仅对CNN网络进行训练。这种情况下,由于Bert模型预设的各词汇包含了构成训练样本集的所有词汇,故电子设备利用Bert模型处理训练样本中的每一个训练文本,将每一个训练文本中的词汇都转换成对应的向量,然后,电子设备再利用转换成向量的每一个训练文本对CNN网络进行训练。
由于CNN模型需要识别的是每一个训练文本中每个句子的语义分类,故针对CNN网络的训练是以每一个训练文本中每个句子为单位。显然,电子设备利用每一个训练文本中每个句子对CNN网络进行训练的逻辑都大致相同,为便于说明和理解,下面以电子设备利用某一个训练文本中的某一个句子对CNN网络进行训练为例进行说明。
示例性的,由于CNN网络一般是对矩阵进行处理,故可以先将由向量构成的该句子转换成向量句子,再利用向量句子对该CNN网络进行训练。
具体的,由于Bert模型输出的每个词汇的向量都是一个1*n维的向量,比如1*100的100维向量,通过将该句子中所有词汇的向量按CNN网络预设的矩阵格式叠加,从而获得该向量矩阵。比如,预设的矩阵格式是一个100*25的矩阵格式,若一个句子中包含20个词汇,且每个词汇的向量都是1*100的100维向量,则将这20词汇的向量叠加,以获得100*20的向量矩阵。但由于预设的矩阵格式是一个100*25的矩阵,故电子设备还对100*20的向量矩阵再叠加一个5*100的向量矩阵,且5*100的向量矩阵中的参数全部为0,从而获得100*25的向量矩阵。
需要说明的是,在实际应用中,卷积式分类器和快速分类器需要对同一句子进行语义分类,以便将语义分类进行融合。因此,CNN网络对句子的处理不能出现分句的情况,比如,一个句子过长,导致其词汇的数量达到25个。换言之,这个长句子由25个向量构成。若CNN网络预设的矩阵格式是一个100*15的矩阵格式,则需要将该25个向量构成的长句子截断成前15个向量构成的子句,以及后10个向量构成的子句。CNN网络分别处理这两个子句则导致,卷积式分类器针对一个长句子输出了两个子句的语义分类。但由于快速分类器针对这个长句子输出的该长句子完整的语义分类,显然两个子句的语义分类与该长句子完整的语义分类是难以融合的,故无法综合得到该长句子的语义分类。因此,为避免这种情况的发生,在设置CNN网络预设的矩阵格式,需要尽可能将矩阵格式的列数量设置大一些比如将列数量设置为35或者40,以确保实际中最长的句子也能够按照该矩阵格式进行向量叠加,而无需分句。
于本实施例中,电子设备在通过叠加获得该句子的向量矩阵后,电子设备将该向量矩阵输入到CNN网络中处理,则获得该CNN网络输出的该子句的语义分类。其中,语义分类可以根据实际需求进行设定,比如设定为二分类或者是多分类。
假设,设定为二分类,且二分类为褒义句和贬义句,那么CNN网络输出的语义分类可以是一个位于0-1之间的数值。CNN网络输出的数值越趋近1则表示该句子为褒义句的概率越大,而CNN网络输出的数值越趋近0则表示该句子为贬义句的概率越大。
又假设,设定为三分类,且三分类分别为褒义句、中性句和贬义句,CNN网络输出的语义分类可以是三个数值,且每个数值都位于0-1之间的数值。CNN网络输出的第一个数值越趋近1则表示该句子为褒义句的概率越大,反之则越小;CNN模型输出的第二个数值越趋近1则表示该句子为中性句的概率越大,反之则越小;CNN网络输出的第三个数值越趋近1则表示该句子为贬义句的概率越大,反之则越小。
在训练过程中,电子设备预设了该子句实际的语义分类对应的数值,那么利用该实际的语义分类对应的数值与CNN网络输出的数值之间的差值,电子设备便可以去优化CNN网络中全连接层的系数。
比如,在假设为二分类的情况下,若该句子实际的语义分类是褒义句,那么该句子实际的语义分类对应的数值为1。若该CNN模型输出该句子的数值为0.7,那么差值即为0.3。电子设备利用该差值0.3去优化CNN模型,则可以使得CNN网络后续在面对同样情况时,其输出的数值会大于0.7,以更趋近于1。
又比如,在假设为三分类的情况下,若该句子实际的语义分类是褒义句,那么该句子实际的语义分类对应的数值为1、0、0。若该CNN网络输出该句子的数值分别为第一个数值0.7、第二个数值0.1、第三个数值0.3,那么差值即分别为0.3、0.1和-0.3。电子设备利用0.3、0.1和-0.3去优化CNN网络,则可以使得CNN网络后续在面对同样情况时,其输出的数值中第一个数值会大于0.7、第二个数值会小于0.1、以及第三个数值会小于0.3。
本实施例中,由于每一次训练都会去优化CNN网络,使得CNN网络输出的数值会越来越接近实际的语义分类对应的数值。在利用训练样本集对网络模型进行训练后,CNN网络输出的数值与实际的语义分类对应的数值大致相同,比如输出的数值与实际的语义分类对应的数值相同的概率在96%以上,则认为对该CNN网络的训练完成,获得可投入实际使用CNN模型。
若需要对Bert模型进行调整,说明训练样本集中有的词汇是Bert模型预设的各词汇所没有的。那么,电子设备先利用Bert模型预设的各词汇对应的向量对CNN网络进行初步训练。然后,电子设备再利用初步训练后的CNN网络对Bert模型进行调整,使得Bert模型可以将新词汇也转换成对应的向量,其中,新词汇即为训练样本集中有但预设的各词汇中没有的词汇。最后,电子设备再利用新词汇对应的向量再对初步训练后的CNN网络进行训练,以获得CNN模型。
具体的,电子设备可以利用预设的各词汇对训练样本集进行筛选,从训练样本集筛选出能够由预设的各词汇构成的句子,然后利用这些句子对应的向量对CNN网络进行初步训练,初步训练之后电子设备再对Bert模型进行调节。
可以理解到,由于对Bert模型的调整即是通过调整Bert模型使得Bert模型能够将每个新词汇转换成适合该词汇的向量,其中,新词汇为训练样本集中有但预设的各词汇中没有的词汇。换言之,Bert模型的调整是针对每个词汇进行的,下面以某一个预设的各词汇中没有的词汇(为便于说明,以下将“预设的各词汇中没有的词汇”称之为“新词汇”)为例进行说明。
首先,电子设备可以从预设的各词汇中确定出与该新词汇的释义最接近的词汇,其中,预设的词汇库中的词汇为Bert模型能够转换成对应向量的词汇。然后,电子设备根据词汇库中每个词汇与该词汇的向量的对应关系,确定出该释义最接近的词汇的向量。再者,电子设备可以在该释义最接近的词汇的向量的基础上进行多次不同的调整,每一次调整所获得的向量则作为该新词汇的最初向量,比如,在向量偏差为-20%到20%的范围内,多次调整该释义最接近的词汇的向量的角度,每一次调整角度则获得该新词汇的一个最初向量。而后,电子设备将每个最初向量转换成对应的向量矩阵后,电子设备通过初步训练后的CNN网络分别处理多个向量矩阵,以对应获得该新词汇的多个语义分类。电子设备从多个语义分类中确定出最接近该新词汇实际的语义分类的语义分类,该最接近的语义分类对应的向量则最终确定出的该新词汇对应的向量。最后,电子设备基于该新词汇以及该新词汇对应的向量针对性的调整Bert模型的参数,则使得Bert模型处理该新词汇能够输出该新词汇对应的向量,从而完成对本次对该Bert模型的调整。
针对每个新词汇都对Bert模型进行上述调整,使得Bert模型处理每个新词汇后,能够该新词汇对应的向量,进而完成了对Bert模型调整。
之后,电子设备再利用训练样本集中包含新词汇的句子再次对CNN网络进行训练,以获得CNN模型。
针对快速分类器的训练:
本实施例中,快速分类器可以是多层的结构,比如,快速分类器可以语言叠加层、向量层以及分类层的三层结构。在这三层结构中,语言叠加层用于将组成句子的最小词汇再进行组合,获得组合后的词汇;而向量层则用于将最小词汇以及组合后的词汇转换成最小词汇以及组合后的词汇各自对应的向量;最后,分类层则用于处理转换后的向量,以获得该句子的语义类别。
本实施例中,语言叠加层和向量层的结构可以是设定好的,故可以针对分类层进行训练。换言之,对快速分类器的训练即是对分类层的训练。
由于分类层需要识别的是每一个训练文本中每个句子的语义分类,故针对分类层的训练是以每一个训练文本中每个句子为单位。显然,电子设备利用每一个训练文本中每个句子对分类层进行训练的逻辑都大致相同,为便于说明和理解,下面以电子设备利用某一个训练文本中的某一个句子对分类层进行训练为例进行说明。
首先,通过将该句子输入到语言叠加层,语言叠加层可以在该句子中组成该句子的最小词汇的基础上,进行语义的组合,从而获得组合后的词汇。比如,句子是“我喜欢吃稀饭”,基于前述预处理时的分词处理,组成该句子的最小词汇包括:我、喜欢、吃、稀饭。基于这些最小词汇进行语义组合,组合后的词汇可以包括:我喜欢、喜欢吃、吃稀饭。
然后,通过将最小词汇和组合后的词汇输入到向量层,通过向量层的处理,则可以获得最小词汇和组合后的词汇各自的向量。比如将“我”、“喜欢”、“吃”、“稀饭”、“我喜欢”、“喜欢吃”以及“吃稀饭”输入到向量层处理,则可以获得:“我”的向量、“喜欢”向量、“吃”向量、“稀饭”向量、“我喜欢”向量、“喜欢吃”向量以及“吃稀饭”向量。
最后,电子设备则利用分类层处理最小词汇和组合后的词汇各自的向量来训练优化该分类层,即电子设备将最小词汇和组合后的词汇各自的向量输入到分类层中处理,分类层会输出该句子的语义分类。这样,电子设备利用该分类层会输出该句子的语义分类与该句子实际的语义分类之间的差值,便可以去优化分类层中的参数,以实现本次对分类层的训练。
假设,设定为二分类,且二分类为褒义句和贬义句,那么分类层输出的语义分类可以是一个位于0-1之间的数值。分类层输出的数值越趋近1则表示该句子为褒义句的概率越大,而分类层输出的数值越趋近0则表示该句子为贬义句的概率越大。
又假设,设定为三分类,且三分类分别为褒义句、中性句和贬义句,分类层输出的语义分类可以是三个数值,且每个数值都位于0-1之间的数值。分类层输出的第一个数值越趋近1则表示该句子为褒义句的概率越大,反之则越小;分类层输出的第二个数值越趋近1则表示该句子为中性句的概率越大,反之则越小;分类层输出的第三个数值越趋近1则表示该句子为贬义句的概率越大,反之则越小。
在训练过程中,电子设备预设了该子句实际的语义分类对应的数值,那么利用该实际的语义分类对应的数值与分类层输出的数值之间的差值,电子设备便可以去优化分类层中全连接层的系数。
比如,在假设为二分类的情况下,若该句子实际的语义分类是褒义句,那么该句子实际的语义分类对应的数值为1。若该分类层输出该句子的数值为0.7,那么差值即为0.3。电子设备利用该差值0.3去优化CNN模型,则可以使得分类层后续在面对同样情况时,其输出的数值会大于0.7,以更趋近于1。
又比如,在假设为三分类的情况下,若该句子实际的语义分类是褒义句,那么该句子实际的语义分类对应的数值为1、0、0。若该分类层输出该句子的数值分别为第一个数值0.7、第二个数值0.1、第三个数值0.3,那么差值即分别为0.3、0.1和-0.3。电子设备利用0.3、0.1和-0.3去优化分类层,则可以使得分类层后续在面对同样情况时,其输出的数值中第一个数值会大于0.7、第二个数值会小于0.1、以及第三个数值会小于0.3。
本实施例中,由于每一次训练都会去优化分类层,使得分类层输出的数值会越来越接近实际的语义分类对应的数值。在利用训练样本集对网络模型进行训练后,分类层输出的数值与实际的语义分类对应的数值大致相同,比如输出的数值与实际的语义分类对应的数值相同的概率在96%以上,则认为对该分类层的训练完成,获得可投入实际使用的快速分类器。
还需要说明的是,为提高分类层处理的准确性,电子设备可以采用滑动窗的方式将最小词汇以及组合后的词汇各自对应的向量输入快速分类器。
示例性的,电子设备可以按照预设的采集步长依次对最小词汇以及组合后的词汇各自对应的向量进行特征采集,并将每一次采集到特征输入到分类层处理。
具体的,电子设备可以先将最小词汇的向量和组合后的词汇的向量拼接一个向量序列,再按照预设的采集步长依次对向量序列采集,其中,每一次采集到特征的长度需要大于等于采集步长,以确保对向量序列的滑动窗采集不会出现遗漏。
比如,“我”的向量、“喜欢”向量、“吃”向量、“稀饭”向量、“我喜欢”向量、“喜欢吃”向量以及“吃稀饭”向量都是1*100的100维向量,将这些词汇的向量按顺序拼接起来,可以获得1*700的700维向量序列。电子设备可以特征的长度为50且步长为25对该700维向量序列进行采集。当滑动采集28次,则实现了对该向量序列的全部采集。
针对该句子,电子设备通过将每一次采集到特征输入到分类层处理,从而获得分类层输出的与每一次采集对应的语义类别,从而获得多个语义类别。再通过该分类层综合多个语义类别,则获得该句子的语义类别。
其中,分类层综合多个语义类别的方式可以选择多个语义类别中数值最大的语义类别,该数值最大的语义类别即为该句子的语义类别;或者也可以是对多个语义类别的数值进行平均,平均后的数值则作为该句子的语义类别的数值;或者也可以是计算多个语义类别的数值的方差,以获得方差值,该方差值则作为该句子的语义类别的数值。
比如,在假设为三分类的情况下,该分类层输出该句子的第一个语义类别的数值为第一个数值0.7、第二个数值0.1、第三个数值0.3;第二个语义类别的数值为第一个数值0.8、第二个数值0.3、第三个数值0.3;第三个语义类别的数值为第一个数值0.6、第二个数值0.2、第三个数值0。
若采用选择最大数值的方式,第二个语义类别的数值中第一个数值为0.8是所有数值的最大值,因此选择第二个语义类别作为该句子最终的语义类别。
若采用求平均的方式,第一个数值的平均值为0.7、第二个数值的平均值为0.2、第三个数值的平均值为0.2。故该句子最终的语义类别即为第一个数值为0.7、第二个数值为0.2以及第三个数值为0.2。
本实施例中,完成对卷积式分类器和快速分类器的训练后,电子设备则可以利用卷积式分类器和快速分类器进行实际的应用,即电子设备可以执行步骤S100到步骤S300。
针对模型的实际应用:
步骤S100:获得待处理的文本。
本实施例中,在需要对文本中的句子进行语义分类时,电子设备可以通过用户的输入或者电子设备自动从网络上下载的方式来获取需要进行语义分类的原始文本。
也为降低后续语义分类时的数据处理量,电子设备也可以对原始文本做预处理,即通过前述的分词和停词以将原始文本中不必要的内容删除,从而获得待处理的文本。
当然,对原始文本做预处理仅为本实施例的一种示例性的方式,并不作为对本实施例的限定,用户也可以直接输入待处理的文本或者电子设备从网络上直接获取待处理的文本。
获取待处理的文本后,电子设备即执行步骤S200。
步骤S200:将该文本分别输入到预设的多个语义分类器中处理,获得每个语义分类器输出的该文本中句子的语义类别。
本实施例中,电子设备可以将该待处理的文本分别输入到卷积式分类器和快速分类器中处理。
针对卷积式分类器:
由于卷积式分类器对该待处理的文本的处理是以该待处理的文本中每个句子为单位,以获取每个句子的语义分类。为便于说明和理解,本实施例以卷积式分类器处理该待处理的文本中某一个句子为例来进行说明。
首先,电子设备可以通过Bert模型处理该句子,将该句子的每个词汇都转换成对应的一个向量,从而获得组成该句子的所有词汇各自的向量。
然后,电子设备按预设的矩阵格式,将组成该句子的所有词汇各自的向量进行叠加,从而获得该句子的向量矩阵。
最后,电子设备利用CNN模型处理该句子的向量矩阵,则可以获得该句子的语义类别。
其中,Bert模型和CNN模型对该句子进行处理的具体原理在前述训练过程中已经详细说明,在此就不再累述。
针对快速分类器:
由于快速分类器对该待处理的文本的处理也是以该待处理的文本中每个句子为单位,以获取每个句子的语义分类。为便于说明和理解,本实施例也以快速分类器该待处理的文本中某一个句子为例来进行说明。
首先,电子设备可以通过语言叠加层处理该句子,以将组成该句子的最小词汇按语义再次进行组合,获得组合后的词汇。
其次,电子设备通过向量层处理该最小词汇以及该组合后的词汇,获得该最小词汇以及该组合后的词汇各自对应的向量。
再者,电子设备将最小词汇的向量和该组合后的词汇的向量拼接,以获得向量序列。电子设备按照预设的采集步长依次对该向量序列进行特征采集,并将每一次采集到特征输入到分类层处理,从而获得分类层输出的与每一次采集对应的语义类别。
最后,通过分类层将与多次采集一一对应的多个语义类别综合,则可以获得该句子的语义类别。
其中,语言叠加层、向量层和分类层对该句子进行处理的具体原理在前述训练过程中已经详细说明,在此就不再累述。
分别通过卷积式分类器和快速分类器获取该句子的语义类别后,电子设备可以继续执行步骤S300。
步骤S300:综合多个语义类别,以确定出该文本中句子最终的语义类别。
针对同一句子,电子设备可以将由卷积式分类器得到的该句子的语义分类和由快速分类器得到的该句子的语义分类综合,以确定出该句子最终的语义类别。
作为将语义分类综合的示例性方式,电子设备按照语义分类器进行语义分类的准确率,确定出每个语义分类器的权重,其中,准确率越高则确定出的权重越大。换言之,电子设备可以根据卷积式分类器和快速分类器实际使用中各自的准确率,动态的调整卷积式分类器和快速分类器各自的权重,其中,若卷积式分类器和快速分类器刚刚投入实际使用,则可以将卷积式分类器和快速分类器的权重都设置为0.5。这样,电子设备可以按照权重对应将一一对应的将多个语义类别加权平均,以确定出该句子最终的语义类别。
比如,在实际使用中,卷积式分类器的准确率从96%提高到98%,而快速分类器的准确率从94%提高到97%,那么可以将卷积式分类器的权重从0.7调整到0.75,以及将快速分类器的权重从0.3调整到0.25。
在为三分类的情况下,若该卷积式分类器输出该句子的语义分类为0.2、第二个数值0.6、第三个数值0.2,以及该快速分类器输出该句子的语义分类为0.3、第二个数值0.5、第三个数值0.2。按照权重分别0.75和0.25对各数值进行加权平均,确定出该句子最终的语义类别为0.225、0.625和0.2。
请参阅图2,基于同一发明构思,本申请实施例提供了一种电子设备10,该电子设备10可以包括连接到网络的通信接口11、用于执行程序指令的一个或多个处理器12、总线13和不同形式的存储器14,例如,磁盘、ROM、或RAM,或其任意组合。示例性地,计算机平台还可以包括存储在ROM、RAM、或其他类型的非暂时性存储介质、或其任意组合中的程序指令。
存储器14用于存储程序,处理器12用于调用并运行存储器14中的程序以执行前述的语义的分类方法。
请参阅图3,本申请实施例提供了一种语义的分类装置100,该语义的分类装置100应用于电子设备,该语义的分类装置100包括:
文本获取模块110,用于获得待处理的文本;
文本处理模块120,用于将所述文本分别输入到预设的多个语义分类器中处理,获得每个所述语义分类器输出的所述文本中句子的语义类别;综合多个所述语义类别,以确定出所述句子最终的语义类别。
需要说明的是,由于所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请一实施例还提供了一种计算机可执行的非易失的程序代码的计算机可读储存介质,该存储介质能够为通用的存储介质,如移动磁盘、硬盘等,该计算机可读存储介质上存储有程序代码,该程序代码被计算机运行时执行上述任一实施方式的语义的分类方法。
本申请实施例所提供的语义的分类方法的程序代码产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
综上所述,本申请实施例提供了一种语义的分类方法、装置、电子设备及存储介质。通过将文本分别输入到预设的多个语义分类器中处理,获得每个语义分类器输出的文本中句子的语义类别,再通过将这多个语义类别综合,则可以降低不准确的分类对结果造成的影响,以提高分类的准确性。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (9)

1.一种语义的分类方法,其特征在于,所述方法包括:
获得待处理的文本;
将所述文本分别输入到预设的多个语义分类器中处理,获得每个所述语义分类器输出的所述文本中句子的语义类别;
综合多个所述语义类别,以确定出所述句子最终的语义类别;
其中,综合多个所述语义类别,以确定出所述句子最终的语义类别,包括:
按每个所述语义分类器的权重,一一对应的将多个所述语义类别加权平均,以确定出所述句子最终的语义类别;
其中,所述多个语义分类器包括:卷积式分类器和快速分类器,将所述文本分别输入到预设的多个语义分类器中处理,获得每个所述语义分类器输出的所述文本中句子的语义类别,包括:
将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别;以及,将所述文本输入到所述快速分类器处理,获得所述快速分类器输出的所述句子的语义类别;
其中,将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别,包括:
通过所述卷积式分类器中的Bert模型处理所述文本,获得所述文本中每个词汇的向量;
通过所述卷积式分类器中的CNN模型处理所述向量,获得所述句子的语义类别;
其中,将所述文本输入到所述快速分类器处理,获得所述快速分类器输出的所述句子的语义类别,包括:
通过所述快速分类器中的语言叠加层将组成所述句子的最小词汇进行组合,获得组合后的词汇;其中,所述最小词汇通过预设的分词汇器对所述句子进行处理得到;
通过所述快速分类器中的向量层处理所述最小词汇以及所述组合后的词汇,获得所述最小词汇以及所述组合后的词汇各自对应的向量;
按照预设的采集步长依次对所述向量进行特征采集,并将每一次采集到特征输入到分类层处理,从而获得所述分类层输出的与每一次采集对应的语义类别,其中,每一次采集到特征的长度大于等于所述采集步长;
通过所述分类层综合所述对应的语义类别,获得所述句子的语义类别。
2.根据权利要求1所述的语义的分类方法,其特征在于,通过所述卷积式分类器中的CNN模型处理所述向量,获得所述句子的语义类别,包括:
将组成所述句子的所有词汇的向量按预设的矩阵格式叠加,获得向量矩阵;
通过所述CNN模型处理所述向量矩阵,获得所述句子的语义类别。
3.根据权利要求1所述的语义的分类方法,其特征在于,在将所述文本输入到所述卷积式分类器中处理,获得所述卷积式分类器输出的所述句子的语义类别之前,所述方法还包括:
获取包含各种句子的各训练文本;
利用训练样本集,对所述Bert模型进行调整,以及对CNN网络进行训练从而获得所述CNN模型。
4.根据权利要求3所述的语义的分类方法,其特征在于,利用训练样本集,对所述Bert模型进行调整,包括:
基于各预设的词汇,从所述各种句子中确定出由所述预设的词汇构成的句子,以及确定出所述各预设的词汇中没有的词汇;
从所述各预设的词汇中确定出与所述没有的词汇释义最接近的词汇;
调整所述释义最接近的词汇的向量,以获得所述没有的词汇的向量;
基于所述没有的词汇和所述没有的词汇的向量,调整所述Bert模型,其中,在所述Bert模型调整后,所述Bert模型处理所述没有的词汇,则对应输出所述没有的词汇的向量。
5.根据权利要求4所述的语义的分类方法,其特征在于,调整所述释义最接近的词汇的向量,以获得所述没有的词汇的向量,包括:
所述释义最接近的词汇的向量进行多次不同的调整,一一对应的获得所述没有的词汇的多个最初向量;
利用所述CNN网络处理分别处理所述多个最初向量,一一对应的获得所述没有的词汇的多个语义分类;
从所述多个语义分类中选择出与所述没有的词汇实际的语义分类最接近的语义分类,其中,所述最接近的语义分类对应的一个最初向量即为所述没有的词汇的向量。
6.根据权利要求1所述的语义的分类方法,其特征在于,确定出所述权重的步骤包括:
按照每个所述语义分类器进行语义分类的准确率,确定出每个所述语义分类器的权重,其中,所述准确率越高则确定出的所述权重越大。
7.一种语义的分类装置,其特征在于,所述装置包括:
文本获取模块,用于获得待处理的文本;
文本处理模块,用于将所述文本分别输入到预设的多个语义分类器中处理,获得每个所述语义分类器输出的所述文本中句子的语义类别;综合多个所述语义类别,以确定出所述句子最终的语义类别;
所述文本处理模块,具体用于按每个所述语义分类器的权重,一一对应的将多个所述语义类别加权平均,以确定出所述句子最终的语义类别;
其中,所述多个语义分类器包括:卷积式分类器和快速分类器,所述文本处理模块,具体用于通过所述卷积式分类器中的Bert模型处理所述文本,获得所述文本中每个词汇的向量;通过所述卷积式分类器中的CNN模型处理所述向量,获得所述句子的语义类别;
以及,所述文本处理模块,具体用于通过所述快速分类器中的语言叠加层将组成所述句子的最小词汇进行组合,获得组合后的词汇;其中,所述最小词汇通过预设的分词汇器对所述句子进行处理得到;通过所述快速分类器中的向量层处理所述最小词汇以及所述组合后的词汇,获得所述最小词汇以及所述组合后的词汇各自对应的向量;按照预设的采集步长依次对所述向量进行特征采集,并将每一次采集到特征输入到分类层处理,从而获得所述分类层输出的与每一次采集对应的语义类别,其中,每一次采集到特征的长度大于等于所述采集步长;通过所述分类层综合所述对应的语义类别,获得所述句子的语义类别。
8.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令;
当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1-6任一权项所述的语义的分类方法。
9.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被计算机运行时,执行如权利要求1-6任一权项所述的语义的分类方法。
CN202010445604.2A 2020-05-22 2020-05-22 一种语义的分类方法、装置、电子设备及存储介质 Active CN111858848B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010445604.2A CN111858848B (zh) 2020-05-22 2020-05-22 一种语义的分类方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010445604.2A CN111858848B (zh) 2020-05-22 2020-05-22 一种语义的分类方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111858848A CN111858848A (zh) 2020-10-30
CN111858848B true CN111858848B (zh) 2024-03-15

Family

ID=72985193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010445604.2A Active CN111858848B (zh) 2020-05-22 2020-05-22 一种语义的分类方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111858848B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528031A (zh) * 2021-02-09 2021-03-19 中关村科学城城市大脑股份有限公司 一种工单智能派发方法和***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108170818A (zh) * 2017-12-29 2018-06-15 深圳市金立通信设备有限公司 一种文本分类方法、服务器及计算机可读介质
CN110737801A (zh) * 2019-10-14 2020-01-31 腾讯科技(深圳)有限公司 内容分类方法、装置、计算机设备和存储介质
CN110928997A (zh) * 2019-12-04 2020-03-27 北京文思海辉金信软件有限公司 意图识别方法、装置、电子设备及可读存储介质
CN111177376A (zh) * 2019-12-17 2020-05-19 东华大学 一种基于bert与cnn层级连接的中文文本分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2579699C2 (ru) * 2013-12-19 2016-04-10 ООО "Аби ИнфоПоиск" Разрешение семантической неоднозначности при помощи не зависящей от языка семантической структуры

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108170818A (zh) * 2017-12-29 2018-06-15 深圳市金立通信设备有限公司 一种文本分类方法、服务器及计算机可读介质
CN110737801A (zh) * 2019-10-14 2020-01-31 腾讯科技(深圳)有限公司 内容分类方法、装置、计算机设备和存储介质
CN110928997A (zh) * 2019-12-04 2020-03-27 北京文思海辉金信软件有限公司 意图识别方法、装置、电子设备及可读存储介质
CN111177376A (zh) * 2019-12-17 2020-05-19 东华大学 一种基于bert与cnn层级连接的中文文本分类方法

Also Published As

Publication number Publication date
CN111858848A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
WO2021000497A1 (zh) 检索方法、装置、计算机设备和存储介质
CN113627447A (zh) 标签识别方法、装置、计算机设备、存储介质及程序产品
CN110135441B (zh) 一种图像的文本描述方法及装置
CN109086265B (zh) 一种语义训练方法、短文本中多语义词消歧方法
CN109726291B (zh) 分类模型的损失函数优化方法、装置及样本分类方法
CN105989067A (zh) 从图片生成文本摘要的方法、用户设备及训练服务器
CN113407677B (zh) 评估咨询对话质量的方法、装置、设备和存储介质
CN112765357A (zh) 文本分类方法、装置和电子设备
CN111274412A (zh) 信息提取方法、信息提取模型训练方法、装置及存储介质
CN107704869B (zh) 一种语料数据抽样方法及模型训练方法
CN111858848B (zh) 一种语义的分类方法、装置、电子设备及存储介质
CN113569021B (zh) 用户分类的方法、计算机设备和可读存储介质
CN116913278B (zh) 语音处理方法、装置、设备和存储介质
CN111126084A (zh) 数据处理方法、装置、电子设备和存储介质
CN116541517A (zh) 文本信息处理方法、装置、设备、软件程序以及存储介质
CN111523301B (zh) 合同文档合规性检查方法及装置
CN117725220A (zh) 文档表征和文档检索的方法、服务器及存储介质
CN112948550A (zh) 日程创建方法、装置和电子设备
CN111144575B (zh) 舆情预警模型的训练方法、预警方法、装置、设备及介质
US20210012060A1 (en) Structured document conversion and display system and method
CN116402130A (zh) 模型训练方法、信息抽取方法、装置、电子设备及介质
CN114328884B (zh) 一种图文去重方法及装置
CN110597985A (zh) 基于数据分析的数据分类方法、装置、终端及介质
CN115374063A (zh) 文件处理方法、装置、设备及存储介质
CN114297409A (zh) 模型训练方法、信息抽取方法及装置、电子设备、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant after: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Address before: Room 04, 02 / F, building 4, software industry base, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: SHENZHEN AINNOVATION TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant after: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Address before: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant before: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Patentee after: Innovation Qizhi Technology Group Co.,Ltd.

Country or region after: China

Address before: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Patentee before: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Country or region before: China