CN110245348A - 一种意图识别方法及*** - Google Patents

一种意图识别方法及*** Download PDF

Info

Publication number
CN110245348A
CN110245348A CN201910414764.8A CN201910414764A CN110245348A CN 110245348 A CN110245348 A CN 110245348A CN 201910414764 A CN201910414764 A CN 201910414764A CN 110245348 A CN110245348 A CN 110245348A
Authority
CN
China
Prior art keywords
gram
word sequence
layer
obtains
intent classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910414764.8A
Other languages
English (en)
Other versions
CN110245348B (zh
Inventor
汪琦
冯知凡
方舟
张扬
朱勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910414764.8A priority Critical patent/CN110245348B/zh
Publication of CN110245348A publication Critical patent/CN110245348A/zh
Application granted granted Critical
Publication of CN110245348B publication Critical patent/CN110245348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种意图识别方法及***,其中所述方法包括对待识别文本进行切词,生成词序列;将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。应用本发明所述方案,可以提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。

Description

一种意图识别方法及***
【技术领域】
本发明涉及计算机应用技术,特别涉及意图识别方法及***。
【背景技术】
自然语言理解是人机对话***中关键的一个模块,其作用是把用户对计算机说的自然语言转换成计算机能够理解的语义表示,达到理解用户自然语言的目的。要理解用户说的话,就必须知道用户自然语言所涉及的领域或者用户想表达的意图,用户意图识别就是采用分类的方法达到上述目的。用户意图识别准确率的提高,会极大地帮助对话***生成合理的回复。
在人机对话***中,用户意图的正确识别是对话***生成合理回复的基础。如果用户的意图无法判断正确,对话***就会生成答非所问的回复,这样的回复也就没有任何意义。因此对于对话***的性能提升、增加用户体验,准确识别用户的意图显得尤为重要。除此之外,准确地判断用户意图,商用智能对话***能向用户提供有用的消费、娱乐、产品等推荐,具有很大的商业价值。综上所述,用户意图识别具有很重要的研究价值和研究意义。
目前,对于用户的语义查询意图的识别方法主要为利用规则模板或机器学习模型进行识别。但是,使用规则模板虽然对查询语句中的词槽识别效果较好,但是对于意图的泛化识别效果有限,不能够准确的识别出用户的查询意图。而使用机器学习模型虽然对于意图分类识别效果较好,但对于词槽的识别效果不理想。并且,机器学习模型需要几十万的标注样本才能训练出有较好识别效果的模型,但是一般用户并不能够提供如此多的标注数据,且如此构建模型成本较高。另一方面,用户的查询语言通常更偏于口语化,与传统搜索场景的语言特征差别较大,如果无法准确的获取语义特征,则无法很好的识别出用户的查询意图。
【发明内容】
本申请的多个方面提供了意图识别方法、***、设备及存储介质,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
本申请的一方面,提供一种意图识别方法,包括:
对待识别文本进行切词,生成词序列;
将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA,包括:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量;
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB包括:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述融合包括:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
本申请的另一方面,提供一种意图识别***,包括:
提取模块,用于对待识别文本进行切词,生成词序列;
分类模块,包括浅层神经网络分类模块,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
融合模块,用于将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述浅层神经网络分类模块具体用于:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量;
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深层神经网络分类模块具体用于:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述融合模块具体用于:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
本发明的另一方面,提供一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
本发明的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本发明所述方案,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
【附图说明】
图1为本发明所述意图识别方法的流程图;
图2为本发明所述意图识别***的结构图;
图3示出了适于用来实现本发明实施方式的示例性计算机***/服务器012的框图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
图1为本发明所述意图识别方法实施例的流程图,如图1所示,包括以下步骤:
步骤S11、对待识别文本进行切词,生成词序列;
步骤S12、将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
步骤S13、将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
在步骤S11的一种优选实现方式中,
优选地,本实施例中,对行业文本进行意图识别。
优选地,对所述行业文本进行中文分词及文本去噪,得到词序列。其中,
文本分词:对待分类语料的所有中文文本分词。
文本去噪:对分好词的行业文本删除其中的标点、符号、“的、这”等这些停用词。
在步骤S12的一种优选实现方式中;
将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
优选地,将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA包括:
在步骤S121、对所述词序列进行N-gram标注;
优选地,对所述词序列进行一元、二元、三元标注,分别得到unigram、bigram、trigram,即N-gram。
子步骤S122、对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
优选地,计算所述词序列中每个N-gram在本类别中所占的比重,并进行排序;优选地,计算所述词序列中每个N-gram在本类别中所占的权重数值并通过log函数进行平滑处理,根据数值大小对权重降序排序。选择前20%的N-ram作为最能表达文本特征的词语。
得到按照特定规则选择出来的N-gram的中心词向量;
优选地,对于不同类别,分别得到unigram、bigram、trigram三种语义特征。
子步骤S123、将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
优选地,将子步骤S122得到的N-gram的中心词向量载入预设的卷积神经网络中,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测,得到意图分类结果PA
优选地,利用标注了类别的的文本生成训练集,对原始卷积神经网络进行训练,得到预设的卷积神经网络。
其中,N-Gram是一种统计语言模型,用来根据前(n-1)个item来预测第n个item。一般来讲,可以从大规模文本或音频语料库生成N-Gram模型。习惯上,1-gram叫unigram,2-gram称为bigram,3-gram是trigram。
通过上述基于加权N-gram向量模型和卷积神经网络相结合的方式,保证提取重要N-gram后能够使用卷积神经网络充分提取文本语义特征,进一步提高了意图识别的准确性。
优选地,将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB,包括以下子步骤:
子步骤S124、依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
子步骤S125、将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB
优选地,由于本实施例中,对行业文本进行意图识别。因此,创建或获取行业知识图谱。所述知识图谱以(实体,状态描述)和(实体,行为动作描述)为基本组成单位。
优选地,依据知识图谱为所述词序列中每一类实体和描述标注语义标签。
优选地,基于预先训练的神经网络模型,对所述词序列中每一类实体和描述标注语义标签。
优选地,依据知识图谱为每一类实体和描述定义语义标签,并将这些语义标签标注于训练集中,利用训练集训练神经网络模型实现语义标签的预测。
通过上述操作,为所述词序列增加了基于知识图谱的知识embedding向量,以便进一步地与深度神经网络模型相结合,以应用于复杂分类场景。
优选地,将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB
所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
优选地,所述词序列被表示成向量列表的形式,列表中的每一个向量由两部分组成,一部分是词向量,另一部分是该词所对应的语义标签的向量表示。
优选地,以所述深层神经网络模型为双向长短期记忆网络Bi-LSTM为例,
基于Bi-LSTM训练词序列的意图分类模型,对已标注过语义标签的词序列进行分类,进一步确定每条词序列的意图分类结果PB
将所述向量列表输入双向长短期记忆网络Bi-LSTM模型中,双向长短期记忆神经网络Bi-LSTM,由一个前向的长短期记忆神经网络和一个后向的长短期记忆神经网络构成。对于每一个时间步t(t=1,2,3…l)(文本中一个词的输入作为一个时间步),前向的长短期记忆神经网络输出隐层状态,后向的长短期记忆神经网络输出隐层状态,组合两个隐层状态的向量得到向量ht;根据所有时间步的向量表示,得到词序列相应的向量H,H中隐含上下文语义信息。
通过全连接层,连接所有的词序列特征H得到yc,将yc输入到softmax函数中得到每个类别的概率。
优选地,对训练语料中的每一条文本输入所述Bi-LSTM模型,选取概率最大的意图类别作为预测意图类别,通过与其真实意图进行比对,以此来训练Bi-LSTM模型并不断迭代优化模型中的参数,用已经训练好的Bi-LSTM模型来计算待进行意图识别的行业文本的词序列,得到对应所有意图类别的概率分布PB
通过将深度学习模型与知识图谱知识结合,应用于复杂分类场景。
在步骤S13的一种优选实现方式中,
将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
优选地,将意图分类结果PA与意图分类结果PB进行线性融合后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
优选地,将意图分类结果PA与意图分类结果PB进行投票后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
应用本发明所述方案,结合深层神经网络模型和浅层神经网络模型,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图2为本发明所述意图识别***实施例的流程图,如图2所示,包括:
提取模块21,用于对待识别文本进行切词,生成词序列;
分类模块22,包括浅层神经网络分类模块,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
融合模块23,用于将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
在提取模块21的一种优选实现方式中,
优选地,本实施例中,对行业文本进行意图识别。
优选地,提取模块21对所述行业文本进行中文分词及文本去噪,得到词序列。其中,
文本分词:对待分类语料的所有中文文本分词。
文本去噪:对分好词的行业文本删除其中的标点、符号、“的、这”等这些停用词。
在分类模块22的一种优选实现方式中;
分类模块22,包括浅层神经网络分类模块221,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块222,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
优选地,浅层神经网络分类模块221将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA包括:
对所述词序列进行N-gram标注;
优选地,对所述词序列进行一元、二元、三元标注,分别得到unigram、bigram、trigram,即N-gram。
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
优选地,计算所述词序列中每个N-gram在本类别中所占的比重,并进行排序;优选地,计算所述词序列中每个N-gram在本类别中所占的权重数值并通过log函数进行平滑处理,根据数值大小对权重降序排序。选择前20%的N-ram作为最能表达文本特征的词语。
得到按照特定规则选择出来的N-gram的中心词向量;
优选地,对于不同类别,分别得到unigram、bigram、trigram三种语义特征。
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
优选地,将N-gram的中心词向量载入预设的卷积神经网络中,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测,得到意图分类结果PA
优选地,利用标注了类别的的文本生成训练集,对原始卷积神经网络进行训练,得到预设的卷积神经网络。
其中,N-Gram是一种统计语言模型,用来根据前(n-1)个item来预测第n个item。一般来讲,可以从大规模文本或音频语料库生成N-Gram模型。习惯上,1-gram叫unigram,2-gram称为bigram,3-gram是trigram。
通过上述基于加权N-gram向量模型和卷积神经网络相结合的方式,保证提取重要N-gram后能够使用卷积神经网络充分提取文本语义特征,进一步提高了意图识别的准确性。
优选地,深层神经网络分类模块222将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB,包括:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB
优选地,由于本实施例中,对行业文本进行意图识别。因此,创建或获取行业知识图谱。所述知识图谱以(实体,状态描述)和(实体,行为动作描述)为基本组成单位。
优选地,依据知识图谱为所述词序列中每一类实体和描述标注语义标签。
优选地,基于预先训练的神经网络模型,对所述词序列中每一类实体和描述标注语义标签。
优选地,依据知识图谱为每一类实体和描述定义语义标签,并将这些语义标签标注于训练集中,利用训练集训练神经网络模型实现语义标签的预测。
通过上述操作,为所述词序列增加了基于知识图谱的知识embedding向量,以便进一步地与深度神经网络模型相结合,以应用于复杂分类场景。
优选地,将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB
所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
优选地,所述词序列被表示成向量列表的形式,列表中的每一个向量由两部分组成,一部分是词向量,另一部分是该词所对应的语义标签的向量表示。
优选地,以所述深层神经网络模型为双向长短期记忆网络Bi-LSTM为例,
基于Bi-LSTM训练词序列的意图分类模型,对已标注过语义标签的词序列进行分类,进一步确定每条词序列的意图分类结果PB
将所述向量列表输入双向长短期记忆网络Bi-LSTM模型中,双向长短期记忆神经网络Bi-LSTM,由一个前向的长短期记忆神经网络和一个后向的长短期记忆神经网络构成。对于每一个时间步t(t=1,2,3…l)(文本中一个词的输入作为一个时间步),前向的长短期记忆神经网络输出隐层状态,后向的长短期记忆神经网络输出隐层状态,组合两个隐层状态的向量得到向量ht;根据所有时间步的向量表示,得到词序列相应的向量H,H中隐含上下文语义信息。
通过全连接层,连接所有的词序列特征H得到yc,将yc输入到softmax函数中得到每个类别的概率。
优选地,对训练语料中的每一条文本输入所述Bi-LSTM模型,选取概率最大的意图类别作为预测意图类别,通过与其真实意图进行比对,以此来训练Bi-LSTM模型并不断迭代优化模型中的参数,用已经训练好的Bi-LSTM模型来计算待进行意图识别的行业文本的词序列,得到对应所有意图类别的概率分布PB
通过将深度学习模型与知识图谱知识结合,应用于复杂分类场景。
在融合模块13的一种优选实现方式中,
融合模块23将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
优选地,将意图分类结果PA与意图分类结果PB进行线性融合后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
优选地,将意图分类结果PA与意图分类结果PB进行投票后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
应用本发明所述方案,结合深层神经网络模型和浅层神经网络模型,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的终端和服务器的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理器中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
图3示出了适于用来实现本发明实施方式的示例性计算机***/服务器012的框图。图3显示的计算机***/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图3所示,计算机***/服务器012以通用计算设备的形式表现。计算机***/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理器016,***存储器028,连接不同***组件(包括***存储器028和处理器016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机***/服务器012典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机***/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器028可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机***/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***034可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机***/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机***/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机***/服务器012交互的设备通信,和/或与使得该计算机***/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机***/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图3所示,网络适配器020通过总线018与计算机***/服务器012的其它模块通信。应当明白,尽管图3中未示出,可以结合计算机***/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理器016通过运行存储在***存储器028中的程序,从而执行本发明所描述的实施例中的功能和/或方法。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理器中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (16)

1.一种意图识别方法,其特征在于,包括以下步骤:
对待识别文本进行切词,生成词序列;
将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
2.根据权利要求1所述的方法,其特征在于,将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA,包括:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
3.根据权利要求2所述的方法,其特征在于,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量。
4.根据权利要求2所述的方法,其特征在于,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
5.根据权利要求1所述的方法,其特征在于,
所述深层神经网络模型为双向长短期记忆网络B i-LSTM、卷积神经网络CNN、或循环神经网络RNN。
6.根据权利要求5所述的方法,其特征在于,将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB包括:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB
7.根据权利要求1所述的方法,其特征在于,所述融合包括:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
8.一种意图识别***,其特征在于,包括:
提取模块,用于对待识别文本进行切词,生成词序列;
分类模块,包括浅层神经网络分类模块,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB
融合模块,用于将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
9.根据权利要求8所述的***,其特征在于,所述浅层神经网络分类模块具体用于:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
10.根据权利要求9所述的***,其特征在于,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量。
11.根据权利要求9所述的***,其特征在于,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
12.根据权利要求8所述的***,其特征在于,
所述深层神经网络模型为双向长短期记忆网络B i-LSTM、卷积神经网络CNN、或循环神经网络RNN。
13.根据权利要求12所述的***,其特征在于,所述深层神经网络分类模块具体用于:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB
14.根据权利要求8所述的***,其特征在于,所述融合模块具体用于:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
15.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~7中任一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~7中任一项所述的方法。
CN201910414764.8A 2019-05-17 2019-05-17 一种意图识别方法及*** Active CN110245348B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910414764.8A CN110245348B (zh) 2019-05-17 2019-05-17 一种意图识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910414764.8A CN110245348B (zh) 2019-05-17 2019-05-17 一种意图识别方法及***

Publications (2)

Publication Number Publication Date
CN110245348A true CN110245348A (zh) 2019-09-17
CN110245348B CN110245348B (zh) 2023-11-24

Family

ID=67884065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910414764.8A Active CN110245348B (zh) 2019-05-17 2019-05-17 一种意图识别方法及***

Country Status (1)

Country Link
CN (1) CN110245348B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674305A (zh) * 2019-10-10 2020-01-10 天津师范大学 一种基于深层特征融合模型的商品信息分类方法
CN110826315A (zh) * 2019-11-01 2020-02-21 智者四海(北京)技术有限公司 使用神经网络***识别短文本时效性的方法
CN110928997A (zh) * 2019-12-04 2020-03-27 北京文思海辉金信软件有限公司 意图识别方法、装置、电子设备及可读存储介质
CN111291205A (zh) * 2020-01-22 2020-06-16 北京百度网讯科技有限公司 知识图谱构建方法、装置、设备和介质
CN112259080A (zh) * 2020-10-20 2021-01-22 成都明杰科技有限公司 一种基于神经网络模型的语音识别方法
CN112528657A (zh) * 2020-12-23 2021-03-19 中移(杭州)信息技术有限公司 基于双向lstm的文本意图识别方法及装置、服务器和介质
CN112560425A (zh) * 2020-12-24 2021-03-26 北京百度网讯科技有限公司 模板生成方法、装置、电子设备及存储介质
CN112732912A (zh) * 2020-12-30 2021-04-30 平安科技(深圳)有限公司 敏感倾向表述检测方法、装置、设备及存储介质
CN112765959A (zh) * 2020-12-31 2021-05-07 康佳集团股份有限公司 意图识别方法、装置、设备及计算机可读存储介质
CN112836025A (zh) * 2019-11-22 2021-05-25 航天信息股份有限公司 一种意图识别方法及装置
CN113360751A (zh) * 2020-03-06 2021-09-07 百度在线网络技术(北京)有限公司 意图识别方法、装置、设备和介质
CN113377972A (zh) * 2020-03-09 2021-09-10 北京达佳互联信息技术有限公司 多媒体内容推荐方法、装置、计算设备和存储介质
CN113377969A (zh) * 2021-08-16 2021-09-10 中航信移动科技有限公司 意图识别数据处理***
CN117648930A (zh) * 2023-11-22 2024-03-05 平安创科科技(北京)有限公司 联合任务实现方法、装置、设备及介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103493041A (zh) * 2011-11-29 2014-01-01 Sk电信有限公司 使用浅层句法分析器自动评估句子的自动句子评估装置及其错误检测设备和方法
CN106951470A (zh) * 2017-03-03 2017-07-14 中兴耀维科技江苏有限公司 一种基于业务知识图检索的智能问答***
CN107516312A (zh) * 2017-08-14 2017-12-26 北京工业大学 一种应用浅层神经网络的中医面色自动分类方法
US20180121787A1 (en) * 2016-11-03 2018-05-03 Salesforce.Com, Inc. Joint Many-Task Neural Network Model for Multiple Natural Language Processing (NLP) Tasks
CN108009847A (zh) * 2017-11-30 2018-05-08 西安电子科技大学 外卖场景下店铺embedding特征提取的方法
CN108549636A (zh) * 2018-04-09 2018-09-18 北京信息科技大学 一种赛事文字直播关键句抽取方法
CN109002432A (zh) * 2017-06-07 2018-12-14 北京京东尚科信息技术有限公司 同义词的挖掘方法及装置、计算机可读介质、电子设备
CN109063221A (zh) * 2018-11-02 2018-12-21 北京百度网讯科技有限公司 基于混合策略的查询意图识别方法和装置
CN109241255A (zh) * 2018-08-20 2019-01-18 华中师范大学 一种基于深度学习的意图识别方法
CN109241530A (zh) * 2018-08-29 2019-01-18 昆明理工大学 一种基于N-gram向量和卷积神经网络的中文文本多分类方法
CN109308497A (zh) * 2018-10-27 2019-02-05 北京航空航天大学 一种基于多标签网络的多向量表示学习方法
CN109447140A (zh) * 2018-10-19 2019-03-08 广州四十五度科技有限公司 一种基于神经网络深度学习的图像识别并推荐认知的方法
CN109450845A (zh) * 2018-09-18 2019-03-08 浙江大学 一种基于深度神经网络的算法生成恶意域名检测方法
CN109492104A (zh) * 2018-11-09 2019-03-19 北京京东尚科信息技术有限公司 意图分类模型的训练方法、分类方法、***、设备和介质
CN109684626A (zh) * 2018-11-16 2019-04-26 深思考人工智能机器人科技(北京)有限公司 语义识别方法、模型、存储介质和装置

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103493041A (zh) * 2011-11-29 2014-01-01 Sk电信有限公司 使用浅层句法分析器自动评估句子的自动句子评估装置及其错误检测设备和方法
US20180121787A1 (en) * 2016-11-03 2018-05-03 Salesforce.Com, Inc. Joint Many-Task Neural Network Model for Multiple Natural Language Processing (NLP) Tasks
CN106951470A (zh) * 2017-03-03 2017-07-14 中兴耀维科技江苏有限公司 一种基于业务知识图检索的智能问答***
CN109002432A (zh) * 2017-06-07 2018-12-14 北京京东尚科信息技术有限公司 同义词的挖掘方法及装置、计算机可读介质、电子设备
CN107516312A (zh) * 2017-08-14 2017-12-26 北京工业大学 一种应用浅层神经网络的中医面色自动分类方法
CN108009847A (zh) * 2017-11-30 2018-05-08 西安电子科技大学 外卖场景下店铺embedding特征提取的方法
CN108549636A (zh) * 2018-04-09 2018-09-18 北京信息科技大学 一种赛事文字直播关键句抽取方法
CN109241255A (zh) * 2018-08-20 2019-01-18 华中师范大学 一种基于深度学习的意图识别方法
CN109241530A (zh) * 2018-08-29 2019-01-18 昆明理工大学 一种基于N-gram向量和卷积神经网络的中文文本多分类方法
CN109450845A (zh) * 2018-09-18 2019-03-08 浙江大学 一种基于深度神经网络的算法生成恶意域名检测方法
CN109447140A (zh) * 2018-10-19 2019-03-08 广州四十五度科技有限公司 一种基于神经网络深度学习的图像识别并推荐认知的方法
CN109308497A (zh) * 2018-10-27 2019-02-05 北京航空航天大学 一种基于多标签网络的多向量表示学习方法
CN109063221A (zh) * 2018-11-02 2018-12-21 北京百度网讯科技有限公司 基于混合策略的查询意图识别方法和装置
CN109492104A (zh) * 2018-11-09 2019-03-19 北京京东尚科信息技术有限公司 意图分类模型的训练方法、分类方法、***、设备和介质
CN109684626A (zh) * 2018-11-16 2019-04-26 深思考人工智能机器人科技(北京)有限公司 语义识别方法、模型、存储介质和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
余昉恒: ""循环神经网络门结构模型研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》, pages 140 - 37 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674305B (zh) * 2019-10-10 2023-05-12 天津师范大学 一种基于深层特征融合模型的商品信息分类方法
CN110674305A (zh) * 2019-10-10 2020-01-10 天津师范大学 一种基于深层特征融合模型的商品信息分类方法
CN110826315A (zh) * 2019-11-01 2020-02-21 智者四海(北京)技术有限公司 使用神经网络***识别短文本时效性的方法
CN110826315B (zh) * 2019-11-01 2023-11-24 智者四海(北京)技术有限公司 使用神经网络***识别短文本时效性的方法
CN112836025A (zh) * 2019-11-22 2021-05-25 航天信息股份有限公司 一种意图识别方法及装置
CN110928997A (zh) * 2019-12-04 2020-03-27 北京文思海辉金信软件有限公司 意图识别方法、装置、电子设备及可读存储介质
CN111291205A (zh) * 2020-01-22 2020-06-16 北京百度网讯科技有限公司 知识图谱构建方法、装置、设备和介质
CN111291205B (zh) * 2020-01-22 2023-06-13 北京百度网讯科技有限公司 知识图谱构建方法、装置、设备和介质
CN113360751A (zh) * 2020-03-06 2021-09-07 百度在线网络技术(北京)有限公司 意图识别方法、装置、设备和介质
CN113377972A (zh) * 2020-03-09 2021-09-10 北京达佳互联信息技术有限公司 多媒体内容推荐方法、装置、计算设备和存储介质
CN112259080A (zh) * 2020-10-20 2021-01-22 成都明杰科技有限公司 一种基于神经网络模型的语音识别方法
CN112528657A (zh) * 2020-12-23 2021-03-19 中移(杭州)信息技术有限公司 基于双向lstm的文本意图识别方法及装置、服务器和介质
CN112560425A (zh) * 2020-12-24 2021-03-26 北京百度网讯科技有限公司 模板生成方法、装置、电子设备及存储介质
CN112560425B (zh) * 2020-12-24 2024-04-09 北京百度网讯科技有限公司 模板生成方法、装置、电子设备及存储介质
CN112732912A (zh) * 2020-12-30 2021-04-30 平安科技(深圳)有限公司 敏感倾向表述检测方法、装置、设备及存储介质
CN112732912B (zh) * 2020-12-30 2024-04-09 平安科技(深圳)有限公司 敏感倾向表述检测方法、装置、设备及存储介质
CN112765959A (zh) * 2020-12-31 2021-05-07 康佳集团股份有限公司 意图识别方法、装置、设备及计算机可读存储介质
CN112765959B (zh) * 2020-12-31 2024-05-28 康佳集团股份有限公司 意图识别方法、装置、设备及计算机可读存储介质
CN113377969A (zh) * 2021-08-16 2021-09-10 中航信移动科技有限公司 意图识别数据处理***
CN113377969B (zh) * 2021-08-16 2021-11-09 中航信移动科技有限公司 意图识别数据处理***
CN117648930A (zh) * 2023-11-22 2024-03-05 平安创科科技(北京)有限公司 联合任务实现方法、装置、设备及介质

Also Published As

Publication number Publication date
CN110245348B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN110245348A (zh) 一种意图识别方法及***
CN110196894B (zh) 语言模型的训练方法和预测方法
CN109101537B (zh) 基于深度学习的多轮对话数据分类方法、装置和电子设备
CN111753081B (zh) 基于深度skip-gram网络的文本分类的***和方法
CN107492379B (zh) 一种声纹创建与注册方法及装置
CN109657226B (zh) 多联结注意力的阅读理解模型、***及方法
CN111767405A (zh) 文本分类模型的训练方法、装置、设备及存储介质
CN107180628A (zh) 建立声学特征提取模型的方法、提取声学特征的方法、装置
CN107992596A (zh) 一种文本聚类方法、装置、服务器和存储介质
CN107767870A (zh) 标点符号的添加方法、装置和计算机设备
CN109271493A (zh) 一种语言文本处理方法、装置和存储介质
CN111858843B (zh) 一种文本分类方法及装置
CN108733778A (zh) 对象的行业类型识别方法和装置
CN113011186B (zh) 命名实体识别方法、装置、设备及计算机可读存储介质
CN113553412B (zh) 问答处理方法、装置、电子设备和存储介质
CN112597759B (zh) 一种基于文本的情绪检测方法和装置、计算机设备和介质
CN110232340A (zh) 建立视频分类模型以及视频分类的方法、装置
CN107908641A (zh) 一种获取图片标注数据的方法和***
CN113053367A (zh) 语音识别方法、语音识别的模型训练方法以及装置
CN113220999B (zh) 用户特征的生成方法、装置、电子设备和存储介质
CN110457683A (zh) 模型优化方法、装置、计算机设备及存储介质
CN110188766A (zh) 基于卷积神经网络的图像主目标检测方法及装置
CN109408829A (zh) 文章可读性确定方法、装置、设备和介质
CN114969275A (zh) 一种基于银行知识图谱的对话方法及其***
CN112800184A (zh) 基于Target-Aspect-Opinion联合抽取的短文本评论情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant