CN114036943A - 意图识别方法、装置、计算机设备及存储介质 - Google Patents
意图识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN114036943A CN114036943A CN202111350321.0A CN202111350321A CN114036943A CN 114036943 A CN114036943 A CN 114036943A CN 202111350321 A CN202111350321 A CN 202111350321A CN 114036943 A CN114036943 A CN 114036943A
- Authority
- CN
- China
- Prior art keywords
- intention
- text
- text feature
- dialog
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 44
- 239000011159 matrix material Substances 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims description 42
- 230000011218 segmentation Effects 0.000 claims description 34
- 238000003062 neural network model Methods 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000003064 k means clustering Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 12
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Abstract
本申请为人工智能技术的自然语言处理技术领域,本申请提供了一种意图识别方法、装置、计算机设备及存储介质,其中,所述方法包括:接收用户输入的对话文本,将对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对词向量矩阵进行处理,得到预设数量的不同维度的文本特征,将文本特征输入预先训练好的意图识别模型中,提取出对话文本的所有意图关系,基于所有意图关系生成对话文本的意图识别结果,从而通过CRF层识别对话文本的多级意图关系,基于多级意图关系确定对话文本的意图,以极大提高意图识别的准确率。
Description
技术领域
本申请涉及人工智能技术的自然语言处理技术领域,具体而言,本申请涉及一种意图识别方法、装置、计算机设备及存储介质。
背景技术
自然语言的对话、问答、智能客服、聊天机器人等应用中,用户意图的准确识别和分类是决定应用成功运行的第一步;然后才能针对用户意图,或直接构造答案,或通过多轮对话填充词槽、补足问题后提供答案,最后为用户提供自动化的服务;当然多轮对话的每一轮中,也需要识别用户回答或反问意图。
目前的意图识别方式,大多通过文本分类的方法进行建模,主要通过构建不同的网络模型进行特征的提取,像卷积神经网络、循环神经网络、注意力机制、预训练模型微调等。这些基本都是在编码端对意图识别进行建模,但是意图识别的类别是一种序列化的多级标签,比如贷后催收场景下的标签为“客户本人-有承诺-当天存款-下午存”。这样意图关系可以分为四个级别,每一级是上一级的进一步细化,这种结构存在一定的序列关系信息,因此现有通过文本分类进行建模的方式,对文本的意图识别的准确率较低。
发明内容
本申请的主要目的为提供一种意图识别方法、装置、计算机设备及存储介质,以提高意图识别的准确率。
为了实现上述发明目的,本申请提供一种意图识别方法,其包括以下步骤:
接收用户输入的对话文本;
将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
基于所有意图关系生成所述对话文本的意图识别结果。
优选地,所述基于所有意图关系生成所述对话文本的意图识别结果,包括:
预测所述第一级意图关系的多个下一级意图关系;
判断所述多个下一级意图关系中是否存在与所述第二级意图关系相近的意图关系;
若是,预测所述第二级意图关系的多个下一级意图关系;
判断所述第二级意图关系的多个下一级意图关系中是否存在与第三级意图关系相近的意图关系;
若是,预测所述第三级意图关系的多个下一级意图关系,以此类推,直至最后一次预测时的多个下一级意图关系存在与最后一级意图关系相近的意图关系;
将最后一级意图关系表征的意图作为所述对话文本的意图识别结果。
优选地,所述基于所有意图关系生成所述对话文本的意图识别结果,包括:
对所述所有意图关系,利用K-means聚类算法将相近的意图关系进行聚集,生成聚类结果;
从所述聚类结果中筛选出最聚集的意图关系作为所述对话文本的意图识别结果。
优选地,所述判断所述多个下一级意图关系中是否存在与所述第二级意图关系相近的意图关系,包括:
分别提取每个下一级意图关系的关键词,得到每个下一级意图关系的第一关键词;
提取所述第二级意图关系的关键词,得到第二关键词;
分别计算每个所述第一关键词与第二关键词的相似度;
判断是否存在与第二关键词的相似度高于预设相似度的第一关键词;
若是,则判定所述多个下一级意图关系中存在与所述第二级意图关系相近的意图关系。
进一步地,所述按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征之前,还包括:
利用分词工具对所述对话文本进行分词,得到分词结果;
将所述分词结果中的每个词与停用词表中的预设词进行比较,从所述分词结果中筛选出所述停用词表存在的词,得到目标词;
去除所述分词结果的所述目标词,利用去除所述目标词后的分词结果按照所述对话文本的上下文顺序重新拼接为所述对话文本。
进一步地,所述将所述对话文本的文本特征输入预先训练好的意图识别模型中之前,还包括:
获取训练样本;其中,所述训练样本包括多个对话样本及每个对话样本对应的目标意图识别结果;
将所述训练样本输入预先构建的神经网络模型进行训练,得到训练好的意图识别模型。
进一步地,所述将所述训练样本输入预先构建的神经网络模型进行训练之后,还包括:
利用预设的损失函数计算每次训练后的所述神经网络模型的损失值;
判断所述损失值是否低于预设损失值;
若是,则判定所述神经网络模型的训练结果满足要求,将训练结果满足要求的神经网络模型作为所述训练好的意图识别模型。
本申请还提供一种意图识别装置,其包括:
接收模块,用于接收用户输入的对话文本;
转化模块,用于将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
输入模块,用于将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
确定模块,用于在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系,并按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系,及按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
生成模块,用于基于所有意图关系生成所述对话文本的意图识别结果。
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述任一项所述方法的步骤。
本申请所提供的一种意图识别方法、装置、计算机设备及存储介质,通过接收用户输入的对话文本,将对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将预设数量的不同维度的特征作为对话文本的文本特征,将对话文本的文本特征输入预先训练好的意图识别模型中,在意图识别模型中,按照对话文本的上下文顺序从所有文本特征中提取出第一个文本特征,将第一个文本特征输入多层感知器,预测第一个文本特征的第一意图得分,将第一个文本特征及第一意图得分输入所述CRF层,确定第一个文本特征的第一级意图关系;并按照对话文本的上下文顺序从所有文本特征中提取出第二个文本特征,将第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将第一连接文本特征输入多层感知器,预测第一连接文本特征的第二意图得分,将第一连接文本特征及第二意图得分输入CRF层,确定第一连接文本特征的第二级意图关系,按照对话文本的上下文顺序从所有文本特征中提取出第三个文本特征,将第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将第二连接文本特征输入多层感知器,预测第二连接文本特征的第三意图得分,将第二连接文本特征及第三意图得分输入CRF层,确定第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止,基于所有意图关系生成对话文本的意图识别结果,从而通过CRF层识别对话文本的多级意图关系,基于多级意图关系确定对话文本的意图,以极大提高意图识别的准确率。
附图说明
图1为本申请一实施例的意图识别方法的流程示意图;
图2为本申请一实施例的意图识别装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提出一种意图识别方法,本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请提出的一种意图识别方法,以服务器为执行主体,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参考图1,其中一个实施例中,该意图识别方法包括如下步骤:
S11、接收用户输入的对话文本;
S12、将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
S13、将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
S14、在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系;
S15、按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系;
S16、按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
S17、基于所有意图关系生成所述对话文本的意图识别结果。
在本实施例中,多级意图关系可以多级标签的形式进行表示,表征了各个文本特征的前后关系或语义的深层关系,例如,对于多级标签为“客户本人-有承诺-当天存款-下午存”,则可知道,第一层语义为客户本人已承诺存款,第二层语义为客户本人已承诺当天存款,第三层语义客户本人已承诺当天下午存款,从而基于不同层次的语义,得到客户最想表达的意图为客户会当天下午进行存款。
如上述步骤S11所述,用户所在的终端可与服务器进行连接,并通过该终端向服务器发送对话文本,该对话文本可以是聊天记录形式,服务器接收用户发送的对话文本。
如上述步骤S12所述,本实施例在接收到用户输入的对话文本后,通过特征提取网络提取对话文本的特征,并在提取时,将对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,并将预设数量的不同维度的特征作为对话文本的文本特征,以通过使用预设数量的注意力模型进行处理,上一个注意力模型的输出作为下一个模型的输入,得到对话文本的预设数量的不同维度的特征,从而得到更丰富、多层次的文本特征。
其中,文本特征可以是对话文本中的关键词。词向量矩阵可以是通过将对话文本的所有词向量进行连接得到的。在一实施例中,将对话文本转化为统一格式的词向量矩阵时,可首先对对话文本进行分词处理,对分词处理后的对话文本进行清洗处理,对清洗处理后的对话文本通过预先训练好的词向量模型进行词嵌入,得到所述词向量矩阵。
如上述步骤S13-S17所述,可预先设置一个神经网络用于学习对应于预设级别分类任务的不同层次的语义特征,将特征提取层的输出结果拼接起来作为第一级意图关系分类的特征,类似的,其他意图关系进行类似的操作;然后将各级对应的特征送入多层感知器MLP,最后将MLP预测的意图得分送入CRF层,利用CRF层预测对话文本的多级关系序列,即多级意图关系,基于对话文本的所有意图关系生成对话文本的意图识别结果。
其中,条件随机场(CRF)广泛用于序列标注任务,现在的模型通常把CRF作为神经网络的输出层,用来捕获相邻标签之间的映射关系。本质上意图识别的多级标签可以看作一个关系序列(例如客户本人-有承诺-当天存款-下午存)。即,意图识别任务可以看作一个序列标注任务,因此,基于神经网络的条件随机场层可以很自然地用于意图识别,以充分利用相邻意图关系之间的映射关系信息,提高意图识别的准确率。
多层感知器(Multi-Layer Perceptron,MLP)也叫人工神经网络(ArtificialNeural Network,ANN),除了输入输出层,它中间可以有多个隐层,最简单的MLP需要有一层隐层,即输入层、隐层和输出层才能称为一个简单的神经网络。通俗而言,神经网络是仿生物神经网络而来的一种技术,通过连接多个特征值,经过线性和非线性的组合,最终达到一个目标。本申请通过CRF建模意图识别任务的序列标签可以极大提高标签的准确率。
本申请所提供的一种意图识别方法,通过接收用户输入的对话文本,将对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将预设数量的不同维度的特征作为对话文本的文本特征,将对话文本的文本特征输入预先训练好的意图识别模型中,在意图识别模型中,按照对话文本的上下文顺序从所有文本特征中提取出第一个文本特征,将第一个文本特征输入多层感知器,预测第一个文本特征的第一意图得分,将第一个文本特征及第一意图得分输入所述CRF层,确定第一个文本特征的第一级意图关系;并按照对话文本的上下文顺序从所有文本特征中提取出第二个文本特征,将第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将第一连接文本特征输入多层感知器,预测第一连接文本特征的第二意图得分,将第一连接文本特征及第二意图得分输入CRF层,确定第一连接文本特征的第二级意图关系,按照对话文本的上下文顺序从所有文本特征中提取出第三个文本特征,将第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将第二连接文本特征输入多层感知器,预测第二连接文本特征的第三意图得分,将第二连接文本特征及第三意图得分输入CRF层,确定第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止,基于所有意图关系生成对话文本的意图识别结果,从而通过CRF层识别对话文本的多级意图关系,基于多级意图关系确定对话文本的意图,以极大提高意图识别的准确率。
在一实施例中,在步骤S17中,所述基于所有意图关系生成所述对话文本的意图识别结果,可具体包括:
S171、预测所述第一级意图关系的多个下一级意图关系;
S172、判断所述多个下一级意图关系中是否存在与所述第二级意图关系相近的意图关系;
S173、若是,预测所述第二级意图关系的多个下一级意图关系;
S174、判断所述第二级意图关系的多个下一级意图关系中是否存在与第三级意图关系相近的意图关系;
S175、若是,预测所述第三级意图关系的多个下一级意图关系,以此类推,直至最后一次预测时的多个下一级意图关系存在与最后一级意图关系相近的意图关系;
S176、将最后一级意图关系表征的意图作为所述对话文本的意图识别结果。
在本实施例中,由于对话文本的多级意图关系之间存在映射关系,每一级的意图关系可以映射为多种第二级意图关系。也就是说他们之间存在一对多的映射关系。类似地,在第二级和第三级,第三级和第四级之间也存在一对多的意图关系。从这些意图关系中我们可以看出,第一级意图关系的预测结果可以用来帮助第二级意图关系的预测,同样第二级意图关系可以用来帮助第三级意图关系,第三级意图关系帮助第四级意图关系。具体的,本实施例可基于第一级意图关系预测多个下一级意图关系,判断多个下一级意图关系中是否存在与第二级意图关系相近的意图关系,若是,则预测第二级意图关系的多个下一级意图关系,判断第二级意图关系的多个下一级意图关系中是否存在与第三级意图关系相近的意图关系,若是,预测第三级意图关系的多个下一级意图关系,以此类推,直至在最后一次预测时,即倒数第二级意图关系预测的多个下一级意图关系存在与最后一级意图关系相近的意图关系,则将最后一级意图关系表征的意图作为对话文本的意图识别结果,从而结合每一级意图关系预测对话文本的意图,提高意图识别的准确性。
在一实施例中,所述基于所有意图关系生成所述对话文本的意图识别结果,可具体包括:
对所述所有意图关系,利用K-means聚类算法将相近的意图关系进行聚集,生成聚类结果;
从所述聚类结果中筛选出最聚集的意图关系作为所述对话文本的意图识别结果。
本实施例在使用K-means聚类算法对所有意图关系进行聚集的过程中,需要判断每两个意图关系之间的语义相似度。语义相似度的衡量对于聚类结果的准确性至关重要。对于意图关系相似度的衡量,常用的方式是计算余弦相似度。余弦相似度可以体现空间中两个向量间的差异性,将两个意图相近的意图关系进行聚集,以完成所有意图关系的聚集,并从中筛选出最聚集的意图关系作为对话文本的意图识别结果,如当大多数的意图关系聚集在区域A时,则从区域A中选取距离区域A的中心最近的意图关系作为意图识别结果。
在一实施例中,所述判断所述多个下一级意图关系中是否存在与所述第二级意图关系相近的意图关系,可具体包括:
分别提取每个下一级意图关系的关键词,得到每个下一级意图关系的第一关键词;
提取所述第二级意图关系的关键词,得到第二关键词;
分别计算每个所述第一关键词与第二关键词的相似度;
判断是否存在与第二关键词的相似度高于预设相似度的第一关键词;
若是,则判定所述多个下一级意图关系中存在与所述第二级意图关系相近的意图关系。
本实施例通过关键词进行相似度计算,确定多个下一级意图关系中存在与所述第二级意图关系相近的意图关系,在计算所述第一关键词与第二关键词的相似度时,可利用Word2Vec词向量模型分别将第一关键词转换为词向量,得到第一词向量,将第二关键词转换为词向量,得到第二词向量,然后计算第一词向量与第二词向量的余弦距离,将余弦距离作为该相似度。
其中,Word2Vec词向量模型是从大量文本中学习语义知识的一种模型,采用无监督的方式。其通过训练大量文本,将文本中的词用向量形式表示,这个向量我们称之为词向量,可以通过计算两个词的词向量之间的距离,从而得知两个词之间的联系。
在一实施例中,所述按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征之前,还可包括:
利用分词工具对所述对话文本进行分词,得到分词结果;
将所述分词结果中的每个词与停用词表中的预设词进行比较,从所述分词结果中筛选出所述停用词表存在的词,得到目标词;
去除所述分词结果的所述目标词,利用去除所述目标词后的分词结果按照所述对话文本的上下文顺序重新拼接为所述对话文本。
在本实施例中,利用预设的分词工具将对话文本进行分词,将分词结果中的每个词与停用词表中的词进行判断,若分词结果中的词在停用词表中存在,则筛选出该词作为目标词,并去除分词结果的所有目标词,利用去除目标词后的分词结果按照对话文本的上下文顺序重新拼接为对话文本,后续利用重新拼接后的对话文本提取文本特征,以确保提取的文本特征的准确性。
其中,所述预设分词工具可以为Jieba分词工具、SnowNLP分词工具、PkuSeg分词工具、THULAC分词工具、HanLP分词工具中的任意一种分词工具。在利用分词工具对对话文本进行分词处理时,采用分词工具所自带的通用词典。
在一实施例中,所述将所述对话文本的文本特征输入预先训练好的意图识别模型中之前,还可包括:
获取训练样本;其中,所述训练样本包括多个对话样本及每个对话样本对应的目标意图识别结果;
将所述训练样本输入预先构建的神经网络模型进行训练,得到训练好的意图识别模型。
本实施例的训练样本中包括多个对话样本及每个对话样本对应的目标意图识别结果,利用训练样本对预先构建的神经网络模型进行训练,在训练过程中不断调整神经网络模型的参数,直至得到训练合格的神经网络模型。其中,训练样本的数量需大于预设数据量,训练样本的数量越多,则训练得到的意图识别模型越收敛,识别精度越高。
在一实施例中,所述将所述训练样本输入预先构建的神经网络模型进行训练之后,还可包括:
利用预设的损失函数计算每次训练后的所述神经网络模型的损失值;
判断所述损失值是否低于预设损失值;
若是,则判定所述神经网络模型的训练结果满足要求,将训练结果满足要求的神经网络模型作为所述训练好的意图识别模型。
在本实施例中,在对神经网络模型每次训练后,可利用预设的损失函数计算每次训练完成后的神经网络模型的损失值,并在损失值满足预设阈值或小于预设损失值时,即满足要求,则表明神经网络模型达到训练要求,完成所述神经网络模型的训练,以提高意图识别模型的识别效果。其中,损失函数用来评价神经网络模型的预测值和真实值不一样的程度,损失函数越好,通常神经网络模型的性能越好。
当神经网络模型的损失值不小于预设损失值时,可根据损失值在神经网络模型的神经网络结构中进行前向传递,调整神经网络模型的相关参数,基于重新设置的相关参数对调整后的神经网络模型进行重新训练,直至神经网络模型的损失值小于预设损失值为止,至此神经网络模型训练结束,得到训练结果满足要求的神经网络模型,进而得到训练好的意图识别模型。
参照图2,本申请实施例中还提供一种意图识别装置,包括:
接收模块11,用于接收用户输入的对话文本;
转化模块12,用于将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
输入模块13,用于将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
确定模块14,用于在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系,并按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系,及按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
生成模块15,用于基于所有意图关系生成所述对话文本的意图识别结果。
如上所述,可以理解地,本申请中提出的所述意图识别装置的各组成部分可以实现如上所述意图识别方法任一项的功能,具体结构不再赘述。
参照图3,本申请实施例中还提供一种计算机设备,其内部结构可以如图3所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括存储介质、内存储器。该存储介质存储有操作***、计算机程序和数据库。该内存器为存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储对话文本、意图识别结果等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种意图识别方法。
上述处理器执行上述的意图识别方法,包括:
接收用户输入的对话文本;
将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
基于所有意图关系生成所述对话文本的意图识别结果。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种意图识别方法,包括步骤:
接收用户输入的对话文本;
将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
基于所有意图关系生成所述对话文本的意图识别结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
综上所述,本申请的最大有益效果在于:
本申请所提供的一种意图识别方法、装置、计算机设备及存储介质,通过接收用户输入的对话文本,将对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将预设数量的不同维度的特征作为对话文本的文本特征,将对话文本的文本特征输入预先训练好的意图识别模型中,在意图识别模型中,按照对话文本的上下文顺序从所有文本特征中提取出第一个文本特征,将第一个文本特征输入多层感知器,预测第一个文本特征的第一意图得分,将第一个文本特征及第一意图得分输入所述CRF层,确定第一个文本特征的第一级意图关系;并按照对话文本的上下文顺序从所有文本特征中提取出第二个文本特征,将第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将第一连接文本特征输入多层感知器,预测第一连接文本特征的第二意图得分,将第一连接文本特征及第二意图得分输入CRF层,确定第一连接文本特征的第二级意图关系,按照对话文本的上下文顺序从所有文本特征中提取出第三个文本特征,将第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将第二连接文本特征输入多层感知器,预测第二连接文本特征的第三意图得分,将第二连接文本特征及第三意图得分输入CRF层,确定第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止,基于所有意图关系生成对话文本的意图识别结果,从而通过CRF层识别对话文本的多级意图关系,基于多级意图关系确定对话文本的意图,以极大提高意图识别的准确率。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种意图识别方法,其特征在于,包括以下步骤:
接收用户输入的对话文本;
将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系;
按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
基于所有意图关系生成所述对话文本的意图识别结果。
2.根据权利要求1所述的方法,其特征在于,所述基于所有意图关系生成所述对话文本的意图识别结果,包括:
预测所述第一级意图关系的多个下一级意图关系;
判断所述多个下一级意图关系中是否存在与所述第二级意图关系相近的意图关系;
若是,预测所述第二级意图关系的多个下一级意图关系;
判断所述第二级意图关系的多个下一级意图关系中是否存在与第三级意图关系相近的意图关系;
若是,预测所述第三级意图关系的多个下一级意图关系,以此类推,直至最后一次预测时的多个下一级意图关系存在与最后一级意图关系相近的意图关系;
将最后一级意图关系表征的意图作为所述对话文本的意图识别结果。
3.根据权利要求1所述的方法,其特征在于,所述基于所有意图关系生成所述对话文本的意图识别结果,包括:
对所述所有意图关系,利用K-means聚类算法将相近的意图关系进行聚集,生成聚类结果;
从所述聚类结果中筛选出最聚集的意图关系作为所述对话文本的意图识别结果。
4.根据权利要求1所述的方法,其特征在于,所述判断所述多个下一级意图关系中是否存在与所述第二级意图关系相近的意图关系,包括:
分别提取每个下一级意图关系的关键词,得到每个下一级意图关系的第一关键词;
提取所述第二级意图关系的关键词,得到第二关键词;
分别计算每个所述第一关键词与第二关键词的相似度;
判断是否存在与第二关键词的相似度高于预设相似度的第一关键词;
若是,则判定所述多个下一级意图关系中存在与所述第二级意图关系相近的意图关系。
5.根据权利要求1所述的方法,其特征在于,所述按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征之前,还包括:
利用分词工具对所述对话文本进行分词,得到分词结果;
将所述分词结果中的每个词与停用词表中的预设词进行比较,从所述分词结果中筛选出所述停用词表存在的词,得到目标词;
去除所述分词结果的所述目标词,利用去除所述目标词后的分词结果按照所述对话文本的上下文顺序重新拼接为所述对话文本。
6.根据权利要求1所述的方法,其特征在于,所述将所述对话文本的文本特征输入预先训练好的意图识别模型中之前,还包括:
获取训练样本;其中,所述训练样本包括多个对话样本及每个对话样本对应的目标意图识别结果;
将所述训练样本输入预先构建的神经网络模型进行训练,得到训练好的意图识别模型。
7.根据权利要求1所述的方法,其特征在于,所述将所述训练样本输入预先构建的神经网络模型进行训练之后,还包括:
利用预设的损失函数计算每次训练后的所述神经网络模型的损失值;
判断所述损失值是否低于预设损失值;
若是,则判定所述神经网络模型的训练结果满足要求,将训练结果满足要求的神经网络模型作为所述训练好的意图识别模型。
8.一种意图识别装置,其特征在于,包括:
接收模块,用于接收用户输入的对话文本;
转化模块,用于将所述对话文本转化为统一格式的词向量矩阵,使用预设数量的注意力模型对所述对话文本的词向量矩阵进行处理,得到预设数量的不同维度的特征,将所述预设数量的不同维度的特征作为所述对话文本的文本特征;
输入模块,用于将所述对话文本的文本特征输入预先训练好的意图识别模型中;其中,所述意图识别模型包括多层感知器及CRF层;
确定模块,用于在所述意图识别模型中,按照所述对话文本的上下文顺序从所述所有文本特征中提取出第一个文本特征,将所述第一个文本特征输入多层感知器,预测所述第一个文本特征的第一意图得分,将所述第一个文本特征及第一意图得分输入所述CRF层,确定所述第一个文本特征的第一级意图关系,并按照所述对话文本的上下文顺序从所述所有文本特征中提取出第二个文本特征,将所述第一个文本特征与第二个文本特征进行连接后得到第一连接文本特征,将所述第一连接文本特征输入所述多层感知器,预测所述第一连接文本特征的第二意图得分,将所述第一连接文本特征及第二意图得分输入所述CRF层,确定所述第一连接文本特征的第二级意图关系,及按照所述对话文本的上下文顺序从所述所有文本特征中提取出第三个文本特征,将所述第一个文本特征、第二个文本特征及第三个文本特征进行连接后得到第二连接文本特征,将所述第二连接文本特征输入所述多层感知器,预测所述第二连接文本特征的第三意图得分,将所述第二连接文本特征及第三意图得分输入所述CRF层,确定所述第二连接文本特征的第三级意图关系,以此类推,直至得到最后一个连接文本特征对应的最后一级意图关系为止;
生成模块,用于基于所有意图关系生成所述对话文本的意图识别结果。
9.一种计算机设备,其特征在于,包括:
处理器;
存储器;
其中,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述的意图识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现权利要求1-7任一项所述的意图识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111350321.0A CN114036943A (zh) | 2021-11-15 | 2021-11-15 | 意图识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111350321.0A CN114036943A (zh) | 2021-11-15 | 2021-11-15 | 意图识别方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114036943A true CN114036943A (zh) | 2022-02-11 |
Family
ID=80137681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111350321.0A Pending CN114036943A (zh) | 2021-11-15 | 2021-11-15 | 意图识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114036943A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164267A (ja) * | 2011-02-09 | 2012-08-30 | Mitsubishi Electric Corp | 同一意図テキスト生成装置、意図推定装置および同一意図テキスト生成方法 |
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN111368085A (zh) * | 2020-03-05 | 2020-07-03 | 北京明略软件***有限公司 | 一种对话意图的识别方法、装置、电子设备及存储介质 |
CN112115702A (zh) * | 2020-09-15 | 2020-12-22 | 北京明略昭辉科技有限公司 | 意图识别方法、装置、对话机器人和计算机可读存储介质 |
US20210004390A1 (en) * | 2019-07-03 | 2021-01-07 | Microsoft Technology Licensing, Llc | Context-based multi-granularity intent discovery |
US11068477B1 (en) * | 2018-06-06 | 2021-07-20 | Gbt Travel Servces Uk Limited | Natural language processing with pre-specified SQL queries |
CN113239693A (zh) * | 2021-06-01 | 2021-08-10 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、设备及存储介质 |
-
2021
- 2021-11-15 CN CN202111350321.0A patent/CN114036943A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164267A (ja) * | 2011-02-09 | 2012-08-30 | Mitsubishi Electric Corp | 同一意図テキスト生成装置、意図推定装置および同一意図テキスト生成方法 |
US11068477B1 (en) * | 2018-06-06 | 2021-07-20 | Gbt Travel Servces Uk Limited | Natural language processing with pre-specified SQL queries |
US20210004390A1 (en) * | 2019-07-03 | 2021-01-07 | Microsoft Technology Licensing, Llc | Context-based multi-granularity intent discovery |
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN111368085A (zh) * | 2020-03-05 | 2020-07-03 | 北京明略软件***有限公司 | 一种对话意图的识别方法、装置、电子设备及存储介质 |
CN112115702A (zh) * | 2020-09-15 | 2020-12-22 | 北京明略昭辉科技有限公司 | 意图识别方法、装置、对话机器人和计算机可读存储介质 |
CN113239693A (zh) * | 2021-06-01 | 2021-08-10 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
王冲;张虎;王鑫;刘全明;: "融合敏感词规则和字符级RCNN模型的用户意图识别", 计算机应用与软件, no. 03, 12 March 2020 (2020-03-12) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765265B (zh) | 信息分类抽取方法、装置、计算机设备和存储介质 | |
CN111026842B (zh) | 自然语言处理方法、自然语言处理装置及智能问答*** | |
CN111553164A (zh) | 命名实体识别模型的训练方法、装置、计算机设备 | |
CN110717514A (zh) | 会话意图识别方法、装置、计算机设备和存储介质 | |
CN110147445A (zh) | 基于文本分类的意图识别方法、装置、设备及存储介质 | |
CN111078847A (zh) | 电力用户意图识别方法、装置、计算机设备和存储介质 | |
CN112732871B (zh) | 一种机器人催收获取客户意向标签的多标签分类方法 | |
CN109948160B (zh) | 短文本分类方法及装置 | |
CN112699686B (zh) | 基于任务型对话***的语义理解方法、装置、设备及介质 | |
CN111859916B (zh) | 古诗关键词提取、诗句生成方法、装置、设备及介质 | |
CN114139551A (zh) | 意图识别模型的训练方法及装置、意图识别的方法及装置 | |
CN114120978A (zh) | 情绪识别模型训练、语音交互方法、装置、设备及介质 | |
CN114678014A (zh) | 意图识别方法、装置、计算机设备及计算机可读存储介质 | |
CN116663568B (zh) | 基于优先级的关键任务识别***及其方法 | |
CN113723070A (zh) | 文本相似度模型训练方法、文本相似度检测方法及装置 | |
CN113849648A (zh) | 分类模型训练方法、装置、计算机设备和存储介质 | |
CN115687610A (zh) | 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质 | |
CN113724819A (zh) | 医疗命名实体识别模型的训练方法、装置、设备及介质 | |
CN113762392A (zh) | 基于人工智能的理财产品推荐方法、装置、设备及介质 | |
CN117851909B (zh) | 一种基于跳跃连接的多循环决策意图识别***及方法 | |
CN116150651A (zh) | 基于ai的深度合成检测方法和*** | |
CN113342927B (zh) | 敏感词识别方法、装置、设备及存储介质 | |
CN114266252A (zh) | 命名实体识别方法、装置、设备及存储介质 | |
CN113535928A (zh) | 基于注意力机制下长短期记忆网络的服务发现方法及*** | |
CN113343711A (zh) | 工单生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |