CN113887643B - 一种基于伪标签自训练和源域再训练的新对话意图识别方法 - Google Patents

一种基于伪标签自训练和源域再训练的新对话意图识别方法 Download PDF

Info

Publication number
CN113887643B
CN113887643B CN202111187641.9A CN202111187641A CN113887643B CN 113887643 B CN113887643 B CN 113887643B CN 202111187641 A CN202111187641 A CN 202111187641A CN 113887643 B CN113887643 B CN 113887643B
Authority
CN
China
Prior art keywords
model
training
pseudo
self
retraining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111187641.9A
Other languages
English (en)
Other versions
CN113887643A (zh
Inventor
田锋
安文斌
郑庆华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202111187641.9A priority Critical patent/CN113887643B/zh
Publication of CN113887643A publication Critical patent/CN113887643A/zh
Application granted granted Critical
Publication of CN113887643B publication Critical patent/CN113887643B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于伪标签自训练和源域再训练的新对话意图识别方法,属于语言处理的技术领域。本发明的基于伪标签自训练和源域再训练的新对话意图识别方法,为包含新对话意图的未标注数据产生伪标签,并利用自训练的方法迭代更新模型参数,使得识别准确率不断提高;同时提出了一种再训练策略,使得知识可以更好地在源域和目标域间进行迁移,从而提高模型的表达能力;最后,本发明融合了三个模型的输出进行集成学习,提高了模型的鲁棒性。

Description

一种基于伪标签自训练和源域再训练的新对话意图识别方法
技术领域
本发明属于语言处理的技术领域,具体涉及一种基于伪标签自训练和源域再训练的新对话意图识别方法。
背景技术
智能对话***的核心模块是用户意图识别。新对话意图识别旨在根据已有的对话意图来发现新产生的对话意图,只利用少量有标注的已知意图数据,来从大量无标注数据中进行新意图的发现及分类。由于包含新意图的数据全部为未标记数据,因此现有的对话意图分类模型无法对其进行处理,从而导致用户意图识别错误,影响智能对话***的后续响应。
为了解决上述问题,目前学术界主要采用两类方法:1.基于对比学习的方法,如Lin等提出了基于对比相似度的自适应聚类模型,通过对比学习的方法选择高质量数据进行自标记并进行训练。2.基于深度聚类的方法,如Zhang等提出了基于深度对齐聚类的新对话意图发现模型,通过聚类及对齐操作为未标注数据产生伪标签并进行模型训练。上述技术方案存在如下的缺点:第一,现有模型为未标注数据产生的伪标签粒度较粗,无法较好地训练模型进行新对话意图地发现。第二,现有模型仅利用标注数据进行模型初始化,而在训练过程中未能充分利用标注数据,使得知识迁移变得困难。第三,现有模型仅利用聚类模型产生最终预测,未考虑融合其它模型进行集成学习,使得模型的鲁棒性降低。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供一种基于伪标签自训练和源域再训练的新对话意图识别方法。
为达到上述目的,本发明采用以下技术方案予以实现:
一种基于伪标签自训练和源域再训练的新对话意图识别方法,包括以下步骤:
一、模型训练
1)使用模型Net1和模型Net2对输入进行特征提取,分别得到第i个输入的向量表示和/>对/>和/>进行加权组合得到第i个输入的最终表示/>
所述模型Net1和模型Net2为结构相同的BERT模型;
2)使用聚类模型Kmeans对输入的最终向量表示进行聚类操作,从而得到每个样本所属类别的伪标签/>
使用Softmax分类器对输入的向量表示和/>分别进行分类操作,从而得到每个样本所属类别的另外两组伪标签/>和/>
和/>进行线性变换,得到模型对第i个输入的预测概率分布向量/>
采用自训练的方法,通过交叉熵损失计算预测概率分布向量与伪标签/>的差异,预测概率分布向量/>与伪标签/>的差异以及预测概率分布向量/>与伪标签的差异,对所有输入样本的损失进行求和,得到损失值/>对损失值进行加权组合得到伪标签自训练的最终损失值/>
3)使用有标注数据对模型Net1和模型Net2进行再训练,通过交叉熵损失函数计算预测概率分布向量和/>与真实标签/>之间的差异,得到有标注训练的损失值
4)对和/>进行加权组合,得到最终的损失值/>通过反向传播不断更新模型参数,使得模型的预测与真实值的之差在预设范围内;
5)将待分类对话文本分别输入到模型Kmeans、模型Net1和模型Net2进行标签预测,对得到的预测标签进行加权组合,最后使用Softmax分类器对组合结果进行分类。
进一步的,步骤1)中的特征提取的具体操作为:
针对第i个输入文本si,使用模型Net1和模型Net2分别进行特征提取,得到向量表示和/>
其中,MeanPooling表示对BERT模型最终的输出做平均池化,和/>为输入的隐藏层表示,σ表示ReLU激活函数,Wa,ba为可学习参数。
进一步的,步骤1)中求最终表示的操作为:
对si的两个向量表示进行加权组合,得到si的最终向量表示
其中,λf为超参数,为预设值,用于平衡两个向量表示所占的权重。
进一步的,步骤2)的伪标签生成的具体操作为:
将si的最终向量表示输入到聚类模型Kmeans中,得到其对应类别的伪标签
其中,μj为聚类过程中第j簇中心的向量表示,为指示函数,||.||2为欧式距离;
利用Softmax分类器对模型Net1和模型Net2提取到的输入向量和/>进行分类操作,从而得到每个样本所属类别的另外两组伪标签/>和/>
通过一层线性层对输入向量和/>进行线性变换,得到模型Net1和模型Net2对于第i个输入的预测概率分布向量/>及/>
其中,Wc,bc,Wm,bm均为可学习参数。
进一步的,步骤2)的自训练得到损失值的具体操作为:
通过自训练的方法,利用交叉熵损失函数分别计算预测概率分布向量与伪标签/>的差异,预测概率分布向量/>与伪标签/>的差异以及预测概率分布向量/>与伪标签/>的差异,对所有输入样本的损失进行求和,得到损失值/>
其中,N为样本数量,exp()为指数函数;
对损失值进行加权组合得到伪标签自训练的最终损失值/>
其中,λs1和λs2均为超参数,为预设值。
进一步的,步骤3)中,得到有标注训练的损失值的具体操作为:
通过交叉熵损失函数计算模型Net1预测概率分布向量与真实标签/>之间的差异,并对所有输入样本进行求和,得到损失值/>
通过交叉熵损失函数计算模型Net2预测概率分布向量与真实标签/>之间的差异,并对所有输入样本进行求和,得到损失值/>
其中,M为有标注数据的数量;
通过对模型Net1和模型Net2在有标注数据上再训练得到的损失和/>进行加权组合,得到有标注再训练的整体损失值/>
其中,λl1为超参数,为预设值。
进一步的,步骤4)中,使用反向传播更新模型参数的具体操作为:
对伪标签自训练损失值和有标注训练损失值/>进行加权组合得到模型的整体损失/>
其中,λt为超参数,为预设值,用于平衡损失和/>所占的权重;
得到整体损失后,利用反向传播算法,不断更新模型Net1和模型Net2的参数,使得模型的预测与真实值的之差在预设范围内。
进一步的,模型使用时预测输入类别的具体操作为:
将待分类对话文本分别输入到训练好的模型Net1、模型Net2以及聚类模型Kmeans中,分别得到预测标签y1,y2及y3,对得到的三个预测标签进行加权组合,得到最终的预测标签yvote
yvote=λy1y1y2y2+(1-λy1y2)y3 (20)
使用Softmax分类器对预测标签yvote进行分类,取分类最大值y作为最终的预测类别:
y=max(Softmax(yvote)) (21)
与现有技术相比,本发明具有以下有益效果:
本发明的基于伪标签自训练和源域再训练的新对话意图识别方法,为包含新对话意图的未标注数据产生伪标签,并利用自训练的方法迭代更新模型参数,使得识别准确率不断提高;同时提出了一种再训练策略,使得知识可以更好地在源域和目标域间进行迁移,从而提高模型的表达能力;最后,本发明融合了三个模型的输出进行集成学习,提高了模型的鲁棒性。
附图说明
图1为本发明中整体的网络结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了解决现有技术存在的问题,本发明提出了一种基于伪标签自训练和源域再训练的新对话意图识别方法,为包含新对话意图的未标注数据产生伪标签,并利用自训练的方法迭代更新模型参数,使得识别准确率不断提高;同时本发明提出了一种再训练策略,使得知识可以更好地在源域和目标域间进行迁移,从而提高模型的表达能力;最后,本发明融合了三个模型的输出进行集成学习,提高了模型的鲁棒性。
下面结合附图对本发明做进一步详细描述:
参见图1,图1为本发明的网络模型的示意图,本发明的网络模型包括一个聚类模型Kmeans以及两个BERT模型Net1,模型Net2。三个模型可以产生不同的伪标签,并利用得到的伪标签进行自训练,从而不断提升模型性能。训练结束后,对三个模型的输出进行组合,从而得到最终的预测值。
一、模型训练:
步骤1:使用两个结构相同的预训练模型BERT(模型Net1和模型Net2)对输入进行特征提取,分别得到第i个输入的向量表示和/>
其中,MeanPooling表示对BERT模型最终的输出做平均池化,和/>为输入的隐藏层表示,σ表示ReLU激活函数,Wa,ba为可学习参数。
之后,对si的两个向量表示进行加权组合,得到si的最终向量表示
其中,λf为超参数,提前设定,用于平衡两个向量表示所占的权重。
步骤2:使用聚类模型Kmeans对输入的最终向量表示进行聚类操作,从而得到每个样本所属类别的伪标签/>
将si的最终向量表示输入到聚类模型Kmeans中,得到其对应类别的伪标签
其中,μj为聚类过程中第j簇中心的向量表示,为指示函数,||.||2为欧式距离。
步骤3:使用Softmax分类器对输入的向量表示和/>分别进行分类操作,从而得到每个样本所属类别的另外两组伪标签/>和/>
之后,通过对和/>进行线性变换,得到模型对第i个输入的预测概率分布向量/>和/>
步骤4:通过自训练的方法,利用交叉熵损失函数分别计算预测概率分布向量与伪标签/>的差异,预测概率分布向量/>与伪标签/>的差异以及预测概率分布向量与伪标签/>的差异,并对所有输入样本进行求和,得到损失值/>
其中,N为样本数量,exp()为指数函数。
之后,对损失值进行加权组合得到伪标签自训练的最终损失值
其中,λs1和λs2均为超参数,需要提前设定,用于平衡三个损失所占的权重。
步骤5:使用有标注数据对模型Net1和模型Net2进行再训练,通过交叉熵损失函数计算模型预测概率分布向量和/>与真实标签/>之间的差异,得到有标注训练的损失值/>和/>
其中,M为有标注数据的数量。
之后,对模型Net1和模型Net2在有标注数据上再训练得到的损失和/>进行加权组合,得到有标注再训练的整体损失值/>
其中,λl1为超参数,需要提前设定,用于平衡损失和/>所占的权重。
步骤6:对伪标签自训练损失和/>进行加权组合,得到最终的损失值
其中,λt为超参数,需要提前设定,用于平衡损失和/>所占的权重。
步骤7:得到整体损失后,利用反向传播算法,不断更新模型Net1和模型Net2的参数,使得模型的预测值逐渐接近真实值。
步骤8:模型训练
使用Adam优化器更新梯度,学习率设置为0.0001,Adam的一阶动量参数为0.1,二阶动量参数为0.999,数据集训练迭代次数(Epoch)设置为100次,预训练BERT模型的参数固定,超参数根据模在型验证集上地表现进行选择。
二、模型使用
将待分类对话文本分别输入到训练好的模型Net1、模型Net2以及聚类模型Kmeans中,分别得到预测标签y1,y2及y3,对得到的三个预测标签进行加权组合,得到最终的预测标签yvote
yvote=λy1y1y2y2+(1-λy1y2)y3 (20)
使用Softmax分类器对预测标签yvote进行分类,取分类最大值y作为最终的预测类别:
y=max(Softmax(yvote)) (21)
为了衡量模型性能,在三个广泛使用的公开意图识别数据集上进行了对比试验,数据集的训练集,测试集划分及已知意图类别的数量和词典大小如表1所示。表2为对比实验的结果,与十五个常用模型在指标准确率(Acc)和ARI值以及NMI值上进行了对比,从表中可以看出,本发明的模型PTRN在全部数据集的全部指标上都取得了最好的结果,相较于目前最好方法在性能上有较大提升。
表1用于衡量模型性能的数据集的统计信息
表2为对比模型在不同数据集上的准确率(Acc),ARI值以及NMI值,其中PTRN为本发明的方法。
表2对比模型在不同数据集上的性能表现
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (8)

1.一种基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,包括以下步骤:
1)使用模型Net1和模型Net2对输入进行特征提取,分别得到第i个输入的向量表示和/>对/>和/>进行加权组合得到第i个输入的最终表示/>
所述模型Net1和模型Net2为结构相同的BERT模型;
2)使用聚类模型Kmeans对输入的最终向量表示进行聚类操作,得到每个样本所属类别的伪标签/>
使用Softmax分类器对输入的向量表示和/>分别进行分类操作,得到每个样本所属类别的另外两组伪标签/>和/>
和/>进行线性变换,得到模型对第i个输入的预测概率分布向量/>和/>
采用自训练的方法,通过交叉熵损失计算预测概率分布向量与伪标签/>的差异,预测概率分布向量/>与伪标签/>的差异以及预测概率分布向量/>与伪标签/>的差异,对所有输入样本的损失进行求和,得到损失值/>对损失值/>进行加权组合得到伪标签自训练的最终损失值/>
3)使用有标注数据对模型Net1和模型Net2进行再训练,通过交叉熵损失函数计算预测概率分布向量和/>与真实标签/>之间的差异,得到有标注训练的损失值/>
4)对和/>进行加权组合,得到最终的损失值/>通过反向传播不断更新模型参数,使得模型的预测与真实值的之差在预设范围内;
5)将待分类对话文本分别输入到模型Kmeans、模型Net1和模型Net2进行标签预测,对得到的预测标签进行加权组合,最后使用Softmax分类器对组合结果进行分类。
2.根据权利要求1所述的基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,步骤1)中的特征提取的具体操作为:
针对第i个输入文本si,使用模型Net1和模型Net2分别进行特征提取,得到向量表示和/>
其中,MeanPooling表示对BERT模型最终的输出做平均池化,和/>为输入的隐藏层表示,σ表示ReLU激活函数,Wa,ba为可学习参数。
3.根据权利要求2所述的基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,步骤1)中求最终表示的操作为:
对si的两个向量表示进行加权组合,得到si的最终向量表示
其中,λf为超参数,为预设值,用于平衡两个向量表示所占的权重。
4.根据权利要求1所述的基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,步骤2)的伪标签生成的具体操作为:
将si的最终向量表示输入到聚类模型Kmeans中,得到其对应类别的伪标签/>
其中,μj为聚类过程中第j簇中心的向量表示,为指示函数,||.||2为欧式距离;
利用Softmax分类器对模型Net1和模型Net2提取到的输入向量和/>进行分类操作,从而得到每个样本所属类别的另外两组伪标签/>和/>
通过一层线性层对输入向量和/>进行线性变换,得到模型Net1和模型Net2对于第i个输入的预测概率分布向量/>及/>
其中,Wc,bc,Wm,bm均为可学习参数。
5.根据权利要求4所述的基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,步骤2)的自训练得到损失值的具体操作为:
通过自训练的方法,利用交叉熵损失函数分别计算预测概率分布向量与伪标签的差异,预测概率分布向量/>与伪标签/>的差异以及预测概率分布向量/>与伪标签/>的差异,对所有输入样本的损失进行求和,得到损失值/>
其中,N为样本数量,exp()为指数函数;
对损失值进行加权组合得到伪标签自训练的最终损失值/>
其中,λs1和λs2均为超参数,为预设值。
6.根据权利要求1所述的基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,步骤3)中,得到有标注训练的损失值的具体操作为:
通过交叉熵损失函数计算模型Net1预测概率分布向量与真实标签/>之间的差异,并对所有输入样本进行求和,得到损失值/>
通过交叉熵损失函数计算模型Net2预测概率分布向量与真实标签/>之间的差异,并对所有输入样本进行求和,得到损失值/>
其中,M为有标注数据的数量;
通过对模型Net1和模型Net2在有标注数据上再训练得到的损失和/>进行加权组合,得到有标注再训练的整体损失值/>
其中,λI1为超参数,为预设值。
7.根据权利要求1所述的基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,步骤4)中,使用反向传播更新模型参数的具体操作为:
对伪标签自训练损失值和有标注训练损失值/>进行加权组合得到模型的整体损失/>
其中,λt为超参数,为预设值,用于平衡损失和/>所占的权重;
得到整体损失后,利用反向传播算法,不断更新模型Net1和模型Net2的参数,使得模型的预测与真实值的之差在预设范围内。
8.根据权利要求1所述的基于伪标签自训练和源域再训练的新对话意图识别方法,其特征在于,步骤5)的模型使用时预测输入类别的具体操作为:
将待分类对话文本分别输入到训练好的模型Net1、模型Net2以及聚类模型Kmeans中,分别得到预测标签y1,y2及y3,对得到的三个预测标签进行加权组合,得到最终的预测标签yvote
yvote=λy1y1y2y2+(1-λy1y2)y3 (20)
使用Softmax分类器对预测标签yvote进行分类,取分类最大值y作为最终的预测类别:
y=max(Softmax(yvote)) (21)。
CN202111187641.9A 2021-10-12 2021-10-12 一种基于伪标签自训练和源域再训练的新对话意图识别方法 Active CN113887643B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111187641.9A CN113887643B (zh) 2021-10-12 2021-10-12 一种基于伪标签自训练和源域再训练的新对话意图识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111187641.9A CN113887643B (zh) 2021-10-12 2021-10-12 一种基于伪标签自训练和源域再训练的新对话意图识别方法

Publications (2)

Publication Number Publication Date
CN113887643A CN113887643A (zh) 2022-01-04
CN113887643B true CN113887643B (zh) 2023-07-18

Family

ID=79006290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111187641.9A Active CN113887643B (zh) 2021-10-12 2021-10-12 一种基于伪标签自训练和源域再训练的新对话意图识别方法

Country Status (1)

Country Link
CN (1) CN113887643B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170484B (zh) * 2022-02-11 2022-05-27 中科视语(北京)科技有限公司 图片属性预测方法、装置、电子设备和存储介质
CN114818738A (zh) * 2022-03-01 2022-07-29 达而观信息科技(上海)有限公司 一种客服热线用户意图轨迹识别的方法及***
CN114637848A (zh) * 2022-03-15 2022-06-17 美的集团(上海)有限公司 语义分类方法及装置
CN115168593B (zh) * 2022-09-05 2022-11-29 深圳爱莫科技有限公司 一种可自我学习的智能对话管理方法及处理设备
CN115512696A (zh) * 2022-09-20 2022-12-23 中国第一汽车股份有限公司 模拟训练方法及车辆

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378632A (zh) * 2021-04-28 2021-09-10 南京大学 一种基于伪标签优化的无监督域适应行人重识别算法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10580176B2 (en) * 2018-06-28 2020-03-03 Microsoft Technology Licensing, Llc Visualization of user intent in virtual agent interaction
JP6695004B1 (ja) * 2019-04-03 2020-05-20 ガンホー・オンライン・エンターテイメント株式会社 検出されたユーザの意思を利用した端末装置
CN110298391B (zh) * 2019-06-12 2023-05-02 同济大学 一种基于小样本的迭代式增量对话意图类别识别方法
CN110377911B (zh) * 2019-07-23 2023-07-21 中国工商银行股份有限公司 对话框架下的意图识别方法和装置
CN113297360B (zh) * 2021-04-29 2022-05-27 天津汇智星源信息技术有限公司 基于弱监督学习和联合学习机制的法律问答方法及设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378632A (zh) * 2021-04-28 2021-09-10 南京大学 一种基于伪标签优化的无监督域适应行人重识别算法

Also Published As

Publication number Publication date
CN113887643A (zh) 2022-01-04

Similar Documents

Publication Publication Date Title
CN113887643B (zh) 一种基于伪标签自训练和源域再训练的新对话意图识别方法
Zhang et al. Discovering new intents with deep aligned clustering
CN110134757B (zh) 一种基于多头注意力机制的事件论元角色抽取方法
CN106469560B (zh) 一种基于无监督域适应的语音情感识别方法
Chen Deep learning with nonparametric clustering
CN107861951A (zh) 智能客服中的会话主题识别方法
CN106709754A (zh) 一种用基于文本挖掘的电力用户分群方法
CN103514170B (zh) 一种语音识别的文本分类方法和装置
CN111626336A (zh) 一种基于不平衡数据集的地铁故障数据分类方法
CN112529638B (zh) 基于用户分类和深度学习的服务需求动态预测方法及***
CN109583635A (zh) 一种面向运行可靠性的短期负荷预测建模方法
CN104091038A (zh) 基于大间隔分类准则的多示例学习特征加权方法
CN110795736B (zh) 一种基于svm决策树的恶意安卓软件检测方法
CN115577357A (zh) 一种基于堆叠集成技术的Android恶意软件检测方法
CN113535928A (zh) 基于注意力机制下长短期记忆网络的服务发现方法及***
CN116050419B (zh) 一种面向科学文献知识实体的无监督识别方法及***
CN115083511A (zh) 基于图表示学习与注意力的***基因调控特征提取方法
Tang et al. Chinese spam classification based on weighted distributed characteristic
CN115600595A (zh) 一种实体关系抽取方法、***、设备及可读存储介质
Chun et al. Research on music classification based on MFCC and BP neural network
He et al. Label correlation mixture model: A supervised generative approach to multilabel spoken document categorization
CN112561599A (zh) 一种融合域特征交互的基于注意力网络学习的点击率预测方法
CN111274359A (zh) 基于改进vhred与强化学习的查询推荐方法及***
CN111310971B (zh) 一种o2o商业模式的前景分析方法、装置及设备
Dongfang Electronic Music Signal Identification Model Based On Machine Learning Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant