CN109637546B - 知识蒸馏方法和装置 - Google Patents

知识蒸馏方法和装置 Download PDF

Info

Publication number
CN109637546B
CN109637546B CN201811645776.3A CN201811645776A CN109637546B CN 109637546 B CN109637546 B CN 109637546B CN 201811645776 A CN201811645776 A CN 201811645776A CN 109637546 B CN109637546 B CN 109637546B
Authority
CN
China
Prior art keywords
model
speaker
teacher
student
speaker embedding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811645776.3A
Other languages
English (en)
Other versions
CN109637546A (zh
Inventor
俞凯
钱彦旻
王帅
杨叶新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sipic Technology Co Ltd
Original Assignee
AI Speech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Speech Ltd filed Critical AI Speech Ltd
Priority to CN201811645776.3A priority Critical patent/CN109637546B/zh
Publication of CN109637546A publication Critical patent/CN109637546A/zh
Application granted granted Critical
Publication of CN109637546B publication Critical patent/CN109637546B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开知识蒸馏方法和装置,其中,一种知识蒸馏方法,包括:在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,教师模型和学生模型均包括说话人嵌入提取和说话人后验概率分布预测;以教师模型的说话人嵌入提取为标准,将学生模型的说话人嵌入提取和教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对学生模型进行优化;或以教师模型的说话人后验概率分布预测为标准,将学生模型的说话人后验概率分布预测和教师说话人后验概率分布预测的差距限制在第二预设范围内,以对学生模型进行优化;使用优化好的学生模型进行部署和/或预测。从而可以通过性能很好地大模型训练小模型然后部署和使用小模型。

Description

知识蒸馏方法和装置
技术领域
本发明属于语音数据处理技术领域,尤其涉及知识蒸馏方法和装置。
背景技术
相关技术中,i-vector是很经典的说话人嵌入学习方法,它是基于传统的因子分析模型进行的,本质上是求得高斯超向量的低维空间表示。
基于深度神经网络的说话人嵌入学习,首先训练一个目标是区分不同说话人的网络,然后从某个特定层(嵌入提取层)提取说话人嵌入表示。大量的论文证明,大网络,深网络通常能取得更好的效果。
深度说话人嵌入学习是一种非常有效的说话人身份建模方法,超深模型如残差网络取得了很好的性能,但是对于资源受限的真实应用场景而言,此类模型计算量太大。另一方面,简单的减小模型会造成严重的性能下降。
发明人发现现有技术的方案至少存在以下问题:
i-vector本质上可以看做一个单层的线性模型,对于复杂的数据很难进行鲁棒的建模,对于短时数据性能表现也不是很好。
对于实际应用场景来讲,超深网络(如残差网络)由于计算量巨大,很难进行部署,而简单的浅层的、参数量小的模型又往往达不到性能要求。
发明内容
本发明实施例提供一种知识蒸馏方法和装置,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种知识蒸馏方法,包括:在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,所述教师模型和所述学生模型均包括说话人嵌入提取和说话人后验概率分布预测;以所述教师模型的说话人嵌入提取为标准,将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对所述学生模型进行优化;或以所述教师模型的说话人后验概率分布预测为标准,将所述学生模型的说话人后验概率分布预测和所述教师说话人后验概率分布预测的差距限制在第二预设范围内,以对所述学生模型进行优化;使用优化好的学生模型进行部署和/或预测。
第二方面,本发明实施例提供一种知识蒸馏装置,包括:输入模块,配置为在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,所述教师模型和所述学生模型均包括说话人嵌入提取和说话人后验概率分布预测;说话人嵌入模块,配置为以所述教师模型的说话人嵌入提取为标准,将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对所述学生模型进行优化;或后验模块,配置为以所述教师模型的说话人后验概率分布预测为标准,将所述学生模型的说话人后验概率分布预测和所述教师说话人后验概率分布预测的差距限制在第二预设范围内,以对所述学生模型进行优化;以及部署预测模块,配置为使用优化好的学生模型进行部署和/或预测。
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的知识蒸馏方法的步骤。
第四方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行本发明任一实施例的知识蒸馏方法的步骤。
本申请的的方案提供了一种通用的提升轻量级说话人嵌入的训练方式,不限于模型结构,有很强的推广性。通常方法训练的深度说话人嵌入由于模型参数量,计算量太大,对于资源受限的真实应用来讲,很难被部署。直接训练的小模型又有着较大的性能下降。通过本方案提出的方法,可以大大减小大模型和小模型之间的性能差距,在满足部署要求的同时,尽可能的提升性能。事实上,学生网络可以选择更轻量级的网络,甚至定点化之后的网络结构。我们提出的知识蒸馏、迁移方案是通用的。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种知识蒸馏方法的流程图;
图2为本发明一实施例提供的一种知识蒸馏方法的原理框图;
图3为本发明一实施例提供的多种不同模型的收敛比较图;
图4为本发明一实施例提供的一种知识蒸馏装置的框图;
图5是本发明一实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,其示出了本申请的知识蒸馏方法一实施例的流程图,本实施例的知识蒸馏方法可以适用于使用大模型训练小模型的方案。
如图1所示,在步骤101中,在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,教师模型和学生模型均包括说话人嵌入提取和说话人后验概率分布预测;
在步骤102中,以教师模型的说话人嵌入提取为标准,将学生模型的说话人嵌入提取和教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对学生模型进行优化;或
在步骤103中,以教师模型的说话人后验概率分布预测为标准,将学生模型的说话人后验概率分布预测和教师说话人后验概率分布预测的差距限制在第二预设范围内,以对学生模型进行优化。
在步骤104中,使用优化好的学生模型进行部署和/或预测。
在本实施例中,对于步骤101,通过向教师模型和学生模型中输入相同说话人的音频数据,其最终应该输出的是同一说话人,从而可以很明显的比较出学生模型与教师模型的差别,让学生模型更好地向教师模型学习。之后,对于步骤102,通过强迫学生模型学习教师模型的说话人嵌入,可以让学生模型有一个学习的方向,效果更好。同样,对于步骤103,通过强制学生模型学习教师模型的预测输出,从而不断地调整学生模型以使得学生模型的预测与教师模型的输出更相似。最后,对于步骤104,优化好的学生模型可以用于部署和预测。
本实施例的方法通过利用训练好的性能好的大模型,即教师模型来训练学生模型,使得学生模型能够学到教师模型的性能表现。由于性能好的大模型通常不适合部署,通过知识蒸馏的方式让其优化学生模型,可以很快地优化出性能差距不大的学生模型,用时短,性能好,适合部署和预测。
在一些可选的实施例中,将学生模型的说话人嵌入提取和教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对学生模型进行优化包括:获取由教师模型计算的第i个样本的第一说话人嵌入;获取由学生模型计算的第i个样本的第二说话人嵌入;通过调整学生模型使得第二说话人嵌入与第一说话人嵌入之间的欧氏距离损失或者余弦距离损失最小化。
在进一步可选的实施例中,欧氏距离损失和余弦距离损失的计算公式如下:
Figure BDA0001932032560000041
其中,
Figure BDA0001932032560000044
表示欧氏距离损失,
Figure BDA0001932032560000045
表示余弦距离损失,N表示样本数,i表示样本索引,
Figure BDA0001932032560000042
表示由教师模型为第i个样本计算的说话人嵌入,
Figure BDA0001932032560000043
表示由学生模型为第i个样本计算的说话人嵌入。
在另一些可选的实施例中,将学生模型的说话人后验概率分布预测和教师说话人后验概率分布预测的差距限制在第二预设范围内包括:获取教师模型预测的第一后验概率分布;获取学生模型预测的第二后验概率分布;计算第二后验概率与第一后验概率的相对熵,并通过调整学生模型使得相对熵最小化。
在进一步可选的实施例中,相对熵的计算公式如下:
Figure BDA0001932032560000051
其中,
Figure BDA0001932032560000052
表示相对熵,
Figure BDA0001932032560000053
表示教师模型预测的第i个样本的后验概率,yi表示学生模型预测的第i个样本的后验概率,j表示第j类,C表示类的数量。
在一些可选的实施例中,上述方法还包括:结合交叉熵损失得出最终损失,其中,交叉熵损失的计算公式为:
Figure BDA0001932032560000054
其中,
Figure BDA0001932032560000055
表示交叉熵,i表示样本索引,N表示样本数,
Figure BDA0001932032560000056
表示真实标签,yi是模型的预测输出,j表示第j类,C表示类的数量。
需要说明的是,上述方法步骤并不用于限制各步骤的执行顺序,实际上,某些步骤可能会同时执行或者以与步骤限定的相反的顺序执行,本申请在此没有限制。
下面对通过描述发明人在实现本发明的过程中遇到的一些问题和对最终确定的方案的一个具体实施例进行说明,以使本领域技术人员更好地理解本申请的方案。
面对以上现有技术中存在的问题,本领域技术人员一般会对大网络定点化训练,或者进行网络裁剪,缩小网络的大小。
在本申请中,我们提出了标签级别和嵌入级别的知识蒸馏方法来缩小小模型和大模型之间的性能差距。标签级别的知识蒸馏方法使用一个训练好的教师模型预测的后验概率分布来指导学生模型的优化过程。嵌入级别的知识蒸馏方法则直接限制大模型和小模型学到的说话人嵌入之间的相似性。我们在Voxceleb1数据集上展开了实验,实验结果表明提出的知识蒸馏方法可以有效地提升小型学生模型的性能表现。
最终使用的模型仍然是小模型,但是通过Knowledge Distillation(KD,知识蒸馏方法),用性能很好的大模型(教师模型)去教小模型(学生模型),从而达到小模型模拟大模型的效果,在不增加计算量的同时极大地提高***性能。
以下,介绍本申请实现的过程,并给出详细的实验过程及实验数据。
最近,深度架构学到的说话人嵌入已经表现出令人印象深刻的说话人识别性能。说话人嵌入表示基于固定维矢量的表示,用于建模说话者的身份。从基于高斯混合模型(GMM)的超向量,基于联合因子分析(JFA)的特征语音向量,基于因子分析(FA)的i向量,到最近出现的深度说话人嵌入,说话人嵌入学习现已成为说话人识别中说话人建模的主流。
使用ResNet等深度架构学习的说话人嵌入被证明可以实现非常好的性能。然而,这些模型包含数百万个参数并且需要巨大的存储器和计算资源。对于通常需要在资源受限的嵌入式设备上运行程序的实际应用程序,无法轻松部署这些高级模型。另一方面,小型模型需要更少的资源,更适合部署,但代价是性能下降。因此,我们希望开发一种有效的机制来提升小型模型的***性能。与大型深度模型相比,为了缩小性能差距,知识蒸馏将是一种自然的方法。
知识蒸馏在已成功应用于许多应用,如图像识别,语音识别和关键词识别。知识蒸馏通常用于领域适应和模型压缩,常见的方法是使用通过训练有素的教师模型获得的后验来指导学生模型的优化,这种范例通常被称为师生学习。在本申请中,我们建议将师生学习思想引入深度说话人嵌入学习过程。开发了两种知识蒸馏方法。
·标签级知识蒸馏:教师模型提供预测的后验作为学生模型的参考标签。Kullback-Leibler散度用于监督模型优化。
·嵌入级知识蒸馏:直接使用教师模型学习的说话人嵌入来帮助优化学生模型。更具体地,诸如欧氏距离和余弦距离的相似性度量用于约束从两个模型学习的嵌入的相似性。
2.深度说话人嵌入学习
在深度说话人嵌入框架中,首先对来自大量说话人的话语训练说话者辨别DNN。该训练过程可以在帧级或话语级别执行,而话语级别训练更有意义并且实现更好的表现。已经开发出更强大的深度架构,如ResNet和更高级的损耗函数,如三元组损失,角度softmax和广义端到端损耗,在标准数据集上取得了令人印象深刻的结果。在这项工作中,我们采用正常的softmax结合交叉熵损失作为训练标准,更复杂的框架将留在未来的工作中。
图2示出了深度说话人嵌入式学习在说话人识别中的知识蒸馏。如图2所示,本方案提出了两种知识蒸馏方法,使得小模型也能学习到性能不错的说话人嵌入表示。
(1)左:标签级别教师-学生学习架构,学生优化由预训练教师模型预测的后验者指导。
(2)右:嵌入级别教师-学生学习架构,直接约束从教师和学生模型中学习的说话人嵌入的相似性。
如之前说明,说话人嵌入表征是通过神经网络提取的,该神经网络训练的目标是尽可能的区分训练集中的不同说话人,损失函数为CE(Cross Entropy,交叉熵),模型的最后一层输出为说话人的预测概率分布。
我们提出的第一种KD方法是用使得小模型的模型输出去拟合大模型预测的概率分布,优化的损失函数为两个模型预测的概率分布的KLD(Kullback-Leibler divergence,相对熵,KL散度)。
第二种KD方法则是直接在说话人嵌入上进行,通过直接限制小模型学到的说话人嵌入表示,使其尽可能与大模型学习到的嵌入相似。相似性可以用不同的准则表示,如常见的欧氏距离,余弦距离等等。
综上,我们提出的方案的实施步骤如下:
1)训练一个性能很好的大模型(教师模型);
2)用训练好的教师模型通过上述的两种方案去教小模型(学生模型);
3)用优化好的学生模型进行部署、预测等等。
本方案提供了一种通用的提升轻量级说话人嵌入的训练方式,不限于模型结构,有很强的推广性。通常方法训练的深度说话人嵌入由于模型参数量,计算量太大,对于资源受限的真实应用来讲,很难被部署。直接训练的小模型又有着较大的性能下降。通过本方案提出的方法,可以大大减小大模型和小模型之间的性能差距,在满足部署要求的同时,尽可能的提升性能。事实上,学生网络可以选择更轻量级的网络,甚至定点化之后的网络结构。我们提出的知识蒸馏、迁移方案是通用的。
3.针对深度嵌入式的教师-学生学习
师生学习使用表现良好的教师模型来帮助优化学生模型。例如,研究人员可以使用几种声学模型的集合来帮助优化单个声学模型以进行语音识别。类似于语音识别,我们使用师生学习来减少大型深度模型和用于说话人识别的小型模型之间的性能差距。在本文中,提出了两个框架,用于深度说话人嵌入之间的知识蒸馏,包括标签级和嵌入级,这将在以下部分中描述。两种不同架构的图示如图2所示。
3.1交叉熵训练
说话人嵌入学习最常见的标准是交叉熵损失函数(CE,Cross Entropy,交叉熵),其定义如下:
Figure BDA0001932032560000081
其中i是样本索引,N表示样本数。
Figure BDA0001932032560000082
表示真实标签,它是一个单一向量,yi是模型的预测输出。j表示第j类,C表示类的数量。
3.2标签级知识蒸馏
在说话人嵌入学习任务中,教师和学生模型的输出都是同一组说话人的后代,如果我们强迫他们发出类似的后验,学生模型应该模仿教师模型。这通常通过最小化学生和教师分布之间的KL散度(Kullback-Leibler divergence,KLD)来实现。相应的KLD损失在公式2中定义:
Figure BDA0001932032560000083
其中
Figure BDA0001932032560000084
是教师模型预测的第i个样本的后验,它现在是一个分布(软标签)而不是简单的单一向量(硬标签)。与硬标签相比,软标签包含底层标签分布的更多信息(在某些现有技术中称为暗知识),这可能有益于学生模型的优化。在优化中,使用硬标签和软标签,因此可以将两种损失结合起来用于学生模型训练:
Figure BDA0001932032560000085
其中α是一个超参数来平衡两个损失。
3.3嵌入级知识蒸馏
不是在标签级别执行知识蒸馏,即模型输出的分布,而是更直观地在基于深度嵌入的说话人识别框架中直接约束来自两个模型的学习嵌入的相似性。在这项工作中,欧氏距离(MSE)和余弦距离(COS)损失被开发为嵌入级知识蒸馏的优化度量。
Figure BDA0001932032560000091
Figure BDA0001932032560000092
其中
Figure BDA0001932032560000093
表示由教师模型为第i个样本计算的嵌入,
Figure BDA0001932032560000094
表示由学生模型计算的嵌入。模型训练的最终损失函数分别是
Figure BDA0001932032560000095
Figure BDA0001932032560000096
β和γ是相应的加权参数。
4.实验
4.1数据集
所有实验都是在牛津最近发布的VoxCeleb1数据集上进行的。VoxCeleb是一个大型的与文本无关的说话人识别数据集,由两个版本组成,VoxCeleb1和VoxCeleb2。请注意,我们在本申请中仅使用VoxCeleb1。而且,实验中没有采用数据增强方法。第1部分包含来自1251个不同名人的150000多个话语。对于说话人验证任务,第1部分分为训练部分和评估部分。训练部分包含来自1211人的148642个话语,而评估部分包含来自其余40人的约4874个语句。采用的官方测试列表共包含37720个测试用例。
4.2***设置和评估指标
本申请所提出的知识蒸馏方法可以应用于标准说话人嵌入学习模型。在这项工作中,我们采用的教师模型架构,已被验证在VoxCeleb数据集上使用此架构具有良好的性能。它是一个34层神经网络,由16个残差块组成{3,4,6,3}.ResNet34的详细网络配置是如表1所示。
表1.ResNet34教师模型的详细配置:所有过滤器大小设置为3×3,N表示输入话语的帧编号。
Figure BDA0001932032560000101
对于学生模型,在实验中研究了几种不同的设置。最直观的选择是使用具有较少块的ResNet。采用两种设置,即ResNet16和ResNet10,残差块的块数分别设置为{1,2,3,1}和{1,1,1,1}。ResNet16大约是ResNet34的一半大小,而ResNet10是我们可以获得的最小型号,同时与ResNet34教师模型保持相同的架构。此外,还研究了一种不同的架构,它是一个简单的4层CNN,其详细配置如表2所示。CNN模型旨在模拟ResNet架构,而每个残差块用简单的卷积层代替。后续将给出不同模型在参数编号和推理速度方面的比较。
表2.CNN学生模型的详细配置,所有过滤器大小设置为3×3,N表示输入话语的帧号。
Figure BDA0001932032560000102
对于所有基于神经网络的***,以10ms帧移位提取帧长为25ms的64维Fbank特征。神经网络在单GPU上使用64小批量训练,随机梯度下降,动量为0.9,重量衰减1e-4用于优化器。尽管训练话语的原始长度不同,但我们将样本保存在一个共享相同帧数的小批量中,这是一个介于300和800之间的随机整数。在实验中,设置了前面提到的三个超参数α,β和γ分别为1.0,0.4和0.4,在实验中获得最佳结果。
概率线性判别分析(PLDA)和余弦距离用于评估说话人嵌入。所有结果都报告为最小错误率(EER)和标准化检测成本函数的最小值。先验目标概率Ptarget设置为0.01(minDCF0.01)和0.001(minDCF0.001),在失败Cmiss和误报Cfa之间具有相等的权重1.0。
4.3结果和分析
表3总结了不同***的结果。ResNet34是教师模型,没有知识蒸馏的ResNet16,ResNet10和CNN是三种学生模型的基线。如表3所示,更深度的体系结构可以实现更好的性能。ResNet34教师模型分别通过PLDA和余弦距离得分获得4.852%和6.045%EER。
使用不同的学生模型观察到不同的表现模型。ResNet16,ResNet10和CNN分别使用PLDA后端实现了5.456%,6.384%和8.823%的EER。标签级知识蒸馏将三个***的EER降低到5.392%,5.870%和7.853%,而嵌入式知识蒸馏进一步提高了性能。从表3可以看出,嵌入式知识蒸馏方法的性能优于标签级方法,这是有意义的,因为我们现在优化的目标与***性能更相关。基于余弦距离的蒸馏实现了比MSE更好的性能,可能是因为MSE约束太严格,这可能会损害泛化能力。
值得注意的是,使用EmbeddingCOS进行知识蒸馏的ResNet16的性能几乎可以达到与教师模型ResNet34相同的精度,但参数要少得多。对于最简单的CNN学生模型,可以更好地反映所提出的知识蒸馏方法的能力。通过EmbeddingCOS进行知识蒸馏之后的模型采用PLDA和余弦距离打分的EER分别取得了21.6%和59.3%的下降。
表3.不同***的性能比较。第一行代表教师模型ResNet34,以下行表示三种学生模型,包括ResNet16,ResNet10和简单CNN,如前所述。Label(标签级别),EmbeddingMSE(欧氏距离嵌入式级别)和EmbeddingCOS(余弦距离嵌入式级别)表示前面描述的不同知识蒸馏方法。
Figure BDA0001932032560000121
图3示出了学生CNN模型w/或w/o知识蒸馏的收敛比较。
具有/不具有知识蒸馏的学生CNN模型的收敛速度如图3所示。可以发现,利用不同的知识蒸馏方法,收敛速度在不同程度上得到改善。一个有趣的观察结果是,MSE损失蒸馏所达到的最终精度甚至低于原始CNN,但前者***优于后者。回想一下通过标签级知识蒸馏获得的有限性能增益,两个观察都表明具有交叉熵损失的softmax不是说话者嵌入学习的完美标准。可以考虑更有力的标准,例如angular-softmax和端到端损失,使用这些设置的知识蒸馏将留作未来的工作。
4.4模型大小和推理速度
排除不会在***实现中使用的最后一层,测试并比较模型大小和推理速度,结果如表4所示。
减小模型大小将相应地提高推理速度。回想一下表3中报告的性能,ResNet16获得了与教师模型ResNet34几乎相同的性能,但参数和推理时间只有一半。另一个观察是,尽管通过提出的知识蒸馏方法可以降低教师和学生模型之间的性能差距,但是更大的模型仍然可以获得更好的性能。对于实际应用,仍然需要在模型尺寸和性能之间进行权衡,而使用提出的知识蒸馏方法可以更容易地实现这种权衡。
表4.比较模型大小和教师和学生模型之间的推理速度。在GPU(Tesla K40m)和CPU(Intel Xeon E5-2670)上测试推理速度。
Figure BDA0001932032560000122
5.结论
通过深度架构学习的说话人嵌入在说话人识别方面表现出令人印象深刻的性能,然而,这些先进的深度模型不适合部署。在本申请中,我们建议使用知识蒸馏与师生学习框架来弥合大型和小型模型提取的说话人嵌入之间的性能差距。提出了两种知识蒸馏结构:1)标签级知识蒸馏,其中教师模型的后验输出用于指导学生模型的优化。2)嵌入级知识蒸馏,其中教师和学生模型的嵌入之间的相似性受到约束。在VoxCeleb1数据集上进行实验,使用标准的34层ResNet作为教师模型,而使用具有不同大小的三个不同模型作为学生模型。结果一致表明,所提出的知识蒸馏方法可以显着提高学生模型的性能。
请参考图4,其示出了本发明一实施例提供的知识蒸馏装置的框图。
如图4所示,知识蒸馏装置400,包括输入模块410、说话人嵌入模块420、后验模块430和部署预测模块440。
其中,输入模块410,配置为在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,所述教师模型和所述学生模型均包括说话人嵌入提取和说话人后验概率分布预测;说话人嵌入模块420,配置为以所述教师模型的说话人嵌入提取为标准,将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对所述学生模型进行优化;或后验模块430,配置为以所述教师模型的说话人后验概率分布预测为标准,将所述学生模型的说话人后验概率分布预测和所述教师说话人后验概率分布预测的差距限制在第二预设范围内,以对所述学生模型进行优化;以及部署预测模块440,配置为使用优化好的学生模型进行部署和/或预测。
应当理解,图4中记载的诸模块与参考图1中描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征以及相应的技术效果同样适用于图4中的诸模块,在此不再赘述。
值得注意的是,本公开的实施例中的模块并不用于限制本公开的方案,例如判断模块可以描述为当设备处于交互状态时,判断交互状态是否为播放场景的模块。另外,还可以通过硬件处理器来实现相关功能模块,例如判断模块也可以用处理器实现,在此不再赘述。
在另一些实施例中,本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的知识蒸馏方法;
作为一种实施方式,本发明的非易失性计算机存储介质存储有计算机可执行指令,计算机可执行指令设置为:
在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,所述教师模型和所述学生模型均包括说话人嵌入提取和说话人后验概率分布预测;
以所述教师模型的说话人嵌入提取为标准,将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对所述学生模型进行优化;或
以所述教师模型的说话人后验概率分布预测为标准,将所述学生模型的说话人后验概率分布预测和所述教师说话人后验概率分布预测的差距限制在第二预设范围内,以对所述学生模型进行优化;
使用优化好的学生模型进行部署和/或预测。
非易失性计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据知识蒸馏装置的使用所创建的数据等。此外,非易失性计算机可读存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,非易失性计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至知识蒸馏装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,使计算机执行上述任一项知识蒸馏方法。
图5是本发明实施例提供的电子设备的结构示意图,如图5所示,该设备包括:一个或多个处理器510以及存储器520,图5中以一个处理器510为例。知识蒸馏方法的设备还可以包括:输入装置530和输出装置540。处理器510、存储器520、输入装置530和输出装置540可以通过总线或者其他方式连接,图5中以通过总线连接为例。存储器520为上述的非易失性计算机可读存储介质。处理器510通过运行存储在存储器520中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例知识蒸馏方法。输入装置530可接收输入的数字或字符信息,以及产生与信息投放装置的用户设置以及功能控制有关的键信号输入。输出装置540可包括显示屏等显示设备。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
作为一种实施方式,上述电子设备应用于知识蒸馏装置中,用于客户端,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够:
在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,所述教师模型和所述学生模型均包括说话人嵌入提取和说话人后验概率分布预测;
以所述教师模型的说话人嵌入提取为标准,将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对所述学生模型进行优化;或
以所述教师模型的说话人后验概率分布预测为标准,将所述学生模型的说话人后验概率分布预测和所述教师说话人后验概率分布预测的差距限制在第二预设范围内,以对所述学生模型进行优化;
使用优化好的学生模型进行部署和/或预测。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、***总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种知识蒸馏方法,包括:
在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,所述教师模型和所述学生模型均包括说话人嵌入提取和说话人后验概率分布预测;
以所述教师模型的说话人嵌入提取为标准,将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,其中,包括使用欧式距离或者余弦距离损失对所述学生模型进行优化;
所述欧氏距离损失和所述余弦距离损失的计算公式如下:
Figure FDA0002892020050000011
Figure FDA0002892020050000012
其中,
Figure FDA0002892020050000013
表示欧氏距离损失,
Figure FDA0002892020050000014
表示余弦距离损失,N表示样本数,i表示样本索引,
Figure FDA0002892020050000015
表示由所述教师模型为第i个样本计算的说话人嵌入,
Figure FDA0002892020050000016
表示由所述学生模型为第i个样本计算的说话人嵌入;
使用优化好的学生模型进行部署和/或预测。
2.根据权利要求1所述的方法,其中,所述将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,以对所述学生模型进行优化包括:
获取由所述教师模型计算的第i个样本的第一说话人嵌入;
获取由所述学生模型计算的第i个样本的第二说话人嵌入;
通过调整所述学生模型使得所述第二说话人嵌入与所述第一说话人嵌入之间的欧氏距离损失或者余弦距离损失最小化。
3.根据权利要求1所述的方法,其中,所述方法还包括:
结合交叉熵损失得出最终损失,其中,所述交叉熵损失的计算公式为:
Figure FDA0002892020050000021
其中,
Figure FDA0002892020050000022
表示交叉熵,i表示样本索引,N表示样本数,
Figure FDA0002892020050000023
表示真实标签,yi是模型的预测输出,j表示第j类,C表示类的数量。
4.一种知识蒸馏装置,包括:
输入模块,配置为在说话人嵌入学习任务中,向教师模型和学生模型中输入相同说话人的音频数据,其中,所述教师模型和所述学生模型均包括说话人嵌入提取和说话人后验概率分布预测;
说话人嵌入模块,配置为以所述教师模型的说话人嵌入提取为标准,将所述学生模型的说话人嵌入提取和所述教师模型的说话人嵌入提取的差距限制在第一预设范围内,其中,包括使用欧式距离或者余弦距离损失对所述学生模型进行优化;
所述欧氏距离损失和所述余弦距离损失的计算公式如下:
Figure FDA0002892020050000024
Figure FDA0002892020050000025
其中,
Figure FDA0002892020050000026
表示欧氏距离损失,
Figure FDA0002892020050000027
表示余弦距离损失,N表示样本数,i表示样本索引,
Figure FDA0002892020050000028
表示由所述教师模型为第i个样本计算的说话人嵌入,
Figure FDA0002892020050000029
表示由所述学生模型为第i个样本计算的说话人嵌入;
部署预测模块,配置为使用优化好的学生模型进行部署和/或预测。
5.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至3任一项所述方法的步骤。
6.一种存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1至3任一项所述方法的步骤。
CN201811645776.3A 2018-12-29 2018-12-29 知识蒸馏方法和装置 Active CN109637546B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811645776.3A CN109637546B (zh) 2018-12-29 2018-12-29 知识蒸馏方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811645776.3A CN109637546B (zh) 2018-12-29 2018-12-29 知识蒸馏方法和装置

Publications (2)

Publication Number Publication Date
CN109637546A CN109637546A (zh) 2019-04-16
CN109637546B true CN109637546B (zh) 2021-02-12

Family

ID=66054957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811645776.3A Active CN109637546B (zh) 2018-12-29 2018-12-29 知识蒸馏方法和装置

Country Status (1)

Country Link
CN (1) CN109637546B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110232411B (zh) * 2019-05-30 2022-08-23 北京百度网讯科技有限公司 模型蒸馏实现方法、装置、***、计算机设备及存储介质
CN110246487B (zh) * 2019-06-13 2021-06-22 思必驰科技股份有限公司 用于单通道的语音识别模型的优化方法及***
CN110674688B (zh) * 2019-08-19 2023-10-31 深圳力维智联技术有限公司 用于视频监控场景的人脸识别模型获取方法、***和介质
CN110674880B (zh) * 2019-09-27 2022-11-11 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN110796619B (zh) * 2019-10-28 2022-08-30 腾讯科技(深圳)有限公司 一种图像处理模型训练方法、装置、电子设备及存储介质
CN110852426B (zh) * 2019-11-19 2023-03-24 成都晓多科技有限公司 基于知识蒸馏的预训练模型集成加速方法及装置
CN111178036B (zh) * 2019-12-06 2023-08-29 云知声智能科技股份有限公司 一种知识蒸馏的文本相似度匹配模型压缩方法及***
CN111062489B (zh) * 2019-12-11 2023-10-20 北京知道创宇信息技术股份有限公司 一种基于知识蒸馏的多语言模型压缩方法、装置
CN111179961B (zh) * 2020-01-02 2022-10-25 腾讯科技(深圳)有限公司 音频信号处理方法、装置、电子设备及存储介质
CN111179905A (zh) * 2020-01-10 2020-05-19 北京中科深智科技有限公司 一种快速配音生成方法及装置
CN111275092B (zh) * 2020-01-17 2022-05-13 电子科技大学 一种基于无监督域适应的图像分类方法
CN111312271B (zh) * 2020-02-28 2023-03-21 云知声智能科技股份有限公司 一种提高收敛速度和处理性能的模型压缩方法和***
CN111428130B (zh) * 2020-03-06 2023-04-18 云知声智能科技股份有限公司 一种知识蒸馏过程中增强文本数据的方法及装置
CN111553479B (zh) * 2020-05-13 2023-11-03 鼎富智能科技有限公司 一种模型蒸馏方法、文本检索方法及装置
CN111627428B (zh) * 2020-05-15 2023-11-14 北京青牛技术股份有限公司 构建压缩的语音识别模型的方法
CN111640425B (zh) * 2020-05-22 2023-08-15 北京百度网讯科技有限公司 一种模型训练和意图识别方法、装置、设备及存储介质
CN111653261A (zh) * 2020-06-29 2020-09-11 北京字节跳动网络技术有限公司 语音合成方法、装置、可读存储介质及电子设备
CN112070233B (zh) * 2020-08-25 2024-03-22 北京百度网讯科技有限公司 模型联合训练方法、装置、电子设备和存储介质
CN112712099B (zh) * 2020-10-10 2024-04-12 江苏清微智能科技有限公司 一种基于双层知识蒸馏说话人模型压缩***和方法
US20220188643A1 (en) * 2020-12-11 2022-06-16 International Business Machines Corporation Mixup data augmentation for knowledge distillation framework
CN112687290B (zh) * 2020-12-30 2022-09-20 同济大学 一种经过压缩的咳嗽自动检测方法及嵌入式设备
CN113065564A (zh) * 2021-04-25 2021-07-02 合肥中科类脑智能技术有限公司 一种嵌入式端的表计主刻度线实时分割方法及***
CN113361396B (zh) * 2021-06-04 2023-12-26 思必驰科技股份有限公司 多模态的知识蒸馏方法及***
CN113822125B (zh) * 2021-06-24 2024-04-30 华南理工大学 唇语识别模型的处理方法、装置、计算机设备和存储介质
CN114220438B (zh) * 2022-02-22 2022-05-13 武汉大学 基于bottleneck和通道切分的轻量级说话人识别方法及***
CN114936567B (zh) * 2022-05-26 2024-06-11 清华大学 一种基于知识蒸馏的无监督机器翻译质量预估方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247989A (zh) * 2017-06-15 2017-10-13 北京图森未来科技有限公司 一种神经网络训练方法及装置
CN107358293A (zh) * 2017-06-15 2017-11-17 北京图森未来科技有限公司 一种神经网络训练方法及装置
CN108549937A (zh) * 2018-04-24 2018-09-18 厦门中控智慧信息技术有限公司 一种检测网络的知识迁移方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830813B (zh) * 2018-06-12 2021-11-09 福建帝视信息科技有限公司 一种基于知识蒸馏的图像超分辨率增强方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247989A (zh) * 2017-06-15 2017-10-13 北京图森未来科技有限公司 一种神经网络训练方法及装置
CN107358293A (zh) * 2017-06-15 2017-11-17 北京图森未来科技有限公司 一种神经网络训练方法及装置
CN108549937A (zh) * 2018-04-24 2018-09-18 厦门中控智慧信息技术有限公司 一种检测网络的知识迁移方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DOMAIN ADAPTATION OF DNN ACOUSTIC MODELS USING KNOWLEDGE DISTILLATION;Taichi Asami 等;《ICASSP 2017》;20171231;第2-4部分 *
KNOWLEDGE DISTILLATION FOR SMALL-FOOTPRINT HIGHWAY NETWORKS;Liang Lu 等;《arXiv:1608.00892v3》;20161220;全文 *

Also Published As

Publication number Publication date
CN109637546A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
CN109637546B (zh) 知识蒸馏方法和装置
CN110246487B (zh) 用于单通道的语音识别模型的优化方法及***
CN110706692B (zh) 儿童语音识别模型的训练方法及***
CN108417217B (zh) 说话人识别网络模型训练方法、说话人识别方法及***
CN111862942B (zh) 普通话和四川话的混合语音识别模型的训练方法及***
CN108960407A (zh) 递归神经网路语言模型训练方法、装置、设备及介质
CN112487139A (zh) 基于文本的自动出题方法、装置及计算机设备
CN110427629A (zh) 半监督文本简化模型训练方法和***
CN113361396B (zh) 多模态的知识蒸馏方法及***
CN111816215A (zh) 语音端点检测模型训练和使用方法及装置
Zhou et al. ICRC-HIT: A deep learning based comment sequence labeling system for answer selection challenge
CN111667728B (zh) 语音后处理模块训练方法和装置
CN112837669B (zh) 语音合成方法、装置及服务器
CN111835784A (zh) 用于重放攻击检测***的数据泛化方法及***
CN111192659A (zh) 用于抑郁检测的预训练方法和抑郁检测方法及装置
CN108491380B (zh) 用于口语理解的对抗多任务训练方法
CN112017694A (zh) 语音数据的评测方法和装置、存储介质和电子装置
CN113961692A (zh) 机器阅读理解方法及***
CN110232927B (zh) 说话人验证反欺骗方法和装置
CN113160855B (zh) 在线语音活性检测***改进方法和装置
CN111062209A (zh) 自然语言处理模型训练方法和自然语言处理模型
CN114913859B (zh) 声纹识别方法、装置、电子设备和存储介质
CN113095086B (zh) 义原预测方法及***
CN112784094B (zh) 自动音频摘要生成方法和装置
CN114420098A (zh) 唤醒词检测模型训练方法、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee after: Sipic Technology Co.,Ltd.

Address before: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee before: AI SPEECH Ltd.