CN113643693B - 以声音特征为条件的声学模型 - Google Patents
以声音特征为条件的声学模型 Download PDFInfo
- Publication number
- CN113643693B CN113643693B CN202110452098.4A CN202110452098A CN113643693B CN 113643693 B CN113643693 B CN 113643693B CN 202110452098 A CN202110452098 A CN 202110452098A CN 113643693 B CN113643693 B CN 113643693B
- Authority
- CN
- China
- Prior art keywords
- sound
- audio
- encoder
- voice
- acoustic model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001143 conditioned effect Effects 0.000 title abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 51
- 238000012545 processing Methods 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 4
- 230000005236 sound signal Effects 0.000 abstract 1
- 238000013528 artificial neural network Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 230000007613 environmental effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 230000008901 benefit Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000013518 transcription Methods 0.000 description 4
- 230000035897 transcription Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 208000035943 Aphagia Diseases 0.000 description 2
- 201000007201 aphasia Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003750 conditioning effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000005476 soldering Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
本公开涉及以声音特征为条件的声学模型。话音识别的***和方法捕捉具有关键短语及其后紧接的话语的话音音频的片段。编码器使用关键短语片段来计算声音嵌入,该声音嵌入被存储。用于话音识别的声学模型利用以声音嵌入作为输入条件的模型来从话语音频信号推断音素。声音嵌入可被保持,直到另一关键短语被捕捉或者会话结束为止。可以从与噪声混合的话音数据记录来联合训练声学模型和编码器,混合噪声的剖面对于关键短语片段和话语片段是相同的。
Description
本申请要求2020年4月27日提交的标题为“Acoustic Model Conditioning onSound Features”的美国临时申请62/704,202号的优先权。
技术领域
本申请属于神经网络的领域,具体而言属于基于声音嵌入作为条件的领域。
背景技术
我们正处于历史的一个转折点,在这里自然语言话音接口作为一种新型的人机接口即将起飞。它们转录话音的能力将很快取代键盘,成为输入文本的最快且最准确的方式。它们支持自然语言命令的能力将很快取代鼠标和触摸屏,成为操纵非文本控制的方式。在四面八方,它们将为人类提供干净、无菌的方式来控制机器工作、娱乐、教育、放松和协助进行琐碎的任务。
然而,自然语言话音接口提供所有这些益处的能力目前被其识别话音的能力的不准确所阻碍。有时弄错单词可能会很有趣,比如将爱尔兰口音的“thirty-three”捕捉为“dirty tree”。在一些情况下,它可能是令人沮丧的,比如从嘈杂的汽车中将“text mom”捕捉为“text tom”、“text none”、“text some”。在一些情况下,话音识别差错可能是危险的,比如把高声的医生口述的失语症(aphasia)医学诊断捕捉为不食症(aphagia)!。
图1示出了虚拟助手情境中的话音识别失败的场景。用户10是一个拥有独特声道的人,他们说话时带有新西兰口音,并且他们在一个嘈杂的房间中,雨落在窗户11上。用户10呼唤12,让虚拟助手预测新西兰首都奥克兰(Auckland)明天是否会下雨。来自旧金山湾区一家公司的虚拟助手13将Auckland这个词识别为湾区城市Oakland,并给出了关于那里天气的无用响应14。来自美国西北一家公司的另一位虚拟助手15把Auckland这个词识别为加拿大西部的城市Falkland,并且也给出了无用响应16。
对于不常见的口音、不常见的语音类型、在不常见的环境条件中(比如有噪音、背景音或音乐)、使用不常见的设备以及在其他不常见的场景中的话音,传统的话音识别遭遇准确率的问题,使得它们只适合于狭窄的用途,比如在安静的家中播放音乐。只有解决了这些问题,带有语音接口的产品才能实现其在日常生活中的潜在作用。
发明内容
以声音特征为条件的声学模型(条件声学模型)提供了一种简单且强大的技术,大大改善了自动话音识别(automatic speech recognition,ASR)的准确性。
用途
条件声学模型在语音类型、口音、环境条件等等那些不常见的用例中提供了最大的改进。它有一些特殊的益处,比如即使在有背景噪声、音乐或话音的情况下,也能使ASR准确。
许多ASR***使用在数据上训练的神经网络。神经网络体系结构在其层数、节点数、卷积、递归和训练方法方面有很大的不同。本发明提供了对ASR准确性的益处,而不管使用的具体神经网络体系结构如何。此外,通过提供改善的准确性,与传统的ASR方案将会需要的相比,可以用更少的时间和更少的训练数据来训练ASR***以满足所需的准确性规格。这使得话音识别产品和服务的提供商能够开发新的特征,并且更快地将其推向市场,从而改善他们的市场竞争地位和整体盈利能力。
ASR的这些益处可以在如图1的示例中那样的响应于关键短语而唤醒的虚拟助手内实现,但也可以在听写***、车辆控制接口、零售贩卖***以及识别经常说出的已知关键短语的语音接口的任何其它应用中实现。
实现方式
声学模型(acoustic model,AM)是ASR的计算机化***的方法,也是其关键成分。具体地,AM推断话音音频中的音素的概率。条件声学模型依赖于从具有已知音素序列的关键短语的第一话音片段编码声音嵌入。在机器学习中,嵌入是一个特殊的术语,它简单地意味着将输入表示投射到另一个更方便的表示空间中。第一音频片段可能只有几个音频样本或者单一的频谱帧那么少,或者可能有一串几个单词那么多。编码的向量在第一音频片段结束后立即或不久就被计算并存储。
条件声学模型随后在紧随在关键短语音频之后的包含话语的第二话音音频片段上执行音素概率的推断。AM的输入既是话音音频的话语片段,也是存储的向量。输出是至少一个的概率,但在许多实现方式中,是一组音素中每个音素的概率的SoftMax集合。
一些实现方式将神经网络用于声学模型,并且在标记的话音音频样本上训练神经网络,每个样本具有对应的关键短语声音嵌入。这个对应关系确保了声音嵌入对AM的学习预测的影响对于每个训练数据样本将会有正确的方向和比例。
在支持各种各样的用户的ASR***的情况下,如果训练样本包括多种语音和多种口音,那么由此产生的推断准确性是最好的。此外,如果训练音频样本中的至少一些与噪声音频样本混合在一起,则推断准确性是最好的。然而,如果与关键短语音频混合的噪声和与训练话语音频混合的噪声具有相同的噪声剖面,则声音嵌入的学习效果将是最好的。
各种类型的编码器是可能的。有些可能是精心编程的。有些可能是从数据中学习的模型,比如神经网络。可以将预训练的模型用于编码器。然而,也可以将编码器模型与声学模型联合训练。这可包括将声学模型梯度反向传播到编码器模型内的神经网络节点。联合训练一般将会给出更好的准确性,因为编码器学习的声音嵌入优化了声音嵌入的迷惑性,为训练的AM模型提供了分辨能力。
也可以让一个或多个联合训练的和一个或多个独立训练的编码模型对来自关键短语音频的声音嵌入进行编码和存储,并且将编码作为输入提供给声学模型。
可以在不同的设备中具有编码器和声学模型。例如,具有麦克风和计算机化代码以运行唤醒短语侦测器的客户端设备也可以计算关键短语的编码。它随后可将随后的具有话语的第二音频片段与编码的向量一起发送到运行条件声学模型的ASR服务器。基于服务器的ASR在用户设备处以较低的成本和功耗要求提供了高准确性。
然而,也可以对声音嵌入进行编码,并且将其用在全都在同一***内的条件声学模型中。那可能是一服务器,其接收关键短语音频和随后的具有话语的话语音频片段。然而,该***可完全被包含在能够在没有网络连接的情况下以“飞行模式”执行ASR的用户设备(例如汽车或移动手机)内。
附图说明
图1示出了传统***中的话音识别失败。
图2示出了具有关键短语和话语的话音音频的波形。
图3示出了一般的和经处理的话音音频内的信息的表格。
图4A示出了根据一实施例的编码器和有条件声学模型的图。
图4B示出了根据一实施例的多个编码器和有条件声学模型的图。
图5示出了根据一实施例训练以声音嵌入为条件的声学模型的图。
图6示出了根据一实施例联合训练编码器和以声音嵌入为条件的声学模型的图。
图7示出了根据一实施例利用与噪声相混合的训练数据联合训练编码器和以声音嵌入为条件的声学模型的图。
图8示出了根据一实施例的具有编码器的设备的图,该编码器提供向量来调节云服务器上的声学模型。
图9A示出了根据一实施例的云服务器。
图9B示出了根据一实施例的云服务器的图。
图10示出了根据一实施例的具有编码器和条件声学模型来进行本地话音识别的移动手机。
图11A示出了根据一实施例的封装的片上***。
图11B示出了根据一实施例的片上***的图。
图12示出了根据一实施例的非暂态计算机可读介质。
具体实施方式
下文描述了条件声学模型的相关方面的各种设计选择。除注明外,不同方面的设计选择是相互独立的,并且以任意组合方式一起工作。
声学模型
ASR的声学模型取得包括话音音频片段的输入,并且产生一个或多个音素的推断概率的输出。一些模型可以推断senone概率,这是音素概率的一种类型。在一些应用中,声学模型的输出是一组可识别音素或senone上的概率的SoftMax集合。
一些ASR应用在从音频的帧计算的频谱分量上运行声学模型。频谱分量例如是在25毫秒的音频样本的窗口上计算的梅尔频率倒谱系数(mel-frequency cepstralcoefficient,MFCC)。例如,声学模型推断可以以每10毫秒的间隔重复。
频谱分量可以是从音频波形的样本计算的,例如由作为话音控制设备的用户接口的一部分的麦克风捕捉的音频波形。或者,声学模型可以被训练为直接取得这种样本作为输入。
单个***或设备可包括一个以上的声学模型。一个简单的模型可能对于仅仅在关键短语被说出时断言触发信号的短语侦测器来说已经足够了。用于高准确性话音识别的声学模型可使用具有尽可能多的层和节点的神经网络,以在高性能计算机处理器上实时可用的合理资源预算内实现,或者甚至非实时地实现以便分析记录的话音。一些声学模型可被设计为中等准确水平,以适应合理词汇量的便携式电池供电设备的处理功率预算。
一些声学模型可计算输入特征的卷积,以利用不同粒度水平的信息,这可改善推断精度。一些声学模型可采用递归,例如长短期记忆(long short-term memory,LSTM)或门控递归单元(gated recurrent unit,GRU)神经网络节点,以利用输入信号的时间变化中包含的信息。
图2示出了示例话音波形。它包括第一话音片段21,其中说话者说了一个关键短语。关键短语是具有已知单词的短语,因此,是已知的音素序列。关键短语对于例如唤醒语音虚拟助手是有用的,该虚拟助手识别并且响应作为查询或命令的短话语。一些示例是“Okay Google”和“Alexa”。关键短语也作为语音命令出现在用于控制执行自动听写的***的话音中。一些示例是“句号”、“换行”和“撤销”。
在话音波形中的关键短语21之后是第二话音片段22,它是一个话语(utterance)。话语是先验未知单词和音素的话音。条件声学模型的一个目标是提供用户话语的ASR的高准确性。
图3示出了话音音频的不同表示中包含的信息的表格。话语的音频一般来说包括关于正在说出的音素的信息。它还包含关于说话者的语音的信息,包括诸如说话者的声道的生理学之类的信息,这些信息也可用于诸如估计说话者的性别和年龄的目的。话语音频还包括关于说话者的口音、语速以及说话者如何将其思想转化为话音的其他属性的信息。话语音频还包括关于环境的信息,比如连续的背景噪声,如马达和风,以及影响作为声音的气压波到该声音的数字捕捉表示之间的转移函数的其他失真参数。
关键短语音频包括了除了正在说出的音素之外的所有该信息。这是因为关键短语具有一组已知的音素。只要***正确识别出关键短语被说出,关键短语内的音素就是预先已知的,并且因此是话音音频中包含的冗余信息。
相比之下,声学模型的期望输出是音素。良好创建的声学模型会拒绝来自话音音频的语音、口音和环境信息,只输出被说出的音素。
当像图2的示例中一样,关键短语22之后不久就跟随着话语23时,语音、口音和环境信息很有可能在关键短语音频和话语音频之间是大致相同的。因此,通过对关键短语音频的特征进行分析,并且以适当的编码来表示它们,就可以将它们馈送给条件声学模型,该条件声学模型可以拒绝这些特征,从而更准确地识别话音音频的表示音素的特征。
从关键短语音频中编码特征的步骤和利用声学模型来推断音素的步骤都可以通过精心构造的数字信号处理算法来完成,或者通过在大型多样化数据集合上训练一个或多个模型(例如神经网络)来完成,或者通过信号处理和训练模型两者的组合来完成。训练的条件声学模型被训练成具有编码的关键短语音频特征的输入。用于识别和编码关键短语音频的特征的模型可以独立训练,或者可以与声学模型联合训练。
在支持不同类型的设备或环境的***中,例如在支持远场设备(如智能扬声器)和近场设备(如移动手机)的云ASR***中,可以具有多个声学模型。类似地,支持不同语言或区域的ASR的***也可具有多个声学模型。可以使用编码器来创建输出,该输出简单地在它估计将会最适当的声学模型之间进行选择。
声音嵌入
来自关键短语的编码语音、口音和环境信息被表示为声音嵌入。声音嵌入捕捉了关于说话者语音的物理属性、其口音和话音风格的属性以及其环境的属性的信息,其环境的属性例如是背景噪声、混响以及麦克风和模拟到数字转换器的转移函数。通过捕捉关键短语的声音嵌入,声音嵌入对于短语之间的变化免疫,并且大部分对于由于语境和情绪引起的变化免疫。通过捕捉话语前不久的声音嵌入,它们不会遭遇由于不同的设备特性引起的变化或者由于温度、情感、健康和其他身体因素引起的语音的不同变化。
声音嵌入与用于说话者识别的特征向量(例如用于呼叫中心安全目的的特征向量)不同。这种说话者识别特征向量旨在拒绝环境信息,以便对环境变化和不同时间和捕捉设备的变化免疫。这种***通过要求说话者多次重复某个短语或者采用其它技术从环境信息中辨别说话者的语音来实现这一点。
声音嵌入也不同于用于分类(diarization)的说话者ID信息,它们是独立于短语的。它们使用独立于短语的算法,这些算法针对话音的音素内容是未知的这一事实进行补偿。
声音嵌入处于包括环境信息但不包括语音信息的空间中。这种空间可以通过训练编码器的过程来学习。在这种情况下,训练将包括许多语音、口音和环境变化,但全都是在说出预先定义的关键短语音素之时的。
学习声音嵌入空间相当于从数据中学习短语相关的i向量或x向量空间。例如,不需要在按诸如性别、口音或噪声之类的类别标注的数据上进行训练。嵌入空间会学习该信息。对于不使用条件声学模型之间的联合训练的***,可以使用现成的或者第三方的编码器模型,例如用于x向量或i向量的编码器。
编码器
图4A示出了以声音特征为条件的声学模型的图。编码器41接收关键短语音频并且计算声音嵌入。在关键短语的末尾处或末尾附近,声音嵌入被存储。
编码器可以在少至几毫秒的音频上操作。它可以在从恒定时间段缓冲的音频片段上操作,例如在短语侦测器被触发之前的0.2或1.0秒。编码器可在如下的音频片段上操作:该音频片段开始于语音活动检测器(voice activity detector,VAD)触发为检测到语音的时间之时、此前不久或者此后不久,直到短语侦测器被触发之时、此前不久或者此后不久为止。编码器可以在如下的音频片段上操作:该音频片段开始于所识别的不是关键短语的单词完成之后不久,直到关键短语被识别之时、此前不久或者此后不久为止。编码器可以在从VAD结束直到VAD开始的非话音音频片段上操作。对关键短语音频进行分割以供编码器使用的各种机制是可能的。重要的是,编码器主要分析包括语音、口音和/或环境信息的声音,但不是预先未知音素的话音。
在图4A中,条件声学模型42取得话语音频和存储的声音嵌入并且推断音素概率。存储的声音嵌入保持不变,并且只有当检测到新的关键短语并且编码器41再次运行以重新生成声音嵌入时,或者当会话结束或者经过了很长一段时间、此后说话者或环境可能已改变时,才会被替换。
多个编码器
在联合训练的编码器和条件声学模型的情况下,单个良好训练的编码器一般将是对计算资源的最高效利用,以实现准确性的提高。然而,对于一些实现方式,使用预先训练的编码器可能是有益的,例如现成的编码器、来自不同代码库的编码器或者针对特定应用进行优化的编码器。这可以提供模块化,来以最低限度的再培训工作为不同的应用定制***。
具有一个以上的编码器也可能是有利的。例如,这样是有用的:有一个在许多应用或语言上有用的通用声音嵌入编码器,然后有模块化编码器来改善针对特定应用或语言的准确性。这样的一个简单示例是具有性别检测编码器和语言检测编码器的***,每个编码器对作为条件声学模型的有用输入的关键短语的声音嵌入进行编码。
对于可以使用的编码器的数目和可以用作条件声学模型的输入的声音嵌入的数目,理论上是没有限制的。每个都通过处理关键短语话音音频来输出1个或多个维度值的向量。图4B示出了使用创建多个声音嵌入的多个编码器43的以声音嵌入为条件的声学模型的图。多个声音嵌入在处理关键短语结束时被存储,然后被用作条件声学模型44的输入,该模型对话语音频进行操作以预测音素概率。
还可以让不同的编码器或编码器和声学模型以不同的采样率或比特深度操作。这在以下情况下可能是有用的:例如,如果编码器在原始输入音频上以高准确度操作,但通过带宽受限的连接将压缩音频传输到声学模型,或者如果短语侦测器以低采样率捕捉音频以节省功率,并且该音频片段被用于计算声音嵌入,同时采样率被增大以便声学模型在话语话音上运行。
听写***
以声音嵌入为条件的声学模型在通用虚拟助手、汽车控制***和其他语音用户接口中在每查询基础上是有用的,然而它在听写***中也是有用的。听写***每当检测到关键短语时,就可以重新计算和存储声音嵌入。这可以在关键短语之后不断改善识别,直到会话结束或者捕捉另一个关键短语时为止。
关键短语可以是常见的命令,如“句号”、“换行”或者“撤销”。一般来说,以高准确度检测到关键短语,是重要的。由于长单词在话音识别中具有较大的确定性,所以可以使用在超过一定长度(例如10个音素)的任何单词期间说出的音频。也可以将识别概率得分超过阈值作为存储新的声音嵌入的条件。
更新后的声音嵌入的计算和存储可以对听写***的用户静默地且不可见地发生。它也可以是用户可以选择的一个可选功能。
训练
可以设计不从数据中学习的声学模型。然而,本节将聚焦于从数据训练声学模型的方式。本节将聚焦于神经网络作为学习的模型的示例类型,尽管有可能训练其他类型的统计模型,例如隐藏马尔可夫模型(hidden Markov model,HMM)。
由于以声音嵌入为条件的声学模型的准确度的改善,因此对于给定的目标准确度,比如目标误词率,可以用更少的训练时间、更少的训练迭代和/或更少的训练数据来实现该目标。
与传统声学模型的一个关键区别是,条件声学模型能够访问包括语音、口音和环境信息的音频,并且实际上,它被它是已知短语的话音这个事实隐含地“标记”。
图5示出了训练声学模型。它使用既具有关键短语话音片段也具有在关键短语之后不久的话语片段的话音记录53作为训练数据。编码器模型51处理关键短语话音片段以计算声音嵌入。
这并不是严格必要的,但许多训练***在标记的数据上使用监督学习。在这种情况下,话语音频被标记54。标记通常涉及人类倾听话语,检查机器转录是否正确,并且如果机器转录不正确,则输入正确的转录。人类标记员倾向于使用人类可读的文本来输入标签。这随后被转换为音素的序列。对于同音异义词,可以从上下文中选择正确的音素,或者可以从训练中排除这种样本。无论采用何种方案,声学模型训练55的输入都是来自标记的音素的地面真实序列、被时间对齐以匹配音素的音频样本或者频谱值、以及声音嵌入。训练的结果是声学模型52,该声学模型52能够利用声音嵌入在输入话音音频上执行推断,比在没有声音嵌入的情况下训练的声学模型能够实现的更准确。
与任何训练过的模型一样,如果训练数据53的语料库是多样化的,并且跨越了模型在实际使用中将会遇到的话音的范围,则训练过的声学模型52将是最准确的。
联合训练
计算声音嵌入的编码器可以用数字信号处理算法来实现。它们也可以是从数据中学习的统计模型。具体而言,它们可以利用神经网络来实现。编码器神经网络可包括卷积层、递归节点、长期递归节点(比如LSTM或GRU)以及至少一个或两个“深度”前馈层中的一个或多个。
可以训练编码器神经网络来学习嵌入空间,该嵌入空间在关键短语音频上给出各种各样的声音嵌入。这可以独立于条件声学模型来执行。如果独立训练由不同的团队或公司执行,或者作为不同项目的一部分执行,或者针对不同的性能要求执行,比如编码器是针对低功耗嵌入式***进行优化的,而声学模型是针对高性能的云计算数据中心进行优化的,那么独立训练可以是一种良好的方案。
然而,也可以联合训练编码器模型和条件声学模型。图6示出了编码器模型和条件声学模型的联合训练。如上所述,对于独立声学模型训练,训练从训练数据63的语料库开始。训练数据样本每个包含关键短语,其后不久是话语。话语音频片段被标记64。关键短语音频被编码器模型61编码,并且所得到的声音嵌入与其对应的话语音频片段和地面真实标签一起被用于执行训练的迭代65。训练迭代根据成本函数计算声学模型62内的参数的梯度,并且通过该模型反向传播这些梯度。梯度随后被反向传播到编码器模型66的训练过程,该训练过程更新编码器模型61的参数。通过多次迭代运行,编码器模型学习创建对于声学模型的调节更有用的声音嵌入,并且声学模型学习使用声音嵌入来实现比模型被独立训练的情况下更好的准确度。
许多ASR***将语言模型应用到来自声学模型的假设音素序列。一些实验***使用联合训练的声学和语言模型或者单位神经网络,它们直接从话音音频的片段推断文本。使得诸如“端到端”的话音识别神经网络以从关键短语音频计算的声音嵌入为条件可以改善整体的准确性。这可能是因为学习了从包含有音素信息的信号中排除声音嵌入中的语音、口音和环境信息的神经网络也可以通过从涉及从音频推断单词的更高级别特征的推断中排除该信息而受益。
噪声混合
在干净的话音音频上训练的声学模型在真实世界嘈杂话音音频中的准确度不如在嘈杂话音上训练的模型。然而,对于尚未构建或发布到市场的产品,收集准确表示ASR的预期噪声条件的训练数据,是困难的。一种常见的技术是将噪声与相对干净的话音音频混合,以调节训练音频数据。这可通过将话音音频与噪声的记录混合、通过信号处理应用有意失真、合成诸如混响之类的效果以及使用类似技术以模拟真实世界条件来完成。
条件声学模型受益于具有表示在真实世界话语音频中有可能存在的噪声和失真的声音嵌入。这种可能性很高,因为声音嵌入是从其后不久跟随着要识别的话语的音频计算出来的。这样做的益处是为声学模型提供环境信息,例如噪声和失真。结果,为了对编码器和条件声学模型进行最优的联合训练,在关键短语和话语音频两者中混合相同剖面的噪声或失真,是重要的。混合的噪声不需要在关键短语和话语之间完全相同,但它应当具有相同的剖面。也就是说,它应当是由相同的配方生成的,或者是从连续噪声的单一记录会话生成的。
图7示出了编码器模型和条件声学模型的联合训练,其中在训练中混合了噪声。它使用了训练数据73的语料库,该语料库包括话音音频片段的样本,其中既有关键短语,也有随后不久的口头话语。话语音频片段被标记74。噪声模型77产生与话语话音片段78和关键短语话音片段79混合的噪声。具有混合噪声的关键短语被用于编码器训练76,并且被编码器模型71用于计算声音嵌入。声音嵌入和标签在声学模型训练过程75中与混合噪声的话语话音片段一起应用,以产生训练后的条件声学模型72。
声学模型训练75计算梯度,并且将其反向传播到编码器训练76,以在每次训练迭代中联合训练编码器模型71和条件声学模型72。
计算机化***
许多计算机化***可使用条件声学模型进行高准确度ASR。一些示例是执行ASR的服务器(例如云服务器)、嵌入式***、物联网(Internet of Things,IoT)设备、移动电话或其他便携式手持设备、个人计算机听写***、汽车和其他交通工具的语音控制***以及零售贩卖***和设备。下一节将描述一些示例,以说明可适用于各种其他应用的相关功能。
客户端-服务器***
一些***,例如家庭智能扬声器,使用客户端-服务器方案。智能扬声器设备可包括编码器功能。当它捕捉到用户说出唤醒短语的音频时,其被作为关键短语音频,被编码,并且被发送到服务器。服务器可以提供诸如ASR、自然语言理解(natural languageunderstanding,NLU)、从第三方应用编程接口(application programming interface,API)请求数据以及向设备返回命令之类的服务。
图8示出了根据一实施例,用户80与设备82通信,设备82通过网络83作为客户端耦合到服务器81。设备82接收到其后紧接着话语的关键短语的话音音频。设备82通过以软件实现的编码器86对关键短语音频进行处理,以从关键短语音频计算声音嵌入。设备82将声音嵌入存储在存储器中,然后进而将存储的声音嵌入传输到服务器81,从语音中捕捉话语音频,并且将话语音频传输到服务器81。服务器81进而利用全都在高性能处理器上以软件实现的条件声学模型85来执行ASR 84。条件声学模型85使用设备82发送的声音嵌入。
在设备上编码声音嵌入可能是有益的,以防万一不同的设备基于其计算能力使用不同的编码器。例如,像智能扬声器这样的壁式插座设备通常能够比像智能电话这样的电池供电便携式设备维持更大的处理性能。在设备上运行编码器有益也是因为这样做,就不必通过网络将唤醒短语音频传输到服务器。
单一***
也可以在用户本地的设备内实现与编码器86、ASR 84和条件声学模型85等同的功能。这样做是有益的,因为设备从而可以在没有互联网连接的情况下执行话音识别。这对于可能会驾驶到没有移动无线网络连接的地方的汽车来说或者用户可能在旅行期间或者为了维持隐私而转为“飞行模式”的移动设备来说是重要的。
也可以具有双模式***,这种***在网络连接可用时将声音嵌入和话语音频传输到服务器,但在没有网络连接可用时则切换到本地ASR的模式。
服务器***
编码器86、ASR 84和条件声学模型85的功能也可以全部在服务器上执行。要做到这一点,需要将关键短语的音频从客户端发送到服务器,以便编码器功能进行处理。这可以是一个优点,以便服务器操作者可以容易地升级编码器或条件声学模型。这也可以因为如下原因而是一个优点:因为服务器一般比客户端设备具有更多的处理能力,因此更容易设计一个具有哑巴客户端的***,这些客户端简单地将音频传递到服务器,而无需本地编码器的复杂性。
图9A示出了具有多个刀片的数据中心中的服务器***91的图片。
图9B是服务器***中的功能的框图,该功能对于以声音特征作为声学模型的条件可能是有用的。服务器***91包括中央处理单元(CPU)92的一个或多个集群和图形处理单元(GPU)93的一个或多个集群。各种实现方式可以使用CPU和GPU的任一者或两者,用于推断和训练的任一者或两者。也可以使用现场可编程门阵列(FPGA)、专用集成电路(ASIC)、张量处理单元(TPU)或者其它协处理器、加速器或专用设备。
CPU 92和GPU 93通过互连94连接到随机存取存储器(RAM)设备95。RAM设备可以存储临时数据值,例如声音嵌入、CPU和GPU的软件指令、神经网络或其他模型的参数值、音频数据、操作***软件以及***操作所必需的其他数据。
服务器***91还包括与互连94连接的网络接口96。网络接口96发送和接收来自远程客户端设备的数据,例如声音嵌入,话语的话音音频,以及在一些情况下,关键短语,以及***操作所必需的其他数据。
用户设备
如上所述,许多类型的设备可以向用户呈现语音控制的接口。图10示出了一个示例,该示例是移动电话。用户100向移动电话101提供话音音频。移动电话101处于飞行模式中,如由看起来像飞机的图标102所指示。
移动电话101包括编码器106,其接收话音音频并从关键短语的话音音频编码声音嵌入。移动电话101还包括接收话音音频和声音嵌入的ASR功能104。ASR功能104包括声学模型105,该声学模型105使用声音嵌入来从话音音频推断音素概率。
结果,移动电话可以识别用户话音并且执行本地功能,例如打开应用或者播放存储在设备RAM中的音乐或电影。
SoC
许多嵌入式设备、IoT设备、移动设备和其他具有直接用户接口的设备都由SoC控制并且由SoC执行ASR。SoC具有集成的处理器和数十或数百个接口来控制设备功能。图11A示出了具有用于表面安装焊接到印刷电路板的球栅阵列的封装片上***设备111的底侧。各种封装形状和大小对于各种SoC实现方式是可能的。
图11B示出了片上***111的框图。它包括CPU核心112的多核集群和GPU核心113的多核集群。处理器通过片上网络114连接到用于诸如声音嵌入之类的数据的易失性程序和数据存储的片外动态随机存取存储器(DRAM)接口115以及用于闪速RAM非暂态计算机可读介质中的计算机程序代码的非易失性存储的闪速接口116。SoC 111还具有显示接口116,用于显示图形用户界面,用于诸如向用户显示ASR转录或者显示虚拟助手命令的结果之类的功能,以及I/O接口模块117,用于根据不同***设备的需要,与各种I/O接口设备连接。I/O接口使能了传感器,例如触摸屏传感器、地理位置接收器、麦克风、扬声器、蓝牙外设和USB设备,例如键盘和鼠标,等等。SoC 111还包括网络接口118来允许处理器通过诸如WiFi、3G、4G长期演进(LTE)、5G和其他无线接口标准无线电之类的有线或无线连接以及以太网连接硬件接入互联网。通过经由接口115执行存储在RAM设备中的指令或者经由接口116执行存储在闪速设备中的指令,CPU 112和GPU 113执行如本文所述的方法的步骤。
CRM
程序代码、诸如声音嵌入、关键短语和话语的音频数据之类的数据、操作***代码和其他必要数据由非暂态计算机可读介质存储。
图12示出了示例计算机可读介质121,该介质是闪速随机存取存储器(RAM)芯片。数据中心通常使用闪速存储器来为服务器处理器存储数据和代码。移动设备通常使用闪速存储器来为SoC内的处理器存储数据和代码。非暂态计算机可读介质121存储包括指令的代码,所述指令如果被一个或多个计算机执行则将使得计算机执行本文描述的方法的步骤。其他数字数据存储介质在各种应用中可能是适当的。
特别说明
所示出和描述的示例使用某些口头语言。各种实现方式对于其他语言或者语言组合类似地操作。一些实现方式是无屏幕的,例如耳机,其没有显示屏幕。一些实现方式是固定的,例如自动售货机。一些实现方式是移动的,例如汽车。一些实现方式是便携的,例如移动电话。一些实现方式可以植入人体中。一些实现方式包括手动接口,例如键盘或触摸屏。一些实现方式包括使用人类思想作为自然语言表达形式的神经接口。
一些实现方式通过在通用CPU上运行软件来发挥作用,例如具有ARM或x86体系结构的CPU。一些对功率敏感的实现方式和一些要求特别高性能的实现方式使用硬件优化。一些实现方式使用专门的片上***中的具有可配置指令集合的应用可定制处理器,例如来自Synopsys的ARC处理器和来自Cadence的Xtensa处理器。一些实现方式使用烧制到FPGA中的专用硬件块。一些实现方式使用GPU的阵列。一些实现方式使用具有定制逻辑的ASIC,以给出最佳性能。一些实现方式采用硬件描述语言代码,例如用Verilog语言编写的代码。
本文记载原理、特征和实施例的描述涵盖其结构和功能等同。本领域技术人员将会认识到许多修改和变化。
Claims (8)
1.一种推断话音音频中的音素概率的由计算机实现的方法,该方法包括:
使用第一编码器从包括关键短语的第一话音音频片段编码第一声音嵌入;
存储所述第一声音嵌入;
使用第二编码器从所述第一话音音频片段编码第二声音嵌入;
存储所述第二声音嵌入;以及
利用将以下各项作为输入的声学模型来推断所述音素概率:
在所述第一话音音频片段之后不久的第二话音音频片段;
存储的第一声音嵌入;以及
存储的第二声音嵌入。
2.如权利要求1所述的方法,其中所述声学模型是在话音音频的标记样本上被训练的,每个样本具有对应的关键短语声音嵌入。
3.如权利要求2所述的方法,其中训练样本包括多种语音与多种噪声剖面相混合,所述关键短语声音嵌入是用与其对应的话音音频样本相同的混合噪声剖面来计算的。
4.如权利要求1所述的方法,其中所述编码使用与所述声学模型联合训练的编码器模型。
5.如权利要求1所述的方法,其中,所述第一编码器和所述第二编码器以不同的采样率或比特深度操作。
6.一种计算机化的话音处理***,能够:
接收包括关键短语的第一话音音频片段;
使用第一编码器从所述第一话音音频片段编码第一声音嵌入;
将所述第一声音嵌入存储在存储器设备中;
使用第二编码器从所述第一话音音频片段编码第二声音嵌入;
存储所述第二声音嵌入;以及
利用将以下各项作为输入的声学模型来推断音素概率:
在所述第一话音音频片段之后不久的第二话音音频片段;
存储的第一声音嵌入;以及
存储的第二声音嵌入。
7. 如权利要求6所述的***,还能够:
在所述第一话音音频片段之后不久接收未知短语的话语的话音音频;并且
通过网络将存储的第一声音嵌入和所述话语的话音音频传输到话音识别服务器。
8. 如权利要求6所述的***,还能够:
在所述第一话音音频片段之后不久接收未知短语的话语的话音音频;并且
利用所述声学模型在所述话语的话音音频和所述第一声音嵌入上推断音素概率。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062704202P | 2020-04-27 | 2020-04-27 | |
US62/704,202 | 2020-04-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113643693A CN113643693A (zh) | 2021-11-12 |
CN113643693B true CN113643693B (zh) | 2024-02-09 |
Family
ID=75728619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110452098.4A Active CN113643693B (zh) | 2020-04-27 | 2021-04-26 | 以声音特征为条件的声学模型 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11741943B2 (zh) |
EP (1) | EP3905237A1 (zh) |
JP (1) | JP2021184087A (zh) |
KR (1) | KR20210132615A (zh) |
CN (1) | CN113643693B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11011162B2 (en) | 2018-06-01 | 2021-05-18 | Soundhound, Inc. | Custom acoustic models |
US11741943B2 (en) * | 2020-04-27 | 2023-08-29 | SoundHound, Inc | Method and system for acoustic model conditioning on non-phoneme information features |
WO2022107393A1 (en) * | 2020-11-20 | 2022-05-27 | The Trustees Of Columbia University In The City Of New York | A neural-network-based approach for speech denoising statement regarding federally sponsored research |
US20230031702A1 (en) * | 2021-07-14 | 2023-02-02 | Google Llc | Neural Networks based Multimodal Transformer for Multi-Task User Interface Modeling |
KR102559488B1 (ko) * | 2022-11-02 | 2023-07-25 | 주식회사 포지큐브 | 범죄 예방 서비스 방법 및 시스템 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201013730D0 (en) * | 2010-08-16 | 2010-09-29 | Toshiba Res Europ Ltd | A speech processing system and method |
WO2013110125A1 (en) * | 2012-01-24 | 2013-08-01 | Auraya Pty Ltd | Voice authentication and speech recognition system and method |
CN103632667A (zh) * | 2013-11-25 | 2014-03-12 | 华为技术有限公司 | 声学模型优化方法、装置及语音唤醒方法、装置和终端 |
JP2015049254A (ja) * | 2013-08-29 | 2015-03-16 | 株式会社日立製作所 | 音声データ認識システム及び音声データ認識方法 |
US9613624B1 (en) * | 2014-06-25 | 2017-04-04 | Amazon Technologies, Inc. | Dynamic pruning in speech recognition |
CN108932944A (zh) * | 2017-10-23 | 2018-12-04 | 北京猎户星空科技有限公司 | 解码方法及装置 |
CN110085217A (zh) * | 2019-03-15 | 2019-08-02 | 中科恒运股份有限公司 | 语音导航方法、装置及终端设备 |
CN110556097A (zh) * | 2018-06-01 | 2019-12-10 | 声音猎手公司 | 定制声学模型 |
CN110619871A (zh) * | 2018-06-20 | 2019-12-27 | 阿里巴巴集团控股有限公司 | 语音唤醒检测方法、装置、设备以及存储介质 |
US10573312B1 (en) * | 2018-12-04 | 2020-02-25 | Sorenson Ip Holdings, Llc | Transcription generation from multiple speech recognition systems |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10373612B2 (en) | 2016-03-21 | 2019-08-06 | Amazon Technologies, Inc. | Anchored speech detection and speech recognition |
CN107481728B (zh) | 2017-09-29 | 2020-12-11 | 百度在线网络技术(北京)有限公司 | 背景声消除方法、装置及终端设备 |
US10672380B2 (en) | 2017-12-27 | 2020-06-02 | Intel IP Corporation | Dynamic enrollment of user-defined wake-up key-phrase for speech enabled computer system |
US11295739B2 (en) * | 2018-08-23 | 2022-04-05 | Google Llc | Key phrase spotting |
US20200090657A1 (en) | 2019-11-22 | 2020-03-19 | Intel Corporation | Adaptively recognizing speech using key phrases |
US11741943B2 (en) * | 2020-04-27 | 2023-08-29 | SoundHound, Inc | Method and system for acoustic model conditioning on non-phoneme information features |
-
2021
- 2021-04-07 US US17/224,967 patent/US11741943B2/en active Active
- 2021-04-26 JP JP2021074216A patent/JP2021184087A/ja active Pending
- 2021-04-26 KR KR1020210053411A patent/KR20210132615A/ko unknown
- 2021-04-26 CN CN202110452098.4A patent/CN113643693B/zh active Active
- 2021-04-27 EP EP21170780.7A patent/EP3905237A1/en active Pending
-
2023
- 2023-07-06 US US18/348,259 patent/US20230352000A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201013730D0 (en) * | 2010-08-16 | 2010-09-29 | Toshiba Res Europ Ltd | A speech processing system and method |
WO2013110125A1 (en) * | 2012-01-24 | 2013-08-01 | Auraya Pty Ltd | Voice authentication and speech recognition system and method |
JP2015049254A (ja) * | 2013-08-29 | 2015-03-16 | 株式会社日立製作所 | 音声データ認識システム及び音声データ認識方法 |
CN103632667A (zh) * | 2013-11-25 | 2014-03-12 | 华为技术有限公司 | 声学模型优化方法、装置及语音唤醒方法、装置和终端 |
US9613624B1 (en) * | 2014-06-25 | 2017-04-04 | Amazon Technologies, Inc. | Dynamic pruning in speech recognition |
CN108932944A (zh) * | 2017-10-23 | 2018-12-04 | 北京猎户星空科技有限公司 | 解码方法及装置 |
CN110556097A (zh) * | 2018-06-01 | 2019-12-10 | 声音猎手公司 | 定制声学模型 |
CN110619871A (zh) * | 2018-06-20 | 2019-12-27 | 阿里巴巴集团控股有限公司 | 语音唤醒检测方法、装置、设备以及存储介质 |
US10573312B1 (en) * | 2018-12-04 | 2020-02-25 | Sorenson Ip Holdings, Llc | Transcription generation from multiple speech recognition systems |
CN110085217A (zh) * | 2019-03-15 | 2019-08-02 | 中科恒运股份有限公司 | 语音导航方法、装置及终端设备 |
Non-Patent Citations (1)
Title |
---|
Analyzing deep CNN-based utterance embeddings for acoustic model adaptation;Joanna Równicka等;2018 IEEE Spoken Language Technology Workshop (SLT);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113643693A (zh) | 2021-11-12 |
US11741943B2 (en) | 2023-08-29 |
US20210335340A1 (en) | 2021-10-28 |
KR20210132615A (ko) | 2021-11-04 |
US20230352000A1 (en) | 2023-11-02 |
JP2021184087A (ja) | 2021-12-02 |
EP3905237A1 (en) | 2021-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113643693B (zh) | 以声音特征为条件的声学模型 | |
CN110310623B (zh) | 样本生成方法、模型训练方法、装置、介质及电子设备 | |
JP6903129B2 (ja) | ささやき声変換方法、装置、デバイス及び可読記憶媒体 | |
CN110223705B (zh) | 语音转换方法、装置、设备及可读存储介质 | |
WO2020182153A1 (zh) | 基于自适应语种进行语音识别的方法及相关装置 | |
US20150325240A1 (en) | Method and system for speech input | |
CN110534099A (zh) | 语音唤醒处理方法、装置、存储介质及电子设备 | |
US11676572B2 (en) | Instantaneous learning in text-to-speech during dialog | |
CN111243599A (zh) | 语音识别模型构建方法、装置、介质及电子设备 | |
CN112309365A (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
CN114127849A (zh) | 语音情感识别方法和装置 | |
CN113393828A (zh) | 一种语音合成模型的训练方法、语音合成的方法及装置 | |
CN105788596A (zh) | 一种语音识别电视控制方法及*** | |
KR20210042523A (ko) | 전자 장치 및 이의 제어 방법 | |
JP2024505076A (ja) | 多様で自然なテキスト読み上げサンプルを生成する | |
CN113129867A (zh) | 语音识别模型的训练方法、语音识别方法、装置和设备 | |
CN110853669B (zh) | 音频识别方法、装置及设备 | |
CN114120979A (zh) | 语音识别模型的优化方法、训练方法、设备及介质 | |
WO2024114303A1 (zh) | 音素识别方法、装置、电子设备及存储介质 | |
KR102409873B1 (ko) | 증강된 일관성 정규화를 이용한 음성 인식 모델 학습 방법 및 시스템 | |
CN117882131A (zh) | 多个唤醒词检测 | |
Adnene et al. | Design and implementation of an automatic speech recognition based voice control system | |
Kos et al. | A speech-based distributed architecture platform for an intelligent ambience | |
CN115171660A (zh) | 一种声纹信息处理方法、装置、电子设备及存储介质 | |
Gorniak et al. | Augmenting user interfaces with adaptive speech commands |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |