CN112530410A - 一种命令词识别方法及设备 - Google Patents
一种命令词识别方法及设备 Download PDFInfo
- Publication number
- CN112530410A CN112530410A CN202011547352.0A CN202011547352A CN112530410A CN 112530410 A CN112530410 A CN 112530410A CN 202011547352 A CN202011547352 A CN 202011547352A CN 112530410 A CN112530410 A CN 112530410A
- Authority
- CN
- China
- Prior art keywords
- acoustic information
- acoustic
- neural network
- voice
- command word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000013528 artificial neural network Methods 0.000 claims abstract description 83
- 238000012545 processing Methods 0.000 claims abstract description 31
- 230000007246 mechanism Effects 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000001228 spectrum Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000009432 framing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000037433 frameshift Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
公开了一种命令词识别方法、设备、计算机可读存储介质及电子设备,该方法包括:提取语音信号中的语音特征;基于第一神经网络,确定所述语音特征对应的多维声学特征;基于第二神经网络,确定所述多维声学特征对应的第一声学信息;基于注意力机制,对所述第一声学信息进行处理,以获取基于历史声学信息的第二声学信息;根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布;基于所述音素概率分布,确定所述语音信号中的命令词。本申请在不增加内存占用和计算量的情况下,有效提高了命令词识别率,降低命令词误报率,具有良好的命令词识别性能。
Description
技术领域
本申请涉及语音识别技术领域,且更具体地,涉及一种命令词识别方法及设备。
背景技术
语音识别作为一种常用的人机交互技术,可以广泛应用于各类电子产品中,以其自然方便的交互方式获得了市场的青睐,逐渐成为了智能产品时代的主流交互控制方式之一。其中,命令词识别是语音识别中非常重要的一个方面,用于识别语音信号中的命令词,从而可以根据命令词执行相应的命令。
命令词识别需要在使用较少的内存和计算量的情况下,保持较高的识别率以及较低的误识别情况。然而,目前的命令词识别设备无法在满足内存和计算量的同时达到很高的性能,导致命令词识别率和命令词误报率难以满足使用需求。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种命令词识别方法、设备、计算机可读存储介质及电子设备,通过第一神经网络和第二神经网络对语音特征进行处理,并引入注意力机制,可以有效提高命令词识别率,降低命令词误报率,有效提升了处理性能。
根据本申请的第一方面,提供了一种命令词识别方法,包括:
提取语音信号中的语音特征;
基于第一神经网络,确定所述语音特征对应的多维声学特征;
基于第二神经网络,确定所述多维声学特征对应的第一声学信息;
基于注意力机制,对所述第一声学信息进行处理,以获取基于历史声学信息的第二声学信息;
根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布;
基于所述音素概率分布,确定所述语音信号中的命令词。
根据本申请的第二方面,提供了一种命令词识别设备,包括:
特征提取模块,用于提取所述语音信号中的语音特征;
第一神经网络模块,用于确定所述语音特征对应的多维语音特征;
第二神经网络模块,用于确定所述多维语音特征对应的第一声学信息;
注意力机制模块,用于对所述第一声学信息进行处理,以获取基于历史声学信息的第二声学信息;
音素概率分布获取模块,用于根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布;
解码器模块,用于基于所述音素概率分布,确定所述语音信号中的命令词。
根据本申请的第三方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述的命令词识别方法。
根据本申请的第四方面,提供了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述的命令词识别方法。
与现有技术相比,本申请提供的命令词识别方法、设备、计算机可读存储介质及电子设备,至少包括以下有益效果:本申请通过第一神经网络和第二神经网络对多维声学特征依次进行处理,从而获得了更为准确的第一声学信息,并引入注意力机制对第一声学信息进行处理,获得了更为精确的第二声学信息,在获得语音特征的音素概率分布时,同时考虑了第一声学信息和第二声学信息,从而在不增加内存占用和计算量的情况下,有效提高了命令词识别率,降低命令词误报率,具有良好的命令词识别性能。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本申请一示例性实施例提供的命令词识别方法的流程示意图。
图2是图1所示的实施例中步骤10的流程示意图。
图3是图1所示的实施例中步骤30的流程示意图一。
图4是图3所示的实施例中步骤30对应的时延神经网络结构示意图。
图5是图1所示的实施例中步骤30的流程示意图二。
图6是图5所示的实施例中步骤30对应的时延神经网络结构示意图。
图7是图1所示的实施例中步骤50的流程示意图。
图8是本申请一示例性实施例提供的命令词识别设备的示意图。
图9是本申请一示例性实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
在与智能产品通过语音方式进行交互的过程中,需要对用户进行语音识别,而命令词识别则是语音识别中非常重要的一个方面,通过对用户语音中的命令词进行识别,可以根据识别获取的命令词执行相应的命令,从而实现对智能产品的语音控制。
在进行命令词识别的过程中需要占用内存进行计算,占用的内存越大,则对于硬件的要求就越高,对应计算量也会越大,命令词识别的过程就会越长,因此尽可能降低命令词识别过程中使用的内存和计算量,同时还需要在较低的误识别情况下保持较高的识别率则成为了提高命令词识别性能的方向。
目前在进行命令词识别时,作为声学模型的神经网络通常包括CDNN(卷积神经网络-深度神经网络)、TDNN(时延神经网络)、CTDNN(卷积神经网络-时延神经网络)等,然后再使用解码器解码以获取语音对应文本,以判断语音信号中是否包含命令词。然而,目前进行命令词识别的声学模型无法在满足较低内存和计算量的同时达到很高的性能,导致命令词识别率和命令词误报率难以满足使用需求。
本实施例提供了一种全新的命令词识别方法,通过全新的声学模型来提取采集的语音信号中的语音特征,并获取所述语音特征的音素概率分布,进而基于所述音素概率分布来确定所述语音信号中的命令词,从而在不增加内存占用和计算量的情况下,有效提高了命令词识别率,降低命令词误报率,具有良好的命令词识别性能。
在介绍了本申请的基本构思之后,下面将结合附图来具体介绍本申请所述提供技术方案的各种非限制性实施例。
示例性方法
图1是本申请一示例性实施例提供的命令词识别方法的流程示意图。
本实施例可应用在电子设备上,具体可以应用于服务器或一般计算机上。如图1所示,本申请一示例性实施例提供的命令词识别方法至少包括如下步骤:
步骤10:提取语音信号中的语音特征。
具体地,可以通过预先设置的麦克风或麦克风阵列来进行声音采集,并根据采集的声音生成相应的语音信号。当然,语音信号也可以是预先已经获取的语音信号,无需经过实时采集,此处不做限制。由于获取的语音信号通常是不定时长的时序信号,不适合作为神经网络的输入,需要对其进行语音特征提取,以获得语音特征序列,语音特征序列包括多个特征向量,每个向量对应预设长度语音的语音特征。
步骤20:基于第一神经网络,确定所述语音特征对应的多维声学特征。
第一神经网络可以为卷积神经网络(CNN)。卷积神经网络作为一种具有更为复杂的非线性变换能力的深层网络结构,在提取语音特征方面具有非常好的效果,可以从多个维度提取语音特征中的声学信息,从而可以提取更加丰富详细的多维声学特征。同时由于提取的声学信息丰富,有利于在卷积神经网络训练阶段促进神经网络模型收敛。本实施例中采用时域卷积,可以降低卷积神经网络的计算量。当然,在其他实施例中,第一神经网络也可以为其他类型的神经网络,此处不做限制。
步骤30:基于第二神经网络,确定所述多维声学特征对应的第一声学信息。
第二神经网络可以利用当前多维声学特征的上下文信息,其隐藏层的特征不仅与输入的当前时刻的多维声学特征相关,还与过去时刻和未来时刻输入的多维声学特征相关,从而可以根据输入的多维声学特征序列获取到更为准确的声学信息,以输出第一声学信息。
步骤40:基于注意力机制,对所述第一声学信息进行处理,以获取基于历史声学信息的第二声学信息。
通过注意力机制对第一声学信息进行处理的过程中,可以基于当前第一声学信息以及其前后的历史和未来声学信息计算注意力权重,可以聚焦于特定区域,从而获得更为精确的第二声学信息。
步骤50:根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布。
在获取了第一声学信息和第二声学信息后,将第一声学信息和第二声学信息组合后进行处理,可以获取音素概率分布,其中音素是根据语音的自然属性划分出来的最小语音单位。对于每一个语音特征,音素概率分布为该语音特征对应每一个音素的概率。
步骤60:基于所述音素概率分布,确定所述语音信号中的命令词。
在获得了每个语音特征对应的音素概率分布后,对于每一个语音特征,从其对应的音素概率分布中选择满足预设规则的音素作为其输出结果,所有语音特征对应的音素则构成了音素序列,根据该音素序列可以获得相应的词序列作为语音对应文本,以确定其中是否包含命令词。可以理解的是,当命令词识别结果为命令词时,则输出该命令词;当命令词识别结果为非命令词时,则输出非命令词。
本申请实施例提供的命令词识别方法的有益效果至少在于:本申请实施例通过第一神经网络和第二神经网络对多维声学特征依次进行处理,从而获得了更为准确的第一声学信息,并引入注意力机制对第一声学信息进行处理,获得了更为精确的第二声学信息,在获得语音特征的音素概率分布时,同时考虑了第一声学信息和第二声学信息,从而在不增加内存占用和计算量的情况下,有效提高了命令词识别率,降低命令词误报率,具有良好的命令词识别性能。
图2是本申请一示例性实施例提供的命令词识别方法中步骤10的流程示意图。如图2所示,本申请一示例性实施例中提取语音信号中的语音特征的步骤至少包括如下步骤:
步骤101:对采集的语音信号进行声学处理,以获取处理后语音。
在本实施例中,语音信号可以通过设置在预设位置的麦克风进行采集,从而可以随时获取到用户的声音。原始语音信号通常包含了各种各样的噪声,这些噪声会对语音信号产生很大的干扰。为了提高后续语音特征提取的准确性,需要对获取的原始语音信号进行语音增强等声学处理,包括语音降噪、消除混响以及回声消除等,从而得到处理后语音。语音增强是指当语音信号被各种各样的噪声干扰、甚至淹没后,从噪声背景中提取有用的语音信号,从而抑制、降低噪声干扰的技术,从而可以提取更干净可靠的声学特征。根据语音和噪声的特点,可以采用谱相减法、维纳滤波、卡尔曼滤波等方法来进行语音增强。
步骤102:对所述处理后语音进行语音特征提取,以获取多个时间序列的多维向量,每个所述多维向量为预设时间长度音频的声学特征。
由于语音信号中包含丰富的信息,例如音素、韵律、语种、语音内容等,需要从语音信号中提取声学特征,常见的声学特征包括Mel频率倒谱系数(MFCC)、感知线性预测系数(PLP)、滤波器组(FBank)、语谱图等。在本实施例中,提取的声学特征可以根据需要进行设置。
例如,声学特征可以是从处理后语音提取的FBank特征。FBank特征本质上是对数特征谱,包括低频和高频信息,其经过了Mel滤波器组处理,其被依据人耳听觉感知特性进行了压缩,抑制了部分听觉无法感知的冗余信息。FBank特征的提取流程包括:(1)将语音信号进行预加重、分帧、加窗处理,然后进行短时傅立叶变换得到其频谱。其中预加重用于补偿语音信号高频部分的振幅;分帧是考虑语音信号具有短时平稳性,通常10ms~30ms的语音信号片段是一个准稳态过程,依此对语音信号进行分帧,帧长可为20ms或25ms,帧移可为10ms;常用的窗函数包括矩形窗、汉明窗、汉宁窗、布莱克曼窗等。(2)求步骤(1)获得的频谱平方,将每个滤波频带内的能量进行叠加,得到每个滤波器输出的功率谱。(3)将每个滤波器的输出功率取对数,得到相应频带的对数功率谱。
再如,MFCC特征的提取流程包括:(1)将语音信号进行预加重、分帧、加窗处理,然后进行短时傅立叶变换得到其频谱。其中预加重用于补偿语音信号高频部分的振幅;分帧是考虑语音信号具有短时平稳性,通常10ms~30ms的语音信号片段是一个准稳态过程,依此对语音信号进行分帧,帧长可为20ms或25ms,帧移可为10ms;常用的窗函数包括矩形窗、汉明窗、汉宁窗、布莱克曼窗等。(2)求步骤(1)获得的频谱平方,将每个滤波频带内的能量进行叠加,得到每个滤波器输出的功率谱。(3)将每个滤波器的输出功率取对数,得到相应频带的对数功率谱,并进行反离散余弦变换,得到多个MFCC系数。(4)进一步计算得到MFCC特征值,MFCC特征值可作为静态特征,再对静态特征做一阶和二阶差分,得到相应的动态特征。
经过上述的声学特征提取过程后,可以获得多帧时间序列的多维向量,每个多维向量为预设时间长度(例如25ms)音频的声学特征。
图3是本申请一示例性实施例提供的命令词识别方法中步骤30的一种流程示意图。在本实施例中,第二神经网络可以为时延神经网络(Time Delay Neural Network,TDNN),时延神经网络为多层结构,其每一层均包括全连接层、ReLU激活函数和层归一化网络,每层的输入都通过下层获得,经过多层结构的数据处理后,输出所获得的第一声学信息。
如图3所示,本申请一示例性实施例中基于第二神经网络,确定所述多维语音特征对应的第一声学信息的步骤至少包括如下步骤:
步骤301:采用层归一化网络对所述多维声学特征进行归一化,以获取第一中间信息。
神经网络涉及到多层网络结构的叠加,而每一层的参数更新会导致上层的输入数据分布发生变化,通过层层叠加,高层的输入分布变化会非常剧烈,如果没有做归一化处理,那么每一次训练数据的分布则不一样,,会导致神经网络难以收敛。为了降低分布变化的影响,不仅需要对输入的数据进行归一化处理,也需要在神经网络的中间层加入归一化处理,层归一化网络可以有效促进时延神经网络训练过程中的模型收敛。
步骤302:采用激活函数对所述第一中间信息进行非线性化处理,以获取第二中间信息。
采用激活函数对多维声学特征对应的第一中间信息进行处理时,可以将第一中间信息映射至隐层特征空间。
步骤303:通过全连接层对所述第二中间信息进行连接,以输出第一声学信息。
全连接层(fully connected layers,FC)的每一个节点都与上一层的所有节点相连,用来把上一层提取的特征综合起来,在整个神经网络中起到分类器的作用。应当理解的是,上述步骤的顺序可以根据需要进行调整,并不仅限于上述的顺序。
以下以一个例子进行说明。请参阅图4,在一个实施例中,时延神经网络的具有6层结构,层与层之间依次连接,依次将当前帧(记为0)的信息节点作为第一层的输入节点,将当前帧、过去一帧、未来一帧(记为(-1,0,1))的信息节点拼接成的节点作为第二层的输入节点,将当前帧、过去一帧、未来一帧(记为(-1,0,1))的信息节点拼接成的节点作为第二层的输入节点作为第三层的输入节点,将过去第三帧、过去一帧、未来一帧(记为(-3,-1,1))的信息节点拼接成的节点作为第四层的输入节点,将当前帧、过去第二帧、未来第二帧(记为(-2,0,2))的信息节点拼接成的节点作为第五层的输入节点,将过去一帧、未来一帧、未来第三帧(记为(-1,1,3))的信息节点拼接成的节点作为第六层的输入节点。每一层结构均通过上述步骤301至步骤303进行处理,通过最后一层结构处理后输出第一声学信息。可见,由于在进行声学信息的提取过程中不仅考虑了当前时刻的信息,还考虑了当前时刻前后的信息,从而可以得到更为准确的声学信息。应当理解的是,在其他实施例中,时延神经网络的层数并不仅限于上述的6层结构,还可以为其他层数的结构,此处不做限制。
图5是本申请一示例性实施例提供的命令词识别方法中步骤30的另一种流程示意图。第二神经网络可以为时延神经网络(Time Delay Neural Network,TDNN),时延神经网络为多层结构,其每一层均包括全连接层、ReLU激活函数和层归一化网络,每层的输入都通过下层获得。为了避免较低维度的声学信息将高维度声学信息掩盖,时延神经网络还包括残差网络(ResNet),经过多层结构的数据处理后,输出所获得的更准确的第一声学信息。
如图5所示,本申请另一示例性实施例中基于第二神经网络,确定所述多维声学特征对应的第一声学信息的步骤至少包括如下步骤:
步骤301:采用层归一化网络对所述多维声学特征进行归一化,以获取第一中间信息。
神经网络涉及到多层网络结构的叠加,而每一层的参数更新会导致上层的输入数据分布发生变化,通过层层叠加,高层的输入分布变化会非常剧烈,如果没有做归一化处理,那么每一次训练数据的分布则不一样,会导致神经网络难以收敛。为了降低分布变化的影响,不仅需要对输入的数据进行归一化处理,也需要在神经网络的中间层加入归一化处理,层归一化网络可以有效促进时延神经网络训练过程中的模型收敛。
步骤302:采用激活函数对所述第一中间信息进行非线性化处理,以获取第二中间信息。
采用激活函数对多维声学特征对应的第一中间信息进行处理时,可以将第一中间信息映射至隐层特征空间。
步骤303:通过全连接层对所述第二中间信息进行连接,以输出第一声学信息。
全连接层的每一个节点都与上一层的所有节点相连,用来把上一层提取的特征综合起来,在整个神经网络中起到分类器的作用。
步骤304:采用残差网络将浅层时延神经网络中全连接层输出的声学信息输入至深层时延神经网络中。
对于浅层神经网络的全连接层的节点,其不仅可以作为下一层神经网络的输入,还可以通过残差网络输入到更深层神经网络中,实现跃层输入,从而可以将较低维度的声学信息越层传递,避免了信息的丢失。应当理解的是,上述步骤的顺序可以根据需要进行调整,并不仅限于上述的顺序。
以下以一个例子进行说明。请参阅图6,在一个实施例中,时延神经网络的具有6层结构,层与层之间依次连接,依次将当前帧(记为0)的信息节点作为第一层的输入节点,将当前帧、过去一帧、未来一帧(记为(-1,0,1))的信息节点拼接成的节点作为第二层的输入节点,将当前帧、过去一帧、未来一帧(记为(-1,0,1))的信息节点拼接成的节点作为第二层的输入节点作为第三层的输入节点,将过去第三帧、过去一帧、未来一帧(记为(-3,-1,1))的信息节点拼接成的节点作为第四层的输入节点,将当前帧、过去第二帧、未来第二帧(记为(-2,0,2))的信息节点拼接成的节点作为第五层的输入节点,将过去一帧、未来一帧、未来第三帧(记为(-1,1,3))的信息节点拼接成的节点作为第六层的输入节点。第一层的输出在输入第二层时,也通过残差网络输入至第四层;第二层的输出在输入第三层时,也通过残差网络输入至第五层;第三层的输出在输入第四层时,也通过残差网络输入至第六层。每一层结构均通过上述步骤301至步骤304进行处理,通过最后一层结构处理后输出第一声学信息。可见,由于在进行声学信息的提取过程中不仅考虑了当前时刻的信息,还考虑了当前时刻前后的信息,并且通过残差网络可以将较低维度的声学信息越层传递,避免了信息的丢失,从而可以得到更为准确的声学信息。
应当理解的是,在其他实施例中,时延神经网络的层数并不仅限于上述的6层结构,还可以为其他层数的结构,此处不做限制。残差网络的加入位置也可以根据实际需要进行设置,并不仅限于上述的情形,此处不做限制。
图7是本申请一示例性实施例提供的命令词识别方法中步骤50的流程示意图。如图7所示,本申请一示例性实施例中根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布的步骤至少包括如下步骤:
步骤501:将每个所述语音特征对应的第一声学信息和第二声学信息进行组合,以获取第三声学信息。
在本实施例中,时延神经网络输出的第一声学信息具有更高维度的声学信息,基于注意力机制对第一声学信息处理后获得了更为精确的第二声学信息,将第一声学信息和第二声学信息组合后拼接在一起,获得的第三声学信息。
步骤502:对所述第三声学信息进行处理,获取所述语音特征的音素概率分布。
在本实施例中,将第三声学信息作为音素概率分布神经网络的输入,此处的音素概率分布神经网络通过预先训练获得,通过音素概率分布神经网络对第三声学信息进行处理,从而可以获得音素概率分布。对于语音信号所提起的语音特征序列中的每一个语音特征,均可以获得其对应的音素概率分布。由于在获得音素概率分布时,充分采用了第一声学信息和第二声学信息,因而具有更高的精度。
进一步地,步骤60中基于所述音素概率分布,确定所述语音信号中的命令词步骤包括:根据所述语音特征对应的音素概率分布,将概率最大的解码路径作为识别结果,如果识别结果为命令词则输出命令词,否则输出非命令词。
由于在获取了语音信号后通过逐帧对语音信号进行语音特征提取时,可以获得语音信号的多个语音特征,每个语音特征对应一个音素概率分布,解码过程是在解码图中进行维特比搜索,通过音素概率分布搜索出概率最大的路径,如果路径中包含命令词则输出命令词,否则输出非命令词。
示例性装置
基于与本申请方法实施例相同的构思,本申请实施例还提供了一种命令词识别设备。图8示出了本申请一示例性实施例提供的命令词识别设备的结构示意图。
命令词识别设备包括特征提取模块71、第一神经网络模块72、第二神经网络模块73、注意力机制模块74、音素概率分布获取模块75以及解码器模块76。其中,特征提取模块71用于提取所述语音信号中的语音特征;第一神经网络模块72可以为卷积神经网络模块,用于确定所述语音特征对应的多维语音特征;第二神经网络模块73可以为时延神经网络模块,用于确定所述多维语音特征对应的第一声学信息;注意力机制模块74用于对所述第一声学信息进行处理,以获取基于历史声学信息的第二声学信息;音素概率分布获取模块75作为多级输出模块,用于根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布;解码器模块76用于基于所述音素概率分布,确定所述语音信号中的命令词。
本申请实施例提供了一种全新的CATDNN网络结构,该CATDNN网络结构包括卷积神经网络(CNN)、时延神经网络(TDNN)、注意力机制(Attention)和残差网络(ResNet)、多级输出(Multi-head output)等模块,其中卷积神经网络和时延神经网络模块对多维声学特征依次进行处理,从而获得了更为准确的第一声学信息,残差网络便于网络收敛提升性能,注意力机制和多级输出的设置进一步提高了网络结构性能,在不增加内存占用和计算量的情况下,有效提高了命令词识别率,降低命令词误报率。
进一步地,特征提取模块71包括声学处理单元和特征提取单元。其中,声学处理单元用于对采集的语音信号进行声学处理,以获取处理后语音;特征提取单元用于对所述处理后语音进行语音特征提取,以获取多个时间序列的多维向量,每个所述多维向量为预设时间长度音频的声学特征。
进一步地,第二神经网络模块73为多层时延神经网络,每层均包括全连接层、ReLU激活函数以及层归一化网络,其中层归一化网络对所述多维声学特征进行归一化,以获取第一中间信息;激活函数对所述第一中间信息进行非线性化处理,以获取第二中间信息;全连接层对所述第二中间信息进行连接,以输出第一声学信息。第二神经网络模块73还包括残差网络,残差网络将浅层时延神经网络中全连接层输出的声学信息输入至深层时延神经网络中。
进一步地,音素概率分布获取模块75包括声学信息获取单元和音素概率分布获取单元,其中声学信息获取单元用于将每个所述语音特征对应的第一声学信息和第二声学信息进行组合,以获取第三声学信息;音素概率分布获取单元用于对所述第三声学信息进行处理,获取所述语音特征的音素概率分布。
示例性电子设备
图9图示了本申请实施例的电子设备的框图。
如图9所示,电子设备80包括一个或多个处理器801和存储器802。
处理器801可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备80中的其他组件以执行期望的功能。
存储器802可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器801可以运行所述程序指令,以实现上文所述的本申请的各个实施例的命令词识别方法以及/或者其他期望的功能。
在一个示例中,电子设备80还可以包括:输入装置803和输出装置804,这些组件通过总线***和/或其他形式的连接机构(未示出)互连。
例如,输入装置803可以是麦克风或麦克风阵列,用于获取语音。输入装置803还可以是通信网络连接器。此外,该输入装置803还可以包括例如键盘、鼠标等等。
该输出装置804可以向外部输出各种信息,可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图9中仅示出了该电子设备80中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备80还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的命令词识别方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的命令词识别方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、***的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、***。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种命令词识别方法,包括:
提取语音信号中的语音特征;
基于第一神经网络,确定所述语音特征对应的多维声学特征;
基于第二神经网络,确定所述多维声学特征对应的第一声学信息;
基于注意力机制,对所述第一声学信息进行处理,以获取基于历史声学信息的第二声学信息;
根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布;
基于所述音素概率分布,确定所述语音信号中的命令词。
2.根据权利要求1所述的方法,其中,所述基于第二神经网络,确定所述多维声学特征对应的第一声学信息,包括:
采用层归一化网络对所述多维声学特征进行归一化,以获取第一中间信息;
采用激活函数对所述第一中间信息进行非线性化处理,以获取第二中间信息;
通过全连接层对所述第二中间信息进行连接,以输出第一声学信息。
3.根据权利要求2所述的方法,其中,当所述第二神经网络为时延神经网络,且采用多层时延神经网络对所述多维声学特征进行处理时,所述第二神经网络还包括残差网络;
所述基于第二神经网络,确定所述多维声学特征对应的第一声学信息,还包括:
采用残差网络将浅层时延神经网络中全连接层输出的声学信息输入至深层时延神经网络中。
4.根据权利要求1所述的方法,其中,所述根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布,包括:
将每个所述语音特征对应的第一声学信息和第二声学信息进行组合,以获取第三声学信息;
对所述第三声学信息进行处理,获取所述语音特征的音素概率分布。
5.根据权利要求4所述的方法,其中,所述基于所述音素概率分布,确定所述语音信号中的命令词步骤包括:根据所述语音特征对应的音素概率分布,将概率最大的解码路径作为识别结果,如果识别结果为命令词则输出命令词,否则输出非命令词。
6.根据权利要求1所述的方法,其中,所述提取语音信号中的语音特征,包括:
对采集的语音信号进行声学处理,以获取处理后语音;
对所述处理后语音进行语音特征提取,以获取多个时间序列的多维向量,每个所述多维向量为预设时间长度音频的声学特征。
7.根据权利要求6所述的方法,其中,所述对采集的语音信号进行声学处理,以获取处理后语音步骤中,所述声学处理至少包括语音降噪、混响消除、回声消除以及语音增强中的一种。
8.一种命令词识别设备,包括:
特征提取模块,用于提取所述语音信号中的语音特征;
第一神经网络模块,用于确定所语音特征对应的多维声学特征;
第二神经网络模块,用于确定所述多维声学特征对应的第一声学信息;
注意力机制模块,用于对所述第一声学信息进行处理,以获取基于历史声学信息的第二声学信息;
音素概率分布获取模块,用于根据所述第一声学信息和所述第二声学信息,获取所述语音特征的音素概率分布;
解码器模块,用于基于所述音素概率分布,确定所述语音信号中的命令词。
9.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-7任一所述的命令词识别方法。
10.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-7任一所述的命令词识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011547352.0A CN112530410A (zh) | 2020-12-24 | 2020-12-24 | 一种命令词识别方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011547352.0A CN112530410A (zh) | 2020-12-24 | 2020-12-24 | 一种命令词识别方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112530410A true CN112530410A (zh) | 2021-03-19 |
Family
ID=74976090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011547352.0A Pending CN112530410A (zh) | 2020-12-24 | 2020-12-24 | 一种命令词识别方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112530410A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113306291A (zh) * | 2021-05-28 | 2021-08-27 | 曲阜市玉樵夫科技有限公司 | 智能打印方法、打印装置、打印机及智能打印*** |
CN113744736A (zh) * | 2021-09-08 | 2021-12-03 | 北京声智科技有限公司 | 命令词识别方法、装置、电子设备及存储介质 |
CN114420101A (zh) * | 2022-03-31 | 2022-04-29 | 成都启英泰伦科技有限公司 | 一种未知语言端侧命令词小数据学习识别方法 |
CN117275484A (zh) * | 2023-11-17 | 2023-12-22 | 深圳市友杰智新科技有限公司 | 命令词识别方法、装置、设备和介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159058A (ja) * | 2018-03-12 | 2019-09-19 | 国立研究開発法人情報通信研究機構 | 音声認識システム、音声認識方法、学習済モデル |
CN110335592A (zh) * | 2019-06-28 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 语音音素识别方法和装置、存储介质及电子装置 |
JP2020020872A (ja) * | 2018-07-30 | 2020-02-06 | 国立研究開発法人情報通信研究機構 | 識別器、学習済モデル、学習方法 |
CN111223488A (zh) * | 2019-12-30 | 2020-06-02 | Oppo广东移动通信有限公司 | 语音唤醒方法、装置、设备及存储介质 |
CN111798840A (zh) * | 2020-07-16 | 2020-10-20 | 中移在线服务有限公司 | 语音关键词识别方法和装置 |
-
2020
- 2020-12-24 CN CN202011547352.0A patent/CN112530410A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159058A (ja) * | 2018-03-12 | 2019-09-19 | 国立研究開発法人情報通信研究機構 | 音声認識システム、音声認識方法、学習済モデル |
JP2020020872A (ja) * | 2018-07-30 | 2020-02-06 | 国立研究開発法人情報通信研究機構 | 識別器、学習済モデル、学習方法 |
CN110335592A (zh) * | 2019-06-28 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 语音音素识别方法和装置、存储介质及电子装置 |
CN111223488A (zh) * | 2019-12-30 | 2020-06-02 | Oppo广东移动通信有限公司 | 语音唤醒方法、装置、设备及存储介质 |
CN111798840A (zh) * | 2020-07-16 | 2020-10-20 | 中移在线服务有限公司 | 语音关键词识别方法和装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113306291A (zh) * | 2021-05-28 | 2021-08-27 | 曲阜市玉樵夫科技有限公司 | 智能打印方法、打印装置、打印机及智能打印*** |
CN113744736A (zh) * | 2021-09-08 | 2021-12-03 | 北京声智科技有限公司 | 命令词识别方法、装置、电子设备及存储介质 |
CN113744736B (zh) * | 2021-09-08 | 2023-12-08 | 北京声智科技有限公司 | 命令词识别方法、装置、电子设备及存储介质 |
CN114420101A (zh) * | 2022-03-31 | 2022-04-29 | 成都启英泰伦科技有限公司 | 一种未知语言端侧命令词小数据学习识别方法 |
CN114420101B (zh) * | 2022-03-31 | 2022-05-27 | 成都启英泰伦科技有限公司 | 一种未知语言端侧命令词小数据学习识别方法 |
CN117275484A (zh) * | 2023-11-17 | 2023-12-22 | 深圳市友杰智新科技有限公司 | 命令词识别方法、装置、设备和介质 |
CN117275484B (zh) * | 2023-11-17 | 2024-02-20 | 深圳市友杰智新科技有限公司 | 命令词识别方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Monaural speech dereverberation using temporal convolutional networks with self attention | |
CN112530410A (zh) | 一种命令词识别方法及设备 | |
US8930196B2 (en) | System for detecting speech interval and recognizing continuous speech in a noisy environment through real-time recognition of call commands | |
CN109036381A (zh) | 语音处理方法及装置、计算机装置及可读存储介质 | |
CN109147798B (zh) | 语音识别方法、装置、电子设备及可读存储介质 | |
CN110942766A (zh) | 音频事件检测方法、***、移动终端及存储介质 | |
WO2023001128A1 (zh) | 音频数据的处理方法、装置及设备 | |
CN110970036A (zh) | 声纹识别方法及装置、计算机存储介质、电子设备 | |
CN111986679A (zh) | 一种应对复杂声学环境的说话人确认方法、***及存储介质 | |
Yadav et al. | Spectral smoothing by variationalmode decomposition and its effect on noise and pitch robustness of ASR system | |
Nandi et al. | Parametric representation of excitation source information for language identification | |
CN115602165A (zh) | 基于金融***的数字员工智能*** | |
CN110648655B (zh) | 一种语音识别方法、装置、***及存储介质 | |
CN111798846A (zh) | 语音命令词识别方法、装置、会议终端及会议终端*** | |
Nguyen et al. | Feature adaptation using linear spectro-temporal transform for robust speech recognition | |
KR100897555B1 (ko) | 음성 특징벡터 추출장치 및 방법과 이를 채용하는음성인식시스템 및 방법 | |
CN113571095A (zh) | 基于嵌套深度神经网络的语音情感识别方法和*** | |
Khanna et al. | Application of vector quantization in emotion recognition from human speech | |
Zealouk et al. | Noise effect on Amazigh digits in speech recognition system | |
Jannu et al. | Multi-stage progressive learning-based speech enhancement using time–frequency attentive squeezed temporal convolutional networks | |
Sahoo et al. | MFCC feature with optimized frequency range: An essential step for emotion recognition | |
CN112397090A (zh) | 一种基于fpga的实时声音分类方法及*** | |
Rout et al. | Data-adaptive single-pole filtering of magnitude spectra for robust keyword spotting | |
Boril et al. | Data-driven design of front-end filter bank for Lombard speech recognition | |
Mallidi et al. | Robust speaker recognition using spectro-temporal autoregressive models. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |