CN112349277A - 结合ai模型的特征域语音增强方法及相关产品 - Google Patents

结合ai模型的特征域语音增强方法及相关产品 Download PDF

Info

Publication number
CN112349277A
CN112349277A CN202011046052.4A CN202011046052A CN112349277A CN 112349277 A CN112349277 A CN 112349277A CN 202011046052 A CN202011046052 A CN 202011046052A CN 112349277 A CN112349277 A CN 112349277A
Authority
CN
China
Prior art keywords
signal
model
characteristic domain
domain
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011046052.4A
Other languages
English (en)
Other versions
CN112349277B (zh
Inventor
康力
叶顺舟
陆成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisoc Chongqing Technology Co Ltd
Original Assignee
Unisoc Chongqing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisoc Chongqing Technology Co Ltd filed Critical Unisoc Chongqing Technology Co Ltd
Priority to CN202011046052.4A priority Critical patent/CN112349277B/zh
Publication of CN112349277A publication Critical patent/CN112349277A/zh
Priority to PCT/CN2021/120226 priority patent/WO2022063215A1/zh
Application granted granted Critical
Publication of CN112349277B publication Critical patent/CN112349277B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

本申请实施例提供一种结合AI模型的特征域语音增强方法及相关产品,所述方法包括:将初始语音信号执行初始操作得到特征域信号;基于AI模型确定特征域信号的增益,依据所述增益对特征域信号进行增强处理得到特征域增强信号;将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。本申请提供的技术方案具有用户体验度高的优点。

Description

结合AI模型的特征域语音增强方法及相关产品
技术领域
本申请涉及通信处理技术领域,尤其涉及一种结合AI模型的特征域语音增强方法及相关产品。
背景技术
交互终端更好地理解用户的目的,提高用户体验。语音增强已经进行了数十年的研究,广泛用于通信,安防,家居等场景。传统的语音增强技术包括单通道语音增强和多通道语音增强,其中多通道语音增强会使用到麦克风阵列技术。单通道的语音增强具有非常广泛的应用场景。一方面,单通道语音增强成本低,使用更加灵活便捷。另一方面,单通语音增强无法利用到达角等空间信息,对于复杂场景,尤其是非平稳噪声场景,处理起来非常困难。
当人处于嘈杂的环境中使用终端的语音交互功能时,环境中的噪声会使得终端的语音交互性能下降。具体地说,关键词唤醒(voicetriggerdetection)功能和自动语音识别(Automaticspeechdetection)功能都会出现误识率增加,识别率降低的现象,造成交互困难。
发明内容
本申请实施例公开了一种结合AI模型的特征域语音增强方法及相关产品,通过特征域语音增强提高识别准确率,降低交互难度,提高用户体验度。
第一方面,提供一种结合AI模型的特征域语音增强方法,所述方法包括如下步骤:
将初始语音信号执行初始操作得到特征域信号;
基于AI模型确定特征域信号的增益,依据所述增益对特征域信号进行增强处理得到特征域增强信号;
将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。
第二方面,提供一种结合AI模型的特征域语音增强装置,所述装置包括:
处理单元,用于将初始语音信号执行初始操作得到特征域信号;基于AI模型确定特征域信号的增益,依据所述增益对特征域信号进行增强处理得到特征域增强信号;
运算单元,用于将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。
第三方面,提供一种终端,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行第一方面所述的方法中的步骤的指令。
第四方面,提供了一种计算机可读存储介质,存储用于电子数据交换的计算机程序,其中,所述计算机程序使得计算机执行第一方面所述的方法。
第五方面,提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
第六方面,提供了芯片***,所述芯片***包括至少一个处理器,存储器和接口电路,所述存储器、所述收发器和所述至少一个处理器通过线路互联,所述至少一个存储器中存储有计算机程序;所述计算机程序被所述处理器执行时实现第一方面所述的方法。
通过实施本申请实施例,本申请提供的技术方案将初始语音信号执行初始操作得到特征域信号;基于AI模型对特征域信号进行增益处理得到特征域增强信号;将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。AI模型的输出是特征域的增益和VAD(语音活动检测) 信息。其中特征域增益可以直接对特征域的信号进行增强,而VAD信息则作为 KWS/ASR的辅助信息。增强后的特征域信号可用来进一步计算特征然后进行 KWS/ASR。本申请不需要将增强后的信号还原到时域,而是直接在特征域增强后输入到KWS/ASR,本申请仅需要一个通道的语音特征域信息,既可以用在单麦克风的场景,也可以用在多麦克风阵列的后处理。其硬件条件限制较少,应用场景更加广泛。因此其提高了识别的准确性,提高了用户体验度。
附图说明
以下对本申请实施例用到的附图进行介绍。
图1是本申请提供的一种示例通信***的***架构图;
图2是本申请提供的一种结合AI模型的特征域语音增强方法流程示意图;
图3是本申请实施例一提供的结合AI模型的特征域语音增强方法的流程示意图;
图4是本申请提供的AI模型的训练阶段的流程示意图;
图5是本申请提供的AI模型的推理阶段的流程示意图;
图6是本申请提供的一种结合AI模型的特征域语音增强装置的结构示意图;
图7是本申请提供的一种终端的结构示意图。
具体实施方式
下面结合本申请实施例中的附图对本申请实施例进行描述。
本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,表示前后关联对象是一种“或”的关系。
本申请实施例中出现的“多个”是指两个或两个以上。本申请实施例中出现的第一、第二等描述,仅作示意与区分描述对象之用,没有次序之分,也不表示本申请实施例中对设备个数的特别限定,不能构成对本申请实施例的任何限制。本申请实施例中出现的“连接”是指直接连接或者间接连接等各种连接方式,以实现设备间的通信,本申请实施例对此不做任何限定。
本申请实施例的技术方案可以应用于如图1所示的终端,该终端100如图1 所示,可以包括:处理器、麦克风、存储器和通信单元,该通信单元依据终端的不同类型可以有选择的配置,该通信单元可以为短距离通信模块,例如蓝牙模块、wifi模块等等,上述处理器、麦克风、存储器和通信单元可以通过总线连接。
终端100可以是还包含其它功能诸如个人数字助理和/或音乐播放器功能的便携式电子设备,诸如手机、平板电脑、智能音箱、蓝牙耳机、车载终端、具备无线通讯功能的可穿戴电子设备(如智能手表)等。便携式电子设备的示例性实施例包括但不限于搭载IOS***、Android***、Microsoft***或者其它操作***的便携式电子设备。上述便携式电子设备也可以是其它便携式电子设备,诸如膝上型计算机(Laptop)等。还应当理解的是,在其他一些实施例中,上述终端也可以不是便携式电子设备,而是台式计算机。
如图1所示的终端使用的语音增强技术可以包括单通道语音增强和多通道语音增强,其中多通道语音增强会使用到麦克风阵列技术。
单通道的语音增强技术应用范围较广,既可以用与单麦克风场景,比如在低端手机(功能机),智能手表,以及一些对功耗,体积,或成本有较大限制的设备上。也可以用于多麦克风场景的后处理阶段。多麦克风可以利用多通道的空间信息,以及相干性信息来增强语音。但仍然需要单通道语音增强技术来对非相干噪声进行抑制。
单通道语音增强技术基于两个假设,一是噪声信号的非平稳性比语音信号要弱,二是噪声信号和语音信号,其幅度都满足高斯分布。基于这些假设,传统的当通道语音增强方法分为两个步骤,一是噪声功率谱估计,二是语音增强增益计算。噪声功率谱估计根据当前带噪语音信号估计出当中可能包含的噪声,更新噪声功率谱。增益计算部分根据噪声功率谱估计先验信噪比,并计算增益。输入的带噪语音信号乘以计算出来的增益,就得到了增强后的语音信号。详细流程如下。语音增强的处理方法是建立在语音信号和噪声信号的统计分析的基础之上。这些统计分析主要用于语音存在概率的估计。一旦遇到不符合预期的统计特征,比如一些非平稳噪声,则语音增强的效果会下降。
参阅图2,图2提供了一种结合AI模型的特征域语音增强方法,该方法如图2所示,可以由如图1所示的终端执行,该方法如图2所示,包括如下步骤:
步骤S200、将初始语音信号执行初始操作得到特征域信号;
在一种可选的方案中,上述初始操作包括:分帧加窗FFT以及特征域变换。
步骤S201、基于AI模型确定特征域信号的增益;
在一种可选的方案中,上述步骤S201的实现方法具体可以包括:
基于AI模型对特征域信号执行信噪比估计得到特征域信号的信噪比,依据所述信噪比计算得到特征域增益。
在另一种可选的方案中,上述步骤S201的实现方法具体可以包括:
基于AI模型对特征域信号执行增益估计得到特征域增益。
步骤S202、依据所述增益对特征域信号进行增强处理得到特征域增强信号;
上述步骤S202的实现方法具体可以包括:将该特征域信号乘以该增益得到特征域增强信号。
步骤S203、将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。
在一种可选的方案中,上述运算模型包括:KWS(Key Word Spotting关键词检测)模型或ASR(Automatic Speech Recognition自动语音识别)模型。
本申请提供的技术方案将初始语音信号执行初始操作得到特征域信号;基于AI模型对特征域信号进行增益处理得到特征域增强信号;将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。 AI模型的输出是特征域的增益和VAD(语音活动检测)信息。其中特征域增益可以直接对特征域的信号进行增强,而VAD信息则作为KWS/ASR的辅助信息。增强后的特征域信号可用来进一步计算特征然后进行KWS/ASR。本申请不需要将增强后的信号还原到时域,而是直接在特征域增强后输入到KWS/ASR,本申请仅需要一个通道的语音特征域信息,既可以用在单麦克风的场景,也可以用在多麦克风阵列的后处理。其硬件条件限制较少,应用场景更加广泛。因此其提高了识别的准确性,提高了用户体验度。
在一种可选的方案中,上述方法在执行运算得到所述初始语音信号的输出结果之前还可以包括:
基于AI模型对特征域信号执行语音活动检测VAD估计,若确定该特征域信号具有语音活动,执行运算得到所述初始语音信号的输出结果;
若确定该特征域信号不具有语音活动,丢弃该输入数据。
此技术方案能够减少数据的处理量,只有在具有语音活动的情况下,才执行KWS/ASR的运算,不具有语音活动的情况下,直接丢弃输入数据,不执行 KWS/ASR的运算,进而减少数据的运算量,提高语音识别的速度。
实施例一
本申请实施例一提供了一种结合AI模型的特征域语音增强方法,该方法可以由终端执行,该方法的流程如图3所示,该方法可以包括如下步骤:
步骤S300、将带噪信号经过分帧加窗FFT处理和特征域变换得到特征域信号;
步骤S301、对特征域的增益进行计算得到特征域的增益,将特征域信号乘以增益得到特征域增强信号;
上述步骤S301的实现方法具有二种,
方法一是AI模型估计得到一个特征域的信噪比,根据信噪比计算增益。方法二是直接估计得到特征域的增益。
步骤S302、对特征域增强信号进一步特征计算后得到输入数据,将输入数据输入到KWS/ASR运算语音识别结果。
本申请提供的技术方案将初始语音信号执行初始操作得到特征域信号;基于AI模型对特征域信号进行增益处理得到特征域增强信号;将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。 AI模型的输出是特征域的增益和VAD(语音活动检测)信息。其中特征域增益可以直接对特征域的信号进行增强,而VAD信息则作为KWS/ASR的辅助信息。增强后的特征域信号可用来进一步计算特征然后进行KWS/ASR。本申请不需要将增强后的信号还原到时域,而是直接在特征域增强后输入到KWS/ASR,本申请仅需要一个通道的语音特征域信息,既可以用在单麦克风的场景,也可以用在多麦克风阵列的后处理。其硬件条件限制较少,应用场景更加广泛。因此其提高了识别的准确性,提高了用户体验度。
本申请实施例一提供的AI模型该方法分为两个阶段,分别是训练阶段和推理阶段。训练阶段的流程图如图4所示。
参阅图4,图4有三行,第一二行得到的是训练目标,第三行是输入特征。
首先说明输入特征的流程,输入一段纯语音和纯噪声,根据一个随机信噪比SNR,可以分别计算出语音信号增益gs和噪声增益gn。使用这个比例混合得到带噪信号。对该信号进行分帧加窗,FFT和特征提取,作为神经网络的输入特征。
然后说明得到目标SNR和目标增益的流程,输入的纯语音和纯噪声,乘以各自的增益gs和gn后,分别经过分帧加窗,FFT,和特征提取。在特征域计算目标SNR。此时的SNR并不能直接作为神经网络的目标,而需要经过映射处理,才能保证神经网络的收敛效果。目标增益的计算较为直接,G=(S/X)r,其中S 是乘以增益gs后纯语音的功率,X是混合后带噪信号功率。r是幂指数,一般取0.5或者1。
推理阶段如图5所示,每次输入一帧带噪语音信号,经过分帧加窗,FFT 之后,提取其语音特征,作为神经网络的输入。网络的输出为预测的当前帧在特征域上的信噪比或者增益,以及VAD信息。根据信噪比可以计算语音增益或者直接使用输出的增益和VAD信息实现特征域语音增强。输入一段带噪语音信号,分别经过分帧加窗,FFT,然后再提取特征。直接在特征域做语音增强,经过增强后的语音特征作为KWS或者ASR的输入。
本申请AI模型的训练目标有增益或者先验信噪比,和VAD。对于增益和 VAD信息,其范围都在[0,1]之间,训练过程中收敛难度不大。但是对于先验信噪比,无论是线性值,还是对数值,其分布都不利于神经网络的收敛。需要通过映射,将信噪比转换为类似于高斯分布,才能使得神经网络的性能达到最优。一种可选的训练目标的的映射过程如下。
SNRmapped=0.5·(tanh(a·(SNR+b))+1)
其中变量a用来控制tanh()函数的斜率,而变量b用来调节tanh()函数的偏置。通过调整a和b的值可以设置输入SNR的范围。一种典型设置是a=0.1,b=6。 b=6代表SNR=-6dB对应SNRmapped=0.5。因为每个频点的语音存在的概率是不同的,需要通过大量的语音和噪声数据的统计,得到适合每个频点的a,b值,以得到最优性能。
损失函数
训练目标经过映射,其动态范围已经被限定在从0到1之间,其数值的分布也符合一个类高斯分布。本申请可以使用交叉熵(cross entropy)或者均方误差(mean squareerror)作为损失函数,当然在实际应用中,也可以使用其他的损失函数,本申请并不限制上述损失函数的具体表现形式。
泛化性能和数据增广
语音交互可能发生在各种场景中,不同语种有各自的发音特点,不同场景有相应的环境信噪比以及房间尺寸,这些因素都可能会影响到神经网络的泛化性能。
本申请使用了多语种的干净语音信号作为训练数据,可以增强在多语种环境下的泛化性能。
本申请在训练时使用了较宽范围的SNR范围,比如-10dB到20dB,来计算训练数据语音信号和噪声信号的增益。
本申请在训练时使用了多个真实的和模拟的房间冲击响应,输入的训练数据会随机地与这些冲激响应做卷积,以模拟不同房间响应带来的影响。
可以理解的是,用户设备为了实现上述功能,其包含了执行各个功能相应的硬件和/或软件模块。结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本实施例可以根据上述方法示例对电子设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,图6示出了结合AI模型的特征域语音增强装置的示意图,如图6所示,该结合AI模型的特征域语音增强装置600可以包括:运算单元601和处理单元602。
其中,处理单元602可以用于支持用户设备执行上述步骤201等,和/或用于本文所描述的技术的其他过程。
运算单元601可以用于支持用户设备执行上述步骤202、步骤S203等,和/ 或用于本文所描述的技术的其他过程。
需要说明的是,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
本实施例提供的电子设备,用于执行上述如图2所示方法,因此可以达到与上述实现方法相同的效果。
在采用集成的单元的情况下,用户设备可以包括处理模块、存储模块和通信模块。其中,处理模块可以用于对用户设备的动作进行控制管理,例如,可以用于支持电子设备执行上述运算单元601和处理单元602执行的步骤。存储模块可以用于支持电子设备执行存储程序代码和数据等。通信模块,可以用于支持电子设备与其他设备的通信。
其中,处理模块可以是处理器或控制器。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,数字信号处理(digital signal processing,DSP)和微处理器的组合等等。存储模块可以是存储器。通信模块具体可以为射频电路、蓝牙芯片、Wi-Fi芯片等与其他电子设备交互的设备。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对用户设备的结构限定。在本申请另一些实施例中,用户设备也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
请参见图7,图7是本申请实施例提供的一种终端70,该终端70包括处理器701、存储器702和通信接口703,所述处理器701、存储器702和通信接口 703通过总线704相互连接。
存储器702包括但不限于是随机存储记忆体(random access memory,RAM)、只读存储器(read-only memory,ROM)、可擦除可编程只读存储器(erasable programmableread only memory,EPROM)、或便携式只读存储器(compact disc read-only memory,CD-ROM),该存储器702用于相关计算机程序及数据。通信接口703用于接收和发送数据。
处理器701可以是一个或多个中央处理器(central processing unit,CPU),在处理器701是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核 CPU。
处理器701可以包括一个或多个处理单元,例如:处理单元可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的部件,也可以集成在一个或多个处理器中。在一些实施例中,用户设备也可以包括一个或多个处理单元。其中,控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。在其他一些实施例中,处理单元中还可以设置存储器,用于存储指令和数据。示例性地,处理单元中的存储器可以为高速缓冲存储器。该存储器可以保存处理单元刚用过或循环使用的指令或数据。如果处理单元需要再次使用该指令或数据,可从所述存储器中直接调用。这样就避免了重复存取,减少了处理单元的等待时间,因而提高了用户设备处理数据或执行指令的效率。
在一些实施例中,处理器701可以包括一个或多个接口。接口可以包括集成电路间(inter-integrated circuit,I2C)接口、集成电路间音频(inter-integrated circuitsound,I2S)接口、脉冲编码调制(pulse code modulation,PCM)接口、通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口、移动产业处理器接口(mobile industry processor interface,MIPI)、用输入输出 (general-purpose input/output,GPIO)接口、SIM卡接口和/或USB接口等。其中,USB接口是符合USB标准规范的接口,具体可以是Mini USB接口、Micro USB接口、USB Type C接口等。USB接口可以用于连接充电器为用户设备充电,也可以用于用户设备与***设备之间传输数据。该USB接口也可以用于连接耳机,通过耳机播放音频。
该终端70中的处理器701用于读取所述存储器702中存储的计算机程序代码,执行以下操作:
将初始语音信号执行初始操作得到特征域信号;
基于AI模型对特征域信号进行增益处理得到特征域增强信号;
将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。
其中,上述方法实施例涉及的各场景的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
本申请实施例还提供一种芯片***,所述芯片***包括至少一个处理器,存储器和接口电路,所述存储器、所述收发器和所述至少一个处理器通过线路互联,所述至少一个存储器中存储有计算机程序;所述计算机程序被所述处理器执行时,图2、图3所示的方法流程得以实现。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当其在网络设备上运行时,图2、图3所示的方法流程得以实现。
本申请实施例还提供一种计算机程序产品,当所述计算机程序产品在终端上运行时,图2、图3所示的方法流程得以实现。
本申请实施例还提供一种终端,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行图2、图3所示实施例的方法中的步骤的指令。
上述主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模板。本领域技术人员应该很容易意识到,结合本文中所提供的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模板并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM, Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。

Claims (10)

1.一种结合AI模型的特征域语音增强方法,其特征在于,所述方法包括如下步骤:
将初始语音信号执行初始操作得到特征域信号;
基于AI模型确定特征域信号的增益,依据所述增益对特征域信号进行增强处理得到特征域增强信号;
将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。
2.根据权利要求1所述的方法,其特征在于,所述基于AI模型对特征域信号进行增益处理得到特征域增强信号具体包括:
基于AI模型对特征域信号执行信噪比估计得到特征域信号的信噪比,依据所述信噪比计算得到特征域增益,将该特征域信号乘以该增益得到特征域增强信号。
3.根据权利要求1所述的方法,其特征在于,所述基于AI模型对特征域信号进行增益处理得到特征域增强信号具体包括:
基于AI模型对特征域信号执行增益估计得到特征域增益,将该特征域信号乘以该增益得到特征域增强信号。
4.根据权利要求1-3任意一项所述的方法,其特征在于,所述方法在执行运算得到所述初始语音信号的输出结果之前还包括:
基于AI模型对特征域信号执行语音活动检测VAD估计,若确定该特征域信号具有语音活动,执行运算得到所述初始语音信号的输出结果;
若确定该特征域信号不具有语音活动,丢弃该输入数据。
5.根据权利要求1-4任意一项所述的方法,
所述初始操作包括:分帧加窗FFT以及特征域变换。
6.根据权利要求1-5任意一项所述的方法,
所述运算模型包括:关键词检测KWS模型或自动语音识别ASR模型。
7.一种结合AI模型的特征域语音增强装置,其特征在于,所述装置包括:
处理单元,用于将初始语音信号执行初始操作得到特征域信号;基于AI模型确定特征域信号的增益,依据所述增益对特征域信号进行增强处理得到特征域增强信号;
运算单元,用于将特征域增强信号作为输入数据输入到运算模型,执行运算得到所述初始语音信号的输出结果。
8.一种终端,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-6任意一项所述的方法中的步骤的指令。
9.一种芯片***,所述芯片***包括至少一个处理器,存储器和接口电路,所述存储器、所述收发器和所述至少一个处理器通过线路互联,所述至少一个存储器中存储有计算机程序;所述计算机程序被所述处理器执行时实现如权利要求1-6任意一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当其在用户设备上运行时,执行如权利要求1-6任意一项所述的方法。
CN202011046052.4A 2020-09-28 2020-09-28 结合ai模型的特征域语音增强方法及相关产品 Active CN112349277B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011046052.4A CN112349277B (zh) 2020-09-28 2020-09-28 结合ai模型的特征域语音增强方法及相关产品
PCT/CN2021/120226 WO2022063215A1 (zh) 2020-09-28 2021-09-24 结合ai模型的特征域语音增强方法及相关产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011046052.4A CN112349277B (zh) 2020-09-28 2020-09-28 结合ai模型的特征域语音增强方法及相关产品

Publications (2)

Publication Number Publication Date
CN112349277A true CN112349277A (zh) 2021-02-09
CN112349277B CN112349277B (zh) 2023-07-04

Family

ID=74361251

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011046052.4A Active CN112349277B (zh) 2020-09-28 2020-09-28 结合ai模型的特征域语音增强方法及相关产品

Country Status (2)

Country Link
CN (1) CN112349277B (zh)
WO (1) WO2022063215A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022063215A1 (zh) * 2020-09-28 2022-03-31 紫光展锐(重庆)科技有限公司 结合ai模型的特征域语音增强方法及相关产品

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058572B1 (en) * 2000-01-28 2006-06-06 Nortel Networks Limited Reducing acoustic noise in wireless and landline based telephony
US20110191101A1 (en) * 2008-08-05 2011-08-04 Christian Uhle Apparatus and Method for Processing an Audio Signal for Speech Enhancement Using a Feature Extraction
CN104867498A (zh) * 2014-12-26 2015-08-26 深圳市微纳集成电路与***应用研究院 一种移动通讯终端及其语音增强方法和模块
CN104952448A (zh) * 2015-05-04 2015-09-30 张爱英 一种双向长短时记忆递归神经网络的特征增强方法及***
CN106782504A (zh) * 2016-12-29 2017-05-31 百度在线网络技术(北京)有限公司 语音识别方法和装置
EP3255634A1 (en) * 2016-05-30 2017-12-13 Oticon A/s An audio processing device and a method for estimating a signal-to-noise-ratio of a sound signal
CN107977183A (zh) * 2017-11-16 2018-05-01 百度在线网络技术(北京)有限公司 语音交互方法、装置及设备
CN108847251A (zh) * 2018-07-04 2018-11-20 武汉斗鱼网络科技有限公司 一种语音去重方法、装置、服务器及存储介质
CN108877775A (zh) * 2018-06-04 2018-11-23 平安科技(深圳)有限公司 语音数据处理方法、装置、计算机设备及存储介质
CN109712628A (zh) * 2019-03-15 2019-05-03 哈尔滨理工大学 一种基于rnn的语音降噪方法及语音识别方法
CN109767760A (zh) * 2019-02-23 2019-05-17 天津大学 基于振幅和相位信息的多目标学习的远场语音识别方法
CN110085249A (zh) * 2019-05-09 2019-08-02 南京工程学院 基于注意力门控的循环神经网络的单通道语音增强方法
CN110335620A (zh) * 2019-07-08 2019-10-15 广州欢聊网络科技有限公司 一种噪声抑制方法、装置和移动终端
CN110428849A (zh) * 2019-07-30 2019-11-08 珠海亿智电子科技有限公司 一种基于生成对抗网络的语音增强方法
CN110867181A (zh) * 2019-09-29 2020-03-06 北京工业大学 基于scnn和tcnn联合估计的多目标语音增强方法
JP2020076907A (ja) * 2018-11-09 2020-05-21 沖電気工業株式会社 信号処理装置、信号処理プログラム及び信号処理方法
CN111445919A (zh) * 2020-03-13 2020-07-24 紫光展锐(重庆)科技有限公司 结合ai模型的语音增强方法、***、电子设备和介质
CN111556420A (zh) * 2019-02-08 2020-08-18 奥迪康有限公司 包括降噪***的听力装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112349277B (zh) * 2020-09-28 2023-07-04 紫光展锐(重庆)科技有限公司 结合ai模型的特征域语音增强方法及相关产品

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058572B1 (en) * 2000-01-28 2006-06-06 Nortel Networks Limited Reducing acoustic noise in wireless and landline based telephony
US20110191101A1 (en) * 2008-08-05 2011-08-04 Christian Uhle Apparatus and Method for Processing an Audio Signal for Speech Enhancement Using a Feature Extraction
CN104867498A (zh) * 2014-12-26 2015-08-26 深圳市微纳集成电路与***应用研究院 一种移动通讯终端及其语音增强方法和模块
CN104952448A (zh) * 2015-05-04 2015-09-30 张爱英 一种双向长短时记忆递归神经网络的特征增强方法及***
EP3255634A1 (en) * 2016-05-30 2017-12-13 Oticon A/s An audio processing device and a method for estimating a signal-to-noise-ratio of a sound signal
CN106782504A (zh) * 2016-12-29 2017-05-31 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN107977183A (zh) * 2017-11-16 2018-05-01 百度在线网络技术(北京)有限公司 语音交互方法、装置及设备
CN108877775A (zh) * 2018-06-04 2018-11-23 平安科技(深圳)有限公司 语音数据处理方法、装置、计算机设备及存储介质
CN108847251A (zh) * 2018-07-04 2018-11-20 武汉斗鱼网络科技有限公司 一种语音去重方法、装置、服务器及存储介质
JP2020076907A (ja) * 2018-11-09 2020-05-21 沖電気工業株式会社 信号処理装置、信号処理プログラム及び信号処理方法
CN111556420A (zh) * 2019-02-08 2020-08-18 奥迪康有限公司 包括降噪***的听力装置
CN109767760A (zh) * 2019-02-23 2019-05-17 天津大学 基于振幅和相位信息的多目标学习的远场语音识别方法
CN109712628A (zh) * 2019-03-15 2019-05-03 哈尔滨理工大学 一种基于rnn的语音降噪方法及语音识别方法
CN110085249A (zh) * 2019-05-09 2019-08-02 南京工程学院 基于注意力门控的循环神经网络的单通道语音增强方法
CN110335620A (zh) * 2019-07-08 2019-10-15 广州欢聊网络科技有限公司 一种噪声抑制方法、装置和移动终端
CN110428849A (zh) * 2019-07-30 2019-11-08 珠海亿智电子科技有限公司 一种基于生成对抗网络的语音增强方法
CN110867181A (zh) * 2019-09-29 2020-03-06 北京工业大学 基于scnn和tcnn联合估计的多目标语音增强方法
CN111445919A (zh) * 2020-03-13 2020-07-24 紫光展锐(重庆)科技有限公司 结合ai模型的语音增强方法、***、电子设备和介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
QIQUAN ZHANG,ET AL.: "DeepMMSE: A Deep Learning Approach to MMSE-Based Noise Power Spectral Density Estimation", 《 IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING》, vol. 28 *
王秋菊: "机载噪声环境下语音增强研究", 《中国优秀硕士学位论文全文库(信息科技辑)》, no. 2 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022063215A1 (zh) * 2020-09-28 2022-03-31 紫光展锐(重庆)科技有限公司 结合ai模型的特征域语音增强方法及相关产品

Also Published As

Publication number Publication date
WO2022063215A1 (zh) 2022-03-31
CN112349277B (zh) 2023-07-04

Similar Documents

Publication Publication Date Title
US11798531B2 (en) Speech recognition method and apparatus, and method and apparatus for training speech recognition model
US10573301B2 (en) Neural network based time-frequency mask estimation and beamforming for speech pre-processing
CN110400572B (zh) 音频增强方法及***
CN110554357B (zh) 声源定位方法和装置
CN110931035B (zh) 音频处理方法、装置、设备及存储介质
EP3501026B1 (en) Blind source separation using similarity measure
CN110827843A (zh) 音频处理方法、装置、存储介质及电子设备
CN107240396B (zh) 说话人自适应方法、装置、设备及存储介质
CN111935746B (zh) 获取通信参数的方法、装置、终端及存储介质
CN109766476B (zh) 视频内容情感分析方法、装置、计算机设备及存储介质
CN111722696B (zh) 用于低功耗设备的语音数据处理方法和装置
CN110503973B (zh) 音频信号瞬态噪音抑制方法、***以及存储介质
CN112349277B (zh) 结合ai模型的特征域语音增强方法及相关产品
WO2020134547A1 (zh) 数据的定点化加速方法、装置、电子设备及存储介质
CN112951263B (zh) 语音增强方法、装置、设备和存储介质
CN117496990A (zh) 语音去噪方法、装置、计算机设备及存储介质
US10650839B2 (en) Infinite impulse response acoustic echo cancellation in the frequency domain
CN111276127A (zh) 语音唤醒方法、装置、存储介质及电子设备
CN107919136B (zh) 一种基于高斯混合模型的数字语音采样频率估计方法
CN112289311A (zh) 语音唤醒方法、装置、电子设备及存储介质
CN111341347B (zh) 一种噪声检测方法及相关设备
CN114400018A (zh) 语音降噪方法、装置、电子设备及计算机可读存储介质
CN112466305A (zh) 饮水机的语音控制方法及装置
CN111554288A (zh) 智能设备的唤醒方法、装置、电子设备及介质
CN113763976A (zh) 音频信号的降噪方法、装置、可读介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant