CN108269567B - 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 - Google Patents
用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108269567B CN108269567B CN201810064909.1A CN201810064909A CN108269567B CN 108269567 B CN108269567 B CN 108269567B CN 201810064909 A CN201810064909 A CN 201810064909A CN 108269567 B CN108269567 B CN 108269567B
- Authority
- CN
- China
- Prior art keywords
- signal
- noise ratio
- field
- far
- speech data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000007613 environmental effect Effects 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000014759 maintenance of location Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 101100149678 Caenorhabditis elegans snr-3 gene Proteins 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 101100398248 Arabidopsis thaliana KIN10 gene Proteins 0.000 description 1
- 101100366000 Caenorhabditis elegans snr-1 gene Proteins 0.000 description 1
- 101100419874 Caenorhabditis elegans snr-2 gene Proteins 0.000 description 1
- 101000835860 Homo sapiens SWI/SNF-related matrix-associated actin-dependent regulator of chromatin subfamily B member 1 Proteins 0.000 description 1
- 102100025746 SWI/SNF-related matrix-associated actin-dependent regulator of chromatin subfamily B member 1 Human genes 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/69—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Circuit For Audible Band Transducer (AREA)
- Navigation (AREA)
Abstract
根据本公开的示例实施例,提供了一种用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质。该方法包括获得真实环境中的环境噪声并且基于该环境噪声来调整近场语音数据集中的近场语音数据。此外,该方法还包括基于经调整的近场语音数据和环境噪声来生成远场语音数据。本公开的实施例在通过近场语音数据来模拟生成远场语音数据的过程中,根据实际收集的环境噪声来调整近场语音数据,使得所生成的模拟远场语音数据更加客观真实。
Description
技术领域
本公开的实施例总体上涉及语音处理领域,并且更具体地涉及用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质。
背景技术
语音识别是指利用机器(诸如计算机)对语音的内容进行自动识别,其广泛应用于许多场景,诸如文字输入、智能家电控制、车载导航等。为了进行语音识别,计算机需要建立语音识别模型,其通常包括语言模型和声学模型。在建立语音识别模型的过程中,需要大量已标注的训练数据进行训练。一般来说,训练数据越多,训练出的语音识别模型的准确率就越高。
根据距离场景的不同,语音识别模型可以划分成近场语音识别模型和远场语音识别模型。近场语音识别模型是指使得计算机能够在近距离条件下识别语音,例如在使用语音输入法的过程中。远场语音识别模型是指使得计算机能够在远距离条件下识别语音,例如在智能音箱或者车载导航的过程中。在远场语音识别场景中,由于真实环境中存在大量的环境噪声和混响等,导致拾取信号的质量下降,因而远场语音识别的准确率比近场语音识别的准确率较低。
发明内容
根据本公开的示例实施例,提供了一种用于生成远场语音数据的方案。
在本公开的第一方面中,提供了一种用于生成远场语音数据的方法。该方法包括:获得真实环境中的环境噪声;基于环境噪声,调整近场语音数据集中的近场语音数据;以及基于经调整的近场语音数据和环境噪声,生成远场语音数据。
在本公开的第二方面中,提供了一种用于生成远场语音数据的装置。该装置包括:获得模块,被配置为获得真实环境中的环境噪声;调整模块,被配置为基于环境噪声来调整近场语音数据集中的近场语音数据;以及生成模块,被配置为基于经调整的近场语音数据和环境噪声来生成远场语音数据。
在本公开的第三方面中,提供了一种计算设备,其包括一个或多个处理器;以及存储装置,用于存储一个或多个程序。一个或多个程序当被一个或多个处理器执行,使得计算设备实现根据本公开的实施例的方法或过程。
在本公开的第四方面中,提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的实施例的方法或过程。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开的实施例能够实现在其中的示例环境的示意图;
图2示出了根据本公开的实施例的用于生成远场语音数据的方法的流程图;
图3示出了根据本公开的实施例的用于验证所生成的远场语音数据的方法的流程图;
图4A示出了根据本公开的实施例的安静的近场语音的幅值图;
图4B示出了根据本公开的实施例的经调整的近场语音的幅值图;
图4C示出了根据本公开的实施例的所生成的远场语音的幅值图;
图5示出了根据本公开的实施例的用于生成远场语音数据的装置的框图;以及
图6示出了能够实施本公开的多个实施例的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等可以指代不同的或相同的对象,除非上下文明确指示不同。下文还可能包括其他明确的和隐含的定义。
远场语音识别模型的训练需要大量的远场语音数据,而真实的远场语音数据样本相对较少,因而目前需要通过对近场语音数据进行加噪的方式来模拟带噪声的远场语音数据。传统的语音加噪方式是以语音为基础,通过调整噪声的幅度来进行加噪。然而,这种方式往往与现实环境的用户说话习惯不相符,例如用户在嘈杂的环境中往往会大声说话,在安静的环境中往往说话声音要小一些,这些不同场景下的噪声是不会随用户的喜好发生变化,相反,用户会在不同的场景中调整自己说话声音的大小。因此,传统的语音加噪方式不能客观有效地反映真实远场环境中的用户的语音(例如音量)与环境噪声之间的客观关系。
本公开的实施例提出了一种用于生成远场语音数据的方案。根据本公开的实施例,在通过近场语音数据来模拟生成远场语音数据的过程中,根据真实的环境噪声来调整近场语音数据,使得模拟生成的远场语音数据更加客观真实。此外,本公开的实施例通过多个信噪比之间的比较,使得所生成的远场语音数据更加真实客观地逼近远场环境的特性,并且验证所生成的远场语音数据是否符合真实的信噪比范围,由此保证了所生成的远场语音数据的可靠性。另外,根据本公开的实施例生成的远场语音数据可以用于训练远场语音识别模型。
应当理解,在所描述的实施例中,术语“近场语音数据”可以指在相对较近距离(例如20厘米以内)内获得的基本上没有噪声的语音数据,术语“远场语音数据”可以指在相对较远距离(例如1米以上)收集到的或者模拟生成的带有噪声的语音数据。以下将参考附图1-6详细描述本公开的一些示例实施例。
图1示出了本公开的实施例能够实现在其中的示例环境100的示意图。示例环境100能够用于模拟生成远场语音数据,并将所示生成的远场语音数据用于远场语音识别模型的训练。如图1所示,示例环境100包括声音收集设备110、远场语音数据生成装置120、近场语音数据集130以及远场语音识别模型140。
声音收集设备110用于收集真实环境中的噪声。在一些实施例中,声音收集设备110还可以收集一定数量的远场语音数据以形成远场语音数据集,基于远场语音数据集可以确定不同场景中的信噪比的真实分布范围。在一些实施例中,可以将远场语音识别所使用的场景分成多种场景类型(例如,家庭中,车载等),针对每种场景类型,通过实际收集的数据确定这种类型场景中的信噪比的实际分布范围。
远场语音数据生成装置120用于基于从声音收集设备110获得的环境噪声和从近场语音数据集130的近场语音数据来模拟生成远场语音数据。近场语音数据集130是通过对预先收集的近场语音数据(即,基本没有噪声的安静语音)进行标注而被构建,其可以包括每个语音片段的文本标签、状态标签等。如图1所示,远场语音数据生成装置120所生成的远场语音数据可以被输出到远场语音识别模型140中以用于进行训练。
根据本公开的实施例,远场语音数据生成装置120可以生成仿真的远场语音数据,例如,远场语音数据生成装置120可以基于环境噪声来调整近场语音数据以便生成更真实的远场语音数据。以下参考图 2-4进一步描述了调整近场语音数据的示例实现。
图2示出了根据本公开的实施例的用于生成远场语音数据的方法 200的流程图。应当理解,方法200可以由以上参考图1所描述的远场语音数据生成装置120来执行。
在框204,获得真实环境中的环境噪声。例如,远场语音数据生成装置120从声音收集设备110获得真实场景中实际收集到的环境噪声。目前已知的或者将来开发的任何声音收集设备可以与本公开的实施例结合以便获得真实环境中的环境噪声。
本领域技术人员应当理解,环境噪声是指在社会生活中所产生的干扰周围生活环境的声音,其会影响语音识别模型对于目标语音(例如,用户说出的语音)的识别。噪声数据的类型需要实际的场景相结合,例如,智能音箱通常在家庭内使用,噪声可以是电视、电冰箱、空调、洗衣机等设备的噪声。
在一些实施例中,在声音收集设备110收集到环境噪声之后,可以对环境噪声的幅值进行统计以获取信号幅值的均值和方差,并且可以基于所确定的均值和方差来调整环境噪声的信号幅值。例如,可以基于均值和方差对环境噪声进行随机的小范围抖动。以这种方式,可以增加所收集的噪声的多样性。
在框206,基于环境噪声,调整近场语音数据集中的近场语音数据。近场语音数据集是通过对预先收集的安静的近场语音数据进行标注而被构建,其可以包括每个语音片段的文本标签、状态标签等。根据本公开的实施例,远场语音数据生成装置120以环境噪声为基底来调整近场语音数据。例如,在相对安静的环境中(诸如家中),由于用户说话声音可以相对较小,因而可以小幅度增强安静的近场语音数据;而在相对吵杂的环境中(诸如汽车中),由于用户往往需要大声说话,因而可以大幅度增强安静的近场语音数据。以这种方式,能够实现以噪声为基底的语音加噪,从而使得加噪后的语音数据更加客观且真实。以下参考图3进一步描述了基于环境噪声来调整近场语音数据的示例实现。
在框208,基于经调整的近场语音数据和环境噪声,生成远场语音数据。例如,远场语音数据生成装置120可以利用环境噪声对经调整的近场语音数据执行加噪处理,从而生成模拟的远场语音数据。在一些实施例中,还可以对所生成的语音数据进一步进行加混响处理。所生成的远场语音数据由于具有近场语音数据中的已标注的状态并且真实客观,因而可以用来训练远场语音识别模型。
应当理解,虽然通过实际收集也能够获得远场语音数据样本,然而,远场语音数据收集要求比较高,不易收集且数据样本较少,不能满足大规模的远场语音识别模型训练的需要。相反,近场语音数据较易收集并且样本较多,因而通过近场语音数据来模拟远场语音数据能够获得大量的远场语音训练数据。
根据本公开的实施例,根据真实的环境噪声来调整近场语音数据,使得模拟生成的远场语音数据更加客观真实。此外,应当理解,根据本公开的实施例生成的远场语音数据可以用于远场语音识别模型的训练中,以提高远场语音识别的性能,例如用在智能音箱、车载导航等的远场语音识别声学模型中。
图3示出了根据本公开的实施例的用于验证所生成的远场语音数据的方法300的流程图。应当理解,方法300可以由以上参考图1所描述的远场语音数据生成装置120来执行,并且方法300中的步骤 302-310可以为参考图2所描述的步骤206的子步骤,步骤312-314 可以在参考图2所描述的步骤208之后执行或者为其子步骤。应当理解,虽然方法300中包括步骤302-318,但是本公开的某些实施例中可以包括这些步骤中的一个或多个步骤的任意组合。
在框302,计算近场语音数据与环境噪声之间的第一信噪比。例如,远场语音数据生成装置120计算从近场语音数据集130获得的安静的近场语音片段的第一能量值,并且计算从声音收集设备110获得的环境噪声的第二能量值,然后确定第一能量值与第二能量值之间的比率作为第一信噪比,简称为SNR1。
接下来在框304-308,获得与真实环境相关联的第二信噪比,例如,第二信噪比可以表示某种类型的真实场景中的实际信噪比或者期望信噪比,根据远场语音识别所使用的环境,其使用场景类型可以包括例如家庭场景、车载场景、办公室场景、路边场景,等等。
在304,获得与真实环境的场景类型相关联的远场语音数据集。例如,如果环境噪声是从家庭场景收集,则可以获得家庭场景中的实际收集到的一定量的远场语音数据集中的数据。在306,确定所获得的远场语音数据集的信噪比范围S,远场语音数据集中可以已经标注每个远场语音数据的信噪比和场景类型,因此,针对某种特定的场景类型,可以统计这种场景类型的真实的信噪比的分布范围。在一些实施例中,也可以通过其他渠道获得各种场景类型中的信噪比分布的实际范围。在308,从信噪比范围内确定第二信噪比。例如,可以在范围S内随机产生一个信噪比作为期望信噪比,即第二信噪比,简称为 SNR2。
在框310,基于第一信噪比和第二信噪比,调整近场语音数据。例如,可以确定第一信噪比SNR1与第二信噪比SNR2之间的比率R 作为缩放比率,并且根据比率R对近场语音数据进行幅值缩放,例如可以根据比率R增大近场语音数据的幅值。
可选地,在框312,确定经调整的近场语音数据与环境噪声之间的第三信噪比。例如,对所生成的远场语音数据重新计算信噪比,作为第三信噪比,简称为SNR3。在框314,判断第三信噪比SNR3是否在这种场景的实际的信噪比范围S之内。如果第三信噪比SNR3在信噪比范围S之内,则在框316保留所生成的远场语音数据。反之,如果第三信噪比SNR3在信噪比范围S之外,则在框318,丢弃所生成的远场语音数据。通过验证所生成的远场语音数据是否符合真实的信噪比范围,能够保证所生成的远场语音数据的可靠性。
图4A-4C示出了根据本公开的实施例的用于使用近场语音数据来模拟远场语音数据的示例性示意图。图4A示出了根据本公开的实施例的近场语音的幅值图410。例如,幅值图410示出可以为以上参考图1所描述的近场语音数据集130中的近场语音的幅值图。
根据本公开的实施例,可以以环境噪声以基底来调整近场语音数据。例如,在某种场景类型中,用户在使用基于远程识别模型的设备时,由于距离较远并且存在噪声,用户通常会提高其说话音量。因此,为了更客观真实地反映实际场景中的远场语音数据,需要对近场语音数据进行相应地放大。例如,图4B示出了根据本公开的实施例的经调整的近场语音的幅值图420,与幅值图410相比,幅值图420中的信号的幅值进行了一定程度的放大。
在调整安静的近场语音数据之后,利用环境噪声对经调整的近场语音数据执行加噪处理,从而生成模拟的远场语音数据。图4C示出了根据本公开的实施例的所生成的远场语音的幅值图430。与幅值图 420相比,幅值图430中信号中添加了噪声,由此实现通过对近场语音数据进行加噪来生成模拟的远场语音数据。
图5示出了根据本公开的实施例的用于生成远场语音数据的装置的框图。如图5所示,装置500包括获得模块510、调整模块520以及生成模块530。获得模块510被配置为获得真实环境中的环境噪声。调整模块520被配置为基于环境噪声来调整近场语音数据集中的近场语音数据。生成模块530被配置为基于经调整的近场语音数据和环境噪声来生成远场语音数据。
在一些实施例中,调整模块520包括:第一信噪比确定模块,被配置为确定近场语音数据与环境噪声之间的第一信噪比;第二信噪比获得模块,被配置为获得与真实环境相关联的第二信噪比;以及第二调整模块,被配置为基于第一信噪比和第二信噪比来调整近场语音数据。在一些实施例中,第二信噪比获得模块包括:第二获得模块,被配置为获得与真实环境的场景类型相关联的远场语音数据集;信噪比范围确定模块,被配置为确定远场语音数据集的信噪比范围;以及第二信噪比确定模块,被配置为从信噪比范围内确定第二信噪比。
在一些实施例中,装置500还包括:第三信噪比确定模块,被配置为确定经调整的近场语音数据与环境噪声之间的第三信噪比;保留模块,被配置为响应于第三信噪比在信噪比范围之内,保留所生成的远场语音数据;以及丢弃模块,被配置为响应于第三信噪比在信噪比范围之外,丢弃所生成的远场语音数据。在一些实施例中,调整模块 520还包括:第三调整模块,被配置为基于第一信噪比与第二信噪比之间的比率来调整近场语音数据的信号幅值。
在一些实施例中,获得模块510包括:收集模块,被配置为收集环境噪声;确定模块,被配置为确定环境噪声的信号幅值的均值和方差;以及第四调整模块,被配置为基于所确定的均值和方差来调整环境噪声的信号幅值。在一些实施例中,生成模块530包括加噪模块,其被配置为利用环境噪声对经调整的近场语音数据执行加噪处理。在一些实施例中,装置500还包括训练模块,其被配置为使用所生成的远场语音数据来训练远场语音识别模型。
应当理解,图5中所示出的获得模块510、调整模块520以及生成模块530可以被包括在参考图1所描述的远场语音数据生成装置 120中。而且,应当理解,图5中所示出的模块可以执行参考本公开的实施例的方法或过程中的步骤或动作。
图6示出了可以用来实施本公开的实施例的示例设备600的示意性框图。设备600可以用于实现本公开的用于生成远场语音数据的装置600。如图所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600 操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/ 数据。
处理单元601执行上文所描述的各个方法和过程,例如方法200 和/或方法300。例如,在一些实施例中,方法200和/或方法300可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由 ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM603并由CPU 601执行时,可以执行上文描述的方法200和/或方法300的一个或多个动作或步骤。备选地,在其他实施例中,CPU 601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200和/或方法300。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD),等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各动作或步骤,但是这应当理解为要求这样动作或步骤以所示出的特定次序或以顺序次序执行,或者要求所有图示的动作或步骤应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本公开的实施例,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (18)
1.一种用于生成远场语音数据的方法,包括:
获得真实环境中的环境噪声;
基于所述环境噪声,调整近场语音数据集中的近场语音数据;以及
基于经调整的所述近场语音数据和所述环境噪声,生成远场语音数据。
2.根据权利要求1所述的方法,其中调整所述近场语音数据包括:
确定所述近场语音数据与所述环境噪声之间的第一信噪比;
获得与所述真实环境相关联的第二信噪比;以及
基于所述第一信噪比和所述第二信噪比,调整所述近场语音数据。
3.根据权利要求2所述的方法,其中获得与所述真实环境相关联的第二信噪比包括:
获得与所述真实环境的场景类型相关联的远场语音数据集;
确定所述远场语音数据集的信噪比范围;以及
从所述信噪比范围内确定所述第二信噪比。
4.根据权利要求3所述的方法,还包括:
确定经调整的所述近场语音数据与所述环境噪声之间的第三信噪比;
响应于所述第三信噪比在所述信噪比范围之内,保留所生成的所述远场语音数据;以及
响应于所述第三信噪比在所述信噪比范围之外,丢弃所生成的所述远场语音数据。
5.根据权利要求2所述的方法,其中调整所述近场语音数据还包括:
基于所述第一信噪比与所述第二信噪比之间的比率,调整所述近场语音数据的信号幅值。
6.根据权利要求1所述的方法,其中获得所述环境噪声包括:
收集所述环境噪声;
确定所述环境噪声的信号幅值的均值和方差;以及
基于所确定的均值和方差,调整所述环境噪声的所述信号幅值。
7.根据权利要求1所述的方法,其中生成所述远场语音数据包括:
利用所述环境噪声对经调整的所述近场语音数据执行加噪处理。
8.根据权利要求1所述的方法,还包括:
使用所生成的所述远场语音数据来训练远场语音识别模型。
9.一种用于生成远场语音数据的装置,包括:
获得模块,被配置为获得真实环境中的环境噪声;
调整模块,被配置为基于所述环境噪声来调整近场语音数据集中的近场语音数据;以及
生成模块,被配置为基于经调整的所述近场语音数据和所述环境噪声来生成远场语音数据。
10.根据权利要求9所述的装置,其中所述调整模块包括:
第一信噪比确定模块,被配置为确定所述近场语音数据与所述环境噪声之间的第一信噪比;
第二信噪比获得模块,被配置为获得与所述真实环境相关联的第二信噪比;以及
第二调整模块,被配置为基于所述第一信噪比和所述第二信噪比来调整所述近场语音数据。
11.根据权利要求10所述的装置,其中所述第二信噪比获得模块包括:
第二获得模块,被配置为获得与所述真实环境的场景类型相关联的远场语音数据集;
信噪比范围确定模块,被配置为确定所述远场语音数据集的信噪比范围;以及
第二信噪比确定模块,被配置为从所述信噪比范围内确定所述第二信噪比。
12.根据权利要求11所述的装置,还包括:
第三信噪比确定模块,被配置为确定经调整的所述近场语音数据与所述环境噪声之间的第三信噪比;
保留模块,被配置为响应于所述第三信噪比在所述信噪比范围之内,保留所生成的所述远场语音数据;以及
丢弃模块,被配置为响应于所述第三信噪比在所述信噪比范围之外,丢弃所生成的所述远场语音数据。
13.根据权利要求10所述的装置,其中所述调整模块包括:
第三调整模块,被配置为基于所述第一信噪比与所述第二信噪比之间的比率来调整所述近场语音数据的信号幅值。
14.根据权利要求9所述的装置,其中所述获得模块包括:
收集模块,被配置为收集所述环境噪声;
确定模块,被配置为确定所述环境噪声的信号幅值的均值和方差;以及
第四调整模块,被配置为基于所确定的均值和方差来调整所述环境噪声的所述信号幅值。
15.根据权利要求9所述的装置,其中所述生成模块包括:
加噪模块,被配置为利用所述环境噪声对经调整的所述近场语音数据执行加噪处理。
16.根据权利要求9所述的装置,还包括:
训练模块,被配置为使用所生成的所述远场语音数据来训练远场语音识别模型。
17.一种计算设备,所述计算设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,所述一个或多个程序当被所述一个或多个处理器执行,使得所述计算设备实现根据权利要求1-8中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1-8中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810064909.1A CN108269567B (zh) | 2018-01-23 | 2018-01-23 | 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 |
US16/228,656 US10861480B2 (en) | 2018-01-23 | 2018-12-20 | Method and device for generating far-field speech data, computer device and computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810064909.1A CN108269567B (zh) | 2018-01-23 | 2018-01-23 | 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108269567A CN108269567A (zh) | 2018-07-10 |
CN108269567B true CN108269567B (zh) | 2021-02-05 |
Family
ID=62776317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810064909.1A Active CN108269567B (zh) | 2018-01-23 | 2018-01-23 | 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10861480B2 (zh) |
CN (1) | CN108269567B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108269567B (zh) * | 2018-01-23 | 2021-02-05 | 北京百度网讯科技有限公司 | 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 |
CN108335694B (zh) * | 2018-02-01 | 2021-10-15 | 北京百度网讯科技有限公司 | 远场环境噪声处理方法、装置、设备和存储介质 |
JP7028311B2 (ja) * | 2018-03-12 | 2022-03-02 | 日本電信電話株式会社 | 学習用音声データ生成装置、その方法、およびプログラム |
CN110930991B (zh) * | 2018-08-30 | 2023-08-25 | 阿里巴巴集团控股有限公司 | 一种远场语音识别模型训练方法及装置 |
CN109658935B (zh) * | 2018-12-29 | 2021-02-26 | 苏州思必驰信息科技有限公司 | 多通道带噪语音的生成方法及*** |
CN109841218B (zh) * | 2019-01-31 | 2020-10-27 | 北京声智科技有限公司 | 一种针对远场环境的声纹注册方法及装置 |
CN111951786A (zh) * | 2019-05-16 | 2020-11-17 | 武汉Tcl集团工业研究院有限公司 | 声音识别模型的训练方法、装置、终端设备及介质 |
CN111768771B (zh) * | 2019-05-30 | 2023-08-04 | 北京京东尚科信息技术有限公司 | 用于唤醒电子设备的方法和装置 |
CN112289325A (zh) * | 2019-07-24 | 2021-01-29 | 华为技术有限公司 | 一种声纹识别方法及装置 |
CN111883164B (zh) * | 2020-06-22 | 2023-11-03 | 北京达佳互联信息技术有限公司 | 模型训练方法、装置、电子设备及存储介质 |
US11741944B2 (en) * | 2020-11-24 | 2023-08-29 | Google Llc | Speech personalization and federated training using real world noise |
CN114845231B (zh) * | 2022-03-25 | 2023-01-24 | 东莞市天翼通讯电子有限公司 | 一种通过电声测试设备测试enc降噪效果的方法及*** |
CN115527526B (zh) * | 2022-11-28 | 2023-03-31 | 南方电网数字电网研究院有限公司 | 端到端远场语音识别***训练方法、装置、计算机设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102256006A (zh) * | 2010-05-17 | 2011-11-23 | 三星电子株式会社 | 在移动终端中提高通信语音质量的设备和方法 |
CN102324229A (zh) * | 2011-09-08 | 2012-01-18 | 中国科学院自动化研究所 | 语音输入设备使用异常的检测方法及*** |
US9107023B2 (en) * | 2011-03-18 | 2015-08-11 | Dolby Laboratories Licensing Corporation | N surround |
CN104952450A (zh) * | 2015-05-15 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | 远场识别的处理方法和装置 |
CN106328126A (zh) * | 2016-10-20 | 2017-01-11 | 北京云知声信息技术有限公司 | 远场语音识别处理方法及装置 |
CN107481731A (zh) * | 2017-08-01 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 一种语音数据增强方法及*** |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100751923B1 (ko) * | 2005-11-11 | 2007-08-24 | 고려대학교 산학협력단 | 잡음환경에 강인한 음성인식을 위한 에너지 특징 보상 방법및 장치 |
TWI312982B (en) * | 2006-05-22 | 2009-08-01 | Nat Cheng Kung Universit | Audio signal segmentation algorithm |
US20090018826A1 (en) * | 2007-07-13 | 2009-01-15 | Berlin Andrew A | Methods, Systems and Devices for Speech Transduction |
KR101409169B1 (ko) * | 2007-09-05 | 2014-06-19 | 삼성전자주식회사 | 억제 폭 조절을 통한 사운드 줌 방법 및 장치 |
CN102117618B (zh) * | 2009-12-30 | 2012-09-05 | 华为技术有限公司 | 一种消除音乐噪声的方法、装置及*** |
CN101915907A (zh) * | 2010-07-07 | 2010-12-15 | 重庆大学 | 脉冲雷达回波信号发生器及信号产生方法 |
US20140365212A1 (en) * | 2010-11-20 | 2014-12-11 | Alon Konchitsky | Receiver Intelligibility Enhancement System |
US9064497B2 (en) * | 2012-02-22 | 2015-06-23 | Htc Corporation | Method and apparatus for audio intelligibility enhancement and computing apparatus |
US9263041B2 (en) * | 2012-03-28 | 2016-02-16 | Siemens Aktiengesellschaft | Channel detection in noise using single channel data |
CN106297819B (zh) * | 2015-05-25 | 2019-09-06 | 国家计算机网络与信息安全管理中心 | 一种应用于说话人识别的噪声消除方法 |
CN106302974B (zh) * | 2015-06-12 | 2020-01-31 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
US10431211B2 (en) * | 2016-07-29 | 2019-10-01 | Qualcomm Incorporated | Directional processing of far-field audio |
US10403299B2 (en) * | 2017-06-02 | 2019-09-03 | Apple Inc. | Multi-channel speech signal enhancement for robust voice trigger detection and automatic speech recognition |
CN108269567B (zh) * | 2018-01-23 | 2021-02-05 | 北京百度网讯科技有限公司 | 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 |
-
2018
- 2018-01-23 CN CN201810064909.1A patent/CN108269567B/zh active Active
- 2018-12-20 US US16/228,656 patent/US10861480B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102256006A (zh) * | 2010-05-17 | 2011-11-23 | 三星电子株式会社 | 在移动终端中提高通信语音质量的设备和方法 |
US9107023B2 (en) * | 2011-03-18 | 2015-08-11 | Dolby Laboratories Licensing Corporation | N surround |
CN102324229A (zh) * | 2011-09-08 | 2012-01-18 | 中国科学院自动化研究所 | 语音输入设备使用异常的检测方法及*** |
CN104952450A (zh) * | 2015-05-15 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | 远场识别的处理方法和装置 |
CN106328126A (zh) * | 2016-10-20 | 2017-01-11 | 北京云知声信息技术有限公司 | 远场语音识别处理方法及装置 |
CN107481731A (zh) * | 2017-08-01 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 一种语音数据增强方法及*** |
Also Published As
Publication number | Publication date |
---|---|
US20190228791A1 (en) | 2019-07-25 |
CN108269567A (zh) | 2018-07-10 |
US10861480B2 (en) | 2020-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108269567B (zh) | 用于生成远场语音数据的方法、装置、计算设备以及计算机可读存储介质 | |
US20210158799A1 (en) | Speech recognition method, device, and computer-readable storage medium | |
CN105654949B (zh) | 一种语音唤醒方法及装置 | |
CN103971680B (zh) | 一种语音识别的方法、装置 | |
CN107481731B (zh) | 一种语音数据增强方法及*** | |
JP6099556B2 (ja) | 音声識別方法および装置 | |
US20180090152A1 (en) | Parameter prediction device and parameter prediction method for acoustic signal processing | |
CN105308679A (zh) | 用于识别与语音命令相关联的位置以控制家用电器的方法和*** | |
CN109637525B (zh) | 用于生成车载声学模型的方法和装置 | |
CN103578468A (zh) | 一种语音识别中置信度阈值的调整方法及电子设备 | |
US20180301144A1 (en) | Electronic device, method for adapting acoustic model thereof, and voice recognition system | |
EP4102499A1 (en) | Wakeup testing method and apparatus, electronic device and readable storage medium | |
EP4033483B1 (en) | Method and apparatus for testing vehicle-mounted voice device, electronic device and storage medium | |
CN111862942A (zh) | 普通话和四川话的混合语音识别模型的训练方法及*** | |
CN113132193B (zh) | 智能设备的控制方法、装置、电子设备以及存储介质 | |
CN107240396B (zh) | 说话人自适应方法、装置、设备及存储介质 | |
CN111415653B (zh) | 用于识别语音的方法和装置 | |
CN110136715A (zh) | 语音识别方法和装置 | |
CN112712821A (zh) | 基于仿真的语音测试方法、装置、电子设备及存储介质 | |
CN113658586B (zh) | 语音识别模型的训练方法、语音交互方法及装置 | |
US20240244390A1 (en) | Audio signal processing method and apparatus, and computer device | |
CN108900959B (zh) | 测试语音交互设备的方法、装置、设备和计算机可读介质 | |
CN113889091A (zh) | 语音识别方法、装置、计算机可读存储介质及电子设备 | |
KR102485339B1 (ko) | 차량의 음성 명령 처리 장치 및 방법 | |
CN113496698B (zh) | 训练数据的筛选方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |