CN111986659A - 建立音频生成模型的方法以及装置 - Google Patents
建立音频生成模型的方法以及装置 Download PDFInfo
- Publication number
- CN111986659A CN111986659A CN202010687233.9A CN202010687233A CN111986659A CN 111986659 A CN111986659 A CN 111986659A CN 202010687233 A CN202010687233 A CN 202010687233A CN 111986659 A CN111986659 A CN 111986659A
- Authority
- CN
- China
- Prior art keywords
- audio
- generator
- generation
- countermeasure network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 60
- 230000006870 function Effects 0.000 claims description 56
- 230000004913 activation Effects 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 20
- 238000010276 construction Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 7
- 239000000126 substance Substances 0.000 claims 1
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000013527 convolutional neural network Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004304 visual acuity Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Telephone Function (AREA)
Abstract
本申请公开了一种建立音频生成模型的方法、装置、电子设备和可读存储介质,涉及深度学习技术领域。本申请在进行建立音频生成模型时所采用的实现方案为:获取预设音色的唤醒音频;构建包含生成器与判别器的生成对抗网络;根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络,将训练得到的所述生成对抗网络中的生成器作为音频生成模型。本申请通过建立音频生成模型来生成特定音色的唤醒音频,能够降低唤醒音频的生成成本,并提升唤醒音频的生成效率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及深度学习技术领域中的一种建立音频生成模型的方法、装置、电子设备和可读存储介质。
背景技术
智能设备通常需要用户使用唤醒词进行唤醒之后,才能够进行后续的语音交互。因此智能设备在进行唤醒算法的设计和测试时,通常需要大量的唤醒音频。而现有技术通常采用人工采集的方式来获取唤醒音频,导致唤醒音频的获取成本较高、获取效率较低。
发明内容
本申请为解决技术问题所采用的技术方案是提供一种建立音频生成模型的方法,包括:获取预设音色的唤醒音频;构建包含生成器与判别器的生成对抗网络;根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络,将训练得到的所述生成对抗网络中的生成器作为音频生成模型。
本申请为解决技术问题所采用的技术方案是提供一种建立音频生成模型的装置,包括:获取单元,用于获取预设音色的唤醒音频;构建单元,用于构建包含生成器与判别器的生成对抗网络;训练单元,用于根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络,将训练得到的所述生成对抗网络中的生成器作为音频生成模型。
一种电子设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述方法。
一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行上述方法。
上述申请中的一个实施例具有如下优点或有益效果:本申请能够降低唤醒音频的生成成本,并提升唤醒音频的生成效率。因为采用了通过训练生成对抗网络来建立音频生成模型的技术手段,所以克服了现有技术中需要人工采集唤醒音频所导致的成本高、效率低的技术问题,实现了降低唤醒音频的生成成本以及提升唤醒音频的生成效率的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是用来实现本申请实施例的建立音频生成模型的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的示意图。如图1中所示,本实施例的建立音频生成模型的方法,具体可以包括如下步骤:
S101、获取预设音色的唤醒音频;
S102、构建包含生成器与判别器的生成对抗网络;
S103、根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络,将训练得到的所述生成对抗网络中的生成器作为音频生成模型。
本实施例的建立唤醒音频生成模型的方法,通过获取的预设音色的唤醒音频来对生成对抗网络进行训练,使得训练得到的音频生成模型能够根据所输入的随机噪声音频来快速地生成对应音色的唤醒音频,从而实现降低唤醒音频的生成成本以及提升唤醒音频的生成效率的技术效果。
本实施例执行S101所获取的预设音色的唤醒音频,为包含特定唤醒词的预设音色的音频数据,唤醒音频用于将智能设备唤醒,使得用户与智能设备进行后续的语音交互。举例来说,若智能设备为小度音箱,则本实施例获取的预设音色的唤醒音频即为包含唤醒词“小度小度”的音频数据。
通常情况下,智能设备的用户包含儿童、成人以及老人,不同年龄的用户会发出不同音色的声音,因此智能设备需要能够识别不同音色的唤醒音频,确保在接收到不同用户的唤醒音频后进行准确地唤醒。
由于儿童与成人、老人之间的音色差别较大,导致现有的智能设备对于儿童用户所发出的唤醒音频的识别能力较差。若要提升智能设备对于儿童唤醒音频的识别能力,需要大量的儿童唤醒音频对智能设备进行测试。
因此,本实施例在执行S101获取预设音色的唤醒音频时,可以采用的可选实现方式为:获取儿童唤醒音频,即获取由儿童所发出的唤醒音频。也就是说,本实施例通过所获取的儿童唤醒音频进行生成对抗网络的训练,使得音频生成模型能够根据输入的随机噪声音频输出儿童唤醒音频,从而快速高效地获取大量特定音色的唤醒音频。
本实施例在执行S101获取唤醒音频之后,执行S102构建包含生成器和判别器的生成对抗网络,从而基于训练得到的生成对抗网络中的生成器,得到用于生成唤醒音频的音频生成模型。其中,本实施例所构建的生成对抗网络属于深度学习神经网络。
本实施例执行S102所构建的生成对抗网络中,生成器的职责是生成与真实样本尽可能相似的生成样本,判别器的职责则是尽可能区分真实样本和生成样本。通过生成器和判别器之间对抗博弈的方式训练生成对抗网络,使得生成器输出的生成样本的真实性尽可能高,从而使得判别器无法区分由生成模型所得到的输出为生成样本还是真实样本。
在本实施例中,执行S102所构建的生成器的网络结构为一维卷积神经网络,用于根据输入的随机噪声音频,在经过多次反卷积操作之后,输出所生成的音频;所构建的判别器的网络结构也为一维卷积神经网络,用于区分生成器所生成的音频与真实的唤醒音频。
本实施例在执行S102构建得到包含生成器和判别器的生成对抗网络之后,执行S103根据所获取的唤醒音频以及随机噪声音频来训练生成对抗网络,从而将训练得到的生成对抗网络中的生成器作为音频生成模型,该音频生成模型能够根据随机噪声音频生成特定音色的唤醒音频。
本实施例在执行S103时,采用交替训练的方式对由生成器和判别器构建的生成对抗网络进行训练,当整个生成对抗网络收敛时,则认为生成对抗网络的训练结束,进而将训练得到的生成对抗网络中的生成器作为音频生成模型。
具体地,本实施例在执行S103进行生成对抗网络的训练时,可以采用的可选实现方式为:将所获取的唤醒音频作为真实样本;将随机噪声音频输入生成器,将生成器得到的输出结果作为生成样本;将真实样本以及生成样本作为判别器的输入;交替训练生成器和判别器,直至生成对抗网络收敛。
本实施例在执行S103交替训练生成器和判别器,直至生成对抗网络收敛时,具体是根据判别器的输出结果得到对应生成器和判别器的损伤函数之后,根据生成器和判别器的损伤函数,调整生成器和判别器的网络结构中的参数,直至对抗网络收敛。
本实施例在执行S103根据损失函数调整生成器和判别器的网络结构的参数时,生成器和判别器的训练目标分别为最小化损失函数。可选地,在本实施例的一个具体实现过程中,可以为在预设次数内得到的损失函数收敛时,认为损失函数最小化;也可以为在所得到的损失函数收敛到预设值时,认为损失函数最小化;还可以在训练次数超过预设次数时,认为损失函数最小化。
本实施例在生成器以及判别器的损失函数达到最小化时,即认为对生成对抗网络的训练完成,从而将生成对抗网络中的生成器作为音频生成模型。利用所得到的音频生成模型,能够根据所输入的随机噪声音频输出特定音色的唤醒音频。
由于现有的生成对抗网络通常用于生成乐器或者大自然的声音,而人声,尤其是儿童声音,与乐器或者大自然的声音具有较大差别。因此在直接进行生成对抗网络的训练时,所生成的唤醒音频的效果较差。
现有的生成对抗网络所使用的激活函数通常为ReLU(Rectified Linear Unit,修正线性单元)函数,其用于增加神经网络的非线性。虽然ReLU函数可以在神经网络层数很深的情况下,依然有合适的梯度,从而极大地方便了神经网络的训练。但是,ReLU函数存在以下缺点,当神经网络因为一些训练的波动,在某层出现大量负值的输入值时,这些输入值会在ReLU的机制下被清零,导致大量神经元后期的输出值都是为0的状态。通过研究发现,这种情况在进行人声唤醒音频,尤其是儿童唤醒音频的训练时出现的概率较大,从而导致生成器所生成的唤醒音频的效果较差。
因此,本实施例在执行S102构建包含生成器与判别器的生成对抗网络时,可以采用的可选实现方式为:在所构建的生成对抗网络中使用改进后的激活函数;其中,当输入值大于0时,改进后的激活函数的输出值为输入值,即不对输入值进行变化;当输入值小于等于0时,改进后的激活函数根据对应输入值所在数值区间的计算公式进行输出值的计算,即不同的数值区间对应不同的计算公式。
也就是说,本实施例通过改进生成对抗网络中的激活函数,避免了神经网络中的激活函数在输入值为负值时,输出为0的输出值,从而提升所生成的唤醒音频的效果。
具体地,本实施例在执行S102在生成对抗网络中使用改进后的激活函数时,所使用的改进后的激活函数如下所示:
在公式中:f(x)为改进后的激活函数的输出值,x为改进后的激活函数的输入值。通过改进后的激活函数的计算公式,通过将负值的输入值划分为多个数值区间分别进行输出值的计算,能够有效地避免激活函数针对负值的输入值时会输出0的情况。
另外,本实施例在执行S102构建生成对抗网络中的判别器时,所使用的网络结构为卷积神经网络,但是现有的卷积神经网络的分辨能力较差,从而限定了生成器以及判别器的性能。
因此,本实施例在执行S102构建包含生成器和判别器的生成对抗网络时,可以采用的可选实现方式为:构建网络结构为深度残差网络的判别器,即在原始的卷积神经网络中添加残差捷径,使得判别器的判别能力进一步提升,从而相应地提升生成器的生成效果。
通过上述方法,根据预设音色的唤醒音频来对生成对抗网络进行训练,使得训练得到的音频生成模型能够根据所输入的随机噪声音频来快速地生成对应音色的唤醒音频,从而实现降低唤醒音频的生成成本以及提升唤醒音频的生成效率的技术效果。
图2是根据本申请第二实施例的示意图。如图2中所示,本实施例的建立音频生成模型的装置,包括:
获取单元201、用于获取预设音色的唤醒音频;
构建单元202、用于构建包含生成器与判别器的生成对抗网络;
训练单元203、用于根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络,将训练得到的所述生成对抗网络中的生成器作为音频生成模型。
获取单元201所获取的预设音色的唤醒音频,为包含特定唤醒词的预设音色的音频数据,唤醒音频用于将智能设备唤醒,使得用户与智能设备进行后续的语音交互。。
通常情况下,智能设备的用户包含儿童、成人以及老人,不同年龄的用户会发出不同音色的声音,因此智能设备需要能够识别不同音色的唤醒音频,确保在接收到不同用户的唤醒音频后进行准确地唤醒。
由于儿童与成人、老人之间的音色差别较大,导致现有的智能设备对于儿童用户所发出的唤醒音频的识别能力较差。若要提升智能设备对于儿童唤醒音频的识别能力,需要大量的儿童唤醒音频对智能设备进行测试。
因此,获取单元201在获取预设音色的唤醒音频时,可以采用的可选实现方式为:获取儿童唤醒音频,即获取由儿童所发出的唤醒音频。也就是说,获取单元201通过所获取的儿童唤醒音频进行生成对抗网络的训练,使得音频生成模型能够根据输入的随机噪声音频输出儿童唤醒音频,从而快速高效地获取大量特定音色的唤醒音频。
获取单元201在获取唤醒音频之后,由构建单元202构建包含生成器和判别器的生成对抗网络,从而基于训练得到的生成对抗网络中的生成器,得到用于生成唤醒音频的音频生成模型。其中,构建单元202所构建的生成对抗网络属于深度学习神经网络。
构建单元202所构建的生成对抗网络中,生成器的职责是生成与真实样本尽可能相似的生成样本,判别器的职责则是尽可能区分真实样本和生成样本。通过生成器和判别器之间对抗博弈的方式训练生成对抗网络,使得生成器输出的生成样本的真实性尽可能高,从而使得判别器无法区分由生成模型所得到的输出为生成样本还是真实样本。
构建单元202所构建的生成器的网络结构为一维卷积神经网络,用于根据输入的随机噪声音频,在经过多次反卷积操作之后,输出所生成的音频;构建单元202所构建的判别器的网络结构也为一维卷积神经网络,用于区分生成器所生成的音频与真实的唤醒音频。
构建单元202在构建得到包含生成器和判别器的生成对抗网络之后,由训练单元203根据所获取的唤醒音频以及随机噪声音频来训练生成对抗网络,从而将训练得到的生成对抗网络中的生成器作为音频生成模型,该音频生成模型能够根据随机噪声音频生成特定音色的唤醒音频。
训练单元203采用交替训练的方式对由生成器和判别器构建的生成对抗网络进行训练,当整个生成对抗网络收敛时,则认为生成对抗网络的训练结束,进而将训练得到的生成对抗网络中的生成器作为音频生成模型。
具体地,训练单元203在进行生成对抗网络的训练时,可以采用的可选实现方式为:将所获取的唤醒音频作为真实样本;将随机噪声音频输入生成器,将生成器得到的输出结果作为生成样本;将真实样本以及生成样本作为判别器的输入;交替训练生成器和判别器,直至生成对抗网络收敛。
训练单元203在交替训练生成器和判别器,直至生成对抗网络收敛时,具体是根据判别器的输出结果得到对应生成器和判别器的损伤函数之后,根据生成器和判别器的损伤函数,调整生成器和判别器的网络结构中的参数,直至对抗网络收敛。
训练单元203在根据损失函数调整生成器和判别器的网络结构的参数时,生成器和判别器的训练目标分别为最小化损失函数。可选地,在本实施例的一个具体实现过程中,训练单元203可以为在预设次数内得到的损失函数收敛时,认为损失函数最小化;训练单元203也可以为在所得到的损失函数收敛到预设值时,认为损失函数最小化;训练单元203还可以在训练次数超过预设次数时,认为损失函数最小化。
训练单元203在生成器以及判别器的损失函数达到最小化时,即认为对生成对抗网络的训练完成,从而将生成对抗网络中的生成器作为音频生成模型。利用所得到的音频生成模型,能够根据所输入的随机噪声音频输出特定音色的唤醒音频。
由于现有的生成对抗网络通常用于生成乐器或者大自然的声音,而人声,尤其是儿童声音,与乐器或者大自然的声音具有较大差别。因此在直接进行生成对抗网络的训练时,所生成的唤醒音频的效果较差。
因此,构建单元202在构建包含生成器与判别器的生成对抗网络时,可以采用的可选实现方式为:在所构建的生成对抗网络中使用改进后的激活函数;其中,当输入值大于0时,改进后的激活函数的输出值为输入值;当输入值小于等于0时,改进后的激活函数根据对应输入值所在数值区间的计算公式进行输出值的计算。
也就是说,训练单元203通过改进生成对抗网络中的激活函数,避免了神经网络中的激活函数在输入值为负值时,输出为0的输出值,从而提升所生成的唤醒音频的效果。
具体地,训练单元203在生成对抗网络中使用改进后的激活函数时,所使用的改进后的激活函数如下所示:
在公式中:f(x)为改进后的激活函数的输出值,x为改进后的激活函数的输入值。通过改进后的激活函数的计算公式,通过将负值的输入值划分为多个数值区间分别进行输出值的计算,能够有效地避免激活函数针对负值的输入值时会输出0的情况。
另外,训练单元203在构建生成对抗网络中的判别器时,所使用的网络结构为卷积神经网络,但是现有的卷积神经网络的分辨能力较差,从而限定了生成器以及判别器的性能。
因此,训练单元203在构建包含生成器和判别器的生成对抗网络时,可以采用的可选实现方式为:构建网络结构为深度残差网络的判别器,即在原始的卷积神经网络中添加残差捷径,使得判别器的判别能力进一步提升,从而相应地提升生成器的生成效果。
根据本申请的实施例,本申请还提供了一种电子设备和一种计算机可读存储介质。
如图3所示,是根据本申请实施例的建立音频生成模型的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图3所示,该电子设备包括:一个或多个处理器301、存储器302,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图3中以一个处理器301为例。
存储器302即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的建立音频生成模型的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的建立音频生成模型的方法。
存储器302作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的建立音频生成模型的方法对应的程序指令/模块(例如,附图2所示的获取单元201、构建单元202以及训练单元203)。处理器301通过运行存储在存储器302中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的建立音频生成模型的方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据的电子设备的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至建立音频生成模型的方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
建立音频生成模型的方法的电子设备还可以包括:输入装置303和输出装置304。处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图3中以通过总线连接为例。
输入装置303可接收输入的数字或字符信息,以及产生与建立音频生成模型的方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置304可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过获取的预设音色的唤醒音频来对生成对抗网络进行训练,使得训练得到的音频生成模型能够根据所输入的随机噪声音频来快速地生成对应音色的唤醒音频,从而实现降低唤醒音频的生成成本以及提升唤醒音频的生成效率的技术效果。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种建立音频生成模型的方法,包括:
获取预设音色的唤醒音频;
构建包含生成器与判别器的生成对抗网络;
根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络,将训练得到的所述生成对抗网络中的生成器作为音频生成模型。
2.根据权利要求1所述的方法,其中,所述获取预设音色的唤醒音频包括:获取儿童唤醒音频。
3.根据权利要求1所述的方法,其中,所述根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络包括:
将所获取的唤醒音频作为真实样本;
将随机噪声音频输入所述生成器,将所述生成器得到的输出结果作为生成样本;
将真实样本以及生成样本作为所述判别器的输入;
交替训练所述生成器与判别器,直至所述生成对抗网络收敛。
4.根据权利要求1所述的方法,其中,所述构建包含生成器与判别器的生成对抗网络包括:
在所述生成对抗网络中使用改进后的激活函数;
其中,当输入值大于0时,所述改进后的激活函数的输出值为输入值;
当输入值小于等于0时,所述改进后的激活函数根据对应输入值所在数值区间的计算公式进行输出值的计算。
5.根据权利要求1所述的方法,其中,所述构建包含生成器与判别器的生成对抗网络包括:
构建网络结构为深度残差网络的判别器。
6.一种建立音频生成模型的装置,包括:
获取单元,用于获取预设音色的唤醒音频;
构建单元,用于构建包含生成器与判别器的生成对抗网络;
训练单元,用于根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络,将训练得到的所述生成对抗网络中的生成器作为音频生成模型。
7.根据权利要求6所述的装置,其中,所述获取单元在获取预设音色的唤醒音频时,具体执行:获取儿童唤醒音频。
8.根据权利要求6所述的装置,其中,所述训练单元在根据所获取的唤醒音频以及随机噪声音频训练所述生成对抗网络时,具体执行:
将所获取的唤醒音频作为真实样本;
将随机噪声音频输入所述生成器,将所述生成器得到的输出结果作为生成样本;
将真实样本以及生成样本作为所述判别器的输入;
交替训练所述生成器与判别器,直至所述生成对抗网络收敛。
9.根据权利要求6所述的装置,其中,所述构建单元在构建包含生成器与判别器的生成对抗网络时,具体执行:
在所述生成对抗网络中使用改进后的激活函数;
其中,当输入值大于0时,所述改进后的激活函数的输出值为输入值;
当输入值小于等于0时,所述改进后的激活函数根据对应输入值所在数值区间的计算公式进行输出值的计算。
10.根据权利要求6所述的装置,其中,所述构建单元在构建包含生成器与判别器的生成对抗网络时,具体执行:
构建网络结构为深度残差网络的判别器。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010687233.9A CN111986659A (zh) | 2020-07-16 | 2020-07-16 | 建立音频生成模型的方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010687233.9A CN111986659A (zh) | 2020-07-16 | 2020-07-16 | 建立音频生成模型的方法以及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111986659A true CN111986659A (zh) | 2020-11-24 |
Family
ID=73438250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010687233.9A Pending CN111986659A (zh) | 2020-07-16 | 2020-07-16 | 建立音频生成模型的方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986659A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112397057A (zh) * | 2020-12-01 | 2021-02-23 | 平安科技(深圳)有限公司 | 基于生成对抗网络的语音处理方法、装置、设备及介质 |
CN112712812A (zh) * | 2020-12-24 | 2021-04-27 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频信号生成方法、装置、设备以及存储介质 |
CN112967718A (zh) * | 2021-04-02 | 2021-06-15 | 江苏吉祥星智能科技有限公司 | 基于声音的投影仪控制方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154224A (zh) * | 2018-01-17 | 2018-06-12 | 北京中星微电子有限公司 | 用于数据处理的方法、装置和非暂时性计算机可读介质 |
CN108596235A (zh) * | 2018-04-18 | 2018-09-28 | 南京邮电大学 | 基于SPeLUs函数的神经网络图像分类方法 |
CN109300107A (zh) * | 2018-07-24 | 2019-02-01 | 深圳先进技术研究院 | 磁共振血管壁成像的斑块处理方法、装置和计算设备 |
CN110503610A (zh) * | 2019-07-16 | 2019-11-26 | 江苏大学 | 一种基于gan网络的图像雨雪痕迹去除方法 |
CN110534099A (zh) * | 2019-09-03 | 2019-12-03 | 腾讯科技(深圳)有限公司 | 语音唤醒处理方法、装置、存储介质及电子设备 |
CN110767240A (zh) * | 2019-10-31 | 2020-02-07 | 广东美的制冷设备有限公司 | 儿童口音识别的设备控制方法、设备、存储介质及装置 |
CN111312222A (zh) * | 2020-02-13 | 2020-06-19 | 北京声智科技有限公司 | 一种唤醒、语音识别模型训练方法及装置 |
CN111354374A (zh) * | 2020-03-13 | 2020-06-30 | 北京声智科技有限公司 | 语音处理方法、模型训练方法及电子设备 |
-
2020
- 2020-07-16 CN CN202010687233.9A patent/CN111986659A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154224A (zh) * | 2018-01-17 | 2018-06-12 | 北京中星微电子有限公司 | 用于数据处理的方法、装置和非暂时性计算机可读介质 |
CN108596235A (zh) * | 2018-04-18 | 2018-09-28 | 南京邮电大学 | 基于SPeLUs函数的神经网络图像分类方法 |
CN109300107A (zh) * | 2018-07-24 | 2019-02-01 | 深圳先进技术研究院 | 磁共振血管壁成像的斑块处理方法、装置和计算设备 |
CN110503610A (zh) * | 2019-07-16 | 2019-11-26 | 江苏大学 | 一种基于gan网络的图像雨雪痕迹去除方法 |
CN110534099A (zh) * | 2019-09-03 | 2019-12-03 | 腾讯科技(深圳)有限公司 | 语音唤醒处理方法、装置、存储介质及电子设备 |
CN110767240A (zh) * | 2019-10-31 | 2020-02-07 | 广东美的制冷设备有限公司 | 儿童口音识别的设备控制方法、设备、存储介质及装置 |
CN111312222A (zh) * | 2020-02-13 | 2020-06-19 | 北京声智科技有限公司 | 一种唤醒、语音识别模型训练方法及装置 |
CN111354374A (zh) * | 2020-03-13 | 2020-06-30 | 北京声智科技有限公司 | 语音处理方法、模型训练方法及电子设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112397057A (zh) * | 2020-12-01 | 2021-02-23 | 平安科技(深圳)有限公司 | 基于生成对抗网络的语音处理方法、装置、设备及介质 |
CN112712812A (zh) * | 2020-12-24 | 2021-04-27 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频信号生成方法、装置、设备以及存储介质 |
CN112712812B (zh) * | 2020-12-24 | 2024-04-26 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频信号生成方法、装置、设备以及存储介质 |
CN112967718A (zh) * | 2021-04-02 | 2021-06-15 | 江苏吉祥星智能科技有限公司 | 基于声音的投影仪控制方法、装置、设备及存储介质 |
CN112967718B (zh) * | 2021-04-02 | 2024-04-12 | 深圳吉祥星科技股份有限公司 | 基于声音的投影仪控制方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111144108B (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
CN110782883B (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN110619867B (zh) | 语音合成模型的训练方法、装置、电子设备及存储介质 | |
CN112037760A (zh) | 语音频谱生成模型的训练方法、装置及电子设备 | |
CN112365876B (zh) | 语音合成模型的训练方法、装置、设备以及存储介质 | |
JP2022018095A (ja) | マルチモーダル事前訓練モデル取得方法、装置、電子デバイス及び記憶媒体 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
US20210210112A1 (en) | Model Evaluation Method and Device, and Electronic Device | |
CN111832701B (zh) | 模型的蒸馏方法、装置、电子设备及存储介质 | |
JP2022002091A (ja) | 画像編集モデルの構築方法及び装置 | |
CN111860769A (zh) | 预训练图神经网络的方法以及装置 | |
CN112530437A (zh) | 语义识别方法、装置、设备以及存储介质 | |
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111507111B (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
JP2021108115A (ja) | 機械読解モデルのトレーニング方法、装置、電子機器及び記憶媒体 | |
CN111354370B (zh) | 一种唇形特征预测方法、装置和电子设备 | |
CN111737954A (zh) | 文本相似度确定方法、装置、设备和介质 | |
CN111986659A (zh) | 建立音频生成模型的方法以及装置 | |
JP7214798B2 (ja) | 音声信号処理方法、音声信号処理装置、電子機器及び記憶媒体 | |
CN112133307A (zh) | 人机交互方法、装置、电子设备及存储介质 | |
CN114492788A (zh) | 训练深度学习模型的方法和装置、电子设备及存储介质 | |
CN112000330A (zh) | 建模参数的配置方法、装置、设备和计算机存储介质 | |
KR102607536B1 (ko) | 옵티마이저 학습 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
CN111666387A (zh) | 对话生成方法、装置、电子设备及存储介质 | |
JP7121791B2 (ja) | 言語生成方法、装置及び電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210511 Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant after: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. Applicant after: Shanghai Xiaodu Technology Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right |