CN112634920A - 基于域分离的语音转换模型的训练方法及装置 - Google Patents
基于域分离的语音转换模型的训练方法及装置 Download PDFInfo
- Publication number
- CN112634920A CN112634920A CN202011509341.3A CN202011509341A CN112634920A CN 112634920 A CN112634920 A CN 112634920A CN 202011509341 A CN202011509341 A CN 202011509341A CN 112634920 A CN112634920 A CN 112634920A
- Authority
- CN
- China
- Prior art keywords
- feature vector
- training
- voice
- tone
- conversion model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 188
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000000926 separation method Methods 0.000 title claims abstract description 30
- 239000013598 vector Substances 0.000 claims abstract description 173
- 238000001228 spectrum Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 238000003786 synthesis reaction Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000009432 framing Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003042 antagnostic effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000013550 semantic technology Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Machine Translation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于域分离的语音转换模型的训练方法及装置,该方法包括:接收训练语音并对训练语音进行特征提取,得到训练语音的梅尔频率倒谱系数;将梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到音素特征向量和音色特征向量;分别对音素特征向量、音色特征向量进行分类处理,得到第一分类误差和第二分类误差;将音素特征向量、音色特征向量进行拼接后输入到解码器中,得到重构误差;根据第一分类误差、第二分类误差、重构误差计算语音转换模型的整体损失以对语音转换模型进行更新。本发明基于语音合成技术,通过采用域分离技术对语音转换模型进行训练,不仅能将非平衡语料进行完整的语音转换,而且提高了语音转换准确率。
Description
技术领域
本发明涉及语音语义技术,尤其涉及一种基于域分离的语音转换模型的训练方法及装置。
背景技术
语音转换为用于将A说话人的语音转换成以B说话人的声音来输出A说话人的语音中内容。语音转换不仅可以用在语音合成的后端,还可以用于说话人身份保密,影视作品配音等方面。现有技术中,实现语音转换的方法包括:基于生成式对抗网络、变分自编码器、音素后验图、隐马尔科夫模型等,但是现有技术中训练后的语音转换模型在对存在非平衡语料的音频进行语音转换时,无法将该音频进行完整的语音转换,且该音频转换完成后,得到音频与目标说话者音色的相似度不高。
发明内容
针对上述技术问题,本发明实施例提供了一种基于域分离的语音转换模型的训练方法及装置,通过域分离技术对语音转换模型进行训练,使得训练后的语音转换模型不仅能将非平衡语料进行完整的语音转换,而且提高了语音转换准确率。
第一方面,本发明实施例提供了一种基于域分离的语音转换模型的训练方法,其包括:
接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;
将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;
根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;
将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;
根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
第二方面,本发明实施例提供了一种基于域分离的语音转换模型的训练装置,其包括:
特征提取单元,用于接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;
第一输入单元,用于将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;
第一分类单元,用于根据预设的分类规则分别所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;
拼接单元,用于将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;
更新单元,用于根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
第三方面,本发明实施例又提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述第一方面所述的基于域分离的语音转换模型的训练方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于域分离的语音转换模型的训练方法。
本发明实施例提供了一种基于域分离的语音转换模型的训练方法及装置,该方法包括:接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。本发明实施例通过域分离技术对语音转换模型进行训练,使得训练后的语音转换模型不仅能将非平衡语料进行完整的语音转换,而且提高了语音转换准确率。
附图说明
图1为本发明实施例提供的基于域分离的语音转换模型的训练方法的流程示意图;
图2为本发明实施例提供的基于域分离的语音转换模型的训练方法的子流程示意图;
图3为本发明实施例提供的基于域分离的语音转换模型的训练方法的另一子流程示意图;
图4为本发明实施例提供的基于域分离的语音转换模型的训练方法的另一子流程示意图;
图5为本发明实施例提供的基于域分离的语音转换模型的训练方法的另一子流程示意图;
图6为本发明实施例提供的基于域分离的语音转换模型的训练方法的另一子流程示意图;
图7为本发明实施例提供的基于域分离的语音转换模型的训练方法的另一子流程示意图;
图8为本发明实施例提供的基于域分离的语音转换模型的训练装置的示意性框图;
图9为本发明实施例提供的基于域分离的语音转换模型的训练装置的子单元示意性框图;
图10为本发明实施例提供的基于域分离的语音转换模型的训练装置的另一子单元示意性框图;
图11为本发明实施例提供的基于域分离的语音转换模型的训练装置的另一子单元示意性框图;
图12为本发明实施例提供的基于域分离的语音转换模型的训练装置的另一子单元示意性框图;
图13为本发明实施例提供的基于域分离的语音转换模型的训练装置的另一子单元示意性框图;
图14为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1,图1为本发明实施例提供的基于域分离的语音转换模型的训练方法的流程示意图。本发明实施例的所述的基于域分离的语音转换模型的训练方法应用于终端设备中,该方法通过安装于终端设备中的应用软件进行执行。其中,终端设备为具备接入互联网功能的终端设备,例如台式电脑、笔记本电脑、平板电脑或手机等设备。需要说明的是,在本发明具体实施例中,所述语音转换模型包括内容编码器、音色编码器以及解码器,所述第一分类器、所述第二分类器、所述ASR***均用于辅助所述语音转换模型的训练,所述语音转换模型训练完成后,通过所述语音转换模型中的内容编码器、音色编码器以及解码器便可完成语音转换。
下面对所述的基于域分离的语音转换模型的训练方法进行详细说明。如图1所示,该方法包括以下步骤S110~S150。
S110、接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数。
接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数。具体的,所述训练语音为用于对语音转换模型进行训练的音频信息,所述训练语音的梅尔频率倒谱系数((Mel-Frequency Cepstral Coefficients,MFCCs))为所述训练语音的语音特征,所述训练语音的梅尔频率倒谱系数包括所述训练语音的说话人的音素特征和音色特征。在本发明实施例中,所述训练语音的语料既可以为平衡预料,也可以为非平衡语料。
在另一实施例中,如图2所示,步骤S110包括子步骤S111和S112。
S111、获取所述训练语音的频谱并将所述训练语音的频谱输入至预置的梅尔滤波器组中,得到所述训练语音的梅尔频谱。
获取所述训练语音的频谱并将所述训练语音的频谱输入至预置的梅尔滤波器组中,得到所述训练语音的梅尔频谱。具体的,终端设备以语音信号的方式接收所述训练语音接收到所述训练语音后,对所述训练语音的每一帧的语音信号进行傅里叶变换,得到所述描述所述训练语音的频谱图。
在另一实施例中,如图3所示,步骤S111包括子步骤S1111和S1112。
S1111、对所述训练语音进行预处理,得到预处理后的训练语音。
对所述训练语音进行预处理,得到预处理后的训练语音。具体的,通常情况下终端设备接收到的训练语音的语音信号整体上不稳定,通过对所述训练语音进行预处理,使得训练语音趋于平稳。终端设备在接收到所述训练语音的语音信号后,首先对训练语音的语音信号进行预加重处理,然后将预加重处理后的语音信号进行分帧,最后对分帧后的语音信号进行加窗处理,便可得到所述预处理后的训练语音。其中,语音信号的预加重处理主要是对语音信号中高频部分进行预加重处理,进而去除***辐射的影响,增加所述语音信号中高频部分的分辨率;语音信号进行预加重处理后,通过将语音信号进行分帧处理,但是分帧处理后的语音信号的每一帧的起始段和末尾端会不连续,导致误差增大,因此分帧后通过加窗处理便可使得分帧后的语音信号平滑连续。
S1112、将所述预处理后的训练语音进行快速傅里叶变换,得到所述训练语音的频谱。
将所述预处理后的训练语音进行快速傅里叶变换,得到所述训练语音的频谱。具体的,所述训练语音在进行预处理后,得到了由每一帧连续的语音信号组成的语音信号,该每一帧连续的语音信号组成的语音信号即为描述所述预处理后的训练语音,然后将所述预处理后的训练语音中每一帧语音信号进行短时傅里叶变换,得到每一帧语音信号的频率,每一帧语音信号的频率即为所述训练语音的频谱中的一个时间段的频率。
S112、将所述训练语音的梅尔频谱进行倒谱分析,得到所述训练语音的梅尔频率倒谱系数。
将所述训练语音的梅尔频谱进行倒谱分析,得到所述训练语音的梅尔频率倒谱系数。具体的,通过将所述训练语音的梅尔频谱进行对数运算,对数运算完成后进行逆傅里叶变换便可得到所述训练语音的梅尔频率倒谱系数。
S120、将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量。
将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量。具体的,所述内容编码器为用于提取共有特征的编码器,所述音色编码器为用于提取源域数据私有特征的源域私有编码器,在本发明实施例中,所述训练语音的中的音素特征向量用于表征所述训练语音的内容,即所述训练语音的内容为所述训练语音的共有特征,所述训练语音中的音色特征向量用于表征所述训练语音的说话人身份,即所述训练语音的说话人身份为所述驯良语音的私有特征,通过将所述训练语音的梅尔频率倒谱系数输入到所述内容编码器中,便可从所述训练语音的梅尔频率倒谱系数中提取所述训练语音的音素特征向量;将所述训练语音的梅尔频率倒谱系数输入到所述音色编码器中,便可从所述训练语音的梅尔频率倒谱系数中提取所述训练语音的音素特征向量。
S130、根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差。
根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差。具体的,所述预设的分类规则为用于分别对所述音素特征向量、所述音色特征向量进行分类处理,进而得到所述音素特征向量的第一分类误差、所述音色特征向量的第二分类误差的规则信息。所述第一分类误差为所述音素特征向量在预置的第一分类器中进行分类产生的误差,所述第二分类误差为所述音色特征向量在预置的第二分类器中进行分类产生的误差。
在另一实施例中,如图4所示,步骤S130包括子步骤S131和S132。
S131、将所述音素特征向量依次通过预置的梯度反转层、预置的第一分类器中,得到所述第一分类误差。
将所述音素特征向量依次通过预置的梯度反转层、预置的第一分类器中,得到所述第一分类误差。具体的,所述梯度反转层为内容编码器和预置的第一分类器之间的连接层并用于实现内容编码器和第一分类器的对抗学习,在所述第一分类器的产生的第一分类误差反向传播过程乘以-λ实现梯度反转,其中λ为一个正数,使得第一分类器和内容编码器的学习目标相反,达到第一分类器和内容编码器的对抗学习的目的,通过所述第一分类误差便可对所述内容编码器的网络参数进行调整,即对所述内容编码器进行训练。
S132、将所述音色特征向量输入至预置的第二分类器中,得到所述第二分类误差。
将所述音色特征向量输入至预置的第二分类器中,得到所述第二分类误差。具体的,所述第二分类器为用于对所述音色特征向量进行标签分类,以便于音色编码器能实现从所述训练语音中提取所述训练语音的私有特征,所述音色特征向量输入到所述第二分类器中便可从所述第二分类器中产生所述第二分类误差,通过所述第二分类误差便可对所述音色编码器的网络参数进行调整,即对所述音色编码器进行训练。
S140、将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差。
将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差。具体的,在进行拼接前,所述音素特征向量的维度与所述音色特征向量的维度相同,通过将所述音素特征向量、所述音色特征向量进行首尾拼接,便可得到所述拼接后的特征向量,所述拼接后的特征向量即包含了从音色编码器中提取的私有特征,也包含了从内容编码器中提取的共有特征,将所述拼接后的特征向量输入到解码器中,便可得到一个新的梅尔频率倒谱系数,同时解码器也会产生重构梅尔频率倒谱系数的重构误差。
S150、根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。具体的,通过将表征第一分类误差、第二分类误差以及重构误差的函数以各自的权重进行相加后,便可得到表征所述语音转换模型的整体损失的函数。表征整体损失的函数表示为:L=Lrecon+bLclass1+dLclass2,其中,L为整体损失,Lrecon为重构误差,Lclass1为第一分类误差,Lclass2为第二分类误差,b为第一分类误差的权重、d为第二分类误差的权重。
在另一实施例中,如图5所示,步骤S150包括子步骤S151和S152。
S151、根据弗罗贝尼乌斯范数计算所述音素特征向量与所述音色特征向量的差异损失。
根据弗罗贝尼乌斯范数计算所述音素特征向量与所述音色特征向量的差异损失。具体的,弗罗贝尼乌斯范数又称希尔伯特-施密特范数,当矩阵范数中的P=2时,便为弗罗贝尼乌斯范数,弗罗贝尼乌斯范数的定义为: 其中A*表示A的共轭转置,σi为A的奇异值,在本发明实施例中,A为音素特征向量对应的转置矩阵与音色特征向量对应的矩阵的乘积,即表征差异损失的函数表示为: 其中,Ldifference表示为差异损失,表示为音素特征向量对应的转置矩阵,hp表示为音色特征向量对应的矩阵。其中,向量的范数可以理解为向量的长度,或者向量到零点的距离,或者相应的两个点之间的距离。通过添加所述差异损失,进而进一步提高了内容编码器对训练语音中共有特征提取的精确度以及音色编码器对训练语音中私有特征提取的精确度,从而更加突出出转换后说话人的语音特征。
S152、根据所述第一分类误差、所述第二分类误差、所述重构误差以及所述差异损失计算所述语音转换模型的整体损失。
根据所述第一分类误差、所述第二分类误差、所述重构误差以及所述差异损失计算所述语音转换模型的整体损失。在本发明实施例中,所述语音转换模型的整体损失的函数表征为:L=Lrecon+bLclass1+CLdifference+dLclass2,其中,L为整体损失,Lrecon为重构误差,Lclass1为第一分类误差,Ldifference为差异损失,Lclass2为第二分类误差,b为第一分类误差的权重、c为差异损失的权重,d为第二分类误差的权重。
在另一实施例中,如图6所示,步骤S152包括子步骤S1521和S1522。
S1521、将所述音素特征向量输入到预设的ASR***中进行音素识别,得到交叉熵损失。
将所述音素特征向量输入到预设的ASR***中进行音素识别,得到交叉熵损失。具体的,所述内容编码器在对所述训练语音进行音素特征向量提取完成后,所述ASR***对所述音素特征向量进行音素识别,进而得到所述交叉熵损失,通过所述交叉熵损失对所述内容编码器的网络参数进行调整,不仅可以提高所述内容编码器训练完成后音素特征提取的精确度,而且加快所述内容编码器的训练效率。另外,在训练过程中,添加所述ASR***还可以防止所述内容编码在训练过程中退化为自编码器的网络。
S1522、根据所述第一分类误差、所述第二分类误差、所述重构误差、所述差异损失以及所述交叉熵损失计算所述语音转换模型的整体损失。
根据所述第一分类误差、所述第二分类误差、所述重构误差、所述差异损失以及所述交叉熵损失计算所述语音转换模型的整体损失。在本发明实施例中,所述语音转换模型的整体损失的函数表征为:L=Lrecon+aLce+bLclass1+cLdifference+dLclass2,其中,L为整体损失,Lrecon为重构误差,Lce为交叉熵损失,Lclass1为第一分类误差,Ldifference为差异损失,Lclass2为第二分类误差,a为交叉熵损失的权重,b为第一分类误差的权重、c为差异损失的权重,d为第二分类误差的权重。
在另一实施例中,如图7所示,步骤S150之后还包括步骤S160、S170和S180。
S160、若接收到第一说话人的第一音频,获取所述第一音频的梅尔频率倒谱系数。
若接收到第一说话人的第一音频,获取所述第一音频的梅尔频率倒谱系数。具体的,所述第一说话人的第一音频为需通过已经训练完成后的所述语音转换模型进行语音转换的语音信号,终端设备在接收到所述第一说话人的第一音频后,便可从所述第一音频中获取所述第一音频的梅尔频率倒谱系数。
S170、根据所述音色编码器获取第二说话人中第二音频的音色特征向量并将所述第一音频的梅尔频率倒谱系数输入至所述内容编码器中,得到所述第一音频的音素特征向量。
根据所述音色编码器获取第二说话人中第二音频的音色特征向量并将所述第一音频的梅尔频率倒谱系数输入至所述内容编码器中,得到所述第一音频的音素特征向量。具体的,所述第二说话人为所述第一说话人的第一音频进行语音转换后需要以所述第二说话人的声音来进行表征的人,即所述第一说话人的第一音频在进行语音转换后得到的语音中说话人的音色为所述第二说话人的声音特征,所述第二音频为所述第二说话人任意的音频。当需要将所述第一音频转换成所述第二说话人的语音时,只需从所述第二说话人的第二音频中提取能表征所述第二说话人的身份信息,该身份信息可用所述第二音频的音色特征向量来进行表征,然后将第二音频的音色特征向量与从所述第一音频中提取的音素特征向量进行拼接后,输入到解码器中,便可得到以所述第二说话人的身份输出的语音。
S180、将所述第一音频的音素特征向量与所述第二音频的音色特征向量拼接后输入到所述解码器,得到所述第二说话人的第一音频。
将所述第一音频的音素特征向量与所述第二音频的音色特征向量拼接后输入到所述解码器,得到所述第二说话人的第一音频。具体的,所述第二说话人的第一音频中的音频内容与所述第一说话人的第一音频的音频内容相同,但是所述第一说话人的第一音频中的音色为所述第一说话人的音色,所述第二说话人的第一音频中的音色为所述第二说话人的音色。所述第一音频的音素特征向量与所述第二音频的音色特征向量拼接后,拼接后的特征向量中既包含所述第一音频的音频内容,也包含所述第二说话人的音色信息,拼接后的特征向量通过所述解码器解码后,便可重构所述第一音频的梅尔频率倒谱系数,然后通过重构的梅尔频率倒谱系数便可得到所述第二说话人的第一音频。
在本发明实施例所提供的基于域分离的语音转换模型的训练方法中,通过接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。本发明实施例通过域分离技术对语音转换模型进行训练,使得训练后的语音转换模型不仅能将非平衡语料进行完整的语音转换,而且提高了语音转换准确率。
本发明实施例还提供了一种基于域分离的语音转换模型的训练装置100,该装置用于执行前述基于域分离的语音转换模型的训练方法的任一实施例。具体地,请参阅图8,图8是本发明实施例提供的基于域分离的语音转换模型的训练装置100的示意性框图。
如图8所示,所述的基于域分离的语音转换模型的训练装置100,该装置包括:特征提取单元110、第一输入单元120、第一分类单元130、拼接单元140和更新单元150。
特征提取单元110,用于接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数。
在其他发明实施例中,如图9所示,所述特征提取单元110包括:第一获取单元111和倒谱分析单元112。
第一获取单元111,用于获取所述训练语音的频谱并将所述训练语音的频谱输入至预置的梅尔滤波器组中,得到所述训练语音的梅尔频谱。
在其他发明实施例中,如图10所示,所述第一获取单元111包括:预处理单元1111和变换单元1112。
预处理单元1111,用于对所述训练语音进行预处理,得到预处理后的训练语音。
变换单元1l12,用于将所述预处理后的训练语音进行快速傅里叶变换,得到所述训练语音的频谱。
倒谱分析单元112,用于将所述训练语音的梅尔频谱进行倒谱分析,得到所述训练语音的梅尔频率倒谱系数。
第一输入单元120,用于将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量。
第一分类单元130,用于根据预设的分类规则分别所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差。
在其他发明实施例中,如图11所示,所述第一分类单元130包括:第二分类单元131和第三分类单元132。
第二分类单元131,用于将所述音素特征向量依次通过预置的梯度反转层、预置的第一分类器中,得到所述第一分类误差。
第三分类单元132,用于将所述音色特征向量输入至预置的第二分类器中,得到所述第二分类误差。
拼接单元140,用于将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差。
更新单元150,用于根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
在其他发明实施例中,如图12所示,所述更新单元150包括:第一计算单元151和第二计算单元152。
第一计算单元151,用于根据弗罗贝尼乌斯范数计算所述音素特征向量与所述音色特征向量的差异损失。
第二计算单元152,用于根据所述第一分类误差、所述第二分类误差、所述重构误差以及所述差异损失计算所述语音转换模型的整体损失。
在其他发明实施例中,如图13所示,所述第二计算单元152包括:第二获取单元1521和第三计算单元1522。
第二获取单元1521,用于将所述音素特征向量输入到预设的ASR***中进行音素识别,得到交叉熵损失。
第三计算单元1522,用于根据所述第一分类误差、所述第二分类误差、所述重构误差、所述差异损失以及所述交叉熵损失计算所述语音转换模型的整体损失。
在其他发明实施例中,所述的基于域分离的语音转换模型的训练装置还包括:接收单元160、第二输入单元170和第三输入单元180。
接收单元160,用于若接收到第一说话人的第一音频,获取所述第一音频的梅尔频率倒谱系数。
第二输入单元170,用于根据所述音色编码器获取第二说话人中第二音频的音色特征向量并将所述第一音频的梅尔频率倒谱系数输入至所述内容编码器中,得到所述第一音频的音素特征向量。
第三输入单元180,用于将所述第一音频的音素特征向量与所述第二音频的音色特征向量拼接后输入到所述解码器,得到所述第二说话人的第一音频。
本发明实施例所提供的基于域分离的语音转换模型的训练装置100用于执行上述接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
请参阅图14,图14是本发明实施例提供的计算机设备的示意性框图。
参阅图14,该设备500包括通过***总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作***5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于域分离的语音转换模型的训练方法。
该处理器502用于提供计算和控制能力,支撑整个设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于域分离的语音转换模型的训练方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图14中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的设备500的限定,具体的设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
本领域技术人员可以理解,图14中示出的设备500的实施例并不构成对设备500具体构成的限定,在其他实施例中,设备500可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,设备500可以仅包括存储器及处理器502,在这样的实施例中,存储器及处理器502的结构及功能与图14所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器502、数字信号处理器502(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器502可以是微处理器502或者该处理器502也可以是任何常规的处理器502等。
在本发明的另一实施例中提供计算机存储介质。该存储介质可以为非易失性的计算机可读存储介质。该存储介质存储有计算机程序5032,其中计算机程序5032被处理器502执行时实现以下步骤:接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台设备500(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于域分离的语音转换模型的训练方法,其特征在于,包括以下步骤:
接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;
将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;
根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;
将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;
根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
2.根据权利要求1所述的基于域分离的语音转换模型的训练方法,其特征在于,所述对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数,包括:
获取所述训练语音的频谱并将所述训练语音的频谱输入至预置的梅尔滤波器组中,得到所述训练语音的梅尔频谱;
将所述训练语音的梅尔频谱进行倒谱分析,得到所述训练语音的梅尔频率倒谱系数。
3.根据权利要求2所述的基于域分离的语音转换模型的训练方法,其特征在于,所述获取所述训练语音的频谱,包括:
对所述训练语音进行预处理,得到预处理后的训练语音;
将所述预处理后的训练语音进行快速傅里叶变换,得到所述训练语音的频谱。
4.根据权利要求1所述的基于域分离的语音转换模型的训练方法,其特征在于,所述根据预设的分类规则分别对所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差,包括:
将所述音素特征向量依次通过预置的梯度反转层、预置的第一分类器中,得到所述第一分类误差;
将所述音色特征向量输入至预置的第二分类器中,得到所述第二分类误差。
5.根据权利要求4所述的基于域分离的语音转换模型的训练方法,其特征在于,所述根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失,包括:
根据弗罗贝尼乌斯范数计算所述音素特征向量与所述音色特征向量的差异损失;
根据所述第一分类误差、所述第二分类误差、所述重构误差以及所述差异损失计算所述语音转换模型的整体损失。
6.根据权利要求5所述的基于域分离的语音转换模型的训练方法,其特征在于,所述根据所述第一分类误差、所述第二分类误差、所述重构误差以及所述差异损失计算所述语音转换模型的整体损失,包括:
将所述音素特征向量输入到预设的ASR***中进行音素识别,得到交叉熵损失;
根据所述第一分类误差、所述第二分类误差、所述重构误差、所述差异损失以及所述交叉熵损失计算所述语音转换模型的整体损失。
7.根据权利要求1-6中任意一项所述的基于域分离的语音转换模型的训练方法,其特征在于,所述根据所述整体损失更新所述语音转换模型的网络参数之后,还包括:
若接收到第一说话人的第一音频,获取所述第一音频的梅尔频率倒谱系数;
根据所述音色编码器获取第二说话人中第二音频的音色特征向量并将所述第一音频的梅尔频率倒谱系数输入至所述内容编码器中,得到所述第一音频的音素特征向量;
将所述第一音频的音素特征向量与所述第二音频的音色特征向量拼接后输入到所述解码器,得到所述第二说话人的第一音频。
8.一种基于域分离的语音转换模型的训练装置,其特征在于,包括:
特征提取单元,用于接收预设的训练语音并对所述训练语音进行特征提取,得到所述训练语音的梅尔频率倒谱系数;
第一输入单元,用于将所述训练语音的梅尔频率倒谱系数分别输入到内容编码器和音色编码器中,得到所述训练语音的音素特征向量和音色特征向量;
第一分类单元,用于根据预设的分类规则分别所述音素特征向量、所述音色特征向量进行分类处理,得到第一分类误差和第二分类误差;
拼接单元,用于将所述音素特征向量、所述音色特征向量进行拼接并将拼接后的特征向量输入到解码器中,得到所述梅尔频率倒谱系数的重构误差;
更新单元,用于根据所述第一分类误差、所述第二分类误差以及所述重构误差计算语音转换模型的整体损失并根据所述整体损失更新所述语音转换模型的网络参数。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于域分离的语音转换模型的训练方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至7任一项所述的基于域分离的语音转换模型的训练方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011509341.3A CN112634920B (zh) | 2020-12-18 | 2020-12-18 | 基于域分离的语音转换模型的训练方法及装置 |
PCT/CN2021/083956 WO2022126924A1 (zh) | 2020-12-18 | 2021-03-30 | 基于域分离的语音转换模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011509341.3A CN112634920B (zh) | 2020-12-18 | 2020-12-18 | 基于域分离的语音转换模型的训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634920A true CN112634920A (zh) | 2021-04-09 |
CN112634920B CN112634920B (zh) | 2024-01-02 |
Family
ID=75317416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011509341.3A Active CN112634920B (zh) | 2020-12-18 | 2020-12-18 | 基于域分离的语音转换模型的训练方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112634920B (zh) |
WO (1) | WO2022126924A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113178201A (zh) * | 2021-04-30 | 2021-07-27 | 平安科技(深圳)有限公司 | 基于无监督的语音转换方法、装置、设备及介质 |
CN113345452A (zh) * | 2021-04-27 | 2021-09-03 | 北京搜狗科技发展有限公司 | 语音转换方法、语音转换模型的训练方法、装置和介质 |
CN113436609A (zh) * | 2021-07-06 | 2021-09-24 | 南京硅语智能科技有限公司 | 语音转换模型及其训练方法、语音转换方法及*** |
CN113689868A (zh) * | 2021-08-18 | 2021-11-23 | 北京百度网讯科技有限公司 | 一种语音转换模型的训练方法、装置、电子设备及介质 |
CN113689867A (zh) * | 2021-08-18 | 2021-11-23 | 北京百度网讯科技有限公司 | 一种语音转换模型的训练方法、装置、电子设备及介质 |
CN113782052A (zh) * | 2021-11-15 | 2021-12-10 | 北京远鉴信息技术有限公司 | 一种音色转换方法、装置、电子设备及存储介质 |
CN113823300A (zh) * | 2021-09-18 | 2021-12-21 | 京东方科技集团股份有限公司 | 语音处理方法及装置、存储介质、电子设备 |
CN114283825A (zh) * | 2021-12-24 | 2022-04-05 | 北京达佳互联信息技术有限公司 | 一种语音处理方法、装置、电子设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114999447B (zh) * | 2022-07-20 | 2022-10-25 | 南京硅基智能科技有限公司 | 一种基于对抗生成网络的语音合成模型及语音合成方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130138437A1 (en) * | 2011-11-24 | 2013-05-30 | Electronics And Telecommunications Research Institute | Speech recognition apparatus based on cepstrum feature vector and method thereof |
US20160260444A1 (en) * | 2014-05-15 | 2016-09-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Audio Signal Classification and Coding |
CN107507619A (zh) * | 2017-09-11 | 2017-12-22 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN107705802A (zh) * | 2017-09-11 | 2018-02-16 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN110600047A (zh) * | 2019-09-17 | 2019-12-20 | 南京邮电大学 | 基于Perceptual STARGAN的多对多说话人转换方法 |
CN111247585A (zh) * | 2019-12-27 | 2020-06-05 | 深圳市优必选科技股份有限公司 | 语音转换方法、装置、设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005071663A2 (en) * | 2004-01-16 | 2005-08-04 | Scansoft, Inc. | Corpus-based speech synthesis based on segment recombination |
CN105844331B (zh) * | 2015-01-15 | 2018-05-25 | 富士通株式会社 | 神经网络***及该神经网络***的训练方法 |
CN108847249B (zh) * | 2018-05-30 | 2020-06-05 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和*** |
CN110427978B (zh) * | 2019-07-10 | 2022-01-11 | 清华大学 | 面向小样本学习的变分自编码器网络模型和装置 |
CN111883102B (zh) * | 2020-07-14 | 2022-12-30 | 中国科学技术大学 | 一种双层自回归解码的序列到序列语音合成方法及*** |
-
2020
- 2020-12-18 CN CN202011509341.3A patent/CN112634920B/zh active Active
-
2021
- 2021-03-30 WO PCT/CN2021/083956 patent/WO2022126924A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130138437A1 (en) * | 2011-11-24 | 2013-05-30 | Electronics And Telecommunications Research Institute | Speech recognition apparatus based on cepstrum feature vector and method thereof |
US20160260444A1 (en) * | 2014-05-15 | 2016-09-08 | Telefonaktiebolaget Lm Ericsson (Publ) | Audio Signal Classification and Coding |
CN107507619A (zh) * | 2017-09-11 | 2017-12-22 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN107705802A (zh) * | 2017-09-11 | 2018-02-16 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN110600047A (zh) * | 2019-09-17 | 2019-12-20 | 南京邮电大学 | 基于Perceptual STARGAN的多对多说话人转换方法 |
CN111247585A (zh) * | 2019-12-27 | 2020-06-05 | 深圳市优必选科技股份有限公司 | 语音转换方法、装置、设备及存储介质 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113345452A (zh) * | 2021-04-27 | 2021-09-03 | 北京搜狗科技发展有限公司 | 语音转换方法、语音转换模型的训练方法、装置和介质 |
CN113345452B (zh) * | 2021-04-27 | 2024-04-26 | 北京搜狗科技发展有限公司 | 语音转换方法、语音转换模型的训练方法、装置和介质 |
CN113178201A (zh) * | 2021-04-30 | 2021-07-27 | 平安科技(深圳)有限公司 | 基于无监督的语音转换方法、装置、设备及介质 |
CN113178201B (zh) * | 2021-04-30 | 2024-06-28 | 平安科技(深圳)有限公司 | 基于无监督的语音转换方法、装置、设备及介质 |
CN113436609A (zh) * | 2021-07-06 | 2021-09-24 | 南京硅语智能科技有限公司 | 语音转换模型及其训练方法、语音转换方法及*** |
CN113436609B (zh) * | 2021-07-06 | 2023-03-10 | 南京硅语智能科技有限公司 | 语音转换模型及其训练方法、语音转换方法及*** |
CN113689868A (zh) * | 2021-08-18 | 2021-11-23 | 北京百度网讯科技有限公司 | 一种语音转换模型的训练方法、装置、电子设备及介质 |
CN113689867A (zh) * | 2021-08-18 | 2021-11-23 | 北京百度网讯科技有限公司 | 一种语音转换模型的训练方法、装置、电子设备及介质 |
CN113823300A (zh) * | 2021-09-18 | 2021-12-21 | 京东方科技集团股份有限公司 | 语音处理方法及装置、存储介质、电子设备 |
CN113823300B (zh) * | 2021-09-18 | 2024-03-22 | 京东方科技集团股份有限公司 | 语音处理方法及装置、存储介质、电子设备 |
CN113782052A (zh) * | 2021-11-15 | 2021-12-10 | 北京远鉴信息技术有限公司 | 一种音色转换方法、装置、电子设备及存储介质 |
CN114283825A (zh) * | 2021-12-24 | 2022-04-05 | 北京达佳互联信息技术有限公司 | 一种语音处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112634920B (zh) | 2024-01-02 |
WO2022126924A1 (zh) | 2022-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112634920B (zh) | 基于域分离的语音转换模型的训练方法及装置 | |
CN110600047B (zh) | 基于Perceptual STARGAN的多对多说话人转换方法 | |
CN109671442B (zh) | 基于STARGAN和x向量的多对多说话人转换方法 | |
CN112289333B (zh) | 语音增强模型的训练方法和装置及语音增强方法和装置 | |
CN110060690B (zh) | 基于STARGAN和ResNet的多对多说话人转换方法 | |
WO2018223727A1 (zh) | 识别声纹的方法、装置、设备及介质 | |
CN110060657B (zh) | 基于sn的多对多说话人转换方法 | |
CN112927707A (zh) | 语音增强模型的训练方法和装置及语音增强方法和装置 | |
CN111429894A (zh) | 基于SE-ResNet STARGAN的多对多说话人转换方法 | |
CN108198566B (zh) | 信息处理方法及装置、电子设备及存储介质 | |
JP2015040903A (ja) | 音声処理装置、音声処理方法、及び、プログラム | |
CN111429893A (zh) | 基于Transitive STARGAN的多对多说话人转换方法 | |
CN113178201B (zh) | 基于无监督的语音转换方法、装置、设备及介质 | |
CN114023300A (zh) | 一种基于扩散概率模型的中文语音合成方法 | |
Zhang et al. | Wsrglow: A glow-based waveform generative model for audio super-resolution | |
JP6872197B2 (ja) | 音響信号生成モデル学習装置、音響信号生成装置、方法、及びプログラム | |
CN113744715A (zh) | 声码器语音合成方法、装置、计算机设备及存储介质 | |
WO2024055752A1 (zh) | 语音合成模型的训练方法、语音合成方法和相关装置 | |
Wu et al. | Denoising Recurrent Neural Network for Deep Bidirectional LSTM Based Voice Conversion. | |
US20230368777A1 (en) | Method And Apparatus For Processing Audio, Electronic Device And Storage Medium | |
CN112951256B (zh) | 语音处理方法及装置 | |
Prabhu et al. | EMOCONV-Diff: Diffusion-Based Speech Emotion Conversion for Non-Parallel and in-the-Wild Data | |
Ko et al. | Adversarial Training of Denoising Diffusion Model Using Dual Discriminators for High-Fidelity MultiSpeaker TTS | |
Zheng et al. | Bandwidth extension WaveNet for bone-conducted speech enhancement | |
Gong et al. | A Robust Feature Extraction Method for Sound Signals Based on Gabor and MFCC |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |