JP7334942B2 - 音声変換装置、音声変換方法及び音声変換プログラム - Google Patents

音声変換装置、音声変換方法及び音声変換プログラム Download PDF

Info

Publication number
JP7334942B2
JP7334942B2 JP2019149939A JP2019149939A JP7334942B2 JP 7334942 B2 JP7334942 B2 JP 7334942B2 JP 2019149939 A JP2019149939 A JP 2019149939A JP 2019149939 A JP2019149939 A JP 2019149939A JP 7334942 B2 JP7334942 B2 JP 7334942B2
Authority
JP
Japan
Prior art keywords
filter
speech
voice
spectrum
feature quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149939A
Other languages
English (en)
Other versions
JP2021032940A (ja
Inventor
慎之介 高道
佑樹 齋藤
高明 佐伯
洋 猿渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2019149939A priority Critical patent/JP7334942B2/ja
Priority to US17/636,617 priority patent/US20230360631A1/en
Priority to PCT/JP2020/031122 priority patent/WO2021033685A1/ja
Publication of JP2021032940A publication Critical patent/JP2021032940A/ja
Application granted granted Critical
Publication of JP7334942B2 publication Critical patent/JP7334942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • G10L2021/0135Voice conversion or morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Description

本発明は、音声変換装置、音声変換方法及び音声変換プログラムに関する。
従来、対象者の音声を変換し、異なる人物が話しているような合成音声を生成する研究が行われている。例えば、下記非特許文献1及び2には、変換元となる対象者の包絡スペクトル成分と、変換先の話者の包絡スペクトル成分との差に相当するフィルタを推定し、対象者の音声に当該フィルタを適用することで変換先の合成音声を生成する技術が記載されている。
非特許文献1及び2によれば、フィルタの設計に関して、従来から用いられているMLSA(Mel-Log Spectrum Approximation)よりも、最小位相フィルタを用いる方が高い音声品質を達成することができる。
Kazuhiro Kobayashi, Tomoki Toda and Satoshi Nakamura, "Intra-gender statistical singing voice conversion with direct waveform modification using log-spectral differential," Speech Communication, Volume 99, May 2018, Pages 211-220. Hitoshi Suda, Gaku Kotani, Shinnosuke Takamichi, and Daisuke Saito, "A Revisit to Feature Handling for High-quality Voice Conversion Based on Gaussian Mixture Model," Proceedings, APSIPA Annual Summit and Conference 2018.
しかしながら、最小位相フィルタは、フィルタの算出に必要となる計算量が比較的多いため、リアルタイム音声変換には適用が難しかった。ここで、フィルタの一部をカットして計算量を減らすことが考えられるが、フィルタの精度が低下してしまうため、合成音声の品質が劣化してしまうことが多い。
そこで、本発明は、高い音声品質とリアルタイム性を両立させることのできる差分スペクトル法を用いた音声変換装置、音声変換方法及び音声変換プログラムを提供する。
本発明の一態様に係る音声変換装置は、対象者の音声の信号を取得する取得部と、音声の声色を表す特徴量を学習済みの変換モデルによって変換し、変換後の特徴量に学習済みのリフタを掛けて、フィルタのスペクトルを算出するフィルタ算出部と、フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出する短縮フィルタ算出部と、短縮フィルタをフーリエ変換したスペクトルを信号のスペクトルに掛けて、逆フーリエ変換することで、合成音声を生成する生成部と、を備える。
この態様によれば、学習済みの変換モデルによって特徴量を変換するだけでなく、学習済みのリフタを用いて短縮フィルタを算出することで、高い音声品質とリアルタイム性を両立させることのできる差分スペクトル法を用いた音声変換が実現される。
上記態様において、短縮フィルタをフーリエ変換したスペクトルを信号のスペクトルに掛けて、合成音声の声色を表す特徴量を算出し、当該特徴量とターゲット音声の声色を表す特徴量との誤差が小さくなるように、変換モデル及びリフタのパラメータを更新し、学習済みの変換モデル及び学習済みのリフタを生成する学習部をさらに備えてもよい。
この態様によれば、学習済みの変換モデル及び学習済みのリフタを生成することで、フィルタをカットして短縮フィルタとした影響が抑えられ、より短い長さのフィルタでも高品質な音声変換が可能になる。
上記態様において、変換モデルは、ニューラルネットワークで構成され、学習部は、誤差逆伝播法によってパラメータを更新し、学習済みの変換モデル及び学習済みのリフタを生成してもよい。
上記態様において、特徴量は、音声のメル周波数ケプストラムであってもよい。
この態様によれば、対象者の音声の声色を適切に捉えることができる。
本発明の他の態様に係る音声変換方法は、対象者の音声の信号を取得することと、音声の声色を表す特徴量を学習済みの変換モデルによって変換し、変換後の特徴量に学習済みのリフタを掛けて、フィルタのスペクトルを算出することと、フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出することと、短縮フィルタをフーリエ変換したスペクトルを信号のスペクトルに掛けて、逆フーリエ変換することで、合成音声を生成することと、を含む。
この態様によれば、学習済みの変換モデルによって特徴量を変換するだけでなく、学習済みのリフタを用いて短縮フィルタを算出することで、高い音声品質とリアルタイム性を両立させることのできる差分スペクトル法を用いた音声変換が実現される。
本発明の他の態様に係る音声変換プログラムは、音声変換装置に備えられたコンピュータを、対象者の音声の信号を取得する取得部、音声の声色を表す特徴量を学習済みの変換モデルによって変換し、変換後の特徴量に学習済みのリフタを掛けて、フィルタのスペクトルを算出するフィルタ算出部、フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出する短縮フィルタ算出部、及び短縮フィルタをフーリエ変換したスペクトルを信号のスペクトルに掛けて、逆フーリエ変換することで、合成音声を生成する生成部、として機能させる。
この態様によれば、学習済みの変換モデルによって特徴量を変換するだけでなく、学習済みのリフタを用いて短縮フィルタを算出することで、高い音声品質とリアルタイム性を両立させることのできる差分スペクトル法を用いた音声変換が実現される。
本発明によれば、高い音声品質とリアルタイム性を両立させることのできる差分スペクトル法を用いた音声変換装置、音声変換方法及び音声変換プログラムを提供することができる。
本発明の実施形態に係る音声変換装置の機能ブロックを示す図である。 本実施形態に係る音声変換装置の物理的構成を示す図である。 本実施形態に係る音声変換装置によって実行される処理の概要を示す図である。 本実施形態に係る音声変換装置及び従来例に係る装置によってそれぞれ生成された合成音声の誤差とフィルタの長さの関係を示す図である。 本実施形態に係る音声変換装置及び従来例に係る装置によってそれぞれ生成された合成音声の話者類似性に関する主観評価の結果を示す図である。 本実施形態に係る音声変換装置及び従来例に係る装置によってそれぞれ生成された合成音声の音声品質に関する主観評価の結果を示す図である。 本実施形態に係る音声変換装置によって生成された合成音声の話者類似性とフィルタの長さの関係に関する主観評価の結果を示す図である。 本実施形態に係る音声変換装置によって生成された合成音声の音声品質とフィルタの長さの関係に関する主観評価の結果を示す図である。 本実施形態に係る音声変換装置によって実行される音声変換処理のフローチャートである。 本実施形態に係る音声変換装置によって実行される学習処理のフローチャートである。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本発明の実施形態に係る音声変換装置10の機能ブロックを示す図である。音声変換装置10は、取得部11、フィルタ算出部12、短縮フィルタ算出部13、生成部14及び学習部15を備える。
取得部11は、対象者の音声の信号を取得する。取得部11は、マイク20により電気信号に変換された対象者の音声を、所定期間にわたって取得する。以下では、対象者の音声の信号をフーリエ変換した複素スペクトル系列を、F(X)=[F1 (X),…,FT (X)]と表す。ここで、Tは、所定期間のフレーム数である。
フィルタ算出部12は、音声の声色を表す特徴量を学習済みの変換モデル12aによって変換し、変換後の特徴量に学習済みのリフタ12bを掛けて、フィルタのスペクトルを算出する。ここで、音声の声色を表す特徴量は、音声のメル周波数ケプストラムであってよい。メル周波数ケプストラムを特徴量として用いることで、対象者の音声の声色を適切に捉えることができる。
フィルタ算出部12は、対象者の音声の信号をフーリエ変換した複素スペクトル系列F(X)から低次(例えば10~100次)の実ケプストラム系列C(X)=[C1 (X),…,CT (X)]を算出する。そして、フィルタ算出部12は、実ケプストラム系列C(X)を学習済みの変換モデル12aによって変換し、変換後の特徴量C(D)=[C1 (D),…,CT (D)]を算出する。
さらに、フィルタ算出部12は、変換後の特徴量C(D)=[C1 (D),…,CT (D)]に学習済みのリフタ12bを掛けて、フィルタのスペクトルを算出する。より具体的には、学習済みのリフタ12bを[u1,…,uT]と表すとき、フィルタ算出部12は、[u11 (D),…,uTT (D)]という積を算出し、フーリエ変換することで、フィルタの複素スペクトル系列F(D)=[F1 (D),…,FT (D)]を算出する。
最小位相フィルタを生成する場合、リフタとして以下の数式(1)で表されるものを用いる。ここで、Nは周波数ビン数である。
Figure 0007334942000001
一方、本実施形態に係る音声変換装置10で用いる学習済みのリフタ12bの値は、数式(1)で表されるものと異なり、後述する学習処理によって定められる値である。学習処理において、リフタ12bの値は、変換モデル12aのパラメータとともに更新され、合成音声によってターゲット音声がより良く再現されるように決定される。
短縮フィルタ算出部13は、フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出する。より具体的には、短縮フィルタ算出部13は、フィルタのスペクトルF(D)を逆フーリエ変換して時間領域の値として、時刻t以前について1、時刻tより後について0となる窓関数を適用することでカットし、フーリエ変換することで、短縮フィルタの複素スペクトル系列F(l)=[F1 (l),…,FT (l)]を算出する。
生成部14は、短縮フィルタをフーリエ変換したスペクトルを信号のスペクトルに掛けて、逆フーリエ変換することで、合成音声を生成する。生成部14は、短縮フィルタをフーリエ変換したスペクトルF(l)=[F1 (l),…,FT (l)]と、対象者の音声の信号のスペクトルF(X)=[F1 (X),…,FT (X)]との積F(Y)=[F1 (X)1 (l),…,FT (X)T (l)]を算出し、スペクトルF(Y)を逆フーリエ変換することで合成音声を生成する。
学習部15は、短縮フィルタをフーリエ変換したスペクトルを、対象者の音声の信号のスペクトルに掛けて、合成音声の声色を表す特徴量を算出し、当該特徴量とターゲット音声の声色を表す特徴量との誤差が小さくなるように、変換モデル及びリフタのパラメータを更新し、前記学習済みの変換モデル及び前記学習済みのリフタを生成する。本実施形態において、変換モデル12aは、ニューラルネットワークで構成される。変換モデル12aは、例えばMLP(Multi-Layer Perceptron)で構成されてよく、隠れ層の活性化関数としてGated Linear Unitを用い、各活性化関数の前にBatch Normalizationを適用してよい。
学習部15は、パラメータが未定の変換モデル12a及びリフタ12bによって、短縮フィルタをフーリエ変換したスペクトルF(l)を算出し、対象者の音声の信号のスペクトルF(X)に掛けてスペクトルF(Y)を算出して、特徴量としてメル周波数ケプストラムC(Y)=[C1 (Y),…,CT (Y)]を算出する。そして、算出したケプストラムC(Y)=[C1 (Y),…,CT (Y)]と、学習データであるターゲット音声のケプストラムC(T)=[C1 (T),…,CT (T)]との誤差を、L=(C(T)-C(Y)T(C(T)-C(Y))/Tによって算出する。以降、√Lの値をRMSE(Rooted Mean Squared Error)と呼ぶ。
学習部15は、誤差L=(C(T)-C(Y)T(C(T)-C(Y))/Tを変換モデル及びリフタのパラメータで偏微分し、誤差逆伝播法によって変換モデル及びリフタのパラメータを更新する。なお、学習処理は、例えばAdam(Adaptive moment estimation)を用いて行ってよい。このようにして学習済みの変換モデル12a及び学習済みのリフタ12bを生成することで、フィルタをカットして短縮フィルタとした影響が抑えられ、より短い長さのフィルタでも高品質な音声変換が可能になる。
本実施形態に係る音声変換装置10によれば、学習済みの変換モデル12aによって特徴量を変換するだけでなく、学習済みのリフタ12bを用いて短縮フィルタを算出することで、高い音声品質とリアルタイム性を両立させることのできる差分スペクトル法を用いた音声変換が実現される。
本実施形態に係る音声変換装置10によれば、例えば短縮フィルタの長さを従来の1/8として、フィルタ処理の計算量を従来の1%程度まで削減することができる。これにより、例えば44.1kHz程度のサンプリングレートで取得した音声信号を50ms以下の処理時間でターゲット音声に変換することができるようになる。
図2は、本実施形態に係る音声変換装置10の物理的構成を示す図である。音声変換装置10は、演算部に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では音声変換装置10が一台のコンピュータで構成される場合について説明するが、音声変換装置10は、複数のコンピュータが組み合わされて実現されてもよい。また、図2で示す構成は一例であり、音声変換装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、対象者の音声に関する複数の特徴量を算出し、当該複数の特徴量をターゲットの音声に対応する複数の変換特徴量に変換して、複数の変換特徴量に基づいて合成音声を生成するプログラム(音声変換プログラム)を実行する演算部である。CPU10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。
RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行するプログラム、対象者の音声、ターゲットの音声といったデータを記憶してよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。
ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えば音声変換プログラムや、書き換えが行われないデータを記憶してよい。
通信部10dは、音声変換装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fは、対象者の音声の波形を表示したり、合成音声の波形を表示したりしてよい。
音声変換プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。音声変換装置10では、CPU10aが音声変換プログラムを実行することにより、図1を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、音声変換装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
図3は、本実施形態に係る音声変換装置10によって実行される処理の概要を示す図である。音声変換装置10は、対象者の音声の信号を取得し、フーリエ変換した複素スペクトル系列F(X)=[F1 (X),…,FT (X)]を算出する。そして、複素スペクトル系列F(X)から実ケプストラム系列C(X)=[C1 (X),…,CT (X)]を算出して学習済みの変換モデル12aに入力する。同図において、変換モデル12aはニューラルネットワークの模式図によって表されている。
音声変換装置10は、変換後の特徴量C(D)=[C1 (D),…,CT (D)]に学習済みのリフタ12b[u1,…,uT]を掛けて、フーリエ変換することで、フィルタの複素スペクトル系列F(D)=[F1 (D),…,FT (D)]を算出する。
その後、音声変換装置10は、フィルタの複素スペクトル系列F(D)=[F1 (D),…,FT (D)]を逆フーリエ変換して時間領域の値として、時刻t以前について1、時刻tより後について0となる窓関数を適用することでカットし、フーリエ変換することで、短縮フィルタの複素スペクトル系列F(l)=[F1 (l),…,FT (l)]を算出する。
音声変換装置10は、このようにして算出した短縮フィルタの複素スペクトル系列F(l)=[F1 (l),…,FT (l)]を対象者の音声の信号のスペクトルF(X)=[F1 (X),…,FT (X)]に掛けて、合成音声のスペクトルF(Y)=[F1 (X)1 (l),…,FT (X)T (l)]を算出する。音声変換装置10は、合成音声のスペクトルF(Y)を逆フーリエ変換することで、合成音声を生成する。
変換モデル12a及びリフタ12bの学習処理を行う場合、合成音声のスペクトルF(Y)から実ケプストラム系列C(Y)=[C1 (Y),…,CT (Y)]を算出し、学習データであるターゲット音声のケプストラムC(T)=[C1 (T),…,CT (T)]との誤差を、L=(C(T)-C(Y)T(C(T)-C(Y))/Tによって算出する。そして、誤差逆伝播法によって、変換モデル12a及びリフタ12bのパラメータを更新する。
図4は、本実施形態に係る音声変換装置10及び従来例に係る装置によってそれぞれ生成された合成音声の誤差とフィルタの長さの関係を示す図である。同図では、本実施形態に係る音声変換装置10によって生成した合成音声のRMSE(√Lの値)とフィルタの長さ(Tap length)の関係を表す第1グラフPを実線で示し、従来例に係る装置によって生成した合成音声のRMSEとフィルタの長さの関係を表す第2グラフCを破線で示している。
ここで、フィルタの長さは、最大(全ての時刻について1となる窓関数を用いた場合)で512である。同図では、フィルタの長さが512、256、128及び64の場合についてRMSEの値をプロットしている。
第1グラフP及び第2グラフCによると、フィルタの長さの全ての範囲にわたって、本実施形態に係る音声変換装置10によって生成した合成音声のRMSEは、従来例の装置によって生成した合成音声のRMSEよりも小さくなっている。改善の度合いは、特にフィルタの長さが短い場合に著しい。このように、本実施形態に係る音声変換装置10によれば、フィルタの長さを短くすることが音声品質に与える影響を低減することができる。
図5は、本実施形態に係る音声変換装置10及び従来例に係る装置によってそれぞれ生成された合成音声の話者類似性に関する主観評価の結果を示す図である。話者類似性に関する主観評価の結果は、本実施形態に係る音声変換装置10により生成された合成音声、従来例に係る装置により生成された合成音声及びターゲット音声(正解となる音声)を複数人の試験者に聴き比べてもらい、本実施形態と従来例のどちらがターゲット音声に類似しているか評価してもらった結果である。同図では、縦軸にフィルタの長さ(Tap length)を示し、横軸にターゲット音声に類似していると評価した割合(Preference score)を示している。グラフでは、左側に本実施形態に係る音声変換装置10のPreference scoreを示し、右側に従来例に係る装置のPreference scoreを示している。
Tap lengthが256の場合、すなわちフィルタの長さを半分にした場合、本実施形態のPreference scoreは0.508であり、従来例のPreference scoreは0.942である。また、Tap lengthが128の場合、すなわちフィルタの長さを1/4にした場合、本実施形態のPreference scoreは0.556であり、従来例のPreference scoreは0.444である。また、Tap lengthが64の場合、すなわちフィルタの長さを1/8にした場合、本実施形態のPreference scoreは0.616であり、従来例のPreference scoreは0.384である。
このように、本実施形態に係る音声変換装置10により生成される合成音声は、フィルタの長さを短くするほど、従来例に係る装置により生成される合成音声よりもターゲット音声に類似すると評価されている。なお、本評価に関するp値は1.55×10-7だった。
図6は、本実施形態に係る音声変換装置10及び従来例に係る装置によってそれぞれ生成された合成音声の音声品質に関する主観評価の結果を示す図である。音声品質に関する主観評価の結果は、本実施形態に係る音声変換装置10により生成された合成音声及び従来例に係る装置により生成された合成音声を複数人の試験者に聴き比べてもらい、本実施形態と従来例のどちらが自然な音声に聞こえるか評価してもらった結果である。同図では、縦軸にフィルタの長さ(Tap length)を示し、横軸に音質が優れていると評価した割合(Preference score)を示している。グラフでは、左側に本実施形態に係る音声変換装置10のPreference scoreを示し、右側に従来例に係る装置のPreference scoreを示している。
Tap lengthが256の場合、すなわちフィルタの長さを半分にした場合、本実施形態のPreference scoreは0.554であり、従来例のPreference scoreは0.446である。また、Tap lengthが128の場合、すなわちフィルタの長さを1/4にした場合、本実施形態のPreference scoreは0.500であり、従来例のPreference scoreは0.500である。また、Tap lengthが64の場合、すなわちフィルタの長さを1/8にした場合、本実施形態のPreference scoreは0.627であり、従来例のPreference scoreは0.373である。
このように、本実施形態に係る音声変換装置10により生成される合成音声は、フィルタの長さを短くするほど、従来例に係る装置により生成される合成音声よりもターゲット音声に類似すると評価されている。なお、本評価に関するp値は4.33×10-9だった。
図7は、本実施形態に係る音声変換装置10によって生成された合成音声の話者類似性とフィルタの長さの関係に関する主観評価の結果を示す図である。本評価の結果は、本実施形態に係る音声変換装置10によってフィルタの長さを短縮せずに(Tap lengthを512として)生成した合成音声と、本実施形態に係る音声変換装置10によってフィルタの長さを短縮して(Tap lengthを256,128,64として)生成した合成音声を複数人の試験者に聴き比べてもらい、どちらがターゲット音声に類似しているか評価してもらった結果である。同図では、縦軸にフィルタの長さ(Tap length)を示し、横軸にターゲット音声に類似していると評価した割合(Preference score)を示している。グラフでは、左側にフィルタの長さを短縮した場合のPreference scoreを示し、右側にフィルタの長さを短縮しない場合のPreference scoreを示している。
Tap lengthが256の場合と、Tap lengthが512の場合とを比較すると、Tap lengthが256の場合のPreference scoreは0.471であり、Tap lengthが512の場合のPreference scoreは0.529である。また、Tap lengthが128の場合と、Tap lengthが512の場合とを比較すると、Tap lengthが128の場合のPreference scoreは0.559であり、Tap lengthが512の場合のPreference scoreは0.441である。また、Tap lengthが64の場合と、Tap lengthが512の場合とを比較すると、Tap lengthが64の場合のPreference scoreは0.515であり、Tap lengthが512の場合のPreference scoreは0.485である。
このように、本実施形態に係る音声変換装置10により生成される合成音声は、フィルタの長さを短くしても、フィルタの長さを短縮しない場合と同程度にターゲット音声に類似すると評価されている。なお、本評価に関するp値は0.05以上だった。
図8は、本実施形態に係る音声変換装置10によって生成された合成音声の音声品質とフィルタの長さの関係に関する主観評価の結果を示す図である。本評価の結果は、本実施形態に係る音声変換装置10によってフィルタの長さを短縮せずに(Tap lengthを512として)生成した合成音声と、本実施形態に係る音声変換装置10によってフィルタの長さを短縮して(Tap lengthを256,128,64として)生成した合成音声を複数人の試験者に聴き比べてもらい、どちらが自然な音声に聞こえるか評価してもらった結果である。同図では、縦軸にフィルタの長さ(Tap length)を示し、横軸にターゲット音声に類似していると評価した割合(Preference score)を示している。グラフでは、左側にフィルタの長さを短縮した場合のPreference scoreを示し、右側にフィルタの長さを短縮しない場合のPreference scoreを示している。
Tap lengthが256の場合と、Tap lengthが512の場合とを比較すると、Tap lengthが256の場合のPreference scoreは0.504であり、Tap lengthが512の場合のPreference scoreは0.496である。また、Tap lengthが128の場合と、Tap lengthが512の場合とを比較すると、Tap lengthが128の場合のPreference scoreは0.527であり、Tap lengthが512の場合のPreference scoreは0.473である。また、Tap lengthが64の場合と、Tap lengthが512の場合とを比較すると、Tap lengthが64の場合のPreference scoreは0.496であり、Tap lengthが512の場合のPreference scoreは0.504である。
このように、本実施形態に係る音声変換装置10により生成される合成音声は、フィルタの長さを短くしても、フィルタの長さを短縮しない場合と同程度に自然に聞こえると評価されている。なお、本評価に関するp値は0.05以上だった。
図9は、本実施形態に係る音声変換装置10によって実行される音声変換処理のフローチャートである。はじめに、音声変換装置10は、マイク20によって、対象者の音声を取得する(S10)。
その後、音声変換装置10は、対象者の音声の信号をフーリエ変換し、メル周波数ケプストラム(特徴量)を算出し(S11)、特徴量を学習済みの変換モデル12aで変換する(S12)。
さらに、音声変換装置10は、変換後の特徴量に学習済みのリフタ12bを掛けて、フィルタのスペクトルを算出し(S13)、フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出する(S14)。
そして、音声変換装置10は、短縮フィルタをフーリエ変換したスペクトルを対象者の音声の信号のスペクトルに掛けて、逆フーリエ変換し、合成音声を生成する(S15)。音声変換装置10は、生成した合成音声をスピーカーから出力する(S16)。
音声変換処理を終了しない場合(S17:NO)、音声変換装置10は、処理S10~S16を再び実行する。一方、音声変換処理を終了する場合(S17:YES)、音声変換装置10は、処理を終了する。
図10は、本実施形態に係る音声変換装置10によって実行される学習処理のフローチャートである。はじめに、音声変換装置10は、マイク20によって、対象者の音声を取得する(S20)。なお、音声変換装置10は、予め録音した音声の信号を取得してもよい。
その後、音声変換装置10は、対象者の音声の信号をフーリエ変換し、メル周波数ケプストラム(特徴量)を算出し(S21)、特徴量を学習中の変換モデル12aで変換する(S22)。
さらに、音声変換装置10は、変換後の特徴量に学習中のリフタ12bを掛けて、フィルタのスペクトルを算出し(S23)、フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出する(S24)。
そして、音声変換装置10は、短縮フィルタをフーリエ変換したスペクトルを対象者の音声の信号のスペクトルに掛けて、逆フーリエ変換し、合成音声を生成する(S25)。
その後、音声変換装置10は、合成音声のメル周波数ケプストラム(特徴量)を算出し(S26)、合成音声の特徴量と、ターゲット音声の特徴量の誤差を算出する(S27)。そして、音声変換装置10は、誤差逆伝播法によって、変換モデル12aとリフタ12bのパラメータを更新する(S28)。
学習終了条件を満たさない場合(S29:NO)、音声変換装置10は、処理S20~S28を再び実行する。一方、学習終了条件を満たす場合(S29:YES)、音声変換装置10は、処理を終了する。なお、学習終了条件は、合成音声の特徴量とターゲット音声の特徴量の誤差が所定値以下になることであったり、学習処理のエポック数が所定回数に達することであったりしてよい。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
10…音声変換装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、11…取得部、12…フィルタ算出部、12a…変換モデル、12b…リフタ、13…短縮フィルタ算出部、14…生成部、15…学習部、20…マイク、30…スピーカー

Claims (5)

  1. 対象者の音声の信号を取得する取得部と、
    前記音声の声色を表す特徴量を学習済みの変換モデルによって変換し、変換後の特徴量に学習済みのリフタを掛けて、フィルタのスペクトルを算出するフィルタ算出部と、
    前記フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出する短縮フィルタ算出部と、
    前記短縮フィルタをフーリエ変換したスペクトルを前記信号のスペクトルに掛けて、逆フーリエ変換することで、合成音声を生成する生成部と、
    を備える音声変換装置。
  2. 前記短縮フィルタをフーリエ変換したスペクトルを前記信号のスペクトルに掛けて、前記合成音声の声色を表す特徴量を算出し、当該特徴量とターゲット音声の声色を表す特徴量との誤差が小さくなるように、前記変換モデル及び前記リフタのパラメータを更新し、前記学習済みの変換モデル及び前記学習済みのリフタを生成する学習部をさらに備える、
    請求項1に記載の音声変換装置。
  3. 前記変換モデルは、ニューラルネットワークで構成され、
    前記学習部は、誤差逆伝播法によって前記パラメータを更新し、前記学習済みの変換モデル及び前記学習済みのリフタを生成する、
    請求項2に記載の音声変換装置。
  4. 対象者の音声の信号を取得することと、
    前記音声の声色を表す特徴量を学習済みの変換モデルによって変換し、変換後の特徴量に学習済みのリフタを掛けて、フィルタのスペクトルを算出することと、
    前記フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出することと、
    前記短縮フィルタをフーリエ変換したスペクトルを前記信号のスペクトルに掛けて、逆フーリエ変換することで、合成音声を生成することと、
    を含む音声変換方法。
  5. 音声変換装置に備えられたコンピュータを、
    対象者の音声の信号を取得する取得部、
    前記音声の声色を表す特徴量を学習済みの変換モデルによって変換し、変換後の特徴量に学習済みのリフタを掛けて、フィルタのスペクトルを算出するフィルタ算出部、
    前記フィルタのスペクトルを逆フーリエ変換し、所定の窓関数を適用することで短縮フィルタを算出する短縮フィルタ算出部、及び
    前記短縮フィルタをフーリエ変換したスペクトルを前記信号のスペクトルに掛けて、逆フーリエ変換することで、合成音声を生成する生成部、
    として機能させる音声変換プログラム。
JP2019149939A 2019-08-19 2019-08-19 音声変換装置、音声変換方法及び音声変換プログラム Active JP7334942B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019149939A JP7334942B2 (ja) 2019-08-19 2019-08-19 音声変換装置、音声変換方法及び音声変換プログラム
US17/636,617 US20230360631A1 (en) 2019-08-19 2020-08-18 Voice conversion device, voice conversion method, and voice conversion program
PCT/JP2020/031122 WO2021033685A1 (ja) 2019-08-19 2020-08-18 音声変換装置、音声変換方法及び音声変換プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149939A JP7334942B2 (ja) 2019-08-19 2019-08-19 音声変換装置、音声変換方法及び音声変換プログラム

Publications (2)

Publication Number Publication Date
JP2021032940A JP2021032940A (ja) 2021-03-01
JP7334942B2 true JP7334942B2 (ja) 2023-08-29

Family

ID=74660957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149939A Active JP7334942B2 (ja) 2019-08-19 2019-08-19 音声変換装置、音声変換方法及び音声変換プログラム

Country Status (3)

Country Link
US (1) US20230360631A1 (ja)
JP (1) JP7334942B2 (ja)
WO (1) WO2021033685A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113345452B (zh) * 2021-04-27 2024-04-26 北京搜狗科技发展有限公司 语音转换方法、语音转换模型的训练方法、装置和介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005048A (ja) 2016-07-05 2018-01-11 クリムゾンテクノロジー株式会社 声質変換システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69826446T2 (de) * 1997-01-27 2005-01-20 Microsoft Corp., Redmond Stimmumwandlung
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP5038995B2 (ja) * 2008-08-25 2012-10-03 株式会社東芝 声質変換装置及び方法、音声合成装置及び方法
US8359195B2 (en) * 2009-03-26 2013-01-22 LI Creative Technologies, Inc. Method and apparatus for processing audio and speech signals
JP5085700B2 (ja) * 2010-08-30 2012-11-28 株式会社東芝 音声合成装置、音声合成方法およびプログラム
US11475898B2 (en) * 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005048A (ja) 2016-07-05 2018-01-11 クリムゾンテクノロジー株式会社 声質変換システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SUDA, Hitoshi et al.,A Revisit to Feature Handling for High-quality Voice Conversion Based on Gaussian Mixture Model,2018 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference,2018年11月,pp.816-822
佐伯高明ほか,差分スペクトル法に基づくDNN声質変換のためのリフタ学習及びサブバンド処理,情報処理学会研究報告,2020年02月,Vol.2020-SLP-131, No.2,pp.1-6
相川清明ほか,識別誤り最小化に基づく動的ケプストラムの最適化,日本音響学会講演論文集,1994年03月,pp.123-124

Also Published As

Publication number Publication date
WO2021033685A1 (ja) 2021-02-25
JP2021032940A (ja) 2021-03-01
US20230360631A1 (en) 2023-11-09

Similar Documents

Publication Publication Date Title
JP7018659B2 (ja) 声質変換装置、声質変換方法およびプログラム
EP1995723B1 (en) Neuroevolution training system
JP5275612B2 (ja) 周期信号処理方法、周期信号変換方法および周期信号処理装置ならびに周期信号の分析方法
Kontio et al. Neural network-based artificial bandwidth expansion of speech
Wang et al. Towards robust speech super-resolution
JPH1097287A (ja) 周期信号変換方法、音変換方法および信号分析方法
CN110648684B (zh) 一种基于WaveNet的骨导语音增强波形生成方法
CN110047501B (zh) 基于beta-VAE的多对多语音转换方法
WO2018003849A1 (ja) 音声合成装置および音声合成方法
Saleem et al. Spectral phase estimation based on deep neural networks for single channel speech enhancement
JP7334942B2 (ja) 音声変換装置、音声変換方法及び音声変換プログラム
Yang et al. PAAPLoss: A phonetic-aligned acoustic parameter loss for speech enhancement
Gupta et al. High‐band feature extraction for artificial bandwidth extension using deep neural network and H∞ optimisation
JP7421827B2 (ja) 音声変換装置、音声変換方法及び音声変換プログラム
Yu et al. A hybrid speech enhancement system with DNN based speech reconstruction and Kalman filtering
JP7103390B2 (ja) 音響信号生成方法、音響信号生成装置およびプログラム
WO2021033629A1 (ja) 音響モデル学習装置、音声合成装置、方法およびプログラム
CHEN et al. High-quality voice conversion system based on GMM statistical parameters and RBF neural network
JP2008298844A (ja) 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
CN108573698B (zh) 一种基于性别融合信息的语音降噪方法
Sreehari et al. Automatic short utterance speaker recognition using stationary wavelet coefficients of pitch synchronised LP residual
JP6564744B2 (ja) 信号解析装置、方法、及びプログラム
Wang et al. Combined Generative and Predictive Modeling for Speech Super-resolution
JP6234134B2 (ja) 音声合成装置
CN111739547B (zh) 语音匹配方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230809

R150 Certificate of patent or registration of utility model

Ref document number: 7334942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150