JP6664670B2 - 声質変換システム - Google Patents

声質変換システム Download PDF

Info

Publication number
JP6664670B2
JP6664670B2 JP2016133530A JP2016133530A JP6664670B2 JP 6664670 B2 JP6664670 B2 JP 6664670B2 JP 2016133530 A JP2016133530 A JP 2016133530A JP 2016133530 A JP2016133530 A JP 2016133530A JP 6664670 B2 JP6664670 B2 JP 6664670B2
Authority
JP
Japan
Prior art keywords
voice
actor
voice quality
conversion
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016133530A
Other languages
English (en)
Other versions
JP2018005048A (ja
Inventor
▲高▼橋 賢一
賢一 ▲高▼橋
飛河 和生
和生 飛河
戸田 智基
智基 戸田
小林 和弘
和弘 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2016133530A priority Critical patent/JP6664670B2/ja
Publication of JP2018005048A publication Critical patent/JP2018005048A/ja
Application granted granted Critical
Publication of JP6664670B2 publication Critical patent/JP6664670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、声質変換システムに関する。
近年では、テーマパークまたはイベント会場等にキャラクタが登場することにより、集客を図ることが行われている。
このキャラクタには、例えば映画、アニメ、コミック及びゲーム等に登場する様々なキャラクタが含まれる。更に、音楽の分野においては、キャラクタがアーティストとして活動を行う場合もある。
キャラクタは、例えば現実空間内に着ぐるみとして登場する場合もあれば、映像として登場する場合もある。このようなキャラクタの視覚的な要素は、着ぐるみの精度向上及びコンピュータグラフィクスの技術の進歩等により、十分に観客を楽しませることができる。
小林和弘、戸田智基、Graham Neubig、Sakriani Sakti、中村哲(奈良先端大・情報)、"差分スペクトル補正に基づく統計的歌声声質変換"、[online]、2014年3月、日本音響学会講演論文集、[平成28年6月27日検索]、インターネット<URL:http:www.phontron.com/paper/kobayashi14asj.pdf>
ところで、キャラクタの声を録音した音声を同時に流すか、あるいは現場のアクター(声優)が演じることによって、当該キャラクタが話しているように見せることが一般的に行われている。
しかしながら、録音した音声の再生タイミングや収録内容が現場と合わなかったり、アクターの声質がキャラクタの声質と異なる場合があり、この場合には観客は違和感を感じてしまう場合がある。
このため特定のキャラクタの声は実際の声優本人が自らアクターとなるか、あるいはキャラクタに似た声を出すことが出来るような特定のアクターのみが演じる場合も見られるが、テーマパークまたはイベント会場に長時間登場するようなキャラクタの場合には、アクターが喉を傷めてしまうような事態が発生し得る。また、このような状況下ではアクターは喉を酷使するため、同一のアクターであっても例えば朝と夜とで声質が変化してしまうことがある。
なお、テーマパークまたはイベント会場に登場するキャラクタは例えばステージやスクリーン上で、リアルタイムで観客と会話するようなことも求められており、予めキャラクタの声を録音した音声で用意しておくようなことは困難である。
したがって、異なるアクターであっても同一のキャラクタ(ターゲット)の声で自由に話すことができるような技術が望まれている。
そこで、本発明の目的は、アクターの声質をターゲットの声質に変換することが可能な声質変換システムを提供することにある。
本発明の1つの態様によれば、声質学習装置及び声質変換装置を備え、アクターの声質をターゲットの声質に変換する声質変換システムが提供される。前記声質学習装置は、前記ターゲットの第1の音声信号を入力する第1の入力手段と、前記入力された第1の音声信号から第1の特徴量を抽出する第1の抽出手段と、前記第1の音声信号に対応する前記アクターの第2の音声信号を入力する第2の入力手段と、前記入力された第2の音声信号に含まれる基本周波数を所定の倍率で変換する第1の変換手段と、前記基本周波数が変換された第2の音声信号から第2の特徴量を抽出する第2の抽出手段と、前記抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータを格納するデータベースとを含む。前記声質変換装置は、前記アクターの第3の音声信号を入力する第3の入力手段と、前記入力された第3の音声信号に含まれる基本周波数を前記所定の倍率で変換する第2の変換手段と、前記基本周波数が変換された第3の音声信号から第3の特徴量を抽出する第3の抽出手段と、前記データベースに格納されたモデルデータ及び前記抽出された第3の特徴量に基づいて、前記アクターの声質が前記ターゲットの声質に変換された第4の音声信号を生成する生成手段と、前記生成された第4の音声信号を出力する出力手段とを含む。
本発明は、アクターの声質をターゲットの声質に変換することを可能とする。
本発明の実施形態に係る声質変換システムの構成の一例を概略的に示す図。 声質学習装置の機能構成の一例を示すブロック図。 声質変換装置の機能構成の一例を示すブロック図。 声質学習装置の処理手順の一例を示すフローチャート。 声質変換装置の処理手順の一例を示すフローチャート。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本実施形態に係る声質変換システムの構成を概略的に示す図である。本実施形態に係る声質変換システムは、例えば声優のようなアクターと称される人物(以下、単にアクターと表記)1の声質をターゲットと称される例えばキャラクタ(以下、単にターゲットと表記)2の声質に変換するために用いられる。
具体的には、声質変換システムは、例えばテーマパークまたはイベント会場等において、アクター1が発声した際に、当該アクター1の声質をターゲット2の声質に変換して音声を出力することによって、ターゲット2と声質の異なるアクター1であっても当該ターゲット2の声質で話すことができるようにするといった用途に用いることができる。
なお、本実施形態の説明においてはアクター1が人物であるものとして説明するが、当該アクター1は、音声を発するものであればよく、例えば機械的に生成された音声を発するものであってもよい。また、ターゲット2(キャラクタ)は、当該キャラクタの声を演じる人物であってもよいし、当該キャラクタの声を機械的に発する機器等であってもよい。ターゲット2はキャラクタではなく、有名人や俳優、歌手などの人物の声でもよい。
図1に示すように、声質変換システムは、声質学習装置10及び声質変換装置20を備える。
声質学習装置10は、各種プログラム(ソフトウェア)を実行可能なCPUのようなプロセッサ(コンピュータ)を備えるパーソナルコンピュータ等を含む。声質学習装置10は、解析エンジン10a及びデータベース(DB)10bを有する。
解析エンジン10aは、ターゲット2の音声(ターゲット2が発音した声)と、当該ターゲット2の音声におけるイントネーション、発音タイミング及び音程等を真似て発音したアクター1の音声とを用いて学習処理を実行する(声質変換モデルを学習する)。解析エンジン10aは、学習処理の結果(学習結果)をもとに解析を実行し、データベース10bを作成する。
なお、図1には示されていないが、声質学習装置10は、上記したアクター1及びターゲット2の音声を入力するためのマイクロフォン等を備えている。なお、声質学習装置10は、例えばアクター1及びターゲット2の音声が予め収録された音声ファイルを入力する構成であってもよい。
声質変換装置20は、声質学習装置10と同様に、各種プログラム(ソフトウェアを実行可能なCPUのようなプロセッサ(コンピュータ)を備えるパーソナルコンピュータ等を含む。
声質変換装置20は、上記した声質学習装置10において作成されたデータベース10bを利用してアクター1の声質をターゲット2の声質に変換する。このように声質変換装置20において声質が変換された音声は、声質変換装置20に備えられる例えばスピーカ20aから出力される。なお、声質変換装置20において声質が変換された音声は、例えば音声ファイルとして出力され、声質変換装置20内で管理されてもよいし、外部のサーバ装置等に送信されても構わない。
なお、図1には示されていないが、声質変換装置20は、アクター1の音声を入力するためのマイクロフォン等を備えている。また、上記した声質学習装置10と同様に、声質変換装置20は、アクター1の音声が予め収録された音声ファイルを入力する構成であってもい。
本実施形態に係る声質変換システムにおいては、声質学習装置10及び声質変換装置20が別個の装置であるものとして説明するが、当該声質学習装置10及び声質変換装置20は、1つの装置として実現されていても構わない。
更に、声質学習装置10及び声質変換装置20は、パーソナルコンピュータ以外の電子機器、例えばスマートフォンまたはタブレット端末等として実現されていてもよい。また、声質学習装置10及び声質変換装置20は、本実施形態において説明する各機能がチップなどに格納され一体化されたマイクのような形態を有していてもよいし、他の形態を有する専用機器として実現されていてもよい。
以下、本実施形態に係る声質変換システムにおける声質の変換手法の概要について説明する。
本実施形態に係る声質変換システムにおいては、混合正規分布モデル(GMM:Gaussian Mixture Model)に基づいて声質を変換する手法(以下、GMMに基づく声質変換と表記)が採用されているものとする。このGMMに基づく声質変換においては、上述した声質学習装置10によって学習処理が実行され、声質変換装置20によって変換処理が実行される。
まず、学習処理について簡単に説明する。学習処理では、例えば同一のセリフ(文等)を同一のイントネーション及び音程で発声した際のアクター1及びターゲット2それぞれの音声信号(音声データ)を用意する。
声質学習装置10は、このアクター1及びターゲット2それぞれの音声信号(つまり、アクター1及びターゲット2による同一内容発声の音声信号)を入力する。
声質学習装置10は、双方の音声信号を各フレームに分割して短時間分析処理を実行する。通常は、固定長(例えば 5 ms)で分析区間をシフトさせることで、双方の音声信号を短時間音声波形に分割する。
声質学習装置10は、分割されたフレーム毎に音声の特徴を表す特徴量の分析(スペクトル分析)を行い、局所的な時間フレーム系列の伸縮を行い、時間同期をとることによって、双方の音声フレーム間のマッチングを行う。対応するフレーム毎のスペクトルを結合したデータを順次算出し、結合確率密度関数をGMMでモデル化する。
本実施形態においては、このような学習処理によって得られるモデルデータ(声質変換モデルデータ)がデータベース10bに蓄積される。
すなわち、上記した学習処理においては、時間の対応付けがされたアクター1及びターゲット2の音声(波形)の特徴量のペアから、当該アクター1の声質をターゲット2の声質に変換するための変換規則が統計的にモデル化される。
次に、変換処理について簡単に説明する。上記したGMMに基づく声質変換の変換処理においては一般的に音声合成技術を使用して基本音声を作り出すが、本実施形態における変換処理では、機械的な音声ではなく比較的自然な音声を出力するために、アクター1の音声(波形)をそのまま使用するものとする。
すなわち、この変換処理では、音声の特徴量を変換するのではなく、アクター1の音声と出力すべきターゲット2の音声との特徴量の差分を上記GMMに基づき推定し、当該アクター1の音声(波形)に合成フィルタにより畳み込む(すなわち、差分スペクトル補正を適用する)ことによって、アクター1の声質をターゲット2の声質に変換する。
上述したように、GMMに基づく声質変換においては、学習処理によって作成されたデータベース10b(に蓄積されたモデルデータ)を利用して、変換処理によってアクター1の声質をターゲット2の声質に変換することができる。
なお、本実施形態において採用されるGMMに基づく声質変換については例えば「小林和弘、戸田智基、Graham Neubig、Sakriani Sakti、中村哲(奈良先端大・情報)、“差分スペクトル補正に基づく統計的歌声声質変換”、[online]、2014年3月、日本音響学会講演論文集、[平成28年6月27日検索]、インターネット<URL:http:www.phontron.com/paper/kobayashi14asj.pdf>」及び「戸田智基、“音声音響信号処理〜統計的手法による音声変換〜”、[online]、2014年1月20日、[平成28年6月27日検索]、インターネット<http://hil.t.u-tokyo.ac.jp/~kameoka/SAP/SAP13_11.pdf>」等に開示されているため、ここではその詳しい説明については省略する。
ところで、例えばアクター1及びターゲット2の性別が異なるような場合、当該アクター1とターゲット2とで発声することが可能な音域が異なる。
このようにアクター1とターゲット2とで音域が異なる場合、当該アクター1の声質を当該GMMに基づく声質変換によってターゲット2の声質に変換したとしても、出力される音声はターゲット2の音声として認識できない程度のものとなる。
このため、上述した変換処理において、アクター1の音声の基本周波数(f0)をターゲット2(の音声)の音域に合わせて変換する処理(以下、基本周波数変換と表記)を実行する必要がある。基本周波数は、声の高さ(音高)等を表現する音声の特徴量の1つである。なお、変換処理ではアクター1の音声がそのまま使用されるため、本実施形態においては、アクター1の音声(波形)を信号処理で加工する基本周波数変換が必要となる。
ここで、上述した音声波形を信号処理で加工する基本周波数変換の手法としては、例えばW−SOLA等のタイムストレッチ及びリサンプルを用いた比較的簡易な手法がある。このような音声波形を時間軸上で加工する比較的簡易な手法による基本周波数変換には、例えば、音声基本周波数推定処理を必要としない、ボコーダによる音声分析合成処理を必要としない、CPU負荷が少ないという利点がある。なお、基本周波数変換として他の手法が用いられても構わない。
しかしながら、このような基本周波数変換が実行された場合、アクター1の音声のスペクトル(フォルマント)に伸縮が生じるため、当該アクター1の声質が変化してしまう。このような基本周波数変換が声質変換装置20における変換処理の前段で実行される場合には、声質学習装置10における学習処理の際に与えられたアクター1の音声のフォルマントと、当該変換処理の際に与えられるアクター1の音声のフォルマントとが異なることになるため、変換処理においてアクター1の声質をターゲット2の声質に適切に変換することは困難となる。
一方、基本周波数変換が声質変換装置20における変換処理の後段で実行される(つまり、変換処理によって声質が変換された後に音声の基本周波数が変換される)場合には、既に変換処理によって得られたターゲット2の声質が基本周波数変換によって生じるフォルマントの伸縮により異なるものに変化してしまう。この場合には、ターゲット2の声質の音声を出力することはできない。
ここで、上述したように基本周波数変換は音声のフォルマント(スペクトル)の伸縮を生じさせるが、常に一定の倍率で基本周波数を変換した場合には、声質は変化してしまうものの、当該フォルマント同様に一定の倍率で伸縮することにより安定する(つまり、安定した個性を持ったフォルマントの声質を得ることができる)。
本実施形態においては、このような特性に着目し、声質変換システムにおける学習処理及び変換処理の双方の前段でアクター1の音声に対して基本周波数変換を実行する構成とする。なお、この場合における基本周波数変換は、予め決定された一定の倍率(音高変換倍率)で実行される。
以下、本実施形態に係る声質変換システムに備えられる声質学習装置10及び声質変換装置20の各々の機能構成について説明する。
図2は、声質学習装置10の機能構成を示すブロック図である。声質学習装置10は、上記したように声質変換装置20においてアクター1の声質をターゲット2の声質に変換するために、ターゲット2の音声(声質)及びアクター1の音声(声質)を学習しておく機能を有する。
図2に示すように、声質学習装置10は、第1音声入力部11、第1分析処理部12、倍率決定部13、第2音声入力部14、基本周波数変換部15、第2分析処理部16及びモデル学習部17を含む。
本実施形態において、第1音声入力部11、第1分析処理部12、倍率決定部13、第2音声入力部14、基本周波数変換部15、第2分析処理部16及びモデル学習部17は、図1に示す解析エンジン10aを構成する機能部であり、例えば声質学習装置10に備えられるCPU等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。なお、これらの各部11〜17の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。なお、コンピュータに実行させるプログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、またはネットワークを通じて声質学習装置10にダウンロードされてもよい。
ここで、上記した学習処理のために声質学習装置10に対して発せられたターゲット2の音声は、例えばマイクロフォンを介してアナログ電気信号に変換される。マイクロフォンを介してアナログ電気信号に変換された音声は、更にA/Dコンバータを通してデジタル電気信号に変換され、第1音声入力部11によって入力される。以下、第1音声入力部11によって入力された音声(信号)を便宜的にターゲット2の学習用音声信号と称する。なお、第1音声入力部11は、ターゲット2の学習用音声信号として上記した音声ファイルを入力してもよい。
なお、ターゲット2の学習用音声信号には、ターゲット2の音声の特徴を表すパラメータ(特徴量)として、例えば音韻性及び声質等を表現するスペクトル特徴量(スペクトル包絡)と、声の高さ(音高)及び声のかすれ等を表現する基本周波数及び非周期成分とが含まれる。
第1分析処理部12は、ターゲット2の学習用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該ターゲット2の学習用音声信号からスペクトル特徴量(第1の特徴量)を抽出する。
倍率決定部13は、上記した基本周波数変換を実行する際の一定の倍率(f0rate)を決定する。具体的には、倍率決定部13は、例えばアクター1の音声の周波数帯域(つまり、音域)の平均値及びターゲット2の音声の周波数帯域(つまり、音域)の平均値に基づいて倍率を決定する。以下、倍率決定部13によって決定された倍率を便宜的に固定倍率と称する。この固定倍率は、声質学習装置10内に保持される。また、この固定倍率は、例えば声質変換装置20に対して送信されることによって、後述するように声質変換装置20内でも保持される。
ここで、学習処理のために声質学習装置10に対して発せられたアクター1の音声は、例えばマイクロフォンを介して電気信号(音声信号)に変換される。第2音声入力部14は、マイクロフォンを介して変換された音声信号(第2の音声信号)を入力する。以下、第2音声入力部14によって入力された音声信号を便宜的にアクター1の学習用音声信号と称する。
なお、アクター1の学習用音声信号には、アクター1の音声の特徴を表すパラメータ(特徴量)として、例えば音韻性及び声質等を表現するスペクトル特徴量(スペクトル包絡)と、声の高さ(音高)及び声のかすれ等を表現する基本周波数及び非周期成分とが含まれる。
基本周波数変換部15は、アクター1の学習用音声信号に含まれる基本周波数を固定倍率で変換する。すなわち、本実施形態においては、この基本周波数変換部15により、学習処理の前段でアクター1の学習用音声信号に対して基本周波数変換が実行される。
第2分析処理部16は、基本周波数が固定倍率で変換された後のアクター1の学習用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該アクター1の学習用音声信号からスペクトル特徴量(第2の特徴量)を抽出する。
モデル学習部17は、上述した学習処理を実行する機能部である。モデル学習部17は、第1分析処理部12によって抽出されたスペクトル特徴量(つまり、ターゲット2の音声の特徴量)及び第2分析処理部16によって抽出されたスペクトル特徴量(つまり、アクター1の音声の特徴量)のペアに関する変換規則が統計的にモデル化される。モデル学習部17は、このような学習処理によって得られるモデルデータをデータベース10bに格納(蓄積)する。
図3は、声質変換装置20の機能構成を示すブロック図である。声質変換装置20は、アクター1の声質をターゲット2の声質に変換する機能を有する。
図3に示すように、声質変換装置20は、変換テーブル21、音声入力部22、基本周波数変換部23、分析処理部24、差分推定部25、声質変換部26及び音声出力部27を含む。
本実施形態において、変換テーブル21は、上記した声質学習装置10のデータベース10bをインストールすることによって生成され、当該データベース10bに蓄積されたモデルデータを保持する。なお、変換テーブル21は、例えば声質変換装置20に備えられる記憶装置等に格納される。
また、本実施形態において、音声入力部22、基本周波数変換部23、分析処理部24、差分推定部25、声質変換部26及び音声出力部27は、例えば声質変換装置10に備えられるCPU等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。なお、これらの各部22〜27の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。なお、コンピュータに実行させるプログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、またはネットワークを通じて声質変換装置20にダウンロードされてもよい。
変換処理のために声質変換装置20に対して発せられたアクター1の音声は、例えばマイクロフォンを介してアナログ電気信号に変換される。マイクロフォンを介してアナログ電気信号に変換された音声は、更にA/Dコンバータを通してデジタル電気信号に変換され、音声入力部22によって入力される。以下、音声入力部22によって入力された音声(信号)を便宜的にアクター1の変換用音声信号と称する。なお、音声入力部22は、アクター1の変換用音声信号として上記した音声ファイルを入力してもよい。
アクター1の変換用音声信号には、上記したようにアクター1の音声の特徴を表すパラメータ(特徴量)として、スペクトル特徴量、基本周波数及び非周期成分等が含まれる。
ここで、声質学習装置10内に保持されている固定倍率(つまり、倍率決定部13によって決定された倍率)は、上記したように声質変換装置20内においても保持されているものとする。
基本周波数変換部23は、アクター1の変換用音声信号に含まれる基本周波数を声質変換装置20内で保持されている固定倍率で変換する。すなわち、本実施形態においては、この基本周波数変換部23により、変換処理の前段でアクター1の変換用音声信号に対して基本周波数変換が実行される。
分析処理部24は、基本周波数が固定倍率で変換された後のアクター1の変換用音声信号(に含まれるスペクトル特徴量、基本周波数及び非周期成分)を分析し、当該アクター1の変換用音声信号からスペクトル特徴量(第3の特徴量)を抽出する。
差分推定部25及び声質変換部26は、上述した変換処理を実行する機能部である。
ここで、差分推定部25及び声質変換部26は、変換テーブル21に保持されているモデルデータ及び分析処理部24によって抽出されたスペクトル特徴量に基づく変換処理によって、アクター1の声質がターゲット2の声質に変換された音声信号(第4の音声信号)を生成する。このように生成される音声信号は、アクター1の変換用音声信号に対応するターゲット2の音声信号に相当する。
具体的には、差分推定部25は、変換テーブル21(つまり、モデルデータ)を参照して、分析処理部24によって抽出されたスペクトル特徴量(つまり、アクター1の変換用音声信号に含まれるスペクトル特徴量)と当該アクター1の変換用音声信号に対応するターゲット2の音声信号のスペクトル特徴量との差分(以下、差分特徴量と表記)を推定する。
声質変換部26は、アクター1の変換用音声信号(音声波形)に対して差分推定部25によって推定された差分特徴量を適用する処理(フィルタ処理)を実行する。これにより、音声入力部22によって入力されたアクター1の変換用音声信号において、アクター1の声質をターゲット2の声質に変換することができる。
音声出力部27は、声質変換部26によって声質が変換された音声信号を例えばスピーカ20aを介して出力する。なお、声質変換部26によって性質が変換された音声信号は、上記したように音声ファイルとして出力されてもよい。
以下、本実施形態に係る声質変換システム(声質学習装置10及び声質変換装置20)の動作について説明する。
まず、図4のフローチャートを参照して、声質学習装置10の処理手順について説明する。
図4に示す処理が実行される場合、例えばターゲット2(特定のキャラクタ)が話すことが多い音素(言い回し等)の包含されたテキストが用意される。
ターゲット2(の声を演じる人物等)は、当該ターゲット2の声のイメージを作り、当該イメージに基づいてイントネーション及び音程の変化等を意識して、用意されたテキストに基づいて発声する。なお、ここで用意されているテキストには、例えば50〜100文程度(のセリフ等)が含まれているものとする。
これにより、第1音声入力部11は、ターゲット2の発声に応じて当該ターゲット2(つまり、特定のキャラクタ)の学習用音声信号を入力する(ステップS1)。
第1分析処理部12は、ステップS1において入力されたターゲット2の学習用音声信号からスペクトル特徴量を抽出する(ステップS2)。
次に、アクター1は、上記したテキストに基づくターゲット2による発声と同様のイントネーション及び音程の変化等を真似て当該テキストに基づいて発声する。
これにより、第2音声入力部14は、アクター1の発声に応じて当該アクター1の学習用音声信号(つまり、ステップS1において入力されたターゲット2の学習用音声信号に対応するアクター1の学習用音声信号)を入力する(ステップS3)。
ここで、上記したように声質学習装置10内には、事前処理として倍率決定部13によって決定された基本周波数変換のための倍率(固定倍率)が保持されている。なお、固定倍率は、上記したようにアクター1の音声の周波数帯域の平均値及びターゲット2の音声の周波数帯域の平均値に基づいて決定される。具体的には、例えばアクター1の音声の周波数帯域の平均値が100Hzであり、ターゲット2の音声の周波数帯域の平均値が130Hzである場合には、固定倍率は1.3(130/100)である。ここでは、固定倍率が「ターゲット2の音声の周波数帯域の平均値/アクター1の音声の周波数帯域の平均値」であるものとして説明したが、当該固定倍率は他の手法によって決定されるものであってもよい。なお、アクター1の音声の周波数帯域の平均値及びターゲット2の音声の周波数帯域の平均値は、予め計測されていればよい。
基本周波数変換部15は、上記した固定倍率に基づいて、ステップS3において入力されたアクター1の学習用音声信号に対して基本周波数変換を実行する(ステップS4)。これにより、アクター1の学習用音声信号に含まれる基本周波数が固定倍率で変換される。
第2分析処理部16は、ステップS4において基本周波数が変換された後のアクター1の学習用音声信号からスペクトル特徴量を抽出する(ステップS5)。
モデル学習部17は、上述した学習処理を実行し、ステップS2において抽出されたスペクトル特徴量(ターゲット2の音声のスペクトル特徴量)及びステップS5において抽出されたスペクトル特徴量(アクター1の音声のスペクトル特徴量)間の対応関係をモデル化する(ステップS6)。具体的には、モデル学習部17は、上述したように時間(フレーム)毎に対応付けられたスペクトル特徴量に基づく変換規則を統計的にモデル化(GMMでモデル化)することによってモデルデータを得ることができる。
モデル学習部17によって得られたモデルデータは、データベース10bに蓄積される(ステップS7)。
上記した図4に示す処理によれば、上記したようにアクター1の学習用音声信号に対して固定倍率に基づく基本周波数変換を実行した後で学習処理が実行され、当該学習処理において得られるモデルデータがデータベース10bに蓄積される。
次に、図5のフローチャートを参照して、声質変換装置20の処理手順について説明する。
本実施形態において、声質変換装置20は、例えばテーマパークまたはイベント会場等において着ぐるみを着用したアクター1が特定のキャラクタ(ターゲット2)の声を演じてリアルタイムで観客等と会話(やりとり)を行うような場合に使用される。なお、声質変換装置20は、映像として映し出された特定のキャラクタの声をアクター1が演じるような場合に使用されても構わない。
なお、このアクター1の音声のスペクトル特徴量及びターゲット2(特定のキャラクタ)の音声のスペクトル特徴量間の対応関係がモデル化されることによって得られるモデルデータは、上述した図4に示す処理が実行されることによって声質学習装置10(データベース10b)に蓄積されているものとする。このモデルデータは、当該声質変換装置20にインストールされ、変換テーブル21に保持されているものとする。
アクター1が声質変換装置20を使用する場合、当該アクター1は、上述した図4に示す処理が実行される際に真似た程度のターゲット2のイントネーション及び音程の変化等で発声する(例えば、観客と会話する)。
この場合、音声入力部22は、アクター1の発声に応じて当該アクター1の変換用音声信号を入力する(ステップS11)。
ここで、上記したように声質変換装置10内には、声質学習装置10内に保持されている固定倍率(倍率決定部13によって決定された倍率)と同じ固定倍率が保持されている。
基本周波数変換部15は、声質変換装置10内に保持されている固定倍率に基づいて、ステップS11において入力されたアクター1の変換用音声信号に対して基本周波数変換を実行する(ステップS12)。これにより、アクター1の変換用音声信号に含まれる基本周波数が固定倍率で変換される。
分析処理部24は、ステップS12において基本周波数が変換された後のアクター1の変換用音声信号からスペクトル特徴量を抽出する(ステップS13)。
以下、差分推定部25及び声質変換部26は、上述した変換処理を実行する。具体的には、差分推定部25は、ステップS13において抽出されたスペクトル特徴量(アクター1の音声のスペクトル特徴量)とステップS11において入力されたアクター1の変換用音声信号に対応するターゲット2の音声信号との差分特徴量を、変換テーブル21に保持されているモデルデータ(GMM)に基づいて推定する(ステップS14)。なお、ステップS14における推定処理においては、例えばGMMに対して変数変換を行うことによりアクター1の音声のスペクトル特徴量(ベクトル)と差分特徴量(ベクトル)の結合確率密度をモデル化したGMMを導出し、このように導出されたGMMに基づき差分特徴量を推定するものとする。
次に、声質変換部26は、ステップS13において抽出されたスペクトル特徴量に対して、ステップS14において推定された差分特徴量を合成フィルタにより畳み込む(合成する)ことにより、アクター1の声質がターゲット2の声質に変換された音声信号を生成する(ステップS15)。なお、合成フィルタとしては、音声合成に用いられる例えばMLSA(Mel-Log Spectrum Approximation)フィルタ等を使用することができる。
この声質変換部26によって声質が変換された後の音声信号は、音声出力部27によって出力される(ステップS16)。
上記した図5に示す処理によれば、アクター1の変換用音声信号に対して固定倍率に基づく基本周波数変換を実行した後で変換処理が実行され、当該変換処理によってアクター1の声質をターゲット2の声質にリアルタイムに変換した音声信号を出力することが可能となる。なお、図5に示す処理は、アクター1の音声信号が入力される度に実行される。具体的には、連続的に入力されるアクター1の音声信号を例えば5ms程度の固定長毎に処理することによって、リアルタイムでの声質変換を実現することが可能となる。
上記したように本実施形態において、声質学習装置10は、ターゲット2の学習用音声信号(第1の音声信号)及び当該ターゲット2の学習用音声信号に対応するアクター1の学習用音声信号(第2の音声信号)を入力する。声質学習装置10は、学習処理の前段で、アクター1の学習用音声信号に含まれる基本周波数を所定の倍率(固定倍率)で変換する。また、声質学習装置10は、学習処理として、ターゲット2の学習用音声信号から抽出されたスペクトル特徴量(第1の特徴量)及び基本周波数が変換されたアクター1の学習用音声信号から抽出されたスペクトル特徴量(第2の特徴量)間の対応関係をモデル化することによって得られるモデルデータ(声質変換モデルデータ)をデータベース10bに格納(蓄積)する。
一方、声質変換装置20は、アクター1の変換用音声信号(第3の音声信号)を入力し、変換処理の前段で、当該アクター1の変換用音声信号に含まれる基本周波数を上記した所定の倍率(固定倍率)で変換する。声質変換装置20は、変換処理として、データベース10bに蓄積されたモデルデータ及び基本周波数が変換されたアクター1の変換用音声信号から抽出されたスペクトル特徴量(第3の特徴量)に基づいて、当該アクター1の声質がターゲットの声質に変換された音声信号(第4の音声信号)を生成する。
なお、声質変換装置20による変換処理においては、データベース10bに格納されたモデルデータ及び基本周波数が変換されたアクター1の変換用音声信号から抽出されたスペクトル特徴量に基づいてターゲット2のスペクトル特徴量との差分特徴量が推定され、当該差分特徴量が当該スペクトル特徴量にフィルタとして適用されることによって、アクター1の声質がターゲット2の声質に変換される。
ここで、本実施形態においては、アクター1とターゲット2との音高の差異による影響を低減するために基本周波数変換が学習処理及び変換処理の双方の前段で実行される。すなわち、本実施形態においては、基本周波数変換後のアクター1の音声(信号)で学習処理が実行されるため、変換処理の前段でアクター1の変換用音声信号に対して基本周波数変換が実行された場合であっても、学習処理によって得られたモデルデータに基づいて適切に声質を変換することが可能となる。
本実施形態においては、このような構成により、例えばテーマパークまたはイベント会場等におけるアクター1の発声に基づいて入力された音声信号に応じて、当該アクター1の声質がターゲット2の声質に変換された音声信号をリアルタイムに出力することができるため、例えばアクター1は特定のキャラクタ(ターゲット2)の声を容易に発する(つまり、発声する)ことが可能となる。
また、本実施形態においては比較的簡易な基本周波数変換を使用することができるため、性能の低い電子機器(声質学習装置10及び声質変換装置20)であっても声質変換システムを実現することができる。
なお、本実施形態においては学習処理及び変換処理の双方の前段で実行される基本周波数変換における倍率が固定されていればよいため、当該倍率は適宜変更されても構わない。また、例えば学習処理時にターゲット2及びアクター1の音声信号の基本周波数を常に計測して動的な倍率を決定しておき、変換処理においては、入力されたアクター1の音声信号の基本周波数に応じた倍率で基本周波数が変換されるような構成としてもよい。
また、本実施形態においては、説明の便宜のためにアクター1とターゲット2とが1対1の関係であるものとして説明したが、複数のアクター1の各々の音声(信号)とターゲット2の音声(信号)との特徴量間の対応関係をモデル化したモデルデータ(つまり、アクター1毎のモデルデータ)を蓄積しておくことによって、当該複数のアクター1の各々が同一のキャラクタの声質で発声することが可能となる。これによれば、特定のキャラクタの声を演じるアクター1の交代が容易となることにより各アクター1への身体的負担を軽減することができるとともに、複数のアクター1間の声質の相似度の向上を実現することができる。なお、アクター1毎のモデルデータを蓄積しておく場合には、上述した固定倍率は、当該アクター1毎に決定されるものとする。
また、アクター1の音声(信号)と複数のターゲット2の各々の音声(信号)との特徴量間の対応関係をモデル化したモデルデータ(つまり、ターゲット2毎のモデルデータ)を蓄積しておくことによって、アクター1が所望のターゲット2を選択し、当該選択されたターゲット2の声質に変換された音声信号が出力されるような構成とすることも可能である。
以下、本実施形態に係る声質変換システムの使用態様の例について説明する。本実施形態においては、アクター1の発声に応じて、当該アクター1とは音域の異なるターゲット2の声質の音声信号を出力することができる。このため、例えば女性のアクター1が男性のターゲット2の声質で会話をするようなことが可能となる。また、本実施形態においては、個人の声の音程の差を補うことができるため、アクター1は普段は発声することができないような音域の声を出すことができるようになり、例えばカラオケ等において歌手の声質で歌うことができるとともに、音域の問題も解消することができる。
また、特定のキャラクタ(ターゲット2)の音声を前もって保存しておくことにより、例えば当該特定のキャラクタの声を演じていた人物(声優)が亡くなった後等に、他の人物(アクター1)の音声と蓄積しておいた当該特定キャラクタの音声との特徴量間の対応関係をモデル化したモデルデータを得るような構成とすることも可能である。このような構成によれば、特定のキャラクタの声を演じていた人物が亡くなった後等であっても、他の人物(アクター1)の発声に応じて当該キャラクタが出演するアニメ映画を制作するようなことが可能となる。すなわち、本実施形態に係る声質変換システムは、アニメ映画の制作の時間的制限をなくすといった従来の音声合成とは異なる分野にも適用可能である。
また、例えば声優等の人物(ターゲット2)が、将来声質が変化してしまうこと等に備えて、保険として本実施形態に係る声質変化システムを利用することも考えられる。すなわち、予め声優等の人物の音声を保存しておき、実際に病気、怪我または老化等の原因によって声質が変化した際等に、現在の音声と蓄積しておいた過去の音声との特徴量間の対応関係をモデル化したモデルデータを得るような構成とすることも可能である。このような構成によれば、声質が変化した後であっても、例えば若い時のような過去の音声(声質)でセリフを言うまたは会話をすることが可能となる。この場合、例えば無料または低価格で保険として音声を保存しておくことができ、実際に声質変化システムを利用する際に料金を支払うようなサービスを提供することができる。なお、近年では声が出せなくなった後であっても人工的な音声を発することができるような機器が開発されているため、このような機器を利用すれば、声が出せなくなった後であっても過去の音声で会話をするようなことが可能となる。また、現役の声優が本システムで登場機会が失われるのではとの問題が考えられるが、むしろその声優の声を同時に世界中のあらゆる場所で用いられることとなるため、本人がその場に居なくても提供が可能となり、むしろ利用機会がふえるため、利用に応じて声優本人に印税などの形で使用料が戻ってくるようなビジネスモデルも提供できる。
また、声質変換システムを利用する際にアクター1がモデルデータを登録してない第三者に代えられた場合に警告などを出したり、システムを利用できないようにする等の目的で、予めアクター1の声紋登録を行い、声質変換装置20に音声が入力された際に声紋認証を行い、その声紋がアクター1の声紋と一致しない場合はエラーを表示したり変換を実行しないといった構成にすることも出来る。
同様に、映画またはドラマ等の登場人物(例えば、俳優等)の現在の音声と過去の音声との特徴量間の対応関係をモデル化したモデルデータを蓄積しておくことで、例えば当該映画またはドラマ等の回想シーンにおいては当該回想シーンで描かれる時期の当該人物の声質(つまり、過去の音声)でセリフを話すといった用途に声質変化システムが使用されても構わない。
更に、例えば海外の映画またはドラマ等において日本語の吹き替えが行われる場合に、当該映画またはドラマに実際に出演している俳優の声質で日本語のセリフを話すようにすることも可能である。
上記したように本実施形態に係る声質変換システムは、言語の影響も少ないため、例えば言語的に意味のないキャラクタの発する特殊言語等であっても声質を変換して出力することが可能である。また、本実施形態に係る声質変換システムは、リアルタイム性を活かして様々な用途に用いることが可能であり、例えば上記したカラオケに用いることも可能であるし、機器による音声合成ガイダンスの声質を変換した音声を出力するような用途に用いることも可能である。
また、本実施形態に係る声質変換システムにおいてはGMMに基づく声質変換が採用されるものとして主に説明したが、上述したようにアクター1の音声とターゲット2の音声との特徴量の差分を当該アクター1の音声に合成する(差分スペクトル補正を適用する)ことによってアクター1の声質をターゲット2の声質に変換する手法は例えばGMMではなくニューラルネットワークを用いてモデル化を行う深層学習に基づく声質変換にも適用することができる。このため、本実施形態に係る声質変換システムにおいては、このような深層学習に基づく声質変換が採用されてもよいし、アクター1の音声及びターゲット2の音声を入力して学習を行うものであれば他の声質変換(手法)が採用されても構わない。
なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。
10…声質学習装置、10a…解析エンジン、10b…データベース、11…第1音声入力部(第1の入力手段)、12…第1分析処理部(第1の抽出手段)、13…倍率決定部、14…第2音声入力部(第2の入力手段)、15…基本周波数変換部(第1の変換手段)、16…第2分析処理部(第2の抽出手段)、17…モデル学習部、20…声質変換装置、20a…スピーカ、21…変換テーブル、22…音声入力部(第3の入力手段)、23…基本周波数変換部(第2の変換手段)、24…分析処理部(第3の抽出手段)、25…差分推定部、26…声質変換部、27…音声出力部。

Claims (1)

  1. 声質学習装置及び声質変換装置を備え、アクターの声質をターゲットの声質に変換する声質変換システムにおいて、
    前記声質学習装置は、
    前記ターゲットの第1の音声信号を入力する第1の入力手段と、
    前記入力された第1の音声信号から第1の特徴量を抽出する第1の抽出手段と、
    前記第1の音声信号に対応する前記アクターの第2の音声信号を入力する第2の入力手段と、
    前記入力された第2の音声信号に含まれる基本周波数を所定の倍率で変換する第1の変換手段と、
    前記基本周波数が変換された第2の音声信号から第2の特徴量を抽出する第2の抽出手段と、
    前記抽出された第1の特徴量及び第2の特徴量間の対応関係をモデル化することによって得られるモデルデータを格納するデータベースと
    を含み、
    前記声質変換装置は、
    前記アクターの第3の音声信号を入力する第3の入力手段と、
    前記入力された第3の音声信号に含まれる基本周波数を前記所定の倍率で変換する第2の変換手段と、
    前記基本周波数が変換された第3の音声信号から第3の特徴量を抽出する第3の抽出手段と、
    前記データベースに格納されたモデルデータ及び前記抽出された第3の特徴量に基づいて、前記アクターの声質が前記ターゲットの声質に変換された第4の音声信号を生成する生成手段と、
    前記生成された第4の音声信号を出力する出力手段と
    を含む
    ことを特徴とする声質変換システム。
JP2016133530A 2016-07-05 2016-07-05 声質変換システム Active JP6664670B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016133530A JP6664670B2 (ja) 2016-07-05 2016-07-05 声質変換システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133530A JP6664670B2 (ja) 2016-07-05 2016-07-05 声質変換システム

Publications (2)

Publication Number Publication Date
JP2018005048A JP2018005048A (ja) 2018-01-11
JP6664670B2 true JP6664670B2 (ja) 2020-03-13

Family

ID=60949228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133530A Active JP6664670B2 (ja) 2016-07-05 2016-07-05 声質変換システム

Country Status (1)

Country Link
JP (1) JP6664670B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6876642B2 (ja) * 2018-02-20 2021-05-26 日本電信電話株式会社 音声変換学習装置、音声変換装置、方法、及びプログラム
CN109147804A (zh) 2018-06-05 2019-01-04 安克创新科技股份有限公司 一种基于深度学习的音质特性处理方法及***
JP7309155B2 (ja) * 2019-01-10 2023-07-18 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置及び音声信号処理方法
KR102035448B1 (ko) * 2019-02-08 2019-11-15 세명대학교 산학협력단 음성 악기
JP7334942B2 (ja) * 2019-08-19 2023-08-29 国立大学法人 東京大学 音声変換装置、音声変換方法及び音声変換プログラム
EP4365891A4 (en) 2021-06-29 2024-07-17 Sony Group Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP7069386B1 (ja) * 2021-06-30 2022-05-17 株式会社ドワンゴ 音声変換装置、音声変換方法、プログラム、および記録媒体
JP7503870B1 (ja) 2023-10-12 2024-06-21 ギャラクシー・ネット株式会社 楽曲制作支援プログラム、楽曲制作支援装置、楽曲制作支援方法、及び音楽再生装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3555490B2 (ja) * 1999-03-26 2004-08-18 松下電工株式会社 声質変換システム
JP2008085421A (ja) * 2006-09-26 2008-04-10 Asahi Kasei Corp テレビ電話機、通話方法、プログラム、声質変換・画像編集サービス提供システム、および、サーバ
JP4705203B2 (ja) * 2009-07-06 2011-06-22 パナソニック株式会社 声質変換装置、音高変換装置および声質変換方法

Also Published As

Publication number Publication date
JP2018005048A (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6664670B2 (ja) 声質変換システム
JP4296231B2 (ja) 声質編集装置および声質編集方法
US12027165B2 (en) Computer program, server, terminal, and speech signal processing method
US20160365087A1 (en) High end speech synthesis
KR20150016225A (ko) 타겟 운율 또는 리듬이 있는 노래, 랩 또는 다른 가청 표현으로의 스피치 자동 변환
US10553240B2 (en) Conversation evaluation device and method
JPWO2018084305A1 (ja) 音声合成方法、音声合成装置およびプログラム
CN105957515A (zh) 声音合成方法、声音合成装置和存储声音合成程序的介质
US20220157329A1 (en) Method of converting voice feature of voice
CN112735454A (zh) 音频处理方法、装置、电子设备和可读存储介质
Aryal et al. Articulatory-based conversion of foreign accents with deep neural networks
US20240105160A1 (en) Method and system for generating synthesis voice using style tag represented by natural language
CN114999441A (zh) 虚拟形象生成方法、装置、设备、存储介质以及程序产品
Obin et al. On the generalization of Shannon entropy for speech recognition
WO2023116243A1 (zh) 数据转换方法及计算机存储介质
Aso et al. Speakbysinging: Converting singing voices to speaking voices while retaining voice timbre
JP6424419B2 (ja) 音声制御装置、音声制御方法およびプログラム
CN112164387A (zh) 音频合成方法、装置及电子设备和计算机可读存储介质
Khadka et al. Nepali Text-to-Speech Synthesis using Tacotron2 for Melspectrogram Generation
CN114999440B (zh) 虚拟形象生成方法、装置、设备、存储介质以及程序产品
JPWO2019044534A1 (ja) 情報処理装置、及び情報処理方法
Bous A neural voice transformation framework for modification of pitch and intensity
JP6163454B2 (ja) 音声合成装置、その方法及びプログラム
Wu et al. VStyclone: Real-time Chinese voice style clone
Hinterleitner et al. Speech synthesis

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6664670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250