JP7142333B2 - 多言語テキスト音声合成方法 - Google Patents

多言語テキスト音声合成方法 Download PDF

Info

Publication number
JP7142333B2
JP7142333B2 JP2020538690A JP2020538690A JP7142333B2 JP 7142333 B2 JP7142333 B2 JP 7142333B2 JP 2020538690 A JP2020538690 A JP 2020538690A JP 2020538690 A JP2020538690 A JP 2020538690A JP 7142333 B2 JP7142333 B2 JP 7142333B2
Authority
JP
Japan
Prior art keywords
language
speech
text
data
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020538690A
Other languages
English (en)
Other versions
JP2021511536A (ja
Inventor
テス ギム
ヨングン イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neosapience Inc
Original Assignee
Neosapience Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neosapience Inc filed Critical Neosapience Inc
Priority claimed from PCT/KR2019/000509 external-priority patent/WO2019139428A1/ko
Publication of JP2021511536A publication Critical patent/JP2021511536A/ja
Priority to JP2022121111A priority Critical patent/JP7500020B2/ja
Application granted granted Critical
Publication of JP7142333B2 publication Critical patent/JP7142333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/086Detection of language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Description

特許法第30条第2項適用 2018年10月22日付ウェブサイトの掲載の「Learning pronunciation from a foreign language in speech synthesis networks 」 (https://openreview.net/revisions?id=HkeYCNgooQ)
本開示は、多言語(multilingual)テキスト音声合成(text-to-speech synthesis)方法及びシステムに関するものである。また、第1の言語を使用する話者の声の特性に基づいて、第2の言語のテキストを、その話者の音声に合成する方法及び装置に関するものである。
一般的に、テキスト音声合成(TTS;Text-To-Speech)と呼ばれる音声合成技術は、案内放送、ナビゲーション、AI秘書などのように人の声が必要なアプリケーションにおいて、実際の人の声を事前に録音せずに、必要な音声を再生するために使用される技術である。音声合成の典型的な方法は、音声を音素などの非常に短い単位で予めに切断して格納し、合成する文章を構成する音素を結合して、音声を合成する波形接続型合成方式(concatenative TTS)と、音声的特徴をパラメータで表現し、合成する文章を構成する音声的特徴を表すパラメータを、ボコーダー(vocoder)を利用して文章に対応する音声に合成するパラメトリック合成方式(parametric TTS)がある。
一方、最近では、人工ニューラルネットワーク(artificial neural network)ベースの音声合成方法が活発に研究されており、この音声合成方法によって合成された音声は、従来の方法に比べてはるかに自然な音声的特徴を見せている。しかし、人工ニューラルネットワークベースの音声合成方法で新しい声の音声合成器を実現するためには、その声に対応する多くのデータが必要であり、このデータを利用したニューラルネットワークモデルの再学習が必要になるため、ユーザーの利便性が低下する。
本開示による方法及び装置は、複数の言語に対する入力テキスト(text input)と出力音声(audio output)だけで、エンドツーエンドの(end-to-end)で多言語TTS機械学習モデルを生成することが可能である。また、本開示による方法および装置は、話者の発声特徴、感情的特徴、韻律的特徴を反映して、テキストから音声を合成することができる。
本開示の一実施例に係る多言語(multilingual)テキスト音声合成(text-to-speech synthesis)方法は、第1の言語の学習テキストおよび第1の言語の学習テキストに対応する第1の言語の学習音声データを含む第1の学習データを受信するステップと、第2の言語の学習テキストおよび第2の言語の学習テキストに対応する第2の言語の学習音声データを含む第2の学習データを受信するステップと、第1の学習データおよび第2の学習データに基づいて、第1の言語の音素および第2の言語の音素間の類似性情報を学習して、単一の人工ニューラルネットワークのテキスト音声合成(text-to-speech synthesis)モデルを生成するステップとを含む。
本開示の一実施例に係る多言語テキスト音声合成方法は、第1の言語に対する話者の発声特徴を受信するステップと、第2の言語の入力テキストを受信するステップと、第2の言語の入力テキストおよび第1の言語に対する話者の発声特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写する第2の言語の入力テキストに対する出力音声データを生成するステップとをさらに含む。
本開示の一実施例に係る多言語テキスト音声合成方法の第1の言語に対する話者の発声特徴は、話者が第1の言語で発話した音声データから特徴ベクトルを抽出して生成される。
本開示の一実施例に係る多言語テキスト音声合成方法は、感情的特徴(emotion feature)を受信するステップと、第2の言語の入力テキスト、第1の言語に対する話者の発声特徴および感情的特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写する第2の言語の入力テキストに対する出力音声データを生成するステップとをさらに含む。
本開示の一実施例に係る多言語テキスト音声合成方法は、韻律的特徴(prosody feature)を受信するステップと、第2の言語の入力テキスト、第1の言語に対する話者の発声特徴および韻律的特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写する第2の言語の入力テキストに対する出力音声データを生成するステップとをさらに含む。
本開示の一実施例に係る多言語テキスト音声合成方法の韻律的特徴は、発話速度に関する情報、発音アクセントに関する情報、音高に関する情報および休止区間に関する情報のうち少なくとも1つを含む。
本開示の一実施例に係る多言語テキスト音声合成方法は、第1の言語の入力音声を受信するステップと、第1の言語の入力音声から特徴ベクトルを抽出し、第1の言語に対する話者の発声特徴を生成するステップと、第1の言語の入力音声を第1の言語の入力テキストに変換するステップと、第1の言語の入力テキストを第2の言語の入力テキストに変換するステップと、第2の言語の入力テキストおよび第1の言語に対する話者の発声特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写する第2の言語の入力テキストに対する第2の言語の出力音声データを生成するステップとをさらに含む。
本開示の一実施例に係る多言語テキスト音声合成方法は、G2P(Grapheme-to-phoneme)アルゴリズムを使用して、第1の言語の学習テキストおよび第2の言語の学習テキストを音素シーケンス(phoneme sequence)に変換する。
本開示の一実施例に係る多言語テキスト音声合成方法の単一の人工ニューラルネットワークのテキスト音声合成モデルは、第1の言語の音素と第2の言語の音素間の発音および表記のうち少なくとも1つに対する類似性情報の入力なしに生成される。
また、上述したような多言語テキスト音声合成方法を具現するためのプログラムは、コンピュータ読み取り可能な記録媒体に記録されることができる。
図1は、複数の言語に対して学習された単一の人工ニューラルネットワークのテキスト音声合成モデルを利用して、音声合成器が英語音声を合成するものを示す図である。 図2は、複数の言語に対して学習された単一の人工ニューラルネットワークのテキスト音声合成モデルを利用して、音声合成器が韓国語音声を合成するものを示す図である。 図3は、本開示の一実施例に係る単一の人工ニューラルネットワークのテキスト音声合成モデルを生成する方法を示すフローチャートである。 図4は、本開示の一実施例に係る機械学習部を示す図である。 図5は、本開示の一実施例に係る音声合成器が、第1の言語に対する話者の発声特徴および第2の言語の入力テキストに基づいて、出力音声データを合成するものを示す図である。 図6は、本開示の一実施例に係る音声合成器が、第1の言語に対する話者の発声特徴、第2の言語の入力テキストおよび感情的特徴に基づいて、出力音声データを生成するものを示す図である。 図7は、本開示の一実施例に係る音声合成器が、第1の言語に対する話者の発声特徴、第2の言語の入力テキスト及び韻律的特徴(prosody feature)に基づいて、出力音声データを生成するものを示す図である。 図8は、本開示の一実施例に係る音声翻訳システムの構成を示す図である。 図9は、本開示の一実施例に係る韻律翻訳器の構成を示す図である。 図10は、本開示の一実施例に係る多言語テキスト音声合成器の構成を示す図である。 図11は、IPA(International Phonetic Alphabet)とKoG2P音素の対応関係および英語と韓国語の共通の発音を有する音素の対応関係を示す図である。 図12は、韓国語音素と最も類似している英語の音素を示す表である。 図13は、英語の音素で生成された音声と韓国語の音素で生成された音声の類似性を示すスペクトログラムである。 図14は、TTS機械学習モデルを学習するために使用された英語のデータの時間変化によるcharacter error rate(CER)を示す表である。 図15は、本開示の一実施例に係るテキスト音声合成システムのブロック図である。
開示された実施例の利点および特徴、そしてそれらを達成する方法は、添付の図面と共に後述される実施例を参照すると明確である。しかし、本開示は、以下において開示される実施形態に限定されるものではなく、異なる多様な形態で具現されることができ、単に本実施例は、本開示が完全になるようにし、本開示が属する技術分野において通常の知識を有する者に発明の範疇を完全に知らせるために提供されるだけのものである。
本明細書において使用される用語について簡略に説明し、開示された実施例について具体的に説明する。
本明細書において使用される用語は、本開示での機能を考慮しながら可能な現在広く使用される一般的な用語を選択したが、これは関連分野に携わる技術者の意図または判例、新しい技術の出現などによって異なることができる。また、特定の場合、出願人が任意に選定した用語もあり、この場合は該当する発明の説明部分で詳細にその意味を記載する。したがって、本開示において使用される用語は、単純な用語の名称ではなく、その用語が有する意味と本開示の全般にわたる内容に基づいて定義されるべきである。
本明細書においての単数の表現は、文脈上明らかに単数であるものと特定していない限り、複数の表現を含む。また、複数の表現は、文脈上明らかに複数であるものと特定していない限り、単数の表現を含む。
明細書全体においてある部分がある構成要素を「含む」とするとき、これは特に反対の記載がない限り、他の構成要素を除外するのではなく、他の構成要素をさらに含むことが可能であることを意味する。
また、明細書において使用される「部」という用語は、ソフトウェアまたはハードウェア構成要素を意味し、「部」は、ある役割を遂行する。しかしながら、「部」は、ソフトウェアまたはハードウェアに限定される意味ではない。「部」は、アドレッシングできる格納媒体にあるように構成することもでき、1つまたはそれ以上のプロセッサを再生させるように構成されることもできる。したがって、一例として「部」は、ソフトウェア構成要素、オブジェクト指向ソフトウェア構成要素、クラス構成要素およびタスクの構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイおよび変数を含む。構成要素と「部」の中で提供される機能は、より少数の構成要素および「部」で結合されたり、追加の構成要素と「部」にさらに分離されたりすることができる。
本開示の一実施例によれば、「部」は、プロセッサおよびメモリで具現されることができる。用語「プロセッサ」は、汎用プロセッサ、中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、コントローラ、マイクロコントローラ、状態マシンなどを含むように広く解釈されるべきである。いくつかの環境において「プロセッサ」は、カスタムIC(ASIC)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)などを称することもできる。用語「プロセッサ」は、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサの組み合わせ、DSPコアと結合した1つ以上のマイクロプロセッサの組み合わせ、または任意の他のこのような構成の組み合わせのような処理デバイスの組み合わせを称することもできる。
用語「メモリ」は、電子情報を格納可能な任意の電子コンポーネントを含むように広く解釈されるべきである。用語メモリは、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブル読み出し専用メモリ(PROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM)、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM)、フラッシュメモリ、磁気または光学データ記憶装置、レジスタなどのプロセッサ-読み出し可能媒体の多様なタイプを称することもできる。プロセッサがメモリから情報を読み取りし/したり、メモリに情報を記録することができたりすれば、メモリは、プロセッサと電子通信状態にあると言われる。プロセッサに集積されたメモリは、プロセッサと電子通信状態にある。
本開示において、「第1の言語」は韓国語、日本語、中国語、英語などの多様な国や民族が使用するさまざまな言語のうち1つを示すことができ、「第2の言語」は、第1の言語と異なる国や民族が使用する言語のうち1つを示すことができる。
以下では、添付した図面を参照して、実施例に対して本開示が属する技術分野における通常の知識を有する者が容易に実施できるように詳細に説明する。そして図面で本開示を明確に説明するために説明と関係ない部分は省略する。
図1は、複数の言語に対して学習された単一の人工ニューラルネットワークのテキスト音声合成モデルを利用して、音声合成器(110)が、英語の音声を合成するものを示す図である。図示された例において、単一の人工ニューラルネットワークのテキスト音声合成モデルは、韓国語と英語のデータを一緒に学習したものであることができる。音声合成器(110)は、英語のテキストと韓国人話者の発声特徴を受信することができる。例えば、英語のテキストは「Hello?」であることができ、韓国人話者の発声特徴は、韓国人話者が韓国語で発話した音声データから抽出された特徴ベクトルであることができる。
音声合成器(110)は、受信した英語のテキストと韓国人話者の発声特徴を、単一の人工ニューラルネットワークのテキスト音声合成モデルに入力し、その韓国人話者の音声を模写して、英語で「Hello?」を話す音声を合成して出力することができる。つまり、音声合成器(110)が出力した音声は、その韓国人話者が「Hello?」を英語で発音する音声であることができる。
図2は、複数の言語に対して学習された単一の人工ニューラルネットワークのテキスト音声合成モデルを利用して、音声合成器(210)が韓国語音声を合成するものを示す図である。図示された例において、単一の人工ニューラルネットワークのテキスト音声合成モデルは、韓国語と英語のデータを一緒に学習したものであることができる。音声合成器(210)は、韓国語のテキストとアメリカ人話者の発声特徴を受信することができる。例えば、韓国語のテキストは、「アンニョンハセヨ?」であることができ、アメリカ人話者の発声特徴は、アメリカ人話者が英語で発話した音声データから抽出された特徴ベクトルであることができる。
音声合成器(210)は、受信された韓国語のテキストとアメリカ人話者の発声特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力し、そのアメリカ人話者の音声を模写して、韓国語で「アンニョンハセヨ?」を話す言う声を合成して出力することができる。つまり、音声合成器(210)が出力した音声は、そのアメリカ人話者が「アンニョンハセヨ?」を韓国語で発音する音声であることができる。
図3は、本開示の一実施例に係る単一の人工ニューラルネットワークのテキスト音声合成モデルを生成する方法を示すフローチャートである。多言語(multilingual)テキスト音声合成(text-to-speech synthesis)システムは、第1の言語の学習テキストおよび第1の言語の学習テキストに対応する第1の言語の学習音声データを含む第1の学習データを受信するステップ(310)を遂行することができる。多言語テキスト音声合成システムは、第2の言語の学習テキストおよび第2の言語の学習テキストに対応する第2の言語の学習音声データを含む第2の学習データを受信するステップ(320)を遂行することができる。
多言語テキスト音声合成システムは、第1の学習データおよび第2の学習データに基づいて、第1の言語の音素および第2の言語の音素間の類似性情報を学習し、単一の人工ニューラルネットワークのテキスト音声合成(text-to-speech synthesis)モデルを生成するステップ(330)を遂行することができる。単一の人工ニューラルネットワークのテキスト音声合成モデルを生成する方法に関しては、図4でより詳細に説明する。
図4は、本開示の一実施例に係る機械学習部(420)を示す図である。機械学習部(420)は、図15のデータ学習部(1510)に対応されることができる。機械学習部(420)は、複数の第1の言語の学習データのペア(411)を受信することができる。第1の言語の学習データのペア(411)は、第1の言語の学習テキストおよびその第1の言語の学習テキストに対応する第1の言語の学習音声データを含むことができる。
第1の言語の学習テキストは、少なくとも1つの文字を含むことができ、機械学習部(420)がG2P(Grapheme-to-phoneme)アルゴリズムを使用して、音素シーケンス(phoneme sequence)に変換することができる。第1の言語の学習音声データは、第1の言語の学習テキストを人が読んだ音声を録音したデータ、録音データから抽出されたサウンドフィーチャ(sound feature)やスペクトログラム(spectrogram)などであることができる。第1の学習データは、第1の言語に対する言語識別子または言語情報を含まないことができる。
機械学習部(420)は、複数の第2の言語の学習データのペア(412)を受信することができる。第2の言語の学習データのペア(412)は、第2の言語の学習テキストおよびその第2の言語の学習テキストに対応する第2の言語の学習音声データを含むことができる。第1の言語と第2の言語は、互いに異なる言語であることができる。
第2の言語の学習テキストは、少なくとも1つの文字を含むことができ、機械学習部(420)がG2P(Grapheme-to-phoneme)アルゴリズムを使用して、音素シーケンス(phoneme sequence)に変換することができる。第2の言語の学習音声データは、第2の言語の学習テキストを人が読んだ音声を録音したデータ、録音データから抽出されたサウンドフィーチャ(sound feature)やスペクトログラム(spectrogram)などであることができる。第2の学習データは、第2の言語に対する言語識別子または言語情報を含まないことができる。
機械学習部(420)は、受信された複数の第1の言語の学習データのペア(411)および複数の第2の言語の学習データのペア(412)に基づいて機械学習を遂行し、単一の人工ニューラルネットワークのテキスト音声合成モデル(430)を生成することができる。一実施例において、機械学習部(420)は、第1の言語および第2の言語に関する事前情報なしに、第1の言語の音素および第2の言語の音素間の類似性情報を学習して、単一の人工ニューラルネットワークのテキスト音声合成モデル(430)を生成することができる。例えば、機械学習部(420)は、第1の言語に対する言語識別子、第2の言語に対する言語識別子、第1の言語の音素および第2の言語の音素間の発音に関する類似性情報、第1の言語の音素および第2の言語の音素間の表記に関する類似性情報を受信せずに、複数の第1の言語の学習データのペア(411)及び複数の第2の言語の学習データのペア(412)に基づいて、第1の言語の音素および第2の言語の音素間の類似性情報を学習することによって、単一の人工ニューラルネットワークのテキスト音声合成モデルを生成することができる。
ここで、言語識別子は、韓国語、日本語、中国語、英語などの多様な国や民族が使用するさまざまな言語のうち1つを示す識別子であることができる。また、発音に関する類似性情報は、言語間の類似した発音を有する音素を対応させた情報であることができ、表記に関する類似性情報は、言語間の類似した表記を有する音素を対応させた情報であることができる。類似性情報は、図11及び図12を参照してより詳細に説明する。
従来には、それぞれの言語が互いに異なる発音と表記を有するため、各言語別に学習データを準備して言語別機械学習モデルを生成したり、学習する言語間の類似性情報を事前に準備してこれを学習データと一緒に入力することによって単一の機械学習モデルを生成したりした。本開示の一実施例によれば、学習する言語間の類似性情報なしに、1つの機械学習モデルに多言語(Multi-language)テキスト音声合成(text-to-speech synthesis)モデルを具現することができる。図4では、2つの言語に対して学習データを受信して、単一の人工ニューラルネットワークのテキスト音声合成モデルを生成することが示されているが、これに限定されずに、3つ以上の言語に対しても学習データを受信して、3つ以上の言語に対する単一の人工ニューラルネットワークのテキスト音声合成モデルを生成することもできる。
一実施例において、機械学習部(420)によって生成された単一の人工ニューラルネットワークのテキスト音声合成モデル(430)を利用して、テキストを音声に合成して出力することができる。単一の人工ニューラルネットワークのテキスト音声合成モデル(430)を利用して、テキストを音声に合成して出力する方法に関しては、図5~図7を参照してより詳細に説明する。
図5は、本開示の一実施例に係る音声合成器(520)が、第1の言語に対する話者の発声特徴(511)および第2の言語の入力テキスト(512)に基づいて、出力音声データ(530)を合成するものを示す図である。音声合成器(520)は、図15のデータ認識部(1520)に対応されることができる。音声合成器(520)は、図4の機械学習部(420)によって生成された単一の人工ニューラルネットワークのテキスト音声合成モデルを受信して、出力音声データを合成するのに使用することができる。図示されたように、音声合成器(520)は、第1の言語に対する話者の発声特徴(511)及び第2の言語の入力テキスト(512)を受信することができる。
第1の言語に対する話者の発声特徴(511)は、話者が第1の言語で発話した音声データから特徴ベクトルを抽出して生成されることができる。例えば、話者の発声特徴は、話者の音色や音高などを含むことができる。第2の言語の入力テキスト(512)は、第2の言語から構成されている少なくとも1つの文字を含むことができる。
音声合成器(520)は、第1の言語に対する話者の発声特徴(511)および第2の言語の入力テキスト(512)を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、出力音声データ(530)を生成することができる。出力音声データ(530)は、第2の言語の入力テキスト(512)を音声に合成した音声データであることができ、第1の言語に対する話者の発声特徴(511)が反映されていることができる。つまり、出力音声データ(530)は、第1の言語に対する話者の発声特徴(511)に基づいてその話者の音声を模写することにより、その話者が第2の言語の入力テキスト(512)を話す声に合成されたデータであることができる。一実施例において、出力音声データ(530)は、スピーカーなどで出力されることができる。
図6は、本開示の一実施例に係る音声合成器(620)が、第1の言語に対する話者の発声特徴(611)、第2の言語の入力テキスト(612)および感情的特徴(613)に基づいて、出力音声データ(630)を生成するものを示す図である。音声合成器(620)は、図15のデータ認識部(1520)に対応されることができる。音声合成器(620)は、図4の機械学習部(420)によって生成された単一の人工ニューラルネットワークのテキスト音声合成モデルを受信して、出力音声データ(630)を合成するのに使用することができる。図示されたように、音声合成器(620)は、第1の言語に対する話者の発声特徴(611)、第2の言語の入力テキスト(612)および感情的特徴(613)を受信することができる。第1の言語に対する話者の発声特徴および第2の言語の入力テキストに関しては図5を参照して説明したので、重複する説明は省略する。
一実施例において、感情的特徴(613)は、喜び、悲しみ、怒り、恐怖、信頼、嫌悪、驚き、期待のうち少なくとも1つを表すことができる。他の実施例において、感情的特徴(613)は、音声データから特徴ベクトルを抽出して生成されることができる。音声合成器(620)は、第1の言語に対する話者の発声特徴(611)、第2の言語の入力テキスト(612)及び感情的特徴(613)を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、出力音声データ(630)を生成することができる。
出力音声データ(630)は、第2の言語の入力テキスト(612)を音声に合成した音声データであることができ、第1の言語に対する話者の発声特徴(611)および感情的特徴(613)が反映されていることができる。つまり、出力音声データ(630)は、第1の言語に対する話者の発声特徴(611)に基づいてその話者の音声を模写し、感情的特徴(613)を反映することによって、その話者が入力された感情的特徴(613)で第2の言語の入力テキスト(612)を話す音声に合成されたデータであることができる。例えば、感情的特徴(613)が怒りを表す場合、音声合成器(620)は、その話者が第2の言語の入力テキスト(612)を怒ったように話す出力音声データ(630)を生成することができる。一実施例において、出力音声データ(630)は、スピーカーなどで出力されることができる。
図7は、本開示の一実施例に係る音声合成器(720)が、第1の言語に対する話者の発声特徴(711)、第2の言語の入力テキスト(712)及び韻律的特徴(prosody feature;713)に基づいて、出力音声データ(730)を生成するものを示す図である。音声合成器(720)は、図15のデータ認識部(1520)に対応されることができる。音声合成器(720)は、図4の機械学習部(420)によって生成された単一の人工ニューラルネットワークのテキスト音声合成モデルを受信して、出力音声データ(730)を合成するのに使用することができる。図示されたように、音声合成器(720)は、第1の言語に対する話者の発声特徴(711)、第2の言語の入力テキスト(712)および韻律的特徴(713)を受信することができる。第1の言語に対する話者の発声特徴および第2の言語の入力テキストに関しては図5を参照して説明したので、重複する説明は省略する。
韻律的特徴(713)は、発話速度に関する情報、発音アクセントに関する情報、音高に関する情報および休止区間に関する情報(例えば、区切り読みに関する情報)のうち少なくとも1つを含むことができる。一実施例において、韻律的特徴(713)は、音声データから特徴ベクトルを抽出して生成することができる。音声合成器(720)は、第1の言語に対する話者の発声特徴(711)、第2の言語の入力テキスト(712)および韻律的特徴(713)を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、出力音声データ(730)を生成することができる。
出力音声データ(730)は、第2の言語の入力テキスト(712)を音声に合成した音声データであることができ、発声特徴(711)および韻律的特徴(713)が反映されていることができる。つまり、出力音声データ(730)は、第1の言語に対する話者の発声特徴(711)に基づいてその話者の音声を模写し、韻律的特徴(713)を反映することによって、その話者が入力された韻律的特徴(713)で第2の言語の入力テキスト(712)を話す音声に合成されたデータであることができる。例えば、音声合成器(720)は、その話者が第2の言語の入力テキスト(712)を韻律的特徴(713)に含まれている発話速度、発音アクセント、音高、休止区間(区切り読み)に関する情報に基づいて話す出力音声データ(730)を生成することができる。
図6~図7では、感情的特徴(613)または韻律的特徴(713)を第1の言語に対する話者の発声特徴および第2の言語の入力テキストと一緒に音声合成器に入力するものとして示されているが、これに限定されず、第1の言語に対する話者の発声特徴、感情的特徴、韻律的特徴のうち1つ以上を第2の言語の入力テキストと一緒に入力するものとして音声合成器が構成されることもできる。
図8は、本開示の一実施例に係る音声翻訳システム(800)の構成を示す図である。音声翻訳システム(800)は、音声認識器(810)、機械翻訳器(820)、音声合成器(830)、発声特徴抽出器(840)、感情的特徴抽出器(850)、韻律的特徴抽出器(860)及び韻律翻訳器(prosody translation;870)を含むことができる。音声合成器(830)は、図15のデータ認識部(1520)に対応されることができる。図示されたように、音声翻訳システム(800)は、第1の言語の入力音声を受信することができる。
受信された第1の言語の入力音声は、音声認識器(810)、発声特徴抽出器(840)、感情的特徴抽出器(850)および韻律的特徴抽出器(860)に送信されることができる。音声認識器(810)は、第1の言語の入力音声を受信して、第1の言語の入力テキストに変換することができる。音声翻訳システム(800)に含まれた機械翻訳器(820)は、第1の言語の入力テキストを第2の言語の入力テキストに変換/翻訳して音声合成器(830)に伝達することができる。
発声特徴抽出器(840)は、第1の言語の入力音声から特徴ベクトルを抽出し、第1の言語の入力音声を発話した話者の発声特徴を生成することができる。音声合成器(830)は、第2の言語の入力テキストおよび第1の言語に対する話者の発声特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写する第2の言語の入力テキストに対応する第2の言語の出力音声データを生成することができる。この場合、第2の言語の出力音声は、第1の言語の入力音声を発話した話者の発声特徴を反映して、合成された音声であることができる。
感情的特徴抽出器(850)は、第1の言語の入力音声から感情的特徴を抽出して、音声合成器(830)に伝達することができる。音声合成器(830)は、第2の言語の入力テキスト、第1の言語に対する話者の発声特徴および感情的特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写し、第1の言語の入力音声の感情的特徴が反映された第2の言語の入力テキストに対応する第2の言語の出力音声データを生成することができる。この場合、第2の言語の出力音声は、第1の言語の入力音声を発話した話者の発声特徴および感情的特徴を反映して、合成された音声であることができる。
韻律的特徴抽出器(860)は、第1の言語の入力音声から韻律的特徴を抽出することができる。韻律的特徴抽出器(860)は、抽出された韻律的特徴を韻律翻訳器(870)に伝達して、第1の言語に対する韻律的特徴を第2の言語に対する韻律的特徴に変換することができる。つまり、韻律翻訳器(870)は、第1の言語の入力音声から抽出された韻律的特徴を第2の言語の出力音声に反映できるようにする情報を生成することができる。
音声合成器(830)は、第2の言語の入力テキスト、第1の言語に対する話者の発声特徴および翻訳された韻律的特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写し、第1の言語の入力音声の韻律的特徴が反映された第2の言語の入力テキストに対応する第2の言語の出力音声データを生成することができる。この場合、第2の言語の出力音声は、第1の言語の入力音声を発話した話者の発声特徴および韻律的特徴を反映して合成された音声であることができる。韻律的特徴を反映する場合、第1の言語の入力音声の発話速度、区切り読み、強調などの特徴が第2の言語の出力音声にも適用されることができる。
例えば、ユーザーが第1の言語の入力音声において強調して話した言葉がある場合、韻律翻訳器(870)は、第1の言語の強調された単語に対応する第2の言語の単語を強調するための情報を生成することができる。音声合成器(830)は、韻律翻訳器(870)から受信した情報に基づいて、第1の言語において強調された単語に対応する第2の言語の単語を強調して、音声を生成することができる。
一実施例において、音声合成器(830)は、第2の言語の入力テキスト、第1の言語に対する話者の発声特徴、感情的特徴および翻訳された韻律的特徴を単一の人工ニューラルネットワークのテキスト音声合成モデルに入力して、話者の音声を模写し、第1の言語の入力音声の感情的特徴および韻律的特徴が反映された第2の言語の入力テキストに対応する第2の言語の出力音声データを生成することができる。この場合、第2の言語の出力音声は、第1の言語の入力音声を発話した話者の発声特徴、感情的特徴および韻律的特徴を反映して合成された音声であることができる。
第1の言語の入力音声から話者の特徴を抽出して翻訳された音声を合成するのに利用する場合、その話者の声が予め学習されていない場合でも、話者の声を模写して似た声で、第2の言語の出力音声を生成することができる。また、第1の言語の入力音声から話者の感情的特徴を抽出する場合、その話者の該当の発言に対する感情を模写して、より自然に第2の言語の出力音声を生成することができる。また、第1の言語の入力音声から話者の韻律的特徴を抽出する場合、その話者の該当の発声の韻律を模写して、より自然な第2の言語の出力音声を生成することができる。
図8には、第1の言語の入力音声から発声特徴、感情的特徴および韻律的特徴をすべて抽出して音声を合成することとして示されているが、これに限定されない。他の実施例においては、発声特徴、感情的特徴および韻律的特徴のうち少なくとも1つを他の話者の入力音声から抽出することもできる。例えば、感情的特徴および韻律的特徴は、第1の言語の入力音声から抽出し、発声特徴は、他の入力音声(例えば、有名人の音声)から抽出して、音声を合成することができる。この場合、合成された音声には第1の言語の入力音声を発話した話者の感情と韻律が反映されるが、他の入力音声を発話した話者(例えば、有名人)の声が反映されることができる。
図9は、本開示の一実施例に係る韻律翻訳器(870)の構成を示す図である。図示されたように、韻律翻訳器(870)は、韻律エンコーダ(prosody encoder;910)、アテンション(attention;920)と韻律デコーダ(prosody decoder;930)を含むことができる。韻律エンコーダ(910)は、韻律的特徴抽出器が第1の言語(ソース言語)の入力音声から抽出した第1の言語の韻律的特徴を受信することができる。
受信された第1の韻律的特徴は、韻律エンコーダ(910)、アテンション(920)および韻律デコーダ(930)を経て、第2の言語(翻訳される言語)の韻律的特徴に変換される。一例において、韻律翻訳器(870)は、シーケンスツーシーケンスの学習モデル(seq2seq;sequence-to-sequence model)を利用して学習することによって、ソース言語の韻律的特徴を翻訳される言語の韻律的特徴に変換することができる。つまり、シーケンスツーシーケンスの学習モデルは、RNN(recurrent neural network)に基づいたエンコーダ-デコーダ構造(encoder-decoder architecture)(「Sequence to Sequence Learning with Neural Networks、」Ilya Sutskever、et al.、2014参照)にアテンション構造(attention mechanism)(「Neural Machine Translation by Jointly Learning to Align and Translate、」Dzmitry Bahdanau、at al.、2015および「Effective Approaches to Attention-based Neural Machine Translation、」Minh-Thang Luong、at al.、2015参照)を結合して具現されることができる。
図10は、本開示の一実施例に係る多言語テキスト音声合成器(1000)の構成を示す図である。図示されたように、多言語テキスト音声合成器(1000)は、エンコーダ(1010)、デコーダ(1020)およびボコーダー(1030)を含むことができる。エンコーダ(1010)は、入力テキストを受信することができる。
入力テキストは、複数の言語で構成されていることができ、言語識別子や言語に関する情報を含まないことができる。例えば、入力テキストは、「アンニョンハセヨ」または「How are you?」のような文章を含むことができる。エンコーダ(1010)は、受信された入力テキストを字母単位、文字単位、音素(phoneme)単位に分離することができる。またはエンコーダ(1010)は、字母単位、文字単位、音素(phoneme)単位に分離された入力テキストを受信することができる。
エンコーダ(1010)は、少なくとも1つの埋め込み層(例:EL言語1、EL言語2、...、EL言語N)を含むことができる。エンコーダ(1010)の少なくとも1つの埋め込み層は、字母単位、文字単位、音素(phoneme)単位に分離された入力テキストのそれぞれをテキスト埋め込みベクトルに変換することができる。エンコーダ(1010)は、分離された入力テキストをテキスト埋め込みベクトルに変換するために、すでに学習した機械学習モデルを使用することができる。エンコーダは、機械学習を遂行しながら機械学習モデルを更新することができる。機械学習モデルが更新される場合、分離された入力テキストに対するテキスト埋め込むベクトルも変更されることができる。
エンコーダ(1010)は、テキスト埋め込みベクトルを全結合層(fully-connected layer)で構成されたDNN(Deep Neural Network)モジュールに入力することができる。DNNは、一般的なフィードフォワード層(feedforward layer)または線形層(linear layer)であることができる。
エンコーダ(1010)は、DNNの出力をCNN(convolutional neural network)とRNN(Recurrent Neural Network)のうち少なくとも1つが含まれたモジュールに入力することができる。このとき、CNNとRNNのうち少なくとも1つが含まれたモジュールは、DNNの出力と一緒にデコーダ(1020)の埋め込み層の出力(s)も受信することができる。CNNは、畳み込みカーネル(convolution kernel)サイズによる地域的特性を捕捉することができ、RNNは、長期依存性(long term dependency)を捕捉することができる。CNNとRNNのうち少なくとも1つが含まれたモジュールは、出力としてエンコーダ(1010)の隠れ状態(h)を出力することができる。
デコーダ(1020)の埋め込み層は、エンコーダ(1010)の埋め込み層と類似した演算を遂行することができる。埋め込み層は、話者IDを受信することができる。例えば、話者IDは、ワンホットベクトルであることができる。一実施例において、「トランプ」の話者IDは「1」に、「ムン・ジェイン」の話者IDは「2」に、「オバマ」の話者IDは「3」に指定されることができる。デコーダ(1020)の埋め込み層は、話者IDを話者埋め込みベクトル(s)に変換することができる。デコーダ(1020)は、話者IDを話者埋め込みベクトル(s)に変換するために、すでに学習された機械学習モデルを使用することができる。デコーダ(1020)は、機械学習を遂行しながら機械学習モデルを更新することができる。機械学習モデルが更新される場合、話者IDに対する話者埋め込みベクトル(s)も変更されることができる。
デコーダ(1020)のアテンション(Attention)は、エンコーダ(1010)からエンコーダの隠れ状態(h)を受信することができる。また、デコーダ(1020)のアテンションは、アテンションRNNから情報を受信することができる。アテンションRNNから受信した情報は、デコーダ(1020)が以前の時間-ステップ(time-step)までどの音声を生成したのかに関する情報であることができる。また、デコーダ(1020)のアテンションは、アテンションRNNから受信した情報およびエンコーダの隠れ状態(h)に基づいて、コンテキストベクトル(Ct)を出力することができる。エンコーダの隠れ状態(h)は、音声を生成すべき入力テキストに関する情報であることができる。
コンテキストベクトル(Ct)は、現在の時間-ステップ(time-step)で入力テキストのうちどの部分から音声を生成するかを決定するための情報であることができる。例えば、デコーダ(1020)のアテンションは、音声生成の初期には、テキスト入力の前部分に基づいて音声を生成し、音声が生成されるにつれて、徐々にテキスト入力の後部分に基づいて音声を生成するようにする情報を出力することができる。
図示されたように、デコーダ(1020)は、話者埋め込みベクトル(s)をアテンションRNN、デコーダRNNおよびエンコーダ(1010)のCNNとRNNのうち少なくとも1つが含まれたモジュールに入力して、話者別に異ならせてデコードをするように人工ニューラルネットワークの構造を構成することができる。デコーダ(1020)のRNNは、自動回帰(autoregressive)方式で構成されることができる。つまり、以前の時間-ステップ(time-step)で出力されたrフレームの出力が、今回の時間-ステップの入力として使用されることができる。最初の時間-ステップ(1022)では以前の時間-ステップが存在しないため、ダミーフレームがDNNに入力されることができる。
デコーダ(1022)は、全結合層(fully-connected layer)で構成されたDNNを含むことができる。DNNは、一般的なフィードフォワード層(feedforward layer)または線形層(linear layer)であることができる。また、デコーダ(1022)は、GRUで構成されたアテンションRNNを含むことができる。アテンションRNNは、アテンションで使用される情報を出力する層である。アテンションに関しては、上述したので詳細な説明は省略する。
デコーダ(1020)は、レジデュアル(residual)GRUで構成されたデコーダRNNを含むことができる。デコーダRNNは、アテンションから入力テキストの位置情報を受信することができる。つまり、位置情報は、デコーダ(1020)が入力テキストのどの位置を音声に変換しているかに関する情報であることができる。
デコーダRNNは、アテンションRNNから情報を受信することができる。アテンションRNNから受信した情報は、デコーダが以前の時間-ステップ(time-step)までどの音声を生成したのかに関する情報および今回の時間-ステップで生成しなければならない音声に関する情報であることができる。デコーダRNNは、今まで生成した音声に後続する次の出力音声を生成することができる。出力音声は、メルスペクトログラムの形態を有することができ、r個のフレームで構成されることができる。
テキスト音声合成のために、DNN、アテンションRNNおよびデコーダRNNの動作は、繰り返して遂行されることができる。例えば、最初の時間-ステップ(1022)で取得されたr個のフレームは、次の時間-ステップ(1024)の入力となることができる。また、時間-ステップ(1024)で出力されたr個のフレームは、その次の時間-ステップ(1026)の入力となることができる。
上述したような過程を通じて、テキストのすべての単位に対する音声が生成されることができる。テキスト音声合成システムは、それぞれの時間-ステップごとに出たメルスペクトログラムを時間順に連結(concatenate)して、全体テキストに対するメルスペクトログラムを取得することができる。デコーダ(1020)で生成された全体テキストに対するメルスペクトログラムは、第1のボコーダー(1030)または第2のボコーダー(1040)に出力されることができる。
第1のボコーダー(1030)は、CNNとRNNのうち少なくとも1つが含まれたモジュールとGriffin-Lim復元モジュールを含むことができる。第1のボコーダー(1030)のCNNとRNNのうち少なくとも1つが含まれたモジュールは、エンコーダ(1010)のCNNとRNNのうち少なくとも1つが含まれたモジュールと類似した動作をすることができる。すなわち、第1のボコーダー(1030)のCNNとRNNのうち少なくとも1つが含まれたモジュールは、地域的特性と長期依存性を捕捉することができ、線形-スケールスペクトログラム(linear-scale spectrogram)を出力することができる。第1のボコーダー(1030)は、線形-スケールスペクトログラムに対してGriffin-Limアルゴリズムを適用し、入力テキストに対応する音声信号を話者IDに該当する声に模写して、出力することができる。
第2のボコーダー(1040)は、機械学習モデルに基づいて、メルスペクトログラムから音声信号を取得することができる。機械学習モデルは、メルスペクトログラムから音声信号を予測するネットワークを学習したものであることができる。例えば、機械学習モデルは、WaveNetまたはWaveGlowのようなモデルが使用されることができる。第2のボコーダー(1040)は、第1のボコーダ(1030)の代わりに使用されることができる。
このような人工ニューラルネットワークベースの多言語テキスト音声合成器(1000)は、多国語の学習テキストとそれに対応する学習音声信号のペアで存在する大容量のデータベースを利用して学習される。多言語テキスト音声合成器(1000)は、学習テキストを受信し、出力された音声信号を学習音声信号と比較して、損失関数(loss function)を定義することができる。音声合成器は、損失関数を誤差逆伝播(error back propagation)アルゴリズムを通じて学習して、最終的に任意のテキストを入力したときに必要な音声出力が出る人工ニューラルネットワークを得ることができる。
多言語テキスト音声合成器(1000)は、上述した方法で生成された単一の人工ニューラルネットワークのテキスト音声合成モデルを利用して、特定の話者の声を模写する音声を合成することができる。また、多言語テキスト音声合成器(1000)は、特定の話者の母国語と他の言語の音声も、その話者の声を模写して合成することができる。つまり、多言語テキスト音声合成器(1000)は、第1の言語を駆使する話者が第2の言語を話す音声を合成することができる。例えば、トランプが、入力された韓国語のテキストを韓国語で話すように音声を合成することができる。
図11は、IPA(International Phonetic Alphabet)とKoG2P音素の対応関係および英語と韓国語の共通の発音を有する音素の対応関係を示す。互いに異なる言語の発音は、1つのアルファベット体系であるIPA(International Phonetic Alphabet)によって記述されることができる。互いに異なる言語の発音に対するIPAは、類似性情報として使用されることができる。IPA-CMUdictとIPA-KoG2Pの変換表は、表(1110)の通りである。IPAの側面で第1の言語の音素と第2の言語の音素との間には1対1の対応が成立しないが、第1の言語と第2の言語の共通の発音を有する音素を含む部分集合を選択することができる。例えば、英語と韓国語の共通の発音を有する音素を選択した下位集合は、表(1120)の通りである。
第1の言語と第2の言語は互いに異なる文字体系を有することができ、互いに異なる発音体系を有することができる。同じアルファベット体系であるIPAを利用して第1の言語と第2の言語を表現する場合、それぞれの言語に対して標準化された処理を通じて、音声合成モデルを取得することができる。しかし、IPAは、それぞれの言語を同じアルファベット体系で表現するだけで、互いに異なる言語の発音または表記の類似性を完璧に表すことはできない。例えば、第1の言語に使用されるIPAアルファベットが、第2の言語には全く使用されないことも可能である。音声合成モデルは、第1の言語でのみ使用されるIPAアルファベットを第2の言語のどのIPAアルファベットに対応させるか知ることができないので、IPAを利用する場合、それぞれの言語に特化された音声合成モデルのみ取得されることができる。すなわち、第1の言語に対する音声合成モデルは、第1の言語に関連するデータの処理だけ可能であって、第2の言語に関連するデータは処理できない。逆に第2の言語に対する音声合成モデルは、第2の言語に関連付するデータの処理だけ可能であって、第1の言語に関連するデータは処理できない。
図12は、韓国語音素と最も類似している英語の音素を示す表である。本開示の一実施例に係るテキスト音声合成システムは、機械学習モデルに基づいて、言語のアンカー(anchor)音素に対する音素間のコサイン距離を計算することができる。コサイン距離を計算するために、機械学習モデルに基づいて取得された音素埋め込みベクトルが使用されることができる。音素間のコサイン距離は、音素間の類似度を示すことができる。
計算された音素間のコサイン距離に基づいて、韓国語の音素に対する5つの最も近い英語の音素埋め込みを列挙すると、表(1210)の通りである。英語の音素埋め込みの後に付いた数字0、1および2は、それぞれ「ストレスなし」、「1次ストレス」および「2次ストレス」を示す。CMUdictは強調された発音を区別するのに対し、IPAは強調された発音を区別しないことができる。括弧内の記号はIPA記号である。
表(1210)によれば、本開示の一実施例による機械学習モデルに基づいた、アンカー(anchor)音素に対する5つの最も近い音素埋め込みは、図11の表(1120)と類似していることを確認できる。すなわち、本開示の一実施例による機械学習モデルは、第1の言語の音素および第2の言語の音素間の発音に対する類似性情報または表記に対する類似性情報、第1の言語に対する言語識別子/言語情報、そして第2の言語に対する言語識別子/言語情報が学習時に入力されなくても、言語間の類似する発音または表記を自動的に学習することを確認できる。したがって、本開示の一実施例によるテキスト音声合成システムは、単一の人工ニューラルネットワークのテキスト音声合成モデルに基づいて、学習した複数の言語に対してテキスト音声合成(TTS)を遂行することができる。
図13は、英語の音素で生成された音声と韓国語の音素で生成された音声の類似性を示すスペクトログラムである。スペクトログラム(1310)は、「He has many good friends」という文章を、英語音素シーケンス(HH、IY1、 、HH、AE1、Z、 、M、EH1、N、IY0、 、G、UH1、D、 、F、R、EH1、N、D、Z)で音声を合成した結果である。スペクトログラム(1320)は、同じ文章の英語の音素シーケンス内の各音素を、最も近い韓国語の音素に代替して生成された韓国語の音素シーケンス(h0、wi、 、h0、ya、s0、 、mf、ye、nf、ii、 、kk、yo、tt、 、ph、ks、ye、nf、tt、s0)で音声を合成した結果である。
スペクトログラム(1310)とスペクトログラム(1320)を比較すると、英語の音素シーケンスで音声を合成した結果と韓国語の音素シーケンスで音声を合成した結果が類似することを確認できる。したがって、第1の言語の音素を利用して、第2の言語のテキストを音声に合成しても、高品質の音声合成結果を得ることができることを確認できる。すなわち、第1の言語で発話した話者の発声特徴を利用して、第2の言語のテキストを音声に合成しても、第1の言語が母国語であるその話者が、第2の言語で発話する結果を得ることができる。
図14は、TTS機械学習モデルを学習するのに使用された英語のデータの時間変化によるcharacter error rate(CER)を示す表(1410)である。本例示において、TTS機械学習モデルは、十分な韓国語学習データがある条件で、英語学習データの量を変えながら学習された。表(1410)は、音声合成の品質を数値化するために、テキストから合成された音声出力物を聴取した人が文字で記録し、原本テキストとの結果を比較したエラー率を示す。
表(1410)によれば、英語のテキストと韓国語の話者の発声特徴をTTS機械学習モデルに入力して、その話者の英語のテキストに対応する英語スピーチを合成する場合、使用された英語学習データの時間が増えるほどCERが減少する。つまり、機械学習に使用される英語学習データの時間が増えるほど、韓国語の話者が読んだ英語のテキストのスピーチに対するCERは減少する。
一方、韓国語のテキストと英語の話者の発声特徴をTTS機械学習モデルに入力して、その話者の韓国語のテキストに対応する韓国語スピーチを合成する場合、使用された英語学習データの時間が増えてもCERは大きな差がない。これは、機械学習に使用された韓国語で構成されたデータの量が英語のデータ量より多いため、CERがすでに臨界まで減少した状態を示すものであることができる。テキスト音声合成システムが臨界量以上のデータを利用して機械学習をする場合、CERを十分に減らすことが可能であることを確認できる。また、多量の韓国語学習データと少量の英語学習データを利用してTTSの機械学習モデルを学習させる場合にも、英語のテキストをスピーチに合成した結果物が比較的高い品質で生成されることを確認できる。
本開示によれば、複数の言語に対する入力テキスト(text input)と出力音声(audio output)だけで、エンドツーエンドの(end-to-end)で多言語TTS機械学習モデルを生成することが可能である。また、従来の方式では、互いに異なる言語が1つの言語的特徴のセット(linguistic feature set)で表現するために、IPAのような複数の言語で共通に使用できる表記法を必要としたり、言語間の類似性に関する事前情報を必要としたりした。しかし、本開示によれば、言語的特徴(linguistic feature)が必要ではないため、各言語が異なるアルファベットを使用しても問題がなく、言語間の類似性に関する事前情報も必要としない。
また、本開示は、モデルをエンドツーエンド(end-to-end)で学習させるため、音素の長さ(phoneme duration)などの既存のTTSで必要とした特徴(feature)を別途のモデルを利用して予測する必要がなく、単一のニューラルネットワーク(neural network)モデルでテキスト音声合成(TTS)作業を処理することができる。また、本開示によれば、テキストエンコーダ(Text encoder)でテキストエンコーディング(text encoding)を抽出する過程において、話者ID(speaker ID)の使用の有無に応じて海外同胞の話し方/流暢な話し方を調節することができる。例えば、第1の言語の音声を生成するとき、第2の言語の発音が強い場合には、学習するときにペナルティを与えることができる。ペナルティを適用した機械学習モデルによれば、より第1の言語の発音に近い音声が生成されることができる。
図15は、本開示の一実施例に係るテキスト音声合成システム(1500)のブロック図である。一実施例によるテキスト音声合成システム(1500)は、データ学習部(1510)とデータ認識部(1520)を含むことができる。データ学習部(1510)は、データを入力して機械学習モデルを取得することができる。また、データ認識部(302)は、データを機械学習モデルに適用して、出力音声を生成することができる。上述したようなテキスト音声合成システム(1500)は、プロセッサおよびメモリを含むことができる。
データ学習部(1510)は、テキストに対する音声学習をすることができる。データ学習部(1510)は、テキストに応じてどの音声を出力するかに関する基準を学習することができる。また、データ学習部(1510)は、どの音声の特徴を利用して音声を出力するかに関する基準を学習することができる。音声の特徴は、音素の発音、ユーザーの語調、イントネーションまたはアクセントのうち少なくとも1つを含むことができる。データ学習部(1510)は、学習に利用されるデータを取得し、取得されたデータを後述するデータ学習モデルに適用することによって、テキストに応じた音声を学習することができる。
データ認識部(1520)は、テキストに基づいてテキストに対する音声を出力することができる。データ認識部(1520)は、学習されたデータ学習モデルを利用して、所定のテキストから音声を出力することができる。データ認識部(1520)は、学習による予め設定された基準に基づいて、所定のテキスト(データ)を取得することができる。また、データ認識部(1520)は、取得されたデータを入力値としてデータ学習モデルを利用することによって、所定のデータに基づいた音声を出力することができる。また、取得されたデータを入力値としてデータ学習モデルによって出力された結果値は、データ学習モデルを更新するのに利用されることができる。
データ学習部(1510)またはデータ認識部(1520)のうち少なくとも1つは、少なくとも1つのハードウェアチップ形態に製作されて、電子機器に搭載されることができる。例えば、データ学習部(1510)またはデータ認識部(1520)のうち少なくとも1つは、人工知能(AI;artificial intelligence)のための専用ハードウェアチップの形態に製作されることもでき、または既存の汎用プロセッサ(例:CPUまたはapplication processor)またはグラフィック専用プロセッサ(例:GPU)の一部として製作され、すでに説明した各種の電子機器に搭載されることもできる。
また、データ学習部(1510)およびデータ認識部(1520)は、別々の電子機器にそれぞれ搭載されることもできる。例えば、データ学習部(1510)およびデータ認識部(1520)のうち1つは電子機器に含まれ、残りの1つはサーバーに含まれることができる。また、データ学習部(1510)およびデータ認識部(1520)は、有線または無線を通じて、データ学習部(1510)が構築したモデルの情報をデータ認識部(1520)に提供することもでき、データ認識部(1520)に入力されたデータが追加の学習データとしてデータ学習部(1510)に提供されることもできる。
一方、データ学習部(1510)またはデータ認識部(1520)のうち少なくとも1つは、ソフトウェアモジュールで具現されることができる。データ学習部(1510)およびデータ認識部(1520)のうち少なくとも1つが、ソフトウェアモジュール(または、命令(instruction)を含むプログラムモジュール)で具現される場合、ソフトウェアモジュールは、メモリまたはコンピュータ読み取り可能な非一時的な読み取り可能な記録媒体(non-transitory computer readable media)に格納されることができる。また、この場合、少なくとも1つのソフトウェアモジュールは、OS(Operating System)によって提供されたり、所定のアプリケーションによって提供されたりすることができる。これと異なり、少なくとも1つのソフトウェアモジュールのうち一部はOS(Operating System)によって提供され、残りの一部は所定のアプリケーションによって提供されることができる。
本開示の一実施例によるデータ学習部(1510)は、データ取得部(1511)、前処理部(1512)、学習データ選択部(1513)、モデル学習部(1514)およびモデル評価部(1515)を含むことができる。
データ取得部(1511)は、機械学習に必要なデータを取得することができる。学習のためには多くのデータが必要であるため、データ取得部(1511)は、複数のテキストおよびそれに対応する音声を受信することができる。
前処理部(1512)は、ユーザーの心理状態判断のために取得されたデータが機械学習に使用され得るように、取得されたデータを前処理することができる。前処理部(1512)は、後述するモデル学習部(1514)が利用できるように、取得されたデータを予め設定されたフォーマットに加工することができる。例えば、前処理部(1512)は、テキストおよび音声を形態素解析して形態素埋め込みを取得することができる。
学習データ選択部(1513)は、前処理されたデータの中から学習に必要なデータを選択することができる。選択されたデータは、モデル学習部(1514)に提供されることができる。学習データ選択部(1513)は、既設定された基準に基づいて、前処理されたデータの中から学習に必要なデータを選択することができる。また、学習データ選択部(1513)は、後述するモデル学習部(1514)による学習によって、既設定された基準に基づいてデータを選択することもできる。
モデル学習部(1514)は、学習データに基づいて、テキストに応じてどの音声を出力するかに関する基準を学習することができる。また、モデル学習部(1514)は、テキストに応じて音声を出力する学習モデルを学習データとして利用して学習させることができる。この場合、データ学習モデルは、予め構築されたモデルを含むことができる。例えば、データ学習モデルは、基本学習データ(例えば、サンプルイメージなど)の入力を受けて予め構築されたモデルを含むことができる。
データ学習モデルは、学習モデルの適用分野、学習の目的または装置のコンピュータ性能などを考慮して構築されることができる。データ学習モデルは、例えば、ニューラルネットワーク(Neural Network)をベースにするモデルを含むことができる。例えば、ディープニューラルネットワーク(DNN;Deep Neural Network)、回帰型ニューラルネットワーク(RNN;Recurrent Neural Network)、長・短期記憶モデル(LSTM;Long Short-Term Memory models)、双方向性回帰型ディープニューラルネットワーク(BRDNN;Bidirectional Recurrent Deep Neural Network)、畳み込みニューラルネットワーク(CNN;Convolutional Neural Networks)などのようなモデルがデータ学習モデルとして使用されることができるが、これに限定されない。
多様な実施例によれば、モデル学習部(1514)は、予め構築されたデータ学習モデルが複数個存在する場合、入力された学習データと基本学習データの関連性が大きいデータ学習モデルを学習するデータ学習モデルとして決定することができる。この場合、基本学習データは、データのタイプ別に既分類されていることができ、データ学習モデルは、データのタイプ別に予め構築されていることができる。例えば、基本学習データは、学習データが生成された地域、学習データが生成された時間、学習データの大きさ、学習データのジャンル、学習データの生成者、学習データ内のオブジェクトの種類などのような多様な基準で既分類されていることができる。
また、モデル学習部(1514)は、例えば、誤差逆伝播法(error back-propagation)または最急降下法(gradient descent)を含む学習アルゴリズムなどを利用して、データ学習モデルを学習させることができる。
また、モデル学習部(1514)は、例えば、学習データを入力値とする教師あり学習(supervised learning)を通じて、データ学習モデルを学習することができる。
また、モデル学習部(1514)は、例えば、別途のガイドなしに、状況判断のために必要なデータの種類を自分で学習することによって状況判断のための基準を発見する教師なし学習(unsupervised learning)を通じて、データ学習モデルを学習することができる。また、モデル学習部(1514)は、例えば、学習による状況判断の結果が正しいかに対するフィードバックを利用する強化学習(reinforcement learning)を通じて、データ学習モデルを学習することができる。
また、データ学習モデルが学習されると、モデル学習部(1514)は、学習されたデータ学習モデルを格納することができる。この場合、モデル学習部(1514)は、学習されたデータ学習モデルを、データ認識部(1520)を含む電子機器のメモリに格納することができる。また、モデル学習部(1514)は、学習されたデータ学習モデルを電子機器と有線または無線ネットワークで接続されるサーバーのメモリに格納することもできる。
この場合、学習されたデータ学習モデルが格納されるメモリは、例えば、電子機器の少なくとも1つの他の構成要素に関係された命令またはデータを一緒に格納することもできる。さらに、メモリは、ソフトウェアおよび/またはプログラムを格納することもできる。プログラムは、例えば、カーネル、ミドルウェア、アプリケーションプログラミングインターフェース(API)および/またはアプリケーションプログラム(または「アプリケーション」)などを含むことができる。
モデル評価部(1515)は、データ学習モデルに評価データを入力し、評価データから出力される結果が所定の基準を満たさない場合、モデル学習部(1514)が再学習するようにすることができる。この場合、評価データは、データ学習モデルを評価するための既設定されたデータを含むことができる。
例えば、モデル評価部(1515)は、評価データに対する学習されたデータ学習モデルの結果の中で、認識結果が正確でない評価データの数または比率が予め設定されたしきい値を超える場合、所定の基準を満たさないものと評価することができる。例えば、所定の基準が比率2%で定義される場合において、学習されたデータ学習モデルが総1000個の評価データの中で20個を超える評価データに対して誤った認識結果を出力する場合、モデル評価部(1515)は、学習されたデータ学習モデルが適していないものであると評価することができる。
一方、学習されたデータ学習モデルが複数個存在する場合、モデル評価部(1515)は、それぞれの学習された動画学習モデルに対して所定の基準を満たすかを評価し、所定の基準を満足するモデルを最終データ学習モデルとして決定することができる。この場合、所定の基準を満たすモデルが複数個である場合、モデル評価部(1515)は、評価点数の高い順に予め設定されたある1つまたは所定個数のモデルを最終データ学習モデルとして決定することができる。
一方、データ学習部(1510)内のデータ取得部(1511)、前処理部(1512)は、学習データ選択部(1513)、モデル学習部(1514)またはモデル評価部(1515)のうち少なくとも1つは、少なくとも1つのハードウェアチップ形態に製作されて、電子機器に搭載されることができる。例えば、データ取得部(1511)、前処理部(1512)、学習データ選択部(1513)、モデル学習部(1514)またはモデル評価部(1515)のうち少なくとも1つは、人工知能(AI;artificial intelligence)のための専用ハードウェアチップの形態に製作されることもでき、または既存の汎用プロセッサ(例:CPUまたはapplication processor)またはグラフィック専用プロセッサ(例:GPU)の一部として製作され、前述した各種の電子機器に搭載されることもできる。
また、データ取得部(1511)、前処理部(1512)、学習データ選択部(1513)、モデル学習部(1514)およびモデル評価部(1515)は、1つの電子機器に搭載されることもでき、または別の電子機器にそれぞれ搭載されることもできる。例えば、データ取得部(1511)、前処理部(1512)、学習データ選択部(1513)、モデル学習部(1514)およびモデル評価部(1515)のうち一部は電子機器に含まれ、残りの一部はサーバーに含まれることができる。
また、データ取得部(1511)、前処理部(1512)、学習データ選択部(1513)、モデル学習部(1514)またはモデル評価部(1515)のうち少なくとも1つは、ソフトウェアモジュールで具現されることができる。データ取得部(1511)、前処理部(1512)、学習データ選択部(1513)、モデル学習部(1514)またはモデル評価部(1515)のうち少なくとも1つがソフトウェアモジュール(または、命令(instruction)を含むプログラムモジュール)で具現される場合、ソフトウェアモジュールは、コンピュータ読み取り可能な非一時的な読み取り可能な記録媒体(non-transitory computer readable media)に格納されることができる。また、この場合、少なくとも1つのソフトウェアモジュールは、OS(Operating System)によって提供されたり、所定のアプリケーションによって提供されたりすることができる。これと異なり、少なくとも1つのソフトウェアモジュールのうち一部はOS(Operating System)によって提供され、残りの一部は所定のアプリケーションによって提供されることができる。
本開示の一実施例によるデータ認識部(1520)は、データ取得部(1521)、前処理部(1522)、認識データ選択部(1523)、認識結果提供部(1524)およびモデル更新部(1525)を含むことができる。
データ取得部(1521)は、音声を出力するために必要なテキストを取得することができる。逆に、データ取得部(1521)は、テキストを出力するために必要な音声を取得することができる。前処理部(1522)は、音声またはテキストを出力するために取得されたデータが使用され得るように、取得されたデータを前処理することができる。前処理部(1522)は、後述する認識結果提供部(1524)が音声またはテキストを出力するために取得されたデータを利用できるように、取得されたデータを既設定されたフォーマットに加工することができる。
認識データ選択部(1523)は、前処理されたデータの中から音声またはテキストを出力するために必要なデータを選択することができる。選択されたデータは、認識結果提供部(1524)に提供されることができる。認識データ選択部(1523)は、音声またはテキストを出力するための既設定された基準に基づいて、前処理されたデータの中から一部または全部を選択することができる。また、認識データ選択部(1523)は、モデル学習部(1514)による学習によって、既設定された基準に基づいてデータを選択することもできる。
認識結果提供部(1524)は、選択されたデータをデータ学習モデルに適用して、音声またはテキストを出力することができる。認識結果提供部(1524)は、認識データ選択部(1523)によって選択されたデータを入力値として利用することにより、選択されたデータをデータ学習モデルに適用することができる。また、認識結果は、データ学習モデルによって決定されることができる。
モデル更新部(1525)は、認識結果提供部(1524)によって提供される認識結果に対する評価に基づいて、データ学習モデルが更新されるようにすることができる。例えば、モデル更新部(1525)は、認識結果提供部(1524)によって提供される認識結果をモデル学習部(1514)に提供することにより、モデル学習部(1514)がデータ学習モデルを更新するようにすることができる。
一方、データ認識部(1520)内のデータ取得部(1521)、前処理部(1522)、認識データ選択部(1523)、認識結果提供部(1524)またはモデル更新部(1525)のうち少なくとも1つは、少なくとも1つのハードウェアチップの形態に製作されて、電子機器に搭載されることができる。例えば、データ取得部(1521)、前処理部(1522)、認識データ選択部(1523)、認識結果提供部(1524)またはモデル更新部(1525)のうち少なくとも1つは、人工知能(AI;artificial intelligence)のための専用ハードウェアチップの形態に製作されることもでき、または既存の汎用プロセッサ(例:CPUまたはapplication processor)またはグラフィック専用プロセッサ(例:GPU)の一部として製作され、前述した各種の電子機器に搭載されることもできる。
また、データ取得部(1521)、前処理部(1522)、認識データ選択部(1523)、認識結果提供部(1524)およびモデル更新部(1525)は、1つの電子機器に搭載されることもでき、または別の電子機器にそれぞれ搭載されることもできる。例えば、データ取得部(1521)、前処理部(1522)、認識データ選択部(1523)、認識結果提供部(1524)およびモデル更新部(1525)のうち一部は電子機器に含まれ、残りの一部はサーバーに含まれることができる。
また、データ取得部(1521)、前処理部(1522)、認識データ選択部(1523)、認識結果提供部(1524)またはモデル更新部(1525)のうち少なくとも1つは、ソフトウェアモジュールで具現されることができる。データ取得部(1521)、前処理部(1522)、認識データ選択部(1523)、認識結果提供部(1524)またはモデル更新部(1525)のうち少なくとも1つが、ソフトウェアモジュール(または、命令(instruction)を含むプログラムモジュール)で具現される場合、ソフトウェアモジュールは、コンピュータ読み取り可能な非一時的な読み取り可能な記録媒体(non-transitory computer readable media)に格納されることができる。また、この場合、少なくとも1つのソフトウェアモジュールは、OS(Operating System)によって提供されたり、所定のアプリケーションによって提供されたりすることができる。これと異なり、少なくとも1つのソフトウェアモジュールのうち一部はOS(Operating System)によって提供され、残りの一部は所定のアプリケーションによって提供されることができる。
これまでに多様な実施例を中心に説明した。本発明が属する技術分野において通常の知識を有する者は、本発明が、本発明の本質的な特性から逸脱しない範囲で変形された形態で具現され得ることを理解できるであろう。したがって、開示された実施例は、限定的な観点ではなく、説明的な観点から考慮されるべきである。本発明の範囲は、前述した説明ではなく、特許請求の範囲に示されており、それと同等の範囲内にあるすべての違いは、本発明に含まれるものと解釈されるべきである。
一方、上述した本発明の実施例は、コンピュータで実行され得るプログラムで作成可能であり、コンピュータ読み取り可能な記録媒体を利用してプログラムを動作させる汎用デジタルコンピュータで具現されることができる。コンピュータ読み取り可能な記録媒体は、磁気記録媒体(例えば、ロム、フロッピーディスク、ハードディスクなど)、光学的読み取り媒体(例えば、CD-ROM、DVDなど)のような記憶媒体を含む。

Claims (10)

  1. システムのプロセッサにより遂行される多言語(multilingual)テキスト音声合成(text-to-speech synthesis)モデルを生成する方法であって、
    第1の言語の学習テキスト、前記第1の言語の学習テキストに対応する第1の言語の学習音声データ、および、前記第1の言語の学習音声データに関連する第1話者識別子を含む第1の学習データを受信するステップと、
    第2の言語の学習テキスト、前記第2の言語の学習テキストに対応する第2の言語の学習音声データ、および、前記第2の言語の学習音声データに関連する第2話者識別子を含む第2の学習データを受信するステップと、
    前記第1の学習データおよび前記第2の学習データに基づいて、前記第1の言語の音素および前記第2の言語の音素間の類似性情報を学習して、入力テキストの言語と異なる言語に関連する話者の音声を模写する音声データを出力する単一の人工ニューラルネットワークの多言語テキスト音声合成(text-to-speech synthesis)モデルを生成するステップとを含む、多言語テキスト音声合成モデルを生成する方法。
  2. 前記第1の言語の学習テキストおよび前記第2の言語の学習テキストは、字母単位、文字単位、または音素単位に分離された複数のテキスト埋め込みベクトルを含む、請求項1に記載の多言語テキスト音声合成モデルを生成する方法。
  3. 前記単一の人工ニューラルネットワークの多言語テキスト音声合成モデルは、前記第1の言語の音素および前記第2の言語の音素間の発音および表記のうち少なくとも1つに対する類似性情報の入力なしに生成される、請求項1に記載の多言語テキスト音声合成モデルを生成する方法。
  4. システムのプロセッサにより遂行される多言語テキスト音声合成方法であって、
    第1の言語に対する話者の発声特徴を受信するステップと、
    第2の言語の入力テキストを受信するステップと、
    前記第2の言語の入力テキストおよび前記第1の言語に対する話者の発声特徴を単一の人工ニューラルネットワークの多言語テキスト音声合成モデルに入力して、前記話者の音声を模写する前記第2の言語の入力テキストに対する出力音声データを生成するステップとを含み、
    前記単一の人工ニューラルネットワークの多言語テキスト音声合成モデルは、
    第1の言語に対する第1の学習データおよび第2の言語に対する第2の学習データに基づいて、前記第1の言語の音素および前記第2の言語の音素間の類似性情報を学習することによって生成されるモデルであり、
    前記第1の言語に対する第1の学習データは、第1の言語の学習テキスト、前記第1の言語の学習テキストに対応する第1の言語の学習音声データ、および、前記第1の言語の学習音声データに関連する第1話者識別子を含み、
    前記第2の言語に対する第2の学習データは、第2の言語の学習テキスト、前記第2の言語の学習テキストに対応する第2の言語の学習音声データ、および、前記第2の言語の学習音声データに関連する第2話者識別子を含む、多言語テキスト音声合成方法。
  5. 感情的特徴(emotion feature)を受信するステップと、
    前記第2の言語の入力テキスト、前記第1の言語に対する話者の発声特徴および前記感情的特徴を前記単一の人工ニューラルネットワークの多言語テキスト音声合成モデルに入力して、前記話者の音声を模写する前記第2の言語の入力テキストに対する出力音声データを生成するステップとをさらに含む、請求項4に記載の多言語テキスト音声合成方法。
  6. 韻律的特徴(prosody feature)を受信するステップと、
    前記第2の言語の入力テキスト、前記第1の言語に対する話者の発声特徴および前記韻律的特徴を前記単一の人工ニューラルネットワークの多言語テキスト音声合成モデルに入力して、前記話者の音声を模写する前記第2の言語の入力テキストに対する出力音声データを生成するステップとをさらに含む、請求項4に記載の多言語テキスト音声合成方法。
  7. 前記韻律的特徴は、発話速度に関する情報、発音アクセントに関する情報、音高に関する情報および休止区間に関する情報のうち少なくとも1つを含む、請求項6に記載の多言語テキスト音声合成方法。
  8. 前記第1の言語に対する話者の発声特徴を受信するステップは、
    第1の言語の入力音声を受信するステップと、
    前記第1の言語の入力音声から特徴ベクトルを抽出し、前記第1の言語に対する話者の発声特徴を生成するステップとを含み、
    前記第2の言語の入力テキストを受信するステップは、
    前記第1の言語の入力音声を第1の言語の入力テキストに変換するステップと、
    前記第1の言語の入力テキストを第2の言語の入力テキストに変換するステップとを含む、請求項4に記載の多言語テキスト音声合成方法。
  9. システムのプロセッサにより遂行される多言語テキスト音声合成方法であって、
    第1の言語に対する第1者識別子を受信するステップと、
    第2の言語の入力テキストを受信するステップと、
    前記第2の言語の入力テキストおよび前記第1の言語に対する第1者識別子を単一の人工ニューラルネットワークの多言語テキスト音声合成モデルに入力して、前記第1話者識別子対応する話者の音声を模写する前記第2の言語の入力テキストに対する出力音声データを生成するステップとを含み、
    前記単一の人工ニューラルネットワークの多言語テキスト音声合成モデルは、
    第1の言語に対する第1の学習データおよび第2の言語に対する第2の学習データに基づいて、前記第1の言語の音素および前記第2の言語の音素間の類似性情報を学習することによって生成されるモデルであり、
    前記第1の言語に対する第1の学習データは、第1の言語の学習テキスト、前記第1の言語の学習テキストに対応する第1の言語の学習音声データ、および、前記第1の言語の学習音声データに関連する前記第1話者識別子を含み、
    前記第2の言語に対する第2の学習データは、第2の言語の学習テキスト、前記第2の言語の学習テキストに対応する第2の言語の学習音声データ、および、前記第2の言語の学習音声データに関連する第2話者識別子を含む、多言語テキスト音声合成方法。
  10. 請求項1~9の何れかの方法によるそれぞれのステップを遂行する命令語を含むプログラムが記録された、コンピュータ読み取り可能な記憶媒体。
JP2020538690A 2018-01-11 2019-01-11 多言語テキスト音声合成方法 Active JP7142333B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022121111A JP7500020B2 (ja) 2018-01-11 2022-07-29 多言語テキスト音声合成方法

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
KR10-2018-0004047 2018-01-11
KR20180004047 2018-01-11
KR20180036377 2018-03-29
KR10-2018-0036377 2018-03-29
PCT/KR2019/000509 WO2019139428A1 (ko) 2018-01-11 2019-01-11 다중 언어 텍스트-음성 합성 방법
KR1020190003979A KR102199067B1 (ko) 2018-01-11 2019-01-11 다중 언어 텍스트-음성 합성 방법
KR10-2019-0003979 2019-01-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022121111A Division JP7500020B2 (ja) 2018-01-11 2022-07-29 多言語テキスト音声合成方法

Publications (2)

Publication Number Publication Date
JP2021511536A JP2021511536A (ja) 2021-05-06
JP7142333B2 true JP7142333B2 (ja) 2022-09-27

Family

ID=67511992

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2020538690A Active JP7142333B2 (ja) 2018-01-11 2019-01-11 多言語テキスト音声合成方法
JP2020538666A Active JP7178028B2 (ja) 2018-01-11 2019-01-11 多言語テキスト音声合成モデルを利用した音声翻訳方法およびシステム
JP2022121111A Active JP7500020B2 (ja) 2018-01-11 2022-07-29 多言語テキスト音声合成方法
JP2022134206A Active JP7445267B2 (ja) 2018-01-11 2022-08-25 多言語テキスト音声合成モデルを利用した音声翻訳方法およびシステム

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2020538666A Active JP7178028B2 (ja) 2018-01-11 2019-01-11 多言語テキスト音声合成モデルを利用した音声翻訳方法およびシステム
JP2022121111A Active JP7500020B2 (ja) 2018-01-11 2022-07-29 多言語テキスト音声合成方法
JP2022134206A Active JP7445267B2 (ja) 2018-01-11 2022-08-25 多言語テキスト音声合成モデルを利用した音声翻訳方法およびシステム

Country Status (5)

Country Link
US (4) US11217224B2 (ja)
EP (2) EP3739476A4 (ja)
JP (4) JP7142333B2 (ja)
KR (4) KR102199050B1 (ja)
CN (2) CN111566656B (ja)

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7142333B2 (ja) 2018-01-11 2022-09-27 ネオサピエンス株式会社 多言語テキスト音声合成方法
US11138392B2 (en) 2018-07-26 2021-10-05 Google Llc Machine translation using neural network models
KR102109858B1 (ko) * 2018-10-05 2020-05-12 동아대학교 산학협력단 자모 및 음절 임베딩 결합을 이용하는 한국어 형태소 분석을 위한 장치 및 방법
KR102109866B1 (ko) * 2018-10-05 2020-05-12 동아대학교 산학협력단 합성곱 신경망에 의한 발화 임베딩을 사용한 유사도 측정 기반의 채팅 말뭉치 확장을 위한 장치 및 방법
KR102109860B1 (ko) * 2018-10-05 2020-05-12 동아대학교 산학협력단 학습 데이터 확장을 통한 딥러닝 기반 인과관계 추출을 위한 장치 및 방법
WO2020076325A1 (en) * 2018-10-11 2020-04-16 Google Llc Speech generation using crosslingual phoneme mapping
JP6737320B2 (ja) 2018-11-06 2020-08-05 ヤマハ株式会社 音響処理方法、音響処理システムおよびプログラム
JP6747489B2 (ja) 2018-11-06 2020-08-26 ヤマハ株式会社 情報処理方法、情報処理システムおよびプログラム
KR102129575B1 (ko) * 2018-11-13 2020-07-02 주식회사 솔트룩스 단어 교정 시스템
KR102149917B1 (ko) * 2018-12-13 2020-08-31 줌인터넷 주식회사 스팸 문구가 포함된 스팸뉴스 탐지를 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102107502B1 (ko) * 2018-12-13 2020-05-07 줌인터넷 주식회사 거짓된 기사 제목이 포함된 스팸뉴스 탐지를 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102179025B1 (ko) * 2018-12-14 2020-11-16 (주)이스트소프트 문서의 컨텍스트 이상문장 검출장치, 이를 위한 방법 및 이 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102168504B1 (ko) * 2018-12-26 2020-10-21 주식회사 와이즈넛 텍스트 문서에서 각 문장 간의 일관성 분석 장치 및 그 방법
KR102259703B1 (ko) * 2018-12-27 2021-06-02 (주)아크릴 자연어 문장에 대한 의미 요소 관계 시각화 방법 및 이를 이용한 장치
US11854538B1 (en) * 2019-02-15 2023-12-26 Amazon Technologies, Inc. Sentiment detection in audio data
KR102203895B1 (ko) * 2019-02-20 2021-01-15 성균관대학교산학협력단 임베딩 기반의 인과 관계 탐지 시스템과 방법 및 이를 실행하기 위한 프로그램이 기록된 기록매체
EP3935635A4 (en) * 2019-03-06 2023-01-11 Syncwords LLC SYSTEM AND METHOD FOR SIMULTANEOUS MULTILINGUAL DUBBING OF AUDIO-VIDEO PROGRAMS
WO2020236990A1 (en) * 2019-05-23 2020-11-26 Google Llc Variational embedding capacity in expressive end-to-end speech synthesis
EP3966804A1 (en) * 2019-05-31 2022-03-16 Google LLC Multilingual speech synthesis and cross-language voice cloning
CN112185337B (zh) * 2019-07-02 2024-04-26 微软技术许可有限责任公司 多语言神经文本到语音合成
KR102315068B1 (ko) * 2019-07-08 2021-10-20 네이버 주식회사 문서 검색 품질 향상을 위한 문서 일관성 판단 방법 및 시스템
US11475223B2 (en) * 2019-07-30 2022-10-18 Adobe Inc. Converting tone of digital content
US11620978B2 (en) 2019-08-14 2023-04-04 Electronics And Telecommunications Research Institute Automatic interpretation apparatus and method
KR102457822B1 (ko) * 2019-08-14 2022-10-24 한국전자통신연구원 자동 통역 장치 및 그 방법
KR102321789B1 (ko) * 2019-08-28 2021-11-05 엘지전자 주식회사 감정 정보 기반의 음성 합성 방법 및 장치
US11551675B2 (en) 2019-09-03 2023-01-10 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device thereof
JP7262142B2 (ja) 2019-09-18 2023-04-21 ヨプ リ,ジョン 複数の音声システムが装着されたオンラインメディアサービス具現方法
KR102111360B1 (ko) * 2019-09-18 2020-05-18 이종엽 다중 음성시스템이 장착된 온라인미디어 서비스 구현 방법
KR102281600B1 (ko) * 2019-09-19 2021-07-29 엘지전자 주식회사 합성 음성에 대한 보정을 수행하는 인공 지능 장치 및 그 방법
KR102637341B1 (ko) 2019-10-15 2024-02-16 삼성전자주식회사 음성 생성 방법 및 장치
KR102369923B1 (ko) * 2019-10-30 2022-03-04 주식회사 솔트룩스 음성 합성 시스템 및 이의 방법
KR20210158382A (ko) * 2019-11-28 2021-12-30 주식회사 엘솔루 음성인식을 위한 전자장치와 그 데이터 처리 방법
US20210224679A1 (en) * 2020-01-22 2021-07-22 Accenture Global Solutions Limited Utilizing natural language processing similarity matching to determine whether a problem requires quantum computing or classical computing
CN111353258A (zh) * 2020-02-10 2020-06-30 厦门快商通科技股份有限公司 基于编码解码神经网络的回声抑制方法及音频装置及设备
US11562744B1 (en) * 2020-02-13 2023-01-24 Meta Platforms Technologies, Llc Stylizing text-to-speech (TTS) voice response for assistant systems
CN113470615B (zh) * 2020-03-13 2024-03-12 微软技术许可有限责任公司 跨讲话者风格转移语音合成
US11222620B2 (en) 2020-05-07 2022-01-11 Google Llc Speech recognition using unspoken text and speech synthesis
CN112767910B (zh) * 2020-05-13 2024-06-18 腾讯科技(深圳)有限公司 音频信息合成方法、装置、计算机可读介质及电子设备
KR20210144975A (ko) * 2020-05-21 2021-12-01 삼성전자주식회사 텍스트 시퀀스를 번역하는 전자 장치 및 그 동작 방법
KR20210150842A (ko) * 2020-06-04 2021-12-13 삼성전자주식회사 음성 또는 문자를 번역하는 전자 장치 및 그 방법
JP7192834B2 (ja) * 2020-08-05 2022-12-20 ヤマハ株式会社 情報処理方法、情報処理システムおよびプログラム
US11514888B2 (en) * 2020-08-13 2022-11-29 Google Llc Two-level speech prosody transfer
US11335321B2 (en) * 2020-08-28 2022-05-17 Google Llc Building a text-to-speech system from a small amount of speech data
WO2022054994A1 (ko) * 2020-09-11 2022-03-17 서울대학교산학협력단 비화자 요소에 강인한 화자 임베딩 추출 방법 및 장치, 그리고 이를 위한 기록매체
CN112259072A (zh) * 2020-09-25 2021-01-22 北京百度网讯科技有限公司 语音转换方法、装置和电子设备
KR102392904B1 (ko) * 2020-09-25 2022-05-02 주식회사 딥브레인에이아이 텍스트 기반의 음성 합성 방법 및 장치
CN112270168B (zh) * 2020-10-14 2023-11-24 北京百度网讯科技有限公司 对白情感风格预测方法、装置、电子设备及存储介质
CN116457871A (zh) * 2020-10-21 2023-07-18 谷歌有限责任公司 使用语音识别改进跨语言语音合成
CN112289299B (zh) * 2020-10-21 2024-05-14 北京大米科技有限公司 语音合成模型的训练方法、装置、存储介质以及电子设备
US20220310058A1 (en) * 2020-11-03 2022-09-29 Microsoft Technology Licensing, Llc Controlled training and use of text-to-speech models and personalized model generated voices
CN112365881A (zh) 2020-11-11 2021-02-12 北京百度网讯科技有限公司 语音合成方法及对应模型的训练方法、装置、设备与介质
CN112435650B (zh) * 2020-11-11 2022-04-15 四川长虹电器股份有限公司 一种多说话人、多语言的语音合成方法及***
EP4030421A4 (en) * 2020-11-18 2023-07-12 Minds Lab Inc. METHOD FOR CONVERTING A VOCAL CHARACTERISTIC OF THE VOICE
WO2022115803A1 (en) * 2020-11-30 2022-06-02 The Regents Of The University Of California Systems and methods for sound-enhanced meeting platforms
KR102590540B1 (ko) * 2020-11-30 2023-10-18 주식회사 마음에이아이 인공 신경망 학습 방법과 이를 이용한 발음 평가 방법
CN112669841A (zh) * 2020-12-18 2021-04-16 平安科技(深圳)有限公司 多语种语音的生成模型的训练方法、装置及计算机设备
US11594226B2 (en) * 2020-12-22 2023-02-28 International Business Machines Corporation Automatic synthesis of translated speech using speaker-specific phonemes
CN112652294B (zh) * 2020-12-25 2023-10-24 深圳追一科技有限公司 语音合成方法、装置、计算机设备和存储介质
CN112750419B (zh) * 2020-12-31 2024-02-13 科大讯飞股份有限公司 一种语音合成方法、装置、电子设备和存储介质
CN112863483B (zh) * 2021-01-05 2022-11-08 杭州一知智能科技有限公司 支持多说话人风格、语言切换且韵律可控的语音合成装置
US11676571B2 (en) * 2021-01-21 2023-06-13 Qualcomm Incorporated Synthesized speech generation
KR102585795B1 (ko) * 2021-01-29 2023-10-05 이은영 멀티미디어 제공 애플리케이션을 통한 다언어 번역 제공 방법
KR102526391B1 (ko) 2021-02-02 2023-05-11 주식회사 휴텍씨 분배모델을 기반으로 통역서비스를 제공하기 위한 시스템
CN112927676A (zh) * 2021-02-07 2021-06-08 北京有竹居网络技术有限公司 一种语音信息的获取方法、装置、设备和存储介质
CN112992117B (zh) * 2021-02-26 2023-05-26 平安科技(深圳)有限公司 多语言语音模型生成方法、装置、计算机设备及存储介质
CN112988965B (zh) * 2021-03-01 2022-03-08 腾讯科技(深圳)有限公司 文本数据处理方法、装置、存储介质及计算机设备
CN115294955A (zh) * 2021-04-19 2022-11-04 北京猎户星空科技有限公司 一种模型训练和语音合成方法、装置、设备及介质
KR102267422B1 (ko) * 2021-04-20 2021-06-18 최인환 증시 관련 국제 뉴스 큐레이션 서비스 제공 방법, 장치 및 시스템
CN113241074A (zh) * 2021-04-28 2021-08-10 平安科技(深圳)有限公司 多语言转译模型的训练方法、装置、设备及可读存储介质
CN113343716B (zh) * 2021-05-20 2022-09-30 北京三快在线科技有限公司 一种多语种翻译方法、装置、存储介质及设备
TWI760234B (zh) 2021-05-25 2022-04-01 仁寶電腦工業股份有限公司 翻譯方法
CN113436606B (zh) * 2021-05-31 2022-03-22 引智科技(深圳)有限公司 一种原声语音翻译方法
CN113488020B (zh) * 2021-07-02 2024-04-12 科大讯飞股份有限公司 语音合成方法和相关设备、装置、介质
CN113409761B (zh) * 2021-07-12 2022-11-01 上海喜马拉雅科技有限公司 语音合成方法、装置、电子设备以及计算机可读存储介质
KR102402884B1 (ko) * 2021-07-20 2022-05-30 (주)아몬드미디어 자동번역 기반 글로벌 온라인 커뮤니티 서비스 제공 시스템
CN113314097B (zh) * 2021-07-30 2021-11-02 腾讯科技(深圳)有限公司 语音合成方法、语音合成模型处理方法、装置和电子设备
KR20230023226A (ko) * 2021-08-10 2023-02-17 우순조 확장 키보드를 이용한 다국어 통합 서비스 장치 및 방법
CN113808571B (zh) * 2021-08-17 2022-05-27 北京百度网讯科技有限公司 语音合成方法、装置、电子设备以及存储介质
CN113838452B (zh) * 2021-08-17 2022-08-23 北京百度网讯科技有限公司 语音合成方法、装置、设备和计算机存储介质
CN113808572B (zh) 2021-08-18 2022-06-17 北京百度网讯科技有限公司 语音合成方法、装置、电子设备和存储介质
EP4332960A1 (en) * 2021-10-15 2024-03-06 Samsung Electronics Co., Ltd. Electronic device and control method thereof
KR20230075998A (ko) * 2021-11-23 2023-05-31 네이버 주식회사 텍스트 기반 아바타 생성 방법 및 시스템
CN113920989B (zh) * 2021-12-13 2022-04-01 中国科学院自动化研究所 一种语音识别与语音翻译端到端***及设备
EP4266306A1 (en) * 2022-04-22 2023-10-25 Papercup Technologies Limited A speech processing system and a method of processing a speech signal
CN115064177A (zh) * 2022-06-14 2022-09-16 中国第一汽车股份有限公司 基于声纹编码器的语音转换方法、装置、设备及介质
JP7179216B1 (ja) * 2022-07-29 2022-11-28 株式会社ドワンゴ 声質変換装置、声質変換方法、声質変換ニューラルネットワーク、プログラム、および記録媒体
WO2024038975A1 (ko) * 2022-08-16 2024-02-22 주식회사 딥브레인에이아이 발화 비디오 제공 장치 및 방법
KR20240023963A (ko) * 2022-08-16 2024-02-23 주식회사 딥브레인에이아이 발화 비디오 제공 장치 및 방법
KR102565458B1 (ko) * 2022-09-05 2023-08-11 (주)허드슨에이아이 신경망 기반 음소 번역 시스템
KR20240040387A (ko) * 2022-09-21 2024-03-28 삼성전자주식회사 전자 장치 및 그 오디오 트랙 획득 방법
CN116841523B (zh) * 2023-07-19 2023-12-22 上海海启科技有限公司 一种基于人工智能的在线编程方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287444A (ja) 2003-03-24 2004-10-14 Microsoft Corp 多言語テキスト音声変換システムのためのフロントエンドアーキテクチャ
US20150186359A1 (en) 2013-12-30 2015-07-02 Google Inc. Multilingual prosody generation
JP2017032839A (ja) 2015-08-04 2017-02-09 日本電信電話株式会社 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム
WO2017168870A1 (ja) 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5130815A (en) 1990-07-20 1992-07-14 Mti Associates Method and apparatus for encoding a video signal having multi-language capabilities
SE9600959L (sv) * 1996-03-13 1997-09-14 Telia Ab Metod och anordning vid tal-till-talöversättning
KR100275446B1 (ko) 1998-09-19 2000-12-15 이계철 음소 인식률을 이용한 기본 음소 설정 방법
US6813607B1 (en) 2000-01-31 2004-11-02 International Business Machines Corporation Translingual visual speech synthesis
US7136802B2 (en) * 2002-01-16 2006-11-14 Intel Corporation Method and apparatus for detecting prosodic phrase break in a text to speech (TTS) system
KR20040055417A (ko) * 2002-12-21 2004-06-26 한국전자통신연구원 대화체 연속음성인식 장치 및 방법
JP2006189544A (ja) * 2005-01-05 2006-07-20 Matsushita Electric Ind Co Ltd 通訳装置、通訳方法、通訳プログラムを記録した記録媒体、および通訳プログラム
CN101359473A (zh) * 2007-07-30 2009-02-04 国际商业机器公司 自动进行语音转换的方法和装置
US8244534B2 (en) 2007-08-20 2012-08-14 Microsoft Corporation HMM-based bilingual (Mandarin-English) TTS techniques
KR101300839B1 (ko) * 2007-12-18 2013-09-10 삼성전자주식회사 음성 검색어 확장 방법 및 시스템
KR20100030265A (ko) * 2008-09-10 2010-03-18 (주)에이치씨아이랩 네비게이션 단말에서 목적지 검색을 위한 대화형 음성 인터페이스 장치 및 그 방법
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
US8155961B2 (en) 2008-12-09 2012-04-10 Nokia Corporation Adaptation of automatic speech recognition acoustic models
KR20100068965A (ko) 2008-12-15 2010-06-24 한국전자통신연구원 자동 통역 장치 및 그 방법
JP5457706B2 (ja) 2009-03-30 2014-04-02 株式会社東芝 音声モデル生成装置、音声合成装置、音声モデル生成プログラム、音声合成プログラム、音声モデル生成方法および音声合成方法
US8825485B2 (en) * 2009-06-10 2014-09-02 Kabushiki Kaisha Toshiba Text to speech method and system converting acoustic units to speech vectors using language dependent weights for a selected language
US20110238407A1 (en) * 2009-08-31 2011-09-29 O3 Technologies, Llc Systems and methods for speech-to-speech translation
GB2478314B (en) * 2010-03-02 2012-09-12 Toshiba Res Europ Ltd A speech processor, a speech processing method and a method of training a speech processor
TWI413105B (zh) * 2010-12-30 2013-10-21 Ind Tech Res Inst 多語言之文字轉語音合成系統與方法
US8594993B2 (en) * 2011-04-04 2013-11-26 Microsoft Corporation Frame mapping approach for cross-lingual voice transformation
US8849628B2 (en) * 2011-04-15 2014-09-30 Andrew Nelthropp Lauder Software application for ranking language translations and methods of use thereof
US9922641B1 (en) * 2012-10-01 2018-03-20 Google Llc Cross-lingual speaker adaptation for multi-lingual speech synthesis
US9311913B2 (en) * 2013-02-05 2016-04-12 Nuance Communications, Inc. Accuracy of text-to-speech synthesis
WO2014141054A1 (en) * 2013-03-11 2014-09-18 Video Dubber Ltd. Method, apparatus and system for regenerating voice intonation in automatically dubbed videos
KR20140120560A (ko) * 2013-04-03 2014-10-14 삼성전자주식회사 통역 장치 제어 방법, 통역 서버의 제어 방법, 통역 시스템의 제어 방법 및 사용자 단말
US9613620B2 (en) * 2014-07-03 2017-04-04 Google Inc. Methods and systems for voice conversion
US9542927B2 (en) * 2014-11-13 2017-01-10 Google Inc. Method and system for building text-to-speech voice from diverse recordings
KR102385851B1 (ko) * 2015-05-26 2022-04-13 주식회사 케이티 음성 인식 및 번역 시스템,방법 및 컴퓨터 프로그램
US9865251B2 (en) * 2015-07-21 2018-01-09 Asustek Computer Inc. Text-to-speech method and multi-lingual speech synthesizer using the method
KR102525209B1 (ko) * 2016-03-03 2023-04-25 한국전자통신연구원 원시 발화자의 목소리와 유사한 특성을 갖는 합성음을 생성하는 자동 통역 시스템 및 그 동작 방법
KR102565274B1 (ko) * 2016-07-07 2023-08-09 삼성전자주식회사 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치
US11514885B2 (en) * 2016-11-21 2022-11-29 Microsoft Technology Licensing, Llc Automatic dubbing method and apparatus
WO2018151125A1 (ja) * 2017-02-15 2018-08-23 日本電信電話株式会社 単語ベクトル化モデル学習装置、単語ベクトル化装置、音声合成装置、それらの方法、及びプログラム
US10692494B2 (en) * 2017-05-10 2020-06-23 Sattam Dasgupta Application-independent content translation
US20190095430A1 (en) * 2017-09-25 2019-03-28 Google Inc. Speech translation device and associated method
US10225621B1 (en) * 2017-12-20 2019-03-05 Dish Network L.L.C. Eyes free entertainment
JP7142333B2 (ja) * 2018-01-11 2022-09-27 ネオサピエンス株式会社 多言語テキスト音声合成方法
GB201804073D0 (en) * 2018-03-14 2018-04-25 Papercup Tech Limited A speech processing system and a method of processing a speech signal
JP6902759B2 (ja) 2019-08-20 2021-07-14 株式会社エーアイ 音響モデル学習装置、音声合成装置、方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287444A (ja) 2003-03-24 2004-10-14 Microsoft Corp 多言語テキスト音声変換システムのためのフロントエンドアーキテクチャ
US20150186359A1 (en) 2013-12-30 2015-07-02 Google Inc. Multilingual prosody generation
JP2017032839A (ja) 2015-08-04 2017-02-09 日本電信電話株式会社 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム
WO2017168870A1 (ja) 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置及び情報処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Huaiping Ming et al.,A Light-weight Method of Building an LSTM-RNN-based Bilingual TTS System,International Conference on Asian Language Processing (IALP),IEEE,2017年12月05日,pp.201-204,入手元 IEL Online (IEEE Xplore)
Yuxuan Wang,Tacotron:Towards End-to-End Speech Synthesis,INTERSPEECH 2017,2017年,https://arxiv.org/pdf/1703.10135.pdf

Also Published As

Publication number Publication date
CN111566656B (zh) 2024-02-20
JP2021511534A (ja) 2021-05-06
JP2022169714A (ja) 2022-11-09
US20240013771A1 (en) 2024-01-11
KR20200143659A (ko) 2020-12-24
EP3739476A1 (en) 2020-11-18
KR102199050B1 (ko) 2021-01-06
JP7445267B2 (ja) 2024-03-07
JP7178028B2 (ja) 2022-11-25
JP2021511536A (ja) 2021-05-06
CN111566655B (zh) 2024-02-06
KR20190085879A (ko) 2019-07-19
JP7500020B2 (ja) 2024-06-17
US20200082806A1 (en) 2020-03-12
KR102265972B1 (ko) 2021-06-16
US11217224B2 (en) 2022-01-04
KR102199067B1 (ko) 2021-01-06
CN111566656A (zh) 2020-08-21
US11810548B2 (en) 2023-11-07
EP3739476A4 (en) 2021-12-08
EP3739477A4 (en) 2021-10-27
CN111566655A (zh) 2020-08-21
US20200342852A1 (en) 2020-10-29
KR102246943B1 (ko) 2021-04-30
KR20200144521A (ko) 2020-12-29
US20220084500A1 (en) 2022-03-17
US11769483B2 (en) 2023-09-26
EP3739477A1 (en) 2020-11-18
KR20190085883A (ko) 2019-07-19
JP2022153569A (ja) 2022-10-12

Similar Documents

Publication Publication Date Title
JP7142333B2 (ja) 多言語テキスト音声合成方法
US11929059B2 (en) Method, device, and computer readable storage medium for text-to-speech synthesis using machine learning on basis of sequential prosody feature
JP7082357B2 (ja) 機械学習を利用したテキスト音声合成方法、装置およびコンピュータ読み取り可能な記憶媒体
US11990118B2 (en) Text-to-speech (TTS) processing
US20230043916A1 (en) Text-to-speech processing using input voice characteristic data
CN108899009B (zh) 一种基于音素的中文语音合成***
US11763797B2 (en) Text-to-speech (TTS) processing
KR20230043084A (ko) 순차적 운율 특징을 기초로 기계학습을 이용한 텍스트-음성 합성 방법, 장치 및 컴퓨터 판독가능한 저장매체
CN113628609A (zh) 自动音频内容生成
KUMAR A STUDY ON MULTI-LINGUAL AND CROSS-LINGUAL SPEECH SYNTHESIS FOR INDIAN LANGAUGES
Samsudin et al. Constructing a Reusable Linguistic Resource for a Polyglot Speech Synthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200710

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A801

Effective date: 20200710

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220729

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220809

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7142333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150