JP2022153600A - 音声合成方法、装置、電子機器及び記憶媒体 - Google Patents
音声合成方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022153600A JP2022153600A JP2022123043A JP2022123043A JP2022153600A JP 2022153600 A JP2022153600 A JP 2022153600A JP 2022123043 A JP2022123043 A JP 2022123043A JP 2022123043 A JP2022123043 A JP 2022123043A JP 2022153600 A JP2022153600 A JP 2022153600A
- Authority
- JP
- Japan
- Prior art keywords
- text
- feature
- target
- features
- acoustic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 33
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 63
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 63
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000004590 computer program Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 19
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 description 10
- 238000013507 mapping Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Document Processing Apparatus (AREA)
- Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
Abstract
Description
前記特徴予測層が、前記合成対象のテキストと前記音声特徴に基づいて、前記第1の音響的特徴を取得し、
前記第1の特徴抽出層が、前記ターゲットテンプレートオーディオの前記第2の音響的特徴を抽出し、
前記第2の特徴抽出層が、前記合成対象のテキストの前記テキスト特徴を抽出し、
前記特徴結合層が、前記第1の音響的特徴、前記第2の音響的特徴を結合し、前記ターゲット音響的特徴を生成し、前記テキスト特徴、前記音色特徴及び前記ターゲット音響的特徴を結合し、前記第2の結合特徴を生成し、
前記音声合成層が、前記第2の結合特徴に基づいて、前記ターゲット音声を合成する。
Claims (23)
- 音声合成方法であって、
合成対象のテキスト及びターゲットユーザの音声特徴を取得し、前記合成対象のテキストと前記音声特徴に基づいて、予測された第1の音響的特徴を取得するステップと、
前記合成対象のテキストに基づいて、テンプレートオーディオライブラリからターゲットテンプレートオーディオを取得し、前記ターゲットテンプレートオーディオの第2の音響的特徴を抽出するステップと、
前記第1の音響的特徴と前記第2の音響的特徴を結合し、ターゲット音響的特徴を生成するステップと、
前記ターゲット音響的特徴と前記音声特徴に基づいて、前記合成対象のテキストに対して音声合成を行って、前記合成対象のテキストのターゲット音声を生成するステップと、を含む、
ことを特徴とする音声合成方法。 - 前記第1の音響的特徴と前記第2の音響的特徴を結合し、ターゲット音響的特徴を生成するステップは、
前記ターゲットテンプレートオーディオに対応するターゲットテンプレートテキストを取得するステップと、
前記合成対象のテキストと前記ターゲットテンプレートテキストとの重複テキスト及び差分テキストを取得するステップと、
前記第1の音響的特徴から前記差分テキストに対応するターゲット第1の音響的特徴を抽出し、前記第2の音響的特徴から前記重複テキストに対応するターゲット第2の音響的特徴を抽出するステップと、
前記ターゲット第1の音響的特徴と前記ターゲット第2の音響的特徴を結合し、前記ターゲット音響的特徴を生成するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1の音響的特徴から前記差分テキストに対応するターゲット第1の音響的特徴を抽出するステップは、
前記合成対象のテキストにおける前記差分テキストの第1の開始位置と第1の終了位置を取得するステップと、
前記第1の開始位置から前記第1の終了位置までの間に対応する音響的特徴を前記第1の音響的特徴から抽出し、抽出された前記音響的特徴を前記ターゲット第1の音響的特徴とするステップと、を含み、
前記第2の音響的特徴から前記重複テキストに対応するターゲット第2の音響的特徴を抽出するステップは、
前記ターゲットテンプレートテキストにおける前記重複テキストの第2の開始位置及び第2の終了位置を取得するステップと、
前記第2の開始位置から前記第2の終了位置までの間に対応する音響的特徴を前記第2の音響的特徴から抽出し、抽出された前記音響的特徴を前記ターゲット第2の音響的特徴とするステップと、を含む、
ことを特徴とする請求項2に記載の方法。 - 前記ターゲットユーザの音声特徴を取得するステップは、
前記ターゲットユーザの識別情報を取得するステップと、
前記識別情報に基づいて、前記ターゲットユーザの音声特徴を取得するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記音声特徴はスタイル特徴と音色特徴を含み、
前記合成対象のテキストと前記音声特徴に基づいて、予測された第1の音響的特徴を取得するステップは、
前記合成対象のテキストと前記スタイル特徴に基づいて、前記第1の音響的特徴を取得するステップを含む、
ことを特徴とする請求項4に記載の方法。 - 前記合成対象のテキストと前記スタイル特徴に基づいて、前記第1の音響的特徴を取得するステップは、
前記合成対象のテキストに対してベクトル化処理を行い、ベクトル特徴を取得するステップと、
前記ベクトル特徴に対して畳み込み処理と双方向時間ループ処理を順次行い、前記合成対象のテキストのテキスト特徴を取得するステップと、
前記テキスト特徴と前記スタイル特徴を結合し、第1の結合特徴を取得するステップと、
前記第1の結合特徴に対して畳み込み処理、双方向時間ループ処理及び線形処理を順次行い、前記第1の音響的特徴を取得するステップと、を含む、
ことを特徴とする請求項5に記載の方法。 - 前記ターゲット音響的特徴と前記音声特徴に基づいて、前記合成対象のテキストに対して音声合成を行って、前記合成対象のテキストのターゲット音声を生成するステップは、
前記合成対象のテキストのテキスト特徴、前記音色特徴及び前記ターゲット音響的特徴を結合し、第2の結合特徴を生成するステップと、
前記第2の結合特徴に基づいて前記ターゲット音声を合成するステップと、を含む、
ことを特徴とする請求項5に記載の方法。 - 前記合成対象のテキスト、前記ターゲットテンプレートオーディオ及び前記音声特徴をターゲット音声合成モデルに入力するステップであって、前記ターゲット音声合成モデルが、特徴予測層、第1の特徴抽出層、第2の特徴抽出層、特徴結合層及び音声合成層を含むステップと、
前記特徴予測層が前記合成対象のテキストと前記音声特徴に基づいて、前記第1の音響的特徴を取得するステップと、
前記第1の特徴抽出層が前記ターゲットテンプレートオーディオの前記第2の音響的特徴を抽出するステップと、
前記第2の特徴抽出層が前記合成対象のテキストの前記テキスト特徴を抽出するステップと、
前記特徴結合層が前記第1の音響的特徴、前記第2の音響的特徴を結合し、前記ターゲット音響的特徴を生成し、前記テキスト特徴、前記音色特徴及び前記ターゲット音響的特徴を結合し、前記第2の結合特徴を生成するステップと、
前記音声合成層が前記第2の結合特徴に基づいて前記ターゲット音声を合成するステップと、をさらに含む、
ことを特徴とする請求項7に記載の方法。 - 前記合成対象のテキストに基づいて、テンプレートオーディオライブラリからターゲットテンプレートオーディオを取得するステップは、
前記テンプレートオーディオライブラリにおけるテンプレートオーディオに対応するテンプレートテキストを取得するステップと、
前記合成対象のテキストと前記テンプレートテキストとの類似度を取得するステップと、
類似度の最も高い前記テンプレートテキストに対応する前記テンプレートオーディオを前記ターゲットテンプレートオーディオとするステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記音響的特徴は、基本周波数特徴、エネルギー特徴、時間特徴のうちの少なくとも1つを含む、
ことを特徴とする請求項1に記載の方法。 - 音声合成装置であって、
合成対象のテキスト及びターゲットユーザの音声特徴を取得し、前記合成対象のテキストと前記音声特徴に基づいて、予測された第1の音響的特徴を取得する予測モジュールと、
前記合成対象のテキストに基づいて、テンプレートオーディオライブラリからターゲットテンプレートオーディオを取得し、前記ターゲットテンプレートオーディオの第2の音響的特徴を抽出する抽出モジュールと、
前記第1の音響的特徴と前記第2の音響的特徴を結合し、ターゲット音響的特徴を生成する結合モジュールと、
前記ターゲット音響的特徴と前記音声特徴に基づいて、前記合成対象のテキストに対して音声合成を行って、前記合成対象のテキストのターゲット音声を生成する合成モジュールと、を含む、
ことを特徴とする音声合成装置。 - 前記結合モジュールは、
前記ターゲットテンプレートオーディオに対応するターゲットテンプレートテキストを取得する第1の取得ユニットと、
前記合成対象のテキストと前記ターゲットテンプレートテキストとの重複テキスト及び差分テキストを取得する第2の取得ユニットと、
前記第1の音響的特徴から前記差分テキストに対応するターゲット第1の音響的特徴を抽出し、前記第2の音響的特徴から前記重複テキストに対応するターゲット第2の音響的特徴を抽出する抽出ユニットと、
前記ターゲット第1の音響的特徴と前記ターゲット第2の音響的特徴を結合し、前記ターゲット音響的特徴を生成する結合ユニットと、を含む、
ことを特徴とする請求項11に記載の装置。 - 前記抽出ユニットは、さらに、
前記合成対象のテキストにおける前記差分テキストの第1の開始位置と第1の終了位置を取得し、
前記第1の開始位置から前記第1の終了位置までの間に対応する音響的特徴を前記第1の音響的特徴から抽出し、抽出された前記音響的特徴を前記ターゲット第1の音響的特徴とし、
前記抽出ユニットは、さらに、
前記ターゲットテンプレートテキストにおける前記重複テキストの第2の開始位置及び第2の終了位置を取得し、
前記第2の開始位置から前記第2の終了位置までの間に対応する音響的特徴を前記第2の音響的特徴から抽出し、抽出された前記音響的特徴を前記ターゲット第2の音響的特徴とする、
ことを特徴とする請求項12に記載の装置。 - 前記予測モジュールは、さらに、
前記ターゲットユーザの識別情報を取得し、
前記識別情報に基づいて、前記ターゲットユーザの音声特徴を取得する、
ことを特徴とする請求項11~13のいずれか一項に記載の装置。 - 前記音声特徴はスタイル特徴と音色特徴を含み、
前記予測モジュールは、さらに
前記合成対象のテキストと前記スタイル特徴に基づいて、前記第1の音響的特徴を取得する、
ことを特徴とする請求項14に記載の装置。 - 前記予測モジュールは、さらに、
前記合成対象のテキストに対してベクトル化処理を行い、ベクトル特徴を取得し、
前記ベクトル特徴に対して畳み込み処理と双方向時間ループ処理を順次行い、前記合成対象のテキストのテキスト特徴を取得し、
前記テキスト特徴と前記スタイル特徴を結合し、第1の結合特徴を取得し、
前記第1の結合特徴に対して畳み込み処理、双方向時間ループ処理及び線形処理を順次行い、前記第1の音響的特徴を取得する、
ことを特徴とする請求項15に記載の装置。 - 前記合成モジュールは、さらに、
前記合成対象のテキストのテキスト特徴、前記音色特徴及び前記ターゲット音響的特徴を結合し、第2の結合特徴を生成し、
前記第2の結合特徴に基づいて前記ターゲット音声を合成する、
ことを特徴とする請求項15に記載の装置。 - 前記装置は、入力モジュールをさらに含み、前記入力モジュールは、
前記合成対象のテキスト、前記ターゲットテンプレートオーディオ及び前記音声特徴をターゲット音声合成モデルに入力し、前記ターゲット音声合成モデルが、特徴予測層、第1の特徴抽出層、第2の特徴抽出層、特徴結合層及び音声合成層を含み、
前記特徴予測層が前記合成対象のテキストと前記音声特徴に基づいて、前記第1の音響的特徴を取得し、
前記第1の特徴抽出層が前記ターゲットテンプレートオーディオの前記第2の音響的特徴を抽出し、
前記第2の特徴抽出層が前記合成対象のテキストの前記テキスト特徴を抽出し、
前記特徴結合層が前記第1の音響的特徴、前記第2の音響的特徴を結合し、前記ターゲット音響的特徴を生成し、前記テキスト特徴、前記音色特徴及び前記ターゲット音響的特徴を結合し、前記第2の結合特徴を生成し、
前記音声合成層が前記第2の結合特徴に基づいて前記ターゲット音声を合成する、
ことを特徴とする請求項17に記載の装置。 - 前記抽出モジュールは、さらに、
前記テンプレートオーディオライブラリにおけるテンプレートオーディオに対応するテンプレートテキストを取得し、
前記合成対象のテキストと前記テンプレートテキストとの類似度を取得し、
類似度の最も高い前記テンプレートテキストに対応する前記テンプレートオーディオを前記ターゲットテンプレートオーディオとする、
ことを特徴とする請求項11~13のいずれか一項に記載の装置。 - 前記音響的特徴は、基本周波数特徴、エネルギー特徴、時間特徴のうちの少なくとも1つを含む、
ことを特徴とする請求項11~13のいずれか一項に記載の装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~10のいずれか一項に記載の音声合成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~10のいずれか一項に記載の音声合成方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムはプロセッサによって実行される場合、請求項1~10のいずれか一項に記載の音声合成方法を実現する、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110949472.1A CN113808572B (zh) | 2021-08-18 | 2021-08-18 | 语音合成方法、装置、电子设备和存储介质 |
CN202110949472.1 | 2021-08-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022153600A true JP2022153600A (ja) | 2022-10-12 |
JP7372402B2 JP7372402B2 (ja) | 2023-10-31 |
Family
ID=78893765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022123043A Active JP7372402B2 (ja) | 2021-08-18 | 2022-08-02 | 音声合成方法、装置、電子機器及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230005466A1 (ja) |
JP (1) | JP7372402B2 (ja) |
KR (1) | KR102621436B1 (ja) |
CN (1) | CN113808572B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4345143A1 (en) | 2022-09-27 | 2024-04-03 | Nitto Denko Corporation | Pressure-sensitive adhesive sheet |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002258885A (ja) | 2001-02-27 | 2002-09-11 | Sharp Corp | テキスト音声合成装置およびプログラム記録媒体 |
JP2003295880A (ja) | 2002-03-28 | 2003-10-15 | Fujitsu Ltd | 録音音声と合成音声を接続する音声合成システム |
CN1889170B (zh) * | 2005-06-28 | 2010-06-09 | 纽昂斯通讯公司 | 基于录制的语音模板生成合成语音的方法和*** |
CN103065619B (zh) * | 2012-12-26 | 2015-02-04 | 安徽科大讯飞信息科技股份有限公司 | 一种语音合成方法和语音合成*** |
US9934775B2 (en) * | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
JP6846237B2 (ja) | 2017-03-06 | 2021-03-24 | 日本放送協会 | 音声合成装置及びプログラム |
KR102199050B1 (ko) | 2018-01-11 | 2021-01-06 | 네오사피엔스 주식회사 | 다중 언어 텍스트-음성 합성 모델을 이용한 음성 번역 방법 및 시스템 |
JP7106680B2 (ja) * | 2018-05-17 | 2022-07-26 | グーグル エルエルシー | ニューラルネットワークを使用したターゲット話者の声でのテキストからの音声合成 |
CN111710326B (zh) * | 2020-06-12 | 2024-01-23 | 携程计算机技术(上海)有限公司 | 英文语音的合成方法及***、电子设备及存储介质 |
CN112349273B (zh) * | 2020-11-05 | 2024-05-31 | 携程计算机技术(上海)有限公司 | 基于说话人的语音合成方法、模型训练方法及相关设备 |
CN112382267A (zh) * | 2020-11-13 | 2021-02-19 | 北京有竹居网络技术有限公司 | 用于转换口音的方法、装置、设备以及存储介质 |
CN112365877A (zh) * | 2020-11-27 | 2021-02-12 | 北京百度网讯科技有限公司 | 语音合成方法、装置、电子设备和存储介质 |
-
2021
- 2021-08-18 CN CN202110949472.1A patent/CN113808572B/zh active Active
-
2022
- 2022-07-07 KR KR1020220083591A patent/KR102621436B1/ko active IP Right Grant
- 2022-08-02 JP JP2022123043A patent/JP7372402B2/ja active Active
- 2022-08-17 US US17/820,339 patent/US20230005466A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4345143A1 (en) | 2022-09-27 | 2024-04-03 | Nitto Denko Corporation | Pressure-sensitive adhesive sheet |
Also Published As
Publication number | Publication date |
---|---|
KR20220104106A (ko) | 2022-07-26 |
CN113808572B (zh) | 2022-06-17 |
JP7372402B2 (ja) | 2023-10-31 |
CN113808572A (zh) | 2021-12-17 |
KR102621436B1 (ko) | 2024-01-05 |
US20230005466A1 (en) | 2023-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945786B (zh) | 语音合成方法和装置 | |
CN105976812B (zh) | 一种语音识别方法及其设备 | |
CN107481717B (zh) | 一种声学模型训练方法及*** | |
WO2022188734A1 (zh) | 一种语音合成方法、装置以及可读存储介质 | |
CN107707745A (zh) | 用于提取信息的方法和装置 | |
US10810993B2 (en) | Sample-efficient adaptive text-to-speech | |
WO2022105553A1 (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN114895817B (zh) | 交互信息处理方法、网络模型的训练方法及装置 | |
KR20220064940A (ko) | 음성 생성 방법, 장치, 전자기기 및 저장매체 | |
CN108877782A (zh) | 语音识别方法和装置 | |
CN110309275A (zh) | 一种对话生成的方法和装置 | |
CN116127020A (zh) | 生成式大语言模型训练方法以及基于模型的搜索方法 | |
US20230178067A1 (en) | Method of training speech synthesis model and method of synthesizing speech | |
US20230127787A1 (en) | Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium | |
CN111696521A (zh) | 语音克隆模型的训练方法、可读存储介质和语音克隆方法 | |
CN110136715A (zh) | 语音识别方法和装置 | |
CN111508466A (zh) | 一种文本处理方法、装置、设备及计算机可读存储介质 | |
JP2023059937A (ja) | データインタラクション方法、装置、電子機器、記憶媒体、および、プログラム | |
TW201225064A (en) | Method and system for text to speech conversion | |
JP7372402B2 (ja) | 音声合成方法、装置、電子機器及び記憶媒体 | |
CN114495977A (zh) | 语音翻译和模型训练方法、装置、电子设备以及存储介质 | |
CN113744713A (zh) | 一种语音合成方法及语音合成模型的训练方法 | |
JP7412483B2 (ja) | 音声処理方法、装置、電子機器及び記憶媒体 | |
CN114121010A (zh) | 模型训练、语音生成、语音交互方法、设备以及存储介质 | |
CN111966803B (zh) | 对话模拟方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |