JPS62229199A - Voice synthesizer - Google Patents

Voice synthesizer

Info

Publication number
JPS62229199A
JPS62229199A JP61072106A JP7210686A JPS62229199A JP S62229199 A JPS62229199 A JP S62229199A JP 61072106 A JP61072106 A JP 61072106A JP 7210686 A JP7210686 A JP 7210686A JP S62229199 A JPS62229199 A JP S62229199A
Authority
JP
Japan
Prior art keywords
speech
parameter
vowel
string
syllable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61072106A
Other languages
Japanese (ja)
Other versions
JPH0833745B2 (en
Inventor
成利 斉藤
典正 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP61072106A priority Critical patent/JPH0833745B2/en
Publication of JPS62229199A publication Critical patent/JPS62229199A/en
Publication of JPH0833745B2 publication Critical patent/JPH0833745B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は滑らかさのある合成音声を効果的に生成するこ
とができる音声合成装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to a speech synthesis device that can effectively generate smooth synthesized speech.

(従来の技術) マン・マシン・インターフェースの重要な役割を担う技
術として音声の合成出力がある。
(Prior Art) A technology that plays an important role in man-machine interfaces is the synthesis and output of speech.

この音声合成は、従来より専ら、予め録音しである音声
を編集処理して作成されているが、合成出力可能な単語
やフレーズの種類とその数に限りかあると云う問題があ
る。
Conventionally, this speech synthesis has been created exclusively by editing pre-recorded speech, but there is a problem in that the types and number of words and phrases that can be synthesized and output are limited.

そこで任意の入力文字列を解析してその音韻情報と韻律
情報とを求め、これらの情報から予め定められた規則に
基いて合成音声を生成する手法が開発されている。この
手法は規則合成方式と称され、任意の単語やフレーズの
合成音声を比較的簡単に生成し得ると云う利点がある。
Therefore, a method has been developed in which an arbitrary input character string is analyzed to obtain its phonological information and prosody information, and synthesized speech is generated from this information based on predetermined rules. This method is called a rule synthesis method, and has the advantage that synthesized speech of any word or phrase can be generated relatively easily.

然し乍ら、これによって生成された合成音声は」二連し
た録音編集方式により生成された音声に比較して、その
品質が悪いと云う欠点がある。例えば了解度の点ではか
なり高い品質の合成音声を生成することができるが、そ
の滑らかさの点で難点があり、聞取り難いと云う問題が
ある。
However, the quality of the synthesized speech generated by this method is poorer than that produced by the dual recording/editing method. For example, it is possible to generate synthesized speech of fairly high quality in terms of intelligibility, but there are problems with its smoothness and difficulty in audibility.

(発明が解決しようとする問題点) 本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、規則合成される音声の滑らかさ
の向上を図り、その聞取り易さの向」二を図ることので
きる音声合成装置を提供することにある。
(Problems to be Solved by the Invention) The present invention has been made in consideration of the above circumstances, and its purpose is to improve the smoothness of regularly synthesized speech and to improve its audibility. An object of the present invention is to provide a speech synthesis device capable of achieving two directions.

[発明の構成コ 本発明は入力文字列を解析して求められる音韻記号列か
ら音声パラメータを生成するに際し、音声合成の単位と
なる音声素片が置かれている環境を考慮して、独立に存
在する音声素片を格納した語頭用の音声素片ファイル、
有声直前母音に応じて求められた音声素片を格納した音
声素片ファイル、および無声直前母音に応じて求められ
た音声素片を格納した音声素片ファイルからなるパラメ
ータファイルを用い、音韻記号列の直前母音の種類に従
って上記音声素片ファイルを選択的に用いてその音声パ
ラメータを求めるようにしたものである。
[Configuration of the Invention] When generating speech parameters from a phonetic symbol string obtained by analyzing an input character string, the present invention takes into account the environment in which speech segments, which are units of speech synthesis, are placed, and independently generates speech parameters. Word-initial speech segment file that stores existing speech segments,
A phoneme symbol string is created using a parameter file consisting of a speech segment file that stores speech segments determined according to the immediately preceding voiced vowel, and a speech segment file that stores the speech segments obtained according to the immediately preceding unvoiced vowel. The speech segment file is selectively used according to the type of the vowel immediately preceding the speech segment to determine its speech parameters.

(実施例) 以下、図面を参照して本発明の一実施例につき説明する
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図は実施例装置の概略+M成図である。FIG. 1 is a schematic +M diagram of the embodiment device.

音声合成に供される単語またはフレーズは、それを表現
する文字列として入力される。文字列解析部1はこの入
力文字列を解析し、入力文字列に対応する音韻記号列お
よび韻律記号列をそれぞれ生成している。
A word or phrase to be subjected to speech synthesis is input as a character string representing the word or phrase. The character string analysis unit 1 analyzes this input character string and generates a phonetic symbol string and a prosodic symbol string corresponding to the input character string.

音声パラメータ列生成装置2は」−記音韻記号列を入力
し、音声合成の単位となるパラメータファイル3 (音
声素片ファイル3a、 3b、〜3h)を参照してその
音声素片パラメータを求め、これらの音声素片パラメー
タを結合して音声の声道特性を近似して表現する音声パ
ラメータ列を生成している。
The speech parameter string generation device 2 inputs the "-phonetic symbol string, and calculates the speech segment parameters by referring to the parameter file 3 (speech segment files 3a, 3b, to 3h), which is the unit of speech synthesis. These speech unit parameters are combined to generate a speech parameter sequence that approximates and expresses the vocal tract characteristics of speech.

尚、上記音声素片パラメータの結合は、例えば直線補間
法等を用いて行われる。
Note that the above-mentioned combination of speech unit parameters is performed using, for example, a linear interpolation method.

具体的には、例えば音声素片を音節とした場合、音韻記
号列から検出される音節語とに、その直前の音節の母音
を判定し、その判定結果に従って前記音声素片ファイル
3a、 3b、〜311を選択的に参照して音節パラメ
ータを求め、これらの音節パラメータを結合して音声パ
ラメータ列を生成している。
Specifically, for example, when a speech segment is a syllable, the vowel of the syllable immediately before the syllable word detected from the phoneme symbol string is determined, and the speech segment files 3a, 3b, - 311 are selectively referred to to obtain syllable parameters, and these syllable parameters are combined to generate a speech parameter string.

一方、韻律パラメータ列生成装置4は、上記文字列解析
装置1で求められた韻律記号列に従ってその韻律パラメ
ータ列を生成している。
On the other hand, the prosodic parameter string generation device 4 generates a prosodic parameter string according to the prosodic symbol string determined by the character string analysis device 1.

音声合成器5は、このようにして生成された音声パラメ
ータ列と韻律パラメータ列とに従って、所定の合成音声
規則を適用して前記入力文字列に対応した合成音声を生
成している。
The speech synthesizer 5 generates synthesized speech corresponding to the input character string by applying predetermined synthetic speech rules according to the speech parameter string and prosody parameter string thus generated.

ここでパラメータファイル1を構成する8つの音声素片
ファイル3a、 3b、〜3hについて説明する。
Here, the eight speech segment files 3a, 3b, to 3h that make up the parameter file 1 will be explained.

音声素片ファイル3aは、語頭用の音声素片を格納した
もので、例えば単独発声された単語の最初の音節データ
を切出し、これを分析して求められる音声素片が格納さ
れる。
The speech segment file 3a stores speech segments for the beginning of a word, and stores speech segments obtained by cutting out, for example, the first syllable data of a single uttered word and analyzing this data.

また音声素片ファイル3b、〜3fは、その直前器音が
有声である場合の音節データを求め、この音声データを
分析して求められる音声素片が、その母音の種類に応じ
て分類されてそれぞれ格納される。例えば直前母音が/
 i /である音節の音声素片は、「池;いけj等の自
然音声を分析し、その音韻記号列「1keJの第2音節
/ k e /の部分の分析結果を抽出し、これをパラ
メータ化してその音声素片か求められる。
In addition, the speech segment files 3b and 3f obtain syllable data when the preceding instrumental sound is voiced, and the speech segments obtained by analyzing this speech data are classified according to the type of vowel. Each is stored. For example, the vowel just before /
The phonetic segment of the syllable i / is obtained by analyzing natural speech such as ``ike; ike j'', extracting the analysis result of the second syllable / ke / of the phonetic symbol string ``1keJ'', and using this as a parameter. , and its phonetic segment can be found.

このような音声素片パラメータの抽出処理によって、音
声素片ファイル3bには直前母音が/a/のときの音声
素片が、音声素片ファイル3cには直前母音が/i/の
ときの音声素片が、音声素片ファイル3dには直前母音
が/u/のときの音声素片が、音声素片ファイル3eに
は直前母音が/e/のときの音声素片が、そして音声素
片ファイル3fには直前母音が10/のときの音声素片
がそれぞれ格納される。
Through such speech segment parameter extraction processing, the speech segment file 3b contains the speech segment when the immediately preceding vowel is /a/, and the speech segment file 3c contains the speech segment when the immediately preceding vowel is /i/. The phonetic segment file 3d contains a phonetic segment when the immediately preceding vowel is /u/, the phonetic segment file 3e contains a phonetic segment when the immediately preceding vowel is /e/, and The file 3f stores phonetic segments when the immediately preceding vowel is 10/.

また音声素片ファイル3g、 3hには、その直前母音
が無声である場合の音節データを求め、この音声データ
を分析して求められる音声素片が、その母音の種類に応
じて分類されてそれぞれ格納される。具体的には音声素
片ファイル3gには、その直前母音が無声の/1/であ
る場合の音声素片が格納され、音声素片ファイル311
には、その直前母音か無声の/u/である場合の1°−
声素片が格納されされる。
In addition, in the speech segment files 3g and 3h, syllable data is obtained when the vowel immediately before the vowel is unvoiced, and the speech segments obtained by analyzing this speech data are classified according to the type of vowel and are divided into Stored. Specifically, the speech segment file 3g stores a speech segment when the vowel immediately before it is a voiceless /1/, and the speech segment file 311
1°- if it is the vowel immediately before it or a voiceless /u/
The voice segment is stored.

この直前母音が無声である場合の音声素片も、先の分析
処理と同様にして行われる。例えば「額;ひたい」等の
自然音声を分析し、その音韻記号列rhitaiJの第
2音節/ t a /の部分の分析結果を抽出し、これ
をパラメータ化してその音声素片が求められる。
A speech segment in which the immediately preceding vowel is unvoiced is also analyzed in the same manner as in the previous analysis process. For example, natural speech such as "forehead;forehead" is analyzed, the analysis result of the second syllable /ta/ of the phoneme symbol string rhitaiJ is extracted, and this is parameterized to obtain the speech segment.

しかして音声パラメータ列生成装置は、与えられた音韻
記号列の各音節について、その直前に存在する母音の種
別を判定し、その判定結果に従って上述した音声素片フ
ァイル3a、 3b、〜3hを選択的に用いて、その音
声パラメータを求めている。
Thus, the speech parameter string generation device determines the type of vowel that exists immediately before each syllable of the given phonetic symbol string, and selects the above-mentioned speech segment files 3a, 3b, to 3h according to the determination result. It is used to find the audio parameters.

具体的には第2図(a)に示すように「適確;てきかく
」なる入力文字列が与えられた場合には、先ずその音韻
記号列[t e k i k a k u ]が求めら
れる。ここで音声合成の単位である音声素片が、例えば
子音(C)と母音(V)との組合せ(CV)によって定
義されるものとする。音声パラメータ生成装置2は、こ
の音韻記号列 [telcikaku]の子音音韻記号 /1// k
 /と、母音音韻記号/e/  /i/  /a//u
/とをそれぞれ判定し、これを」−記定義に従って音節
単位に分割する。この音節の区切りを[・]で示すもの
とすると前記音韻記号列[tekikakulは、 [te−ki φka・ku’1 なる4つの音節に分解される。これらの各音節について
、その音節パラメータが次のようにしてそれぞれ求めら
れる。
Specifically, as shown in Fig. 2(a), when the input character string ``appropriate; It will be done. Here, it is assumed that a speech segment, which is a unit of speech synthesis, is defined by, for example, a combination (CV) of a consonant (C) and a vowel (V). The speech parameter generation device 2 generates the consonant phoneme symbol /1// k of this phoneme symbol string [telcikaku].
/ and vowel phonological symbols /e/ /i/ /a//u
/ and is determined respectively, and this is divided into syllable units according to the definition. If this syllable break is indicated by [•], the phoneme symbol string [tekikakul] is decomposed into four syllables: [te-ki φka·ku'1. The syllable parameters for each of these syllables are determined as follows.

即ち、1番目の音節[t elについてはその直前に母
音が存在しないことから語頭用の音声素片ファイル3a
を用いてその音節パラメータが求められる。次に2番目
の音節[kiコについてはその直前の母音が/e/であ
ることから音声素片ファイル3eを用いてその音節パラ
メータが求められる。
In other words, since there is no vowel immediately before the first syllable [t el, the first syllable [tel]
The syllable parameters are determined using . Next, for the second syllable [ki-ko], since the vowel immediately before it is /e/, the syllable parameters are determined using the phoneme segment file 3e.

同様にして3番目の音節[ka]についてはその直前の
母音が/i/であることから音声素片ファイル3Cを用
いてその音節パラメータが求められ、4番目の音節[k
u]についてはその直前の母音が/ a /であること
から音声素片ファイル3bを用いてその音節パラメータ
が求められる。
Similarly, for the third syllable [ka], since the vowel immediately before it is /i/, its syllable parameters are determined using the phoneme segment file 3C, and the fourth syllable [k
u], the vowel immediately before it is /a/, so its syllable parameters are determined using the speech segment file 3b.

そしてこれらの音節パラメータを結合して、上記入力文
字列「適確;てきかく」に対応する音声パラメータ列を
求めている。
These syllable parameters are then combined to obtain a speech parameter string corresponding to the input character string "appropriate".

また第2図(b)に示ずように「幕府;ばくふ」なる入
力文字列が与えられた場合には、同様にしてその音韻記
号列から音節の系列 [ba−1(u−fu]を求め、1番目の音節[ba]
についてはその直前に母音が存在しないことがら語頭用
の音声素片ファイル3aを用いてその音節パラメータを
求め、2番目の音節[ku]についてはその直前の母音
が/ a /であることから音声素片ファイル3bを用
いてその音節パラメータを求め、更に3番目の音節[f
 u]についてはその直前の母音が無声の/ u /で
あることから音声素片フアイル3hを用いてその音節パ
ラメータを求めている。
Furthermore, as shown in Figure 2(b), when the input character string "Bakufu;bakufu" is given, the syllable sequence [ba-1 (u-fu)] is derived from the phoneme symbol string in the same way. Find the first syllable [ba]
Since there is no vowel immediately before the syllable parameter for the second syllable [ku], the syllable parameters are determined using the phonetic segment file 3a for the beginning of the word.As for the second syllable [ku], the vowel immediately before it is / a /, so The syllable parameters are determined using the segment file 3b, and the third syllable [f
Since the vowel immediately before the vowel "u" is a voiceless /u/, the syllable parameters are determined using the phoneme segment file 3h.

かくしてこのように構成された本装置によれば、音声左
辺である音節についてそれぞれ求められる音節パラメー
タが、その直前の音節の母音による変化、環境変化の影
響を考慮したものとなるから、各音声素片ファイル3a
、 3b、〜31)からそれぞれ求められた音声素片に
基いて規則合成される合成音節は非常に滑らかなものと
なる。特に、直前に存在する母音の種類のみならず、そ
の母音か有声であるか無声であるかによって、その音節
について求める音声素片のファイルを選択しているので
、その規則合成される音声が非常に滑らかな自然性の高
いものとなる。
According to this device configured in this manner, the syllable parameters determined for each syllable on the left side of the speech take into account the changes caused by the vowel of the syllable immediately before it and the influence of environmental changes. Single file 3a
, 3b, to 31), the synthesized syllables that are synthesized according to the rules based on the phonetic segments obtained from the respective speech segments are extremely smooth. In particular, the file of speech segments to be sought for that syllable is selected based not only on the type of vowel that immediately precedes it, but also on whether that vowel is voiced or unvoiced. It becomes smooth and highly natural.

従って了解度が非常に高く、しかも滑らかで自然性の高
い合成音声を簡易に、且つ効果的に得ることが可能とな
る。
Therefore, it is possible to easily and effectively obtain synthesized speech that has very high intelligibility and is smooth and highly natural.

尚、本発明は上述した実施例に限定されるものではない
。ここでは規則合成の単位となる音声素片を音節として
説明したが、音素を音声素片とし−10= ても同様に実施することができる。この場合には、音素
の繋がりである(CV)や(V CV)を考慮して音声
素片ファイルを)14成するようにすれば良い。また実
施例では有声の直前母音の種別に応じて、その音声素片
ファイルを別々に構成したが、例えば声道近時特性から
、口の横方向の拡がりを伴う母音/i//e/を除<、
/a/  10//11/のファイルを1まとめにして
、そのパラメータファイル3の構成の簡略化を図るよう
にしても良い。その他、本発明はその要旨を逸脱しない
範囲で種々変形して実施することができる。
Note that the present invention is not limited to the embodiments described above. Here, the speech units serving as units of rule synthesis are explained as syllables, but the same implementation is possible even if the phonemes are -10=. In this case, 14 speech segment files may be created taking into consideration (CV) and (VCV), which are connections between phonemes. In addition, in the example, voice segment files were constructed separately depending on the type of voiced vowel. Excluding <,
The configuration of the parameter file 3 may be simplified by combining the files /a/10//11/ into one file. In addition, the present invention can be implemented with various modifications without departing from the gist thereof.

[発明の効果] 以上説明したように本発明によれば、その直前に存在す
る母音の種類に応じて音声素片パラメータが求められる
ので、音声の環境に応じた滑らかで自然性の高い合成音
声を生成することが可能となる。これ故、その聞取り易
さの向上を図ることが可能となり、マン・マシン・イン
ターフェースとして多大なる効果が奏せられる。
[Effects of the Invention] As explained above, according to the present invention, speech segment parameters are determined according to the type of vowel that is present immediately before, so smooth and highly natural synthesized speech can be obtained depending on the speech environment. It becomes possible to generate . Therefore, it is possible to improve the ease of listening, and a great effect can be achieved as a man-machine interface.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例装置の概略構成図、第2図(
a)(b)はそれぞれ実施例装置における音声パラメー
タ列の生成過程を模式的に示す図である。 J・・・文字列解析装置、2・・・音声パラメータ列生
成装置、3・・・パラメータファイル、3a、 3b、
〜3h・・・音声素片ファイル、4・・・韻律パラメー
タ生成装置、5・・・音声合成器。
FIG. 1 is a schematic diagram of an apparatus according to an embodiment of the present invention, and FIG. 2 (
FIGS. 3A and 3B are diagrams schematically showing the process of generating audio parameter sequences in the embodiment apparatus, respectively. FIGS. J...Character string analysis device, 2...Audio parameter string generation device, 3...Parameter file, 3a, 3b,
~3h... Speech segment file, 4... Prosody parameter generation device, 5... Speech synthesizer.

Claims (1)

【特許請求の範囲】 入力文字列を解析してその音韻記号列と韻律情報とを求
める手段と、パラメータファイルを参照して上記音韻記
号列から音声パラメータ列を生成する手段と、前記韻律
情報に従って韻律パラメータ列を生成する手段と、これ
らの音韻パラメータ列と韻律パラメータ列とに従って音
声を規則合成する手段とを具備し、 前記パラメータファイルは、独立に存在する音声素片を
格納した語頭用の音声素片ファイル、有声直前母音に応
じて求められた音声素片を格納した音声素片ファイル、
および無声直前母音に応じて求められた音声素片を格納
した音声素片ファイルからなり、音韻パラメータ列の生
成手段は、音韻記号列の直前母音の種類に従って上記音
声素片ファイルを選択的に用いてその音声パラメータを
求めることを特徴とする音声合成装置。
[Scope of Claims] Means for analyzing an input character string to obtain its phonetic symbol string and prosodic information, means for generating a speech parameter string from the phonetic symbol string by referring to a parameter file, and according to the prosodic information. The method comprises means for generating a prosodic parameter string, and means for systematically synthesizing speech according to these phonetic parameter strings and prosodic parameter strings, and the parameter file is a word-initial speech that stores independently existing speech segments. Speech segment file, a speech segment file that stores speech segments determined according to the voiced vowel,
and a speech segment file storing speech segments obtained according to the unvoiced immediately preceding vowel, and the means for generating the phonetic parameter string selectively uses the above speech segment file according to the type of the immediately preceding vowel of the phonetic symbol string. A speech synthesis device characterized in that the speech parameters of the speech are determined by
JP61072106A 1986-03-29 1986-03-29 Speech synthesizer Expired - Lifetime JPH0833745B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61072106A JPH0833745B2 (en) 1986-03-29 1986-03-29 Speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61072106A JPH0833745B2 (en) 1986-03-29 1986-03-29 Speech synthesizer

Publications (2)

Publication Number Publication Date
JPS62229199A true JPS62229199A (en) 1987-10-07
JPH0833745B2 JPH0833745B2 (en) 1996-03-29

Family

ID=13479809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61072106A Expired - Lifetime JPH0833745B2 (en) 1986-03-29 1986-03-29 Speech synthesizer

Country Status (1)

Country Link
JP (1) JPH0833745B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50134311A (en) * 1974-04-10 1975-10-24
JPS5643700A (en) * 1979-09-19 1981-04-22 Nippon Telegraph & Telephone Voice synthesizer
JPS5868099A (en) * 1981-10-19 1983-04-22 富士通株式会社 Voice synthesizer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50134311A (en) * 1974-04-10 1975-10-24
JPS5643700A (en) * 1979-09-19 1981-04-22 Nippon Telegraph & Telephone Voice synthesizer
JPS5868099A (en) * 1981-10-19 1983-04-22 富士通株式会社 Voice synthesizer

Also Published As

Publication number Publication date
JPH0833745B2 (en) 1996-03-29

Similar Documents

Publication Publication Date Title
JPH0833744B2 (en) Speech synthesizer
Isewon et al. Design and implementation of text to speech conversion for visually impaired people
JP3576848B2 (en) Speech synthesis method, apparatus, and recording medium recording speech synthesis program
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
JPH08335096A (en) Text voice synthesizer
van Rijnsoever A multilingual text-to-speech system
JP2008058379A (en) Speech synthesis system and filter device
RU2298234C2 (en) Method for compilation phoneme synthesis of russian speech and device for realization of said method
JPS62229199A (en) Voice synthesizer
JP2577372B2 (en) Speech synthesis apparatus and method
JP2703253B2 (en) Speech synthesizer
Dessai et al. Development of Konkani TTS system using concatenative synthesis
JP2987089B2 (en) Speech unit creation method, speech synthesis method and apparatus therefor
JPS62284398A (en) Sentence-voice conversion system
Bonada et al. Improvements to a sample-concatenation based singing voice synthesizer
JP6159436B2 (en) Reading symbol string editing device and reading symbol string editing method
JP3292218B2 (en) Voice message composer
JP2000172286A (en) Simultaneous articulation processor for chinese voice synthesis
JPH06138894A (en) Device and method for voice synthesis
JPS63293600A (en) Voice synthesizer
JP2624708B2 (en) Speech synthesizer
JPS63208099A (en) Voice synthesizer
JP2573585B2 (en) Speech spectrum pattern generator
JPH0756591A (en) Device and method for voice synthesis and recording medium
FalDessai Development of a Text to Speech System for Devanagari Konkani

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term