JPH0242526A - Voice generating system for voice synthesizing device - Google Patents

Voice generating system for voice synthesizing device

Info

Publication number
JPH0242526A
JPH0242526A JP1160354A JP16035489A JPH0242526A JP H0242526 A JPH0242526 A JP H0242526A JP 1160354 A JP1160354 A JP 1160354A JP 16035489 A JP16035489 A JP 16035489A JP H0242526 A JPH0242526 A JP H0242526A
Authority
JP
Japan
Prior art keywords
voice
circuit
sound
speech
synthesizer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1160354A
Other languages
Japanese (ja)
Inventor
Hiroshi Matsumura
松村 博
Katsuharu Aoki
青木 勝春
Kazuo Mogi
茂木 一夫
Tatsunosuke Iwahara
岩原 達之助
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP1160354A priority Critical patent/JPH0242526A/en
Publication of JPH0242526A publication Critical patent/JPH0242526A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To approximate the long sounds to the human voices and to produce the voices approximate to those generated naturally by discriminating the long sound codes contained in the input character strings, increasing the voice generating length of a syllable set before and after a long sound code compared with the standard length, and pronouncing the syllable set right after the long sound code. CONSTITUTION:A voice synthesizer 8 is connected to a printer output terminal of a personal computer 1 via a control circuit 11. Then a voice data memory 6 is connected to the synthesizer 8 via a reading circuit 7. At the same time, a speed control circuit 12 which controls the generating length of voices is added to the synthesizer 8. Thus the voice generating speed is controlled in accordance with the contents of the control code received from the circuit 11. Then the synthesizer 8 outputs an end signal to the circuit 11 when the output of a voice signal is through. The circuit 11 decides whether a mark is put to the head of an input character string or not. A deciding part 13 decides the presence or absence of the synthesizing data. This data if confirmed is processed by a long sound code deciding part 18 and a double consonant deciding part 19 and inputted to the circuit 11.

Description

【発明の詳細な説明】 (イ)産業上の利用分野 本発明は、任意の文章を音声として発生させることが可
能である規則合成方式の音声合成装置に係り、バソフン
等のデータ処理装置から、カタカナ列あるいは数字列等
の文字列で、音声として発生を希望する文章を入力する
音声合成装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (a) Industrial Application Field The present invention relates to a speech synthesizer using a rule synthesis method that is capable of generating arbitrary sentences as speech. The present invention relates to a speech synthesis device that inputs a text that is desired to be generated as speech using a character string such as a katakana string or a number string.

(ロ)従来技術 LSI技術の進歩により音声合成用I、SIが各方面で
開発され、自動販売機、ファクシミリ、車の警告など広
く音声合成装置が普及している。しかし、これらの音声
合成装置は、ある短かい文章を分析しこの分析結果をメ
モリに記憶しておき、必要に応じてこれを読み出すとい
う分析合成方式であったため決まった文章しか発生する
ことができず、このため、発生する言葉が決まらないユ
ーザーに対しては有効なものではなかった。
(b) Prior art With the advancement of LSI technology, I and SI for speech synthesis have been developed in various fields, and speech synthesis devices are now widely used in vending machines, facsimiles, car warnings, etc. However, these speech synthesis devices were able to generate only fixed sentences because they used an analysis and synthesis method that analyzed a certain short sentence, stored the analysis result in memory, and read it out as needed. Therefore, it was not effective for users who could not decide which words to use.

そこで、どのような言葉でも発生できるような規則合成
方式の研究が最近盛んに行なわれるようになってきた。
Therefore, research on rule synthesis methods that can generate any words has recently become active.

この規則合成方式は、従来の音声合成方式のように短文
章単位を発生音声の素とするのではなく、日本語で言う
ならば「ア、イ、つ、・・・・・・」などのような単音
節、あるいは、CV、VC音節、又は、CV C,V 
CV音節(’)J: ウな音節単位を発生音声の素とし
ている点が大きく異なっている。従って、各種の音節に
対応する音声データを予めメモリに記憶しておき、パソ
コン等のデータ処理装置から、カタカナ、数字、アルフ
ァベット等の文字列により、発生を希望する文章を指定
し入力するようにし、入力された文字列の各音節に対応
する音声データをメモリから順次読み出し、これらを合
成すれば、文字列で表わされた文章を音声として発生す
ることができるのである。
This rule synthesis method does not use short sentence units as the source of generated speech as in conventional speech synthesis methods, but instead uses words such as "a, i, tsu,..." in Japanese. Monosyllables such as, or CV, VC syllables, or CV C,V
CV syllable (') J: The major difference is that the ``u'' syllable unit is used as the source of the generated speech. Therefore, audio data corresponding to various syllables is stored in memory in advance, and the desired sentence to be generated is specified and input using a character string such as katakana, numbers, or alphabets from a data processing device such as a personal computer. By sequentially reading voice data corresponding to each syllable of an input character string from memory and synthesizing them, a sentence expressed by a character string can be generated as voice.

ところが、このような音声合成方式においても、長音や
促音をどのように処理するかという問題があった。
However, even in such a speech synthesis method, there is a problem in how to process long sounds and consonants.

従来、長音については、例えば1コーヒー」の場合、カ
タカナ列で「コウヒイ」あるいは「コオヒイjなどと指
定して、「こうひい」あるいは「こおひい」というよう
に音声を発生していた。
Conventionally, for long sounds, for example, in the case of ``1 coffee,'' the katakana sequence was specified as ``kouhii'' or ``koohiij,'' and the sounds were generated as ``kohii'' or ``koohii.''

又、促音、例えば「ガラコラ」の場合、カタカナ列で「
ガラツウ」と指定して1かつこう」と音声発生を行なう
ようにしていた。このような従来の方式は、聞いて理解
するには十分であったが、あまり人間らしい音声を発生
することができないという欠点があった。
Also, in the case of a consonant, such as "garakora", the katakana string is "
It was designed to generate a voice saying, ``Let's specify ``Garatu'' and ``Let's take one.'' Although such conventional methods were sufficient for listening and understanding, they had the drawback of not being able to generate very human-like sounds.

(ハ)発明の目的 本発明は、規則合成方式の音声合成装置において、長音
を指定する場合は長音符“−”を用いるものとし、長音
を含む音声を、人間らしい音声(自然発生音と呼ぶ)に
近づけることを目的とするものである。
(C) Purpose of the Invention The present invention provides a speech synthesis device using a regular synthesis method, in which a long note "-" is used to specify a long sound, and the sound including the long sound is converted into a human-like sound (referred to as naturally occurring sound). The purpose is to bring it closer.

(ニ)発明の構成 本発明は、音声データを記憶する記憶手段を備え、カタ
カナ列あるいは数字列等の文字列を入力し、該文字列の
各音節に対応する音声データを前記記憶手段から読み出
して合成し、前記文字列により表わされる任意の文章を
音声として発生する規則合成方式の音声合成装置におい
て、前記文字列中の長音符を判別し、該長音符の直前の
音節に対応する前記音声データの音声発生長を予め定め
られた標準長より伸ばして発生させ、発生後前記長音符
の直後の音節に対応する前記音声データの音声を発生さ
せるものである。
(D) Structure of the Invention The present invention is provided with a storage means for storing voice data, inputs a character string such as a katakana string or a number string, and reads out voice data corresponding to each syllable of the character string from the storage means. In a speech synthesis device using a regular synthesis method, which generates speech from an arbitrary sentence represented by the character string, a long note in the character string is determined, and the voice data corresponding to the syllable immediately before the long note is determined. The sound generation length is extended from a predetermined standard length to generate the sound, and after the sound is generated, the sound of the sound data corresponding to the syllable immediately after the long note is generated.

(*)実施例 第1図は、本発明の実施例を示すブロック図であり、(
1)はキーボード(2)、プログラムメモリ(3)、表
示装置(4)、中央処理装置(5)より成るデータ処理
装置としてのパーソナルコンピュータであり、音声合成
装置に印字命令を用いて、カタカナ、数字等の文字列を
入力できるように、パーソナルコンピュータ(1)のプ
リンタ出力端子に音声合成装置を接続したものである。
(*) Embodiment FIG. 1 is a block diagram showing an embodiment of the present invention.
1) is a personal computer as a data processing device consisting of a keyboard (2), a program memory (3), a display device (4), and a central processing unit (5). A speech synthesizer is connected to the printer output terminal of a personal computer (1) so that character strings such as numbers can be input.

即ち、パーソナルコンピュータ(1)で、例えば、’>
LPRINT’!オハヨーゴザイマス”」というプログ
ラムを作成し、これを実行させて音声合成装置に文字列
“オハヨーゴザイマス”を入力するものである。尚、マ
ーク“!”は以下に続く文字列が音声合成用データであ
ることを示すためのものであり、プリンタ用データと区
別するためである。
That is, on the personal computer (1), for example, '>
LPRINT'! A program called ``Ohayogozaimas'' is created and executed to input the character string ``Ohayogozaimas'' into the speech synthesizer. The mark "!" is used to indicate that the character string that follows is speech synthesis data, and to distinguish it from printer data.

ところで、第1図において、(6)は日本語のrア、イ
、つ、・・・・・・」等の音節単位の各種音声データが
予め記憶された音声データメモリ、(7)はメモリ(6
)から音声データを読み出すための読み出し回路、(8
)は読み出された音声データを入力し、このデータに対
応する音声信号を出力する音声合成LSIにて構成され
た音声合成器、(9)は音声信号を増幅するアンプ、(
10)は音声を放音するためのスピーカ、(11)は制
御回路である。そして、音声合成器(8)には音声の発
生長を制御するため、音声の発生スピードを制御するス
ピード制御回路(12)が設けられており、この回路は
制御回路(11)から入力される制御コードの内容に応
じて発生スピードを制御する。更に、音声合成器(8)
は1つの音声信号を出力し終わると、終了信号を制御回
路(11)に出力する。
By the way, in FIG. 1, (6) is a voice data memory in which various voice data in syllable units such as Japanese r-a, i, tsu, etc. are stored in advance, and (7) is a memory. (6
), a readout circuit for reading audio data from (8
) is a speech synthesizer configured with a speech synthesis LSI that inputs read audio data and outputs an audio signal corresponding to this data; (9) is an amplifier that amplifies the audio signal; (9) is an amplifier that amplifies the audio signal;
10) is a speaker for emitting audio, and (11) is a control circuit. The speech synthesizer (8) is provided with a speed control circuit (12) for controlling the speech generation speed in order to control the speech generation length, and this circuit receives input from the control circuit (11). The generation speed is controlled according to the contents of the control code. Furthermore, a speech synthesizer (8)
When it finishes outputting one audio signal, it outputs an end signal to the control circuit (11).

制御回路(11)は、入力される文字列の先頭に“!゛
マークあるか否かを判定し、文字列が音声合成用データ
であるか否かを判定する判定部(13)と、入力される
文字列を一行分格納する入力バッファ(14)と、入力
文字列中の長音符“−”及び促音を示す小文字“ツ”以
外の各音節に対して、各音節に対応する音声データが記
憶されている音声データメモリ(6)のアドレスを出力
バッファ(15)に設定し、且つ、出力バッファ(17
−)に標準スピード即ち標準長に対応する制御コードを
設定する設定部(16)と、入力文字列中の長音符−”
を判別し、長音符の前の音声の発生スピードを1/nに
遅くする制御コードaを、出力バッファ(17)の長音
符の前の音声データに対応する位置に書き込む長音符判
別部(18)と、促音を示す小文字“ツ”を判別し、促
音の前の音声の発生スピードをm倍に速くする制御コー
ドbを、出力バッファ(17)の促音の前の音声データ
に対応する位置に書き込むと共に、音声データメモリ(
6)の無音を示す無音声データが記憶されたアドレスを
、出力バッファ(15)の促音の位置に設定し、且つ、
この無音の発生長を所定長!にするための発生スピード
を示す制御コードCを、出力バッファ(17)の無音デ
ータに対応する位置に書き込む促音判別部(19)と、
出力バッファ(15)のアドレス及び出力バッファ(1
7)の制御コードを、各々、終了信号に応じて、順次、
読み出し回路(7)及びスピード制御回路(12)に転
送する転送制御部(20)とより構成されている。
The control circuit (11) includes a determination unit (13) that determines whether or not there is a "!" mark at the beginning of the input character string, and determines whether or not the character string is speech synthesis data; An input buffer (14) that stores one line of character strings to be displayed, and audio data corresponding to each syllable in the input character string except for the long note "-" and the lowercase "tsu" indicating a consonant. Set the address of the audio data memory (6) currently stored in the output buffer (15), and
-), a setting section (16) for setting a control code corresponding to a standard speed, that is, a standard length, and a long note in the input character string -"
a long note discriminator (18) that writes a control code a for slowing down the generation speed of the sound before the long note to 1/n into a position of the output buffer (17) corresponding to the sound data before the long note; A control code b that identifies the lowercase letter "tsu" indicating a consonant and increases the speed of generation of the voice before the consonant by m times is written in the output buffer (17) at a position corresponding to the voice data before the consonant, Audio data memory (
6) sets the address where the silent data indicating silence is stored at the position of the consonant in the output buffer (15), and
Set the length of this silence to a predetermined length! a consonant determination unit (19) that writes a control code C indicating the generation speed for the output buffer (17) to a position corresponding to the silent data;
Address of output buffer (15) and output buffer (1
7) control codes in sequence according to the end signal.
It is composed of a readout circuit (7) and a transfer control section (20) that transfers data to a speed control circuit (12).

そこで、例えば、パーソナルコンピュータ(1)で’>
LPRINT″!コーヒー”」というプログラムを実行
したとすると、文字列4コーヒー゛′が入力バッファ(
14)に格納きれる。そして、先ず、“コ”に対応する
音声データのアドレスが、設定部(16)により出力バ
ッファ(15)の先頭に設定される(第21m(す)。
So, for example, on a personal computer (1), '>
Suppose you run a program called "LPRINT"!coffee", the string 4coffee" is stored in the input buffer (
14). First, the address of the audio data corresponding to "ko" is set at the beginning of the output buffer (15) by the setting section (16) (21mth).

次の文字は長音符“−”なので、長音符判別部(18)
は出力バッファ(17)の先頭に制御フードaを書き込
む(第2図(ロ))。次に“ヒ”に対応する音声データ
のアドレスが出力バッファ(15)の2番目に設定され
(第2rXJ(イ))、再び長音符“−”のため、出力
バッファ(17)の2番目に制御コードaが書き込まれ
る(第2図(ロ))。従って、転送制御部(20)によ
りアドレス及び制御フードが類6次読み出されると、先
ず、標準スピードの1/nの発生スピードで1コ」の音
声が発生し、続いて、同じ発生スピードで「ヒ」の音声
が発生する。即ち、「フ」の音声が標準長のn倍の発生
長で発生し、続いて、′ヒ」の音声が同じ発生長で発生
する。ここで、例えば、nを2とすれば、rコ」の音声
が2音分発生し、その後1ヒ」の音声が2音分発生する
こととなり、かなり自然発生音に近づいた音声が発生さ
れるようになる。
The next character is a long note “-”, so the long note discriminator (18)
writes the control hood a to the beginning of the output buffer (17) (FIG. 2 (b)). Next, the address of the audio data corresponding to “hi” is set to the second position in the output buffer (15) (2nd r Code a is written (FIG. 2 (b)). Therefore, when the transfer control unit (20) reads out the address and control hood in the 6th order, first the sound of "1" is generated at a generation speed of 1/n of the standard speed, and then the voice of "1" is generated at the same generation speed. A "hi" sound is generated. That is, the sound "fu" is generated with a length n times the standard length, and then the sound "hi" is generated with the same length. For example, if n is 2, the sound "r" will be generated for two tones, and then the sound "1hi" will be generated for two tones, resulting in a sound that is quite close to a naturally occurring sound. Become so.

次に、パーソナルコンピュータ(1)で’>LPRI 
NT″!ブック”′」というプログラムを実行したとす
ると、文字列“ブック”が入力バッファ(14)に格納
される。そして、先ず、“プ”に対応する音声データの
アドレスが、出力バッファ(15)の先頭に設定される
が(第3図(イ))、次の文字が促音を示す小文字“ツ
”なので、促音判別部(19)は第3図(イ)及び(ロ
)に示すように、出力バッファ(17)の先頭に制御フ
ードbを書き込み、更に、出力バッファ(15)の2番
目に無音声データのアドレスを設定すると共に、出力バ
ッファ(17)の2番目に制御フードCを書き込む。次
の文字「り、は“−”及び“ツ”ではないので、出力バ
ッファ(17)の3番目には標準長に対応する制御コー
ドdが書き込まれ、単に出力バッファ(15)の3番目
に“り″に対応する音声データのアドレスが設定される
。従って、アドレス及び制御コードが順次読み出される
と、標準スピードのm倍の発生スピード即ち標準長の1
 / mの発生長で「ブ」の音声が発生し、次に、発生
長が所定長!の期間だけ無音となり、次に標準長の「り
」の音声が発生する。ここで、例えば、m、lを各々1
.5゜1.1とすれば、「ブ」の音声が約0.7音分発
生し、次の1.1音分無音となり、その後rり、の音声
が1音分発生することとなり、かなり自然発生音に近づ
いた音声が発生きれるようになる。尚、無音を1音分即
ち標準長だけ発生させる場合は標準長の制御フードを書
き込めばよい。
Next, on the personal computer (1), '>LPRI
When the program NT"!BOOK"' is executed, the character string "BOOK" is stored in the input buffer (14). First, the address of the audio data corresponding to "pu" is set at the beginning of the output buffer (15) (Figure 3 (a)), but since the next character is a lowercase letter "tsu" indicating a consonant, As shown in FIGS. 3(a) and 3(b), the consonant discrimination unit (19) writes the control hood b at the beginning of the output buffer (17), and further writes non-speech data at the second position of the output buffer (15). and write the control hood C in the second position of the output buffer (17). Since the next character "ri" is not "-" or "tsu", the control code d corresponding to the standard length is written to the third position of the output buffer (17), and the control code d corresponding to the standard length is simply written to the third position of the output buffer (15). The address of the audio data corresponding to "ri" is set. Therefore, when the address and control code are read out sequentially, the generation speed is m times the standard speed, that is, 1 of the standard length.
/ The sound "bu" is generated at the onset length of m, and then the onset length is the predetermined length! There is silence for a period of , and then a standard length ``ri'' sound is produced. Here, for example, m and l are each 1
.. 5°1.1, the sound of "b" will be generated for about 0.7 tones, the next 1.1 tones will be silent, and then the sound of "r" will be generated for one tone, which is quite a lot. You will be able to generate sounds that are close to naturally occurring sounds. If silence is to be generated by one note, that is, by a standard length, a standard length control hood may be written.

(へ)発明の効果 本発明は、入力される文字列中の長音符を判別し、長音
符の直前の音節の音声発生長を標準長より伸ばして発生
し、発生後、長音符の直後の音節の音声を発生するよう
にしたので、長音の音声を人間らしい音声に近づけるこ
とができ、従って、自然発生音に近い音声を発生する音
声合成装置を実現することが可能となる。
(F) Effects of the Invention The present invention identifies long notes in an input character string, generates the sound by extending the sound generation length of the syllable immediately before the long note from the standard length, and then generates the sound of the syllable immediately after the long note. , it is possible to make a long sound sound similar to a human-like sound, and it is therefore possible to realize a speech synthesis device that generates a sound close to a naturally occurring sound.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例を示すブロック図、第2図(イ
)(ロ)及び第3図(イ)(ロ)は出力バッファの内容
を示す図である。 主な図番の説明 (1)・・・パーソナルコンピュータ、(6)・・・音
声データメモリ、 (7)・・・読み出し回路、 (8
)・・・音声合成器、 (9)・・・アンプ、(10)
・・・スピーカ、(11)・・・制御回路、 (14)
・・・入力バッファ、 (15)(17)・・・出力バ
ッファ、 (16)・・・設定部、 (18)・・・長
音符判別部、 (19〉・・・促音判別部。
FIG. 1 is a block diagram showing an embodiment of the present invention, and FIGS. 2(a) and 3(b) and 3(a) and 3(b) are diagrams showing the contents of an output buffer. Explanation of main drawing numbers (1)... Personal computer, (6)... Audio data memory, (7)... Readout circuit, (8
)...Speech synthesizer, (9)...Amplifier, (10)
...Speaker, (11) ...Control circuit, (14)
... input buffer, (15) (17) ... output buffer, (16) ... setting section, (18) ... long note discrimination section, (19> ... consonant discrimination section.

Claims (1)

【特許請求の範囲】[Claims] (1) 音声データを記憶する記憶手段を備え、カタカ
ナ列あるいは数字列等の文字列を入力し、該文字列の各
音節に対応する音声データを前記記憶手段から読み出し
て合成し、前記文字列により表わされる任意の文章を音
声として発生する規則合成方式の音声合成装置において
、前記入力文字列中の長音符を判別し、該長音符の直前
の音節に対応する前記音声データの音声発生長を予め定
められた標準長より伸ばして発生させ、発生後前記長音
符の直後の音節に対応する前記音声データの音声を発生
させることを特徴とした音声合成装置の音声発生方式。
(1) A storage means for storing audio data is provided, in which a character string such as a katakana string or a number string is input, and audio data corresponding to each syllable of the character string is read out from the storage means and synthesized, and the character string is In a regular synthesis type speech synthesis device that generates an arbitrary sentence expressed as speech as speech, a long note in the input character string is determined, and a speech generation length of the speech data corresponding to a syllable immediately before the long note is determined in advance. 1. A sound generation method for a speech synthesizer, characterized in that the sound data is elongated from the standard length of the long note, and the sound of the sound data corresponding to the syllable immediately after the long note is generated.
JP1160354A 1989-06-22 1989-06-22 Voice generating system for voice synthesizing device Pending JPH0242526A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1160354A JPH0242526A (en) 1989-06-22 1989-06-22 Voice generating system for voice synthesizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1160354A JPH0242526A (en) 1989-06-22 1989-06-22 Voice generating system for voice synthesizing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP58052998A Division JPS59177598A (en) 1983-03-28 1983-03-28 Voice synthesizer

Publications (1)

Publication Number Publication Date
JPH0242526A true JPH0242526A (en) 1990-02-13

Family

ID=15713162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1160354A Pending JPH0242526A (en) 1989-06-22 1989-06-22 Voice generating system for voice synthesizing device

Country Status (1)

Country Link
JP (1) JPH0242526A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5621231A (en) * 1979-07-27 1981-02-27 Nec Corp Audio synthesizer for kana character input
JPS5774795A (en) * 1980-10-28 1982-05-11 Suwa Seikosha Kk Voice synthesizer
JPS57153373A (en) * 1981-03-17 1982-09-21 Sharp Corp Electronic interpreter

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5621231A (en) * 1979-07-27 1981-02-27 Nec Corp Audio synthesizer for kana character input
JPS5774795A (en) * 1980-10-28 1982-05-11 Suwa Seikosha Kk Voice synthesizer
JPS57153373A (en) * 1981-03-17 1982-09-21 Sharp Corp Electronic interpreter

Similar Documents

Publication Publication Date Title
JPH1091389A (en) Synthesizer for converting text into voice
JP5029168B2 (en) Apparatus, program and method for reading aloud
JPS63157226A (en) Conversation type sentence reading device
JPH0242526A (en) Voice generating system for voice synthesizing device
JPH04275B2 (en)
JP3838193B2 (en) Text-to-speech device, program for the device, and recording medium
JP3034554B2 (en) Japanese text-to-speech apparatus and method
JP2703253B2 (en) Speech synthesizer
JP2584236B2 (en) Rule speech synthesizer
JPH096378A (en) Text voice conversion device
JPH01300334A (en) Sentence read-aloud device
JP2000172286A (en) Simultaneous articulation processor for chinese voice synthesis
JPS58154900A (en) Sentence voice converter
JPS60258598A (en) Voice synthesizer
JP2584222B2 (en) Speech synthesizer
JP2888847B2 (en) Text-to-speech apparatus and method, and language processing apparatus and method
JPS6027433B2 (en) Japanese information input device
JPH01119822A (en) Sentence reader
JPS63188198A (en) Rule type voice synthesizer
JPH0282300A (en) Device for reading sentence aloud
JPH07160685A (en) Device for reading out sentence
JPH10274998A (en) Method and device for reading document aloud
JPH04177526A (en) Sentence reading-out device
JPH07199982A (en) Information processor
JPH06168265A (en) Language processor and speech synthesizer