JPS5913758B2 - 音声合成方法 - Google Patents

音声合成方法

Info

Publication number
JPS5913758B2
JPS5913758B2 JP55020597A JP2059780A JPS5913758B2 JP S5913758 B2 JPS5913758 B2 JP S5913758B2 JP 55020597 A JP55020597 A JP 55020597A JP 2059780 A JP2059780 A JP 2059780A JP S5913758 B2 JPS5913758 B2 JP S5913758B2
Authority
JP
Japan
Prior art keywords
speech
information
output
bits
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP55020597A
Other languages
English (en)
Other versions
JPS56117294A (en
Inventor
和裕 梅村
徹 三瓶
和男 中田
大和 佐藤
憲也 村上
清志 印藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Nippon Telegraph and Telephone Corp
Original Assignee
Hitachi Ltd
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Nippon Telegraph and Telephone Corp filed Critical Hitachi Ltd
Priority to JP55020597A priority Critical patent/JPS5913758B2/ja
Priority to EP81900494A priority patent/EP0045813B1/en
Priority to DE8181900494T priority patent/DE3171171D1/de
Priority to PCT/JP1981/000031 priority patent/WO1981002489A1/ja
Priority to US06/314,839 priority patent/US4491958A/en
Publication of JPS56117294A publication Critical patent/JPS56117294A/ja
Publication of JPS5913758B2 publication Critical patent/JPS5913758B2/ja
Expired legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Use Of Switch Circuits For Exchanges And Methods Of Control Of Multiplex Exchanges (AREA)

Description

【発明の詳細な説明】 本発明はPARCOR形音声合成方法に関するものであ
る。
15PARCOR型の音声分析合成方法は、音声を分析
して得られるPARCOR係数、ピッチ情報、振幅情報
及び有声、無声の判別情報を全て2進数で表わすデジタ
ル信号で取扱うことができ、これ等の情報は半導体メモ
リーに記憶させることがで20きる。
また2進数で表わされた情報を電話回線を利用して伝送
することもできる。音声を分析して音声の特徴パラメー
タを抽出する場合、音声を短時間間隔に区切つて分析を
行なう。
この短時間区間は一般に分析フレームあるい25は単に
フレームと呼ばれ、この1フレームからPARCOR係
数、ピッチ情報、振幅情報・及び有声無声の判別情報が
抽出される。そして1フレーム当りの情報は例えば96
ビットの情報量で転送される。この情報量は1フレーム
の時間を2030msecとすると4800ビット/秒
の情報量となり、1フレームの時間を10msecとす
ると9600ビット/秒の情報量となる。音声を分析し
て得た音声パラメータに基ずいて音声を合成する音声合
成装置は、合成する際に用35いられる情報量によつて
合成音声の質が決定される。
例えば音声分析によつて得られた音声パラメータを48
00ビット/秒の情報量で伝送する場合と、9600ピ
ツト/秒の情報量で伝送する場合とでは、明らかに96
00ビツト/秒の情報量で伝送する方が音質は良い。し
かし、たとえばデジタル電話などでは、回線が比較的空
いている場合は音質の良い9600ビツト/秒でも、回
線が混んでくると音質を多少犠牲にしてでも4800ビ
ツト/秒を使う方が回線の利用効率が上がる。また音声
情報を半導体メモリ等の記憶装置に記憶させる場合には
、音質を優先するか、記憶容量を優先するかによつて使
用する情報量が違つてくる。従来の音声合成装置は処理
できる単位時間当りの情報量が固定されており、異なつ
た情報量で表わされた音声情報を処理することができな
い。例えば9600ビツト/秒の情報量を扱う音声合成
装置では4800ビツト/秒の情報量で表わされる音声
情報を処理することができない。従つて電話回線の混み
具合によつて伝送する情報量を変えるということができ
ず、また記憶装置を用いる場合も音質を優先するか、音
声の容量を優先するか応用先に応じて音声合成装置を選
択しなければならなかつた。本発明の目的は上記した従
来技術の欠点をなくし、音声合成装置の統一化をはかる
ことにより量産性を向上させ、安価な音声合成装置を提
供するにある。
本発明は、音声パラメータの1フレーム(合成のための
時間間隔)当たりの情報量を変えずにフレーム時間を可
変とすることによつて単位時間当たりの音声パラメータ
情報量を可変とし音声合成装置を共通化しようとするも
のである。
以下本発明になる音声合成装置を図に示す実施例によつ
て説明する。
第1図は本発明の音声合成装置の一実施例を示し、第2
図は第1図の音声合成装置の音声パラメータの入力タイ
ミングを示すタイムチヤートの一例、第3図は入力タイ
ミングを発生するカウンタ部を示す。これらの図を用い
て本発明の具体的な一実施例を説明する。本実施例はP
ARCOR形音声合成装置であるがPARCOR形音声
合成の原理は公知であるのでここではその説明を省略す
る。
第1図において1は音声パラメータが記憶される記憶装
置、2は記憶装置1から出力すべき音声パラメータのア
ドレスを指定し、音声合成の開始及び終了、音声パラメ
ータの転送レートの指定等を行なう制御装置である。
記憶装置1は例えば半導体メモリで構成され、これに記
憶される音声パラメータは音声の振幅を表わす振幅情報
、声帯の基本振動周波数に相当するピツチ情報、10個
の偏自己相関係数が記憶される。記憶装置1に記憶され
る情報は1フレーム当り振幅情報7ビツト、ピツ5−清
報7ビツト、10個の偏自己相関係数が82ビツト合計
96ビツトの情報量で記憶されている。制御装置2は例
えばマィクロコンピユータで構成され、記憶装置1に記
憶されている音声パラメータを記憶装置1から順次出力
させるために、出力すべき音声パラメータのアドレス指
定、音声合成の開始及び終了等の制御信号を出力し、こ
の制御信号は記憶装置1に供給される。記憶装置1は制
御装置2の制御信号に従つて記憶された音声パラメータ
を振幅、ピツチ、偏自己相関係数の順にシリアルに読み
出し、これをインタフエース論理部3へ供給する。イン
タフエース論理部3は制御装置2から出力される制御指
令信号を受信し、この制御指令信号に従つて記憶装置1
から供給される音声パラメータから振幅情報、ピツチ情
報、偏自己相関係数を分離し、ピツチ情報から有声音か
無声音かを判別して有声音の場合にはパルス発生器を駆
動し、無声音の場合には雑音発生器を駆動する。そして
さらに有声音の場合にはピツチ清報に基ずいてパルス発
生器のパルスの周期を変える。インタフエース論理部3
はさらに振幅情報に基ずいてパルス発生器あるいは雑音
発生器の出力信号の振幅を制御し、これを音源信号とし
て偏自己相関係数と共にデジタルフイルタ4に供給する
。デジタルフイルタ4は10段の格子型フイルタで構成
され、1個の格子型フイルタは2個の乗算器と、1個の
減算器、1個の加算器、1個の遅延回路及び1個の損失
回路を備えている。そしてインタフエース論理部3から
供給された10個の偏自己相関係数はデジタルフイルタ
4の10段の格子型フイルタにそれぞれ供給され、デジ
タルフイルタ4で音源信号と偏自己相関係数が乗算され
、デジタル音声符号が合成される。デジタルフイルタ4
で合成されたデジタル音声符号はデジタルアナログ変換
器5に供給され、デジタルアナログ変換器5でデジタル
音声符号はアナログ信号に変換される。そしてこのアナ
ログ信号はスピーカ6に供給されて再生される。記憶装
置1に記憶される音声パラメータは1フレーム当り96
ビツトで構成され、1フレームの時間は20msecに
選ばれている。
従つて1秒間の音声を合成する場合、インタフエース論
理部3は4800ビツトの情報を転送する。合成音の質
を向上させるためには単位時間当りの情報量を多くすれ
ばよく、1フレーム当りの情報量96ビツトは変えずに
1フレームの時間を10msecに選ぶと、1秒当り9
600ビツトの情報量となり合成音の質を向上させるこ
とができる。即ち1フレーム当りのビツト数を変えずに
フレーム周期を変えるだけで、単位時間当りの音声パラ
メータの転送量を変えることができる。第2図は第1図
に示す音声合成装置の音声パラメータの入力タイミング
を示すタイムチヤートであり、1フレームを20mse
cとした場合と、1フレームを10msecとした場合
とを示す。
いずれも1フレーム当りの情報量は96ビツトであるが
、フレーム周期を1/2にすると1秒間に転送する情報
量は2倍となる。従つて電話回線の混雑の度合、必要と
する合成音の質に応じて音声分析、音声合成の1フレー
ムの時間を20msecにするか、10msecにする
か選択すればよい。また音声合成装置も入力または記憶
された音声パラメータのフレーム周期に合せて音声パラ
メータの取り込み周期が切換えられるようにすれば、9
600ビツト/秒の情報量と4800ビツト/秒の情報
量を切換えに処理することができる。記憶装置1には1
フレーム当り96ビツトで1フレームの時間が20ms
ecの場合の音声パラメータと、1フレーム当り96ビ
ツトで1フレームの時間が10msecの場合の音声パ
ラメータがそれぞれ一緒に記憶されるか、あるいはいず
れか一方の音声パラメータが選択されて記憶されている
また電話回線等を通して他から音声パラメータが転送さ
れて来る場合には、記憶装置1にはその時時に使用され
る転送量、即ち4800ビツト/秒あるいは9600ビ
ツト/秒の情報量で表わされた音声パラメータが記憶さ
れる。インタフエース論理部3は記憶装置1から供給さ
れる音声パラメータの単位時間当りの転送量に応じて、
情報を取り込むタイミングを変えなければならない。
インタフエース論理部3は記憶装置1から音声パラメー
タを1.2msecで取り込み、この取り込み動作は第
2図に示すタイムチヤートにおいて1フレームの最後の
2.5msecの時間のうちに次のフレームの音声パラ
メータを取り込む。従つて10msecあるいは20m
secごとに音声パラメータを取り込むための同期信号
を発生する必要がある。カウンタ部17は、このインタ
フエース論理部3が情報を取り込むための必要な入力タ
イミング信号を発生しており、その入力タイミング信号
はカウンタ部17の出力端子16からインタフエース論
理部3に供給されている。カウンタ部17の出力信号で
ある入力タイミング信号の周期はスイツチ部12で切換
えられ、音声パラメータの単位時間当りの転送量の違い
に応じて変化させられる。スイツチ12はその可動接点
がカウンタ部17に接続され、2個の固定接点のうち一
方の固定接点は外部の電源Vccに接続され、他方の固
定接点はカウンタ部17に接続されている。そして可動
接点を外部の電源Vccに接続するとカウンタ部17か
らは10msecごとに入力タイミング信号が出力され
、9600ビツト/秒の情報量に対処する。また可動接
点をカウンタ部17に接続するとカウンタ部17からは
20msecごとに入力タイミング信号が出力され48
00ビツト/秒の情報量に対処する。どのように音声パ
ラメータのビツト配分は全く変化なく、フレーム周期を
変えることだけで音声パラメータの転送量が切換えられ
たことになる。
音声パラメータが入力された後の動作は音声パラメータ
の値とは独立に、常に音声合成動作を行なつており、音
声パラメータが入力されると、デジタルフイルタ4の入
力が新しい値となり、次々とデジタル音声符号を合成し
ていく。デジタル音声符号はデジタルアナログ変換器5
によりアナログ音声信号に変換される。このアナログ信
号でスピーカを駆動し、合成音声が出力される。第3図
は第1図に示す音声パラメータ入力同期信号発生用のカ
ウンタ17の実施例を示すものである。第3図において
、7は8段のバイナリカウンタでクロツク入力端子8よ
り12.5μSecのクロツクが加えられている。AN
D回路9はカウンタ7が200すなわち2.5msec
がカウントするとカウンタ7をりセツトする働きを持つ
。カウンタ11は3段のバイナリカウンタでAND回路
9の出力すなわち2.5msecのクロツクが加えられ
ている。AND回路10はカウンタ7が96すなわち音
声パラメータ情報量96ビツトを12.5μおきにシリ
アルに取り込むのに必要な時間間隔をカウントするとフ
リツプフロツプ13をりセツトする。AND回路15に
はフリツプフロツプ13より音声パラメータ入力時間間
隔が、14より12.5μSecのクロツクが与えられ
る。またカウンタ11のそれぞれのフリツブフロツプか
らも出力がAND回路15に加えられている。但し48
00ビツト/秒の情報量すなわち1フレーム20TrL
secの時はスイツチ12は4800側に接続される。
このような回路において、まず音声バラメータの転送量
が4800ビツト/秒の場合について説明する。この場
合にはスイツチ12の可動接点はカウンタ11に接続さ
れている。そしてカウンタ7は入力端子8から供給され
るクロツクパルスを順次カウントし、200個のクロツ
クパルスをカウントすると、AND回路9の入力端子に
接続されているカウンタ7の出力端子は全てハイレベル
となつでゝ17を出力する。この結果、AND回路9の
出力はハイレベルとなつてゞ 1 ″を出力しカウンタ
7をりセツトする。即ちAND回路9はカウンタ7が入
力端子8から供給されるクロツクパルスを200個カウ
ントするごとにゞ 17出力を出す。これは時間間隔に
して2.5msecごとにAND回路9から″1 ″出
力が出力されることになる。カウンタ11はAND回路
9の出力をカウントし、AND回路9の出力を8個カウ
ントすると、3個のフリツプフロツプのQ出力端子は全
てハイレベルとなつでゝ 1!′を出力する。即ち2.
5msecごとに出力されるAND回路9の出力を8個
カウントして20msecとなるとAND回路15にハ
イレベルの信号を供給する。またフリツプフロツプ回路
13の入力端子にはAND回路9の出力信号が供給され
ており、フリツプフロツプ回路13はAND回路9の出
力信号でセツト状態となり、その出力端子はハイレベル
となつて″1″の出力信号を出力する。またAND回路
15には入力端子14からクロツクパルスが供給されて
いる。従つてAND回路15の5個の入力端子が全てハ
イレベルになる時点はカウンタ11の第3段目のフリツ
プフロツプ回路の出力端子Qがハイレベルとなつた時、
即ちカウンタ部17が動作を開始してから20msec
後となる。カウンタ11の3個のフリツプフロツプは8
個のパルスをカウントするとりセツトされて再び1から
パルスをカウントするため、AND回路15の全ての入
力端子がハイレベルとなるのは20msecごととなり
、この時AND回路15の出力端子16からハイレベル
即ぢ11″の出力が出力される。出力端子16に現われ
た信号は第1図のインタフエース論理部3に供給され、
インタフエース論理部3は出力端子16にゞ11出力が
現われている期間に記憶装置1から音声パラメータを取
り込む。AND回路10の全ての入力端子は、第1のカ
ウンタ7が入力端子8から供給されるクロツクパルスを
96個カウントした時、即ちカウンタ7がカウントを開
始してから1.2msec経過した時にハイレベルとな
り、その出力端子に117の信号を出力する。
そしてAND回路10のハイレベルの出力はフリツプフ
ロツプ回路13のりセツト入力端子に供給されフリツプ
フロツブ回路13をりセツト状態にする。従つてフリツ
プフロツプ回路13はAND回路9の出力でセツト状態
になつてから1、2m8eC経過後にりセツト状態にな
り、その出力はローレベルの″″0″出力となる。これ
によりAND回路15の出力は″′O″となり、インタ
フエース論理部3の情報取り込み動作は終了する。従つ
てインタフエース論理部3はAND回路15の出力がハ
イレベルとなつている1.2msecの期間に12.5
μSecのパルス信号を96個取り込み、これを音声パ
ラメータを取り込む同期信号とする。次に音声パラメー
タの転送量が9600ビツト/秒の場合について説明す
る。
この場合には切換スイツチ12の可動接点は9600側
に接続され、外部電源の正電圧Vccがスイツチ12に
供給される。この電圧はAND回路15の入力端子に供
給される。従つてAND回路15の全ての入力端子が・
・イレベルとなる時はカウンタ11の第1及び第2のフ
リツプフロツプの出力端子Qがそれぞれ・・イレベルと
なつてゞ1″信号が出力された時となる。即ちAND回
路9の出力信号を2.5msecおきに数えて第4番目
と第8番目の期間にAND回路15の出力端子16にゞ
1〃の信号が出力される。出力端子16がハイレベルに
なる時間間隔は10msecとなり、インタフエース論
理部3は10msee間隔で1フレーム当り96ビツ卜
の音声パラメータを取り込む。このようにしてフレーム
期間設定と音声パラメータ入力同期信号発生を独立させ
ることにより、フレーム期間を変えても同期信号発生の
タイミング間隔と同期信号のパルスの数は変わらない。
したがつてこの同期信号に従つて音声パラメータを取り
込めば1フレームあたりのビツト数はそのままで、1秒
あたりの情報量が変更できる。以上説明したように本発
明によれば従来音声パラメータの転送量の違いにより、
異つた装置が必要とされていたものが同一装置で異つた
転送量のデータを受信することができ、量産性を向上さ
せた音声合成装置を提供することができる。
【図面の簡単な説明】
第1図は本発明による音声合成装置の一実施例を示すプ
ロツク図、第2図は第1図の音声パラメータの入力タイ
ミングを示すタイムチヤート、第3図は本発明による音
声パラメータ入力同期信号発生用のカウンタの実施例を
示すプロツク図である。 1・・・・・・音声パラメータ記憶装置、2・・・・・
・制御装置、3・・・・・・インタフエース論理部、4
・・・・・・デジタルフイルタ、5・・・・・・デジタ
ルアナログ変換器、6・・・・・・スピーカ、7・・・
・・・8段バイナリカウンタ、11・・・・・・3段バ
イナリカウンタ、12・・・・・・パラメータ情報量切
換スイツチ。

Claims (1)

  1. 【特許請求の範囲】 1 自然音声より一定時間間隔ごとに波形を切り出し、
    切り出されたそれぞれの波形から抽出されたn個の偏自
    己相関係数をもとに一定時間間隔でフィルタを変化させ
    て音声を合成し出力する音声合成方法において、n個の
    偏自己相関係数を含む音声パラメータの量子化ビット配
    分を変えずに、偏自己相関係数を抽出する際の波形の切
    り出し間隔と合成の際の間隔を同時に可変することによ
    つて単位時間あたりの合成のために使用する情報量を可
    変することを特徴とする音声合成方法。 2 前記合成の時間間隔と音声パラメータを取り込む時
    間間隔を独立にカウンタで指定して音声を合成すること
    を特徴とする特許請求の範囲第1項に記載された音声合
    成方法。
JP55020597A 1980-02-22 1980-02-22 音声合成方法 Expired JPS5913758B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP55020597A JPS5913758B2 (ja) 1980-02-22 1980-02-22 音声合成方法
EP81900494A EP0045813B1 (en) 1980-02-22 1981-02-17 Speech synthesis unit
DE8181900494T DE3171171D1 (en) 1980-02-22 1981-02-17 Speech synthesis unit
PCT/JP1981/000031 WO1981002489A1 (en) 1980-02-22 1981-02-17 Speech synthesis unit
US06/314,839 US4491958A (en) 1980-02-22 1981-02-17 Speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP55020597A JPS5913758B2 (ja) 1980-02-22 1980-02-22 音声合成方法

Publications (2)

Publication Number Publication Date
JPS56117294A JPS56117294A (en) 1981-09-14
JPS5913758B2 true JPS5913758B2 (ja) 1984-03-31

Family

ID=12031670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP55020597A Expired JPS5913758B2 (ja) 1980-02-22 1980-02-22 音声合成方法

Country Status (4)

Country Link
US (1) US4491958A (ja)
EP (1) EP0045813B1 (ja)
JP (1) JPS5913758B2 (ja)
WO (1) WO1981002489A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4658424A (en) * 1981-03-05 1987-04-14 Texas Instruments Incorporated Speech synthesis integrated circuit device having variable frame rate capability
US4639877A (en) * 1983-02-24 1987-01-27 Jostens Learning Systems, Inc. Phrase-programmable digital speech system
US4612414A (en) * 1983-08-31 1986-09-16 At&T Information Systems Inc. Secure voice transmission
JPS61278900A (ja) * 1985-06-05 1986-12-09 株式会社東芝 音声合成装置
US4772873A (en) * 1985-08-30 1988-09-20 Digital Recorders, Inc. Digital electronic recorder/player
JPH04255899A (ja) * 1991-02-08 1992-09-10 Nec Corp 音声合成lsi
JP2574652B2 (ja) * 1994-09-19 1997-01-22 松下電器産業株式会社 音楽演奏装置
JP4830918B2 (ja) * 2006-08-02 2011-12-07 株式会社デンソー 熱交換器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US476577A (en) * 1892-06-07 Vehicle chafe-iron
DE2431553A1 (de) * 1974-07-01 1976-01-22 Philips Patentverwaltung Verfahren und anordnung zur uebertragung von analogen daten
JPS5154714A (en) * 1974-10-16 1976-05-14 Nippon Telegraph & Telephone Tajuonseidensohoshiki
JPS5852239B2 (ja) * 1977-12-28 1983-11-21 ケイディディ株式会社 線型予測型音声分析合成系のパラメ−タの符号化方式
US4184049A (en) * 1978-08-25 1980-01-15 Bell Telephone Laboratories, Incorporated Transform speech signal coding with pitch controlled adaptive quantizing
JPS5533117A (en) * 1978-08-31 1980-03-08 Kokusai Denshin Denwa Co Ltd Voice transmission system
US4328395A (en) * 1980-02-04 1982-05-04 Texas Instruments Incorporated Speech synthesis system with variable interpolation capability
JPH05154714A (ja) * 1991-06-03 1993-06-22 Sicmat Spa 歯車切削機
JPH05125905A (ja) * 1991-11-01 1993-05-21 Ishikawajima Harima Heavy Ind Co Ltd コージエネレーシヨン装置

Also Published As

Publication number Publication date
US4491958A (en) 1985-01-01
EP0045813A1 (en) 1982-02-17
EP0045813B1 (en) 1985-07-03
EP0045813A4 (en) 1982-07-13
JPS56117294A (en) 1981-09-14
WO1981002489A1 (en) 1981-09-03

Similar Documents

Publication Publication Date Title
US4220819A (en) Residual excited predictive speech coding system
EP0688010A1 (en) Speech synthesis method and speech synthesizer
US5048088A (en) Linear predictive speech analysis-synthesis apparatus
JPS5913758B2 (ja) 音声合成方法
US4700393A (en) Speech synthesizer with variable speed of speech
US4845753A (en) Pitch detecting device
JP2748784B2 (ja) 波形生成装置
JPH0516101B2 (ja)
JPH0422275B2 (ja)
JPS642960B2 (ja)
JP2615991B2 (ja) 線形予測型音声分析合成装置
JP2715437B2 (ja) マルチパルス符号化装置
JPH02146599A (ja) 音源データ圧縮符号化方法
JPH0235320B2 (ja)
JPS61278900A (ja) 音声合成装置
JP2535807B2 (ja) 音声合成装置
JPH01200296A (ja) 音声符号化装置
JPS59125798A (ja) 音声合成装置
JPH0776872B2 (ja) 楽音信号発生装置
JPS6040636B2 (ja) 音声合成装置
JPH0675586A (ja) 音響信号発生回路
JPS6091397A (ja) 音声認識装置
JPH0142000B2 (ja)
JPS6237800B2 (ja)
JPH10187180A (ja) 楽音発生装置