JPH03157698A - 話者認識システム - Google Patents

話者認識システム

Info

Publication number
JPH03157698A
JPH03157698A JP1298503A JP29850389A JPH03157698A JP H03157698 A JPH03157698 A JP H03157698A JP 1298503 A JP1298503 A JP 1298503A JP 29850389 A JP29850389 A JP 29850389A JP H03157698 A JPH03157698 A JP H03157698A
Authority
JP
Japan
Prior art keywords
neural network
speaker
threshold
network
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1298503A
Other languages
English (en)
Other versions
JP2510301B2 (ja
Inventor
Kazuhiko Okashita
和彦 岡下
Shingo Nishimura
新吾 西村
Masashi Miyagawa
宮川 正志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui Chemical Co Ltd
Original Assignee
Sekisui Chemical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui Chemical Co Ltd filed Critical Sekisui Chemical Co Ltd
Priority to JP1298503A priority Critical patent/JP2510301B2/ja
Publication of JPH03157698A publication Critical patent/JPH03157698A/ja
Application granted granted Critical
Publication of JP2510301B2 publication Critical patent/JP2510301B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、電子錠等において入力音声からその話者を照
合するに好適な話者認識システムに関する。
[従来の技術] 従来の話者認識システムは、例えば特公昭56−139
56に記載される如く、以下の手順による。
■入力音声に含まれる話者に関する特徴量を抽出する。
■予め上記■と同様にして抽出しておいた標準パターン
と上記■で抽出した特徴量との距離を計算する。
■上記■で計算した距離が、予め設定しであるしきい値
よりも小なることを条件に、今回の入力話者をその標準
パターンの登録話者であるものと判定する。
[発明か解決しようとする課題] 然しなから、上記従来の話者認識システムでは、下記■
、■の問題点がある。
■標準パターン作成時から時間が経過するにつれ、認m
率が劣化する。例えば、3ケ月経過により、認識率は1
00.0%から85.0%に劣化する。
■実時間処理か困難である。即ち、−室以上の認識率を
確保するためには複雑な特徴量を用いる必要かあるが、
複雑な特徴量を抽出するためには複雑な処理装置が必要
であり、処理時間も多大となる。
本発明は、経時的な認識率の劣化が極めて少なく、容易
に実時間処理できる話者認識システムを得ることを目的
とする。
[課題を解決するための手段] 請求項1に記載の本発明は、ニューラルネットワークを
用いた話者認識システムであって、登録話者に対応する
出力ユニットの出力値に対し、登録話者認識用しきい値
と追加学習用しきい値とを設定し、上記出力値が登録話
者認識用しきい値より大なることを条件に、今回の入力
話者を登録話者と判定し、上記出力値が登録話者認識用
しきい値より大、かつ追加学習用しきい値より小なるこ
とを条件に、今回の入力音声データを用いてニューラル
ネットワークの追加学習を行なうようにしたものである
請求項2に記載の本発明は、前記ニューラルネットワー
クへの入力として、 ■音声の周波数特性の時間的変化、 ■音声の平均的な線形予測係数、 ■音声の平均的なPARCOR係数、 ■音声の平均的な周波数特性、及びピッチ周波数、 ■高域強調を施された音声波形の平均的な周波数特性、
並びに ■音声の平均的な周波数特性 のうちの1つ以上を使用するようにしたものである。
請求項3に記載の本発明は、前記ニューラルネットワー
クが階層的なニューラルネットワークであるようにした
ものである。
[作用] (1)経時的な認識率の劣化が極めて少ない。このこと
は、後述する実験結果により確認されていることである
か、ニューラルネットワークが音声の時期差による変動
の影響を受けにくい構造をとることか可能なためと推定
される。
(2)ニューラルネットワークを構成する、登録話者に
対応する出力ユニットの出力値に対し、登録話者認識用
しきい値の他に、追加学習用しきい値を設けた。即ち、
上記出力値が登録話者認識用しきい値を超えて大なるも
のであり、入力話者を登録話者と判定できるものであっ
ても、該出力値が該登録話者認識用しきい値より大なる
追加学習用しきい値を超えるものでない場合には、今回
の入力音声データを用いてニューラルネットワークの追
加学習を行なう、これにより、話者の特徴が経時変化し
ても認識率が劣化する前にニューラルネットワークを更
新でき、結果として、音声の経時変化に強い話者認識シ
ステムを構成できる。
(3)ニューラルネットワークは、原理的に、ネットワ
ーク全体の演算処理が単純且つ迅速である。
(4)ニューラルネットワークは、原理的に、それを構
成している各ユニットが独立に動作しており、並列的な
演算処理が可能である。従って、演算処理が迅速である
(5)上記(3)〜(4)により、話者認識システムを
複雑な処理装置によることなく容易に実時間処理できる
又、請求項2に記載の本発明によれば上記(1)〜(5
)の作用効果に加えて、下記(6)の作用効果がある。
(6)ニューラルネットワークへの入力として、請求項
2に記載の■〜■の各要素のうちの1つ以上を用いるか
ら、入力を得るための前処理が、従来の複雑な特徴量抽
出に対して、単純となり、この前処理に要する時間が短
くて足りる。
又、請求項3に記載の本発明によれば上記(1)〜(6
)の作用効果に加えて、下記(7)の作用効果かある。
(7)階層的なニューラルネットワークにあっては、現
在、後述する如くの簡単な学習アルゴリズム(パックプ
ロパゲーション)が確立されており、高い認識率を実現
できるニューラルネットワークを容易に形成できる。
[実施例] 第1図は本発明が適用された話者認識システムの一例を
示す模式図、第2図は音声処理部とニューラルネットワ
ークの一例を示す模式図、第3図は入力音声を示す模式
図、第4図はバンドパスフィルタの出力を示す模式図、
第5図はニューラルネットワークを示す模式図、第6図
は階層的なニューラルネットワークを示す模式図、第7
図はユニットの構造を示す模式図である。
本発明の具体的実施例の説明に先立ち、ニューラルネッ
トワークの構成、学習アルゴリズムについて説明する。
(1)ニューラルネットワークは、その構造から、第5
図(A)に示す階層的ネットワークと第5図(B)に示
す相互結合ネットワークの2種に大別できる0本発明は
、両ネットワークのいずれを用いて構成するものであっ
ても良いが、階層的ネットワークは後述する如くの簡単
な学習アルゴリズムが確立されているためより有用であ
る。
(2)ネットワークの構造 階層的ネットワークは、第6図に示す如く、入力層、中
間層、出力層からなる階層構造をとる。
各層は1以上のユニットから構成される。結合は、入力
層→中間層→出力層という前向きの結合だけで、各層内
での結合はない。
(3)ユニットの構造 ユニットは第7図に示す如く脳のニューロンのモデル化
であり構造は簡単である。他のユニットから入力を受け
、その総和をとり一定の規則(変換関数)で変換し、結
果を出力する。他のユニットとの結合には、それぞれ結
合の強さを表わす可変の重みを付ける。
(4)学習(パックプロパゲーション)ネットワークの
学習とは、実際の出力を目標値(望ましい出力)に近づ
けることであり、−a的には第7図に示した各ユニット
の変換関数及び重みを変化させて学習を行なう。
又、学習のアルゴリズムとしては、例えば、Rumel
hart、 D、E、、McClelland、 J、
L、 and thePDP Re5earch Gr
oup、 PARALLEL DISTRIBUTED
PRO(:ESSING、 the MIT Pres
s、 1986.に記載されているパックプロパゲーシ
ョンを用いることができる。
以下、本発明の具体的な実施例について説明する。
話者認識システム10は、第1図に示す如く、音声入力
部11、音声処理部12、ニューラルネットワーク13
、判定部14、メモリ部15、ネットワーク制御部16
、機器制御部17を有して構成される。
(1)音声入力部11に登録音声を入力する。
この時、学習単語を「タダイマ」、入力単語を「タダイ
マ」とする。
又、登録話者を9名、詐称者を27名とする。
(2)音声処理部12で、上記(1)の入力音声に簡単
な前処理を施す。
前処理結果は、今回の話者認識のためにニューラルネッ
トワーク13に転送されるとともに、追加学習の可能性
に備えて、メモリ部15に転送される。
(3)ニューラルネットワーク13は、下記■の学習動
作と下記■の評価動作を行なう。
■学習 目標値(出力層を構成する各出力ユニットの目標出力値
)を、登録話者については(1,0)、詐称者について
は(0,1)とする。
登録話者の入力音声「タダイマ」に、音声処理部12に
よる前処理を施し、この前処理結果なニューラルネット
ワーク13に入力する。そして、ニューラルネットワー
ク13の出力値(出力層を構成する各出力ユニットの出
力値)が上記目標値に近づくように、ニューラルネット
ワーク13の各ユニットの変換関数及び重みを修正する
この学習動作を例えば3万回くり返す。
■評価 今回話者の入力音声に前処理を施し、この前処理を施し
た音声をニューラルネットワーク13に入力し、ニュー
ラルネットワークの出力値(X、Y)を得る。
そして、ニューラルネットワーク13の上記出力値(X
、Y)は判定部14に転送される。
(4)判定部14は、ニューラルネットワーク13の出
力値(X、Y)に対し、しきい値θ1.02.03 (
θ1〉θ2)を設ける。
Olは追加学習用しきい値、θ2は登録話者認識用しき
い値、θ3は詐称者認識用しきい値である。
判定部14は、上記しきい値を用いて、下記■〜■の判
定動作を行なう。
■[X>02かつY〈θ3] であることを条件に、判定部14は、今回の入力話者を
登録話者と判定し、この登録話者判定信号を機器制御部
17に出力する。
■[x〉θ2かつY〉θ3コ又は[X<02かつY〉θ
3]又は[X<02かつY〈θ3]であることを条件に
、判定部14は、今回の入力話者を詐称者と判定し、こ
の詐称者判定信号を機器制御部17に出力する。
■上記■の登録話者判定時に限り、判定部14は、更に
次の(a)  (b)の処理を行なう。
(a)[X<θ1] であることを条件に、判定部14は、今回の入力音声デ
ータを用いてニューラルネットワーク13の追加学習を
行なうべく、ネットワーク制御部16に追加学習実行信
号を出力する。
(b)[X>θl] である時、判定部14は何もしない。
(5)機器制御部17は、判定部14による上記■の判
定結果に基づく登録話者判定信号により、機器を制御す
る。
この機器は、例えば電子錠であり、上記登録話者判定信
号に基づいて開錠制御を行なう。
(6)ネットワーク制御部16は、判定部14による上
記■の判定結果に基づく追加学習実行信号により、ニュ
ーラルネットワーク13の追加学習を行なうことを判断
する。この時、ネットワーク制御部16は、メモリ部1
5より、今回の入力音声データを取出し、この入力音声
データをニューラルネットワーク13に再入力し、この
入力に対するニューラルネットワーク13の出力値(X
、Y)か口述(3)■の登録話者についての目標値(1
、0)に近づくように、ニューラルネットワーク13の
各ユニットの変換関数及び重みを修正する。ネットワー
ク制御部16は、この追加学習動作を例えば3万回くり
返す。
以下、第2図に示す如く、階層的なニューラルネットワ
ーク13を用い、ニューラルネットワーク13の入力と
して音声の一定時間内における平均的な周波数特性の時
間的変化を用いた場合の具体的実施例について説明する
尚、音声処理部12は、第2図に示す如く、ローパスフ
ィルタ21、バンドパスフィルタ22、平均化回路23
の結合にて構成される。
■入力音声の音声信号の高域成分を、ローパスフィルタ
21にてカットする。そして、この入力音声を第3図に
示す如く、4つのブロックに時間的に等分割する。
■音声波形を、第2図に示す如く、複数(n個)チャン
ネルのバンドパスフィルタ22に通し、各ブロック即ち
各一定時間毎に第4図(A)〜(D)のそれぞれに示す
如くの周波数特性を得る。
この時、バンドパスフィルタ22の出力信号は、平均化
回路23にて、各ブロック毎、即ち一定時間で平均化さ
れる。
以上の前処理により、「音声の一定時間内における平均
的な周波数特性の時間的変化」が得られた。
平均化回路23の出力は、直接的にニューラルネットワ
ーク13に転送され、或いはメモリ部15を経由して間
接的にニューラルネットワーク13に転送される。
■ニューラルネットワーク13は、3層の階層的なニュ
ーラルネットワークにて構成される。入力層3】は、前
処理の4ブロツク、nチャンネルに対応する4Xnユニ
ツトにて構成される。出力層32は、登録話者群と詐称
者群との2ユニツトにて構成される。
出力層32の目標値は、登録話者については(1、Q 
)詐称者については((1、1)である。
実験 上記の如く、追加学習用しきい値θ1を設けて追加学習
したネットワークの認識率と、追加学習しないネットワ
ークの認識率とを比較した結果、表1を得た0本発明力
式により、時期差による認識率劣化を防止できることが
認められる。
次に、上記実施例の作用について説明する。
(1)経時的な認識率の劣化が極めて少ない。このこと
は、後述する実験結果により確認されていることである
が、ニューラルネットワーク13が音声の時期差による
変動の影響を受けにくい構造をとることが可能なためと
推定される。
(2)ニューラルネットワーク13を構成する、登録話
者に対応する出力ユニットの出力値に対し、登録話者認
識用しきい値θ2の他に追加学習用しきい値θlを設け
た。即ち、上記出力値が登録話者認識用しきい値θ2を
超えて大なるものであり、入力話者をU録話者と判定で
きるものであっても、該出力値が該登録話者認識用しき
い値θ2より大なる追加学習用しきい値θ1を超えるも
のでない場合には、今回の入力音声データを用いてニュ
ーラルネットワーク13の追加学習を行なう、これによ
り、話者の特徴が経時変化しても認識率が劣化する前に
ニューラルネットワーク13を更新でき、結果として、
音声の経時変化に強い話者認識システムを構成できる。
(3)ニューラルネットワーク13は、原理的に、ネッ
トワーク全体の演算処理が単純且つ迅速である。
(4)ニューラルネットワーク13は、原理的に、それ
を構成している各ユニットが独立に動作しており、並列
的な演算処理が可能である。従って、演算処理が迅速で
ある。
(5)上記(3)〜(4)により、話者認識システム1
0を抜雑な処理装置によることなく容易に実時間処理で
きる。
(6)ニューラルネットワーク13への入力として、「
音声の周波数特性の時間的変化」を用いたから、入力を
得るための前処理が従来の複雑な特徴社抽出に比して、
単純となりこの前処理に要する時間か短くて足りる。
この時、上記ニューラルネットワークへの入力として、
更に、「音声の一定時間内における平均的な周波数特性
の時間的変化」を用いたから、ニューラルネットワーク
13における処理が単純となり、この処理に要する時間
がより短くて足りる。
(7)階層的なニューラルネットワーク13を用いたか
ら、現在、既に確立している簡単な学習アルゴリズム(
パックプロパゲーション)を用いて、高い認識率を達成
できる。
尚、本発明の実施においては、ニューラルネットワーク
への入力として、 ■音声の周波数特性の時間的変化、 ■音声の平均的な線形予測係数、 ■音声の平均的なPARCOR係数、 ■音声の平均的な周波数特性、及びピッチ周波数、 ■高域強調を施された音声波形の平均的な周波数特性、
並びに ■音声の平均的な周波数特性 のうちの1つ以上を使用できる。
そして、上記■の要素が更に「音声の一定時間内におけ
る平均的な周波数特性の時間的変化」として用いられた
ように、上記■の要素は「音声の一定時間内における平
均的な線形予測係数の時間豹変化」、上記■の要素は「
音声の一定時間内における平均的なPARCOR係数の
時間的変化」、上記■の要素は「音声の一定時間内にお
ける平均的な周波数特性、及びピッチ周波数の時間的変
化」、上記■の要素は、[高域強調を施された音声波形
の一定時間内における平均的な周波数特性の時間的変化
」として用いることができる。
尚、上記■の線形予測係数は、以下の如く定義される。
即ち、音声波形のサンプル値(χ。)の間には、−mに
高い近接相関があることが知られている。
そこで次のような線形予測か可能であると仮定する。
線形予測値  χ、=−Σα1χt−1・・・(1)線
形予測誤差 ε、=χ、−χL  ・・・(2)ここで
、χ、:時刻tにおける音声波形のサンプル値、(α+
)(1=1.・・・、p): (1次の)線形予測係数 さて、本発明の実施においては、線形予測誤差εtの2
乗平均値が最小となるように線形予測係数(α邂)を求
める。
具体的には (εt)2を求め、その時間平均を(t 
t)”と表わして、θ(t t)” / aa (=O
r z=1.2.・・・、pとおくことによって、次の
式から(a五)が求められる。
又、上記■のPARCOR係数は以下の如く定義される
即ち、[k、](n=1.・・・、p)を(1次の)P
AR(:OR係数(偏自己相関係数)とする時、PAR
COR係数k。、、は、線形予測による前向き残差ε 
<11と後向き残差ε’−(n * I ) (b 1
間の正規化相関係数として、次の式によって定義される
・・・(4) ココテ、εt<1ゝ=χを一Σ α直χt−1゜(α弧
) :前向き予測係数、 εt−(n+II Lb’=χt−in+Il  −F
、II J−χt−J 。
(βj):後向き予測係数 又、上記■の音声のピッチ周波数とは、声帯波の繰り返
し周期(ピッチ周期)の逆数である。
尚、ニューラルネットワークへの入力として、個人差か
ある声帯の基本的なパラメータであるピッチ周波数を付
加したから、特に大人/小人、男性/女性間の話者の認
識率を向上することができる。
又、上記■の高域強調とは、音声波形のスペクトルの平
均的な傾きを補償して、低域にエネルギが集中すること
を防止することである。然るに、音声波形のスペクトル
の平均的な傾きは話者に共通のものであり、話者の認識
には無関係である。
ところが、このスペクトルの平均的な傾きが補償されて
いない音声波形をそのままニューラルネットワークへ入
力する場合には、ニューラルネットワークが学習する時
にスペクトルの平均的な傾きの特徴の方を抽出してしま
い、話者の認識に必要なスペクトルの山と谷を抽出する
のに時間がかかる。これに対し、ニューラルネットワー
クへの入力を高域強調する場合には、話者に共通で、認
識には無関係でありながら、学習に影響を及ぼすスペク
トルの平均的な傾きを補償できるため、学習速度が速く
なるのである。
[発明の効果] 以上のように本発明によれば、経時的な認識率の劣化が
極めて少なく、容易に実時間処理できる話者認識システ
ムを得ることができる。
【図面の簡単な説明】
第1図は本発明が適用された話者認識システムの一例を
示す模式図、第2図は音声処理部とニューラルネットワ
ークの一例を示す模式図、第3図は入力音声を示す模式
図、第4図はバンドパスフィルタの出力を示す模式図、
第5図はニューラルネットワークを示す模式図、第6図
は階層的なニューラルネットワークを示す模式図、第7
図はユニットの構造を示す模式図である。 ○・・・話者認識システム、 1・・・音声入力部、 2・・・音声処理部、 3・・・ニューラルネッ 4・・・判定部、 5・・・メモリ部、 6・・・ネットワーク制御部、 7・・・機器制御部。 トワーク、

Claims (3)

    【特許請求の範囲】
  1. (1)ニューラルネットワークを用いた話者認識システ
    ムであって、登録話者に対応する出力ユニットの出力値
    に対し、登録話者認識用しきい値と追加学習用しきい値
    とを設定し、上記出力値が登録話者認識用しきい値より
    大なることを条件に、今回の入力話者を登録話者と判定
    し、上記出力値が登録話者認識用しきい値より大、かつ
    追加学習用しきい値より小なることを条件に、今回の入
    力音声データを用いてニューラルネットワークの追加学
    習を行なう話者認識システム。
  2. (2)前記ニューラルネットワークへの入力として、 [1]音声の周波数特性の時間的変化、 [2]音声の平均的な線形予測係数、 [3]音声の平均的なPARCOR係数、 [4]音声の平均的な周波数特性、及びピッチ周波数、 [5]高域強調を施された音声波形の平均的な周波数特
    性、並びに [6]音声の平均的な周波数特性 のうちの1つ以上を使用する請求項1記載の話者認識シ
    ステム。
  3. (3)前記ニューラルネットワークが階層的なニューラ
    ルネットワークである請求項1又は2記載の話者認識シ
    ステム。
JP1298503A 1989-11-16 1989-11-16 話者認識システム Expired - Lifetime JP2510301B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1298503A JP2510301B2 (ja) 1989-11-16 1989-11-16 話者認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1298503A JP2510301B2 (ja) 1989-11-16 1989-11-16 話者認識システム

Publications (2)

Publication Number Publication Date
JPH03157698A true JPH03157698A (ja) 1991-07-05
JP2510301B2 JP2510301B2 (ja) 1996-06-26

Family

ID=17860556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1298503A Expired - Lifetime JP2510301B2 (ja) 1989-11-16 1989-11-16 話者認識システム

Country Status (1)

Country Link
JP (1) JP2510301B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269047A (ja) * 2001-03-07 2002-09-20 Nec Eng Ltd 音声ユーザ認証システム
JPWO2006109515A1 (ja) * 2005-03-31 2008-10-23 パイオニア株式会社 操作者認識装置、操作者認識方法、および、操作者認識プログラム
JP2012181280A (ja) * 2011-02-28 2012-09-20 Sogo Keibi Hosho Co Ltd 音処理装置および音処理方法
CN111883106A (zh) * 2020-07-27 2020-11-03 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法及装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269047A (ja) * 2001-03-07 2002-09-20 Nec Eng Ltd 音声ユーザ認証システム
JPWO2006109515A1 (ja) * 2005-03-31 2008-10-23 パイオニア株式会社 操作者認識装置、操作者認識方法、および、操作者認識プログラム
JP4588069B2 (ja) * 2005-03-31 2010-11-24 パイオニア株式会社 操作者認識装置、操作者認識方法、および、操作者認識プログラム
JP2012181280A (ja) * 2011-02-28 2012-09-20 Sogo Keibi Hosho Co Ltd 音処理装置および音処理方法
CN111883106A (zh) * 2020-07-27 2020-11-03 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法及装置
CN111883106B (zh) * 2020-07-27 2024-04-19 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法及装置

Also Published As

Publication number Publication date
JP2510301B2 (ja) 1996-06-26

Similar Documents

Publication Publication Date Title
US5461697A (en) Speaker recognition system using neural network
CN110379441B (zh) 一种基于对抗型人工智能网络的语音服务方法与***
JPH03273722A (ja) 音声・モデム信号識別回路
JPH03157698A (ja) 話者認識システム
JPH03157697A (ja) 単語認識システム
JPH03111899A (ja) 音声錠装置
JPH03230200A (ja) 音声認識方法
EP0369485B1 (en) Speaker recognition system
JP2518939B2 (ja) 話者照合システム
JPH03175500A (ja) 話者照合システム
JPH02273798A (ja) 話者認識方式
JP2559506B2 (ja) 話者照合システム
JPH02273799A (ja) 話者認識方式
JPH03144176A (ja) 音声制御給湯装置
JPH05143094A (ja) 話者認識システム
JPH02304498A (ja) 単語認識方式
JPH0415700A (ja) 話者認識システム
JPH02289899A (ja) 音声検出方式
JPH0415699A (ja) 話者認識システム
JPH02273796A (ja) 話者認識方式
JPH02135500A (ja) 話者認識方式
JPH0415694A (ja) 単語認識システム
JPH0415695A (ja) 単語認識システム
JPH03114345A (ja) 発呼者認識電話装置
JPH05257496A (ja) 単語認識方式