JP3059504B2 - 品詞選択システム - Google Patents

品詞選択システム

Info

Publication number
JP3059504B2
JP3059504B2 JP3043661A JP4366191A JP3059504B2 JP 3059504 B2 JP3059504 B2 JP 3059504B2 JP 3043661 A JP3043661 A JP 3043661A JP 4366191 A JP4366191 A JP 4366191A JP 3059504 B2 JP3059504 B2 JP 3059504B2
Authority
JP
Japan
Prior art keywords
speech
probability
word
context
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3043661A
Other languages
English (en)
Other versions
JPH0628392A (ja
Inventor
由紀子 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3043661A priority Critical patent/JP3059504B2/ja
Publication of JPH0628392A publication Critical patent/JPH0628392A/ja
Application granted granted Critical
Publication of JP3059504B2 publication Critical patent/JP3059504B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は自然言語処理技術に関
し、更に詳しくは文章(テキスト)中の各単語の品詞の
種類を自動的に選択するようにした品詞選択システムに
関する。
【0002】近年、音声合成の研究が進み、読み上げシ
ステム,応答システム等のさまざまな分野で利用され始
めている。合成音声の自然性を向上せさるためには、出
力する文章の言語情報を抽出し、それに応じたアクセン
トやイントネーションを生成するパターンを生成する必
要がある。そのような言語情報の基礎をなすのが品詞で
ある。品詞とは、名詞,動詞,副詞等の単語の種類をい
う。音声合成システムは、携帯性(ポータビリティ)が
要求されていることから、文章の中の単語の品詞を簡便
に抽出できるシステムが強く望まれている。
【0003】
【従来の技術】最近、文章の中の単語の品詞を統計的な
情報を利用して決定する方式が用いられてきている。こ
れは、例えば“A Stochastic Parts
Program and Noun Phrase
Paser for Unrestricted Te
xt”(ACL proceedings 2nd A
pplied Natural Language P
rocessing)に示されているように、与えられ
た単語がある品詞をとる確率である語彙確率と品詞並び
の出現頻度を示す文脈確率を用いて文章中の各単語の品
詞を決定するものである。
【0004】図19は従来装置の構成例を示すブロック
図である。図において、1は入力テキストを受けて、単
語毎の語彙確率を検索する語彙確率検索部、2は語彙と
該語彙の確率が格納され、前記語彙検索部1の検索の対
象となる語彙確率辞書、3は語彙確率検索部1の出力を
基に、各単語の品詞並びを作成する品詞並び作成部であ
る。
【0005】4は前記語彙確率検索部1から検索された
語彙確率を基に、複数個の品詞並びの文脈確率を検出す
る文脈確率検出部、5は品詞並びの文脈確率を格納して
いる文脈確率テーブル、6は前記文脈確率検出部4の出
力を受けて、複数個の品詞並びの文脈確率と該品詞並び
の先頭たは末尾の単語の語彙確率から評価値を算出する
評価値算出部である。このように構成された装置の動作
を説明すれば、以下のとおりである。
【0006】先ず、語彙確率検索部1は入力テキスト
(文章)を入力し、各単語毎の語彙確率を語彙確率辞書
2から読み込む。例えば、入力テキストが I love her very much. という文章であったものとする。ここでは、単語の品詞
並びのカデゴリとして3単語品詞並びを考える。語彙確
率検索部1は、この文章を構成している各単語の語彙確
率を語彙確率辞書2から抽出する。
【0007】語彙確率辞書2は、例えば図20に示すよ
うな構成となっている。図に示す内容は、入力された文
章の単語のみを抽出したものであり、実際にはアルファ
ベット順に全ての単語が品詞の種類毎の出現確率として
格納されている。
【0008】ここでは、文章の後から処理していく場合
を考える。
【0009】品詞並び作成部3は、先ず、文章のピリオ
ド“.##”に対する(Z##)という品詞並びを作成
し、文脈確率検出部4に与える。ここで、#は文末また
は文頭を示す記号である。該文脈確率検出部4は、文脈
確率テーブル5から(Z##)なる品詞並びの文脈確率
を抽出してくる。文脈確率テーブル5には3個の品詞の
組み合わせになるあらゆるパターンについての出現確率
が文脈確率として格納されている。
【0010】図21は文脈確率テーブルの構成例を示す
図である。図ではその一部のみを示している。また、こ
こでは品詞並びとして英語の場合、最も分類しやすい3
単語品詞並びを用いている。それぞれの品詞並びの組み
合わせがとり得る確率は、大量の文章を参考にして、そ
のとり得る確率を統計的に求めたものである。
【0011】評価値算出部6は、(Z##)なる品詞並
びの文脈確率と(.Z)の語彙確率とを乗算して評価値
とする。例えば、(Z##)の文脈確率が0.983,
(.Z)の語彙確率が1.00であれば、その評価値は
0.983となる。
【0012】次に、品詞並び作成部3は、単語並び“m
uch.#”に対する考えられる組合わせの品詞並び
(ADJ Z #),(NOUN Z #),(ADV
Z#)を作成する。文脈確率検出部4は、これら品詞
並び(ADJ Z #),(NOUN Z #),(A
DV Z #)に対する文脈確率を文脈確率テーブル5
から抽出する。ここで、ADJは形容詞,NOUNは名
詞,ADVは副詞である。図24に品詞の分類を示す。
英語の場合、図に示すように、品詞の種類には20通り
あり、ここではそれぞの品詞について、図のような品詞
記号を用いるものとする。
【0013】評価値算出部6は、それぞれの品詞並びの
場合において、“much”がADJをとる場合,NO
UNをとる場合及びADVをとる場合の文脈確率と語彙
確率とそれまでの対応する累積評価値を乗算して評価値
を算出する。
【0014】次に、品詞並び作成部3は単語並び“ve
ry much.”に対する品詞並び(ADV ADJ
Z),(ADV NOUNZ Z),(ADV AD
VZ),(ADJ ADJ Z),(ADJ NOUN
Z Z),(ADJ ADV Z)を作成する。
【0015】文脈確率検出部4は、これら品詞並び(A
DV ADJ Z),(ADV NOUNZ Z),
(ADV ADV Z),(ADJ ADJ Z),
(ADJNOUNZ Z),(ADJ ADV Z)に
対する文脈確率を文脈確率テーブル5から抽出する。評
価値算出部6は、それぞれの品詞並びの場合において、
“very”がADVをとる場合及びADJをとる場合
のそれぞれについて、文脈確率,語彙確率,累積評価値
を乗算してそれぞれの品詞並びの評価値を算出する。
【0016】以下、同様の操作を“##I”まで繰り返
すと、5個の品詞並び I love her very much. がとりうる全ての品詞並びに対する評価値が求まる。そ
して、それら評価値の最も高いものを品詞列として選択
する。この場合に、選択される品詞列は、 # # PPRON V PRON ADV ADV Z # # となる。
【0017】
【発明が解決しようとする課題】前述した従来装置の場
合、品詞並びの文脈確率をテーブル(文脈確率テーブル
5)で保存しているため、品詞分類のカテゴリ数や品詞
並びの数が大きくなるにつれて、大量のメモリが必要に
なるという問題があった。
【0018】本発明はこのような課題に鑑みてなされた
ものであって、メモリ容量を小さくすることができる品
詞選択システムを提供することを目的としている。
【0019】
【課題を解決するための手段】図1は本発明の原理ブロ
ック図である。図19と同一のものは、同一の符号を付
して示す。図において、1は入力テキストを受けて、単
語毎の語彙確率を検索する語彙確率検索部、2は語彙と
該語彙の確率が格納され、前記語彙検索部1の検索の対
象となる語彙確率辞書である。
【0020】10は前記語彙確率検索部1から検索され
た語彙確率を基に、複数個の品詞並びの文脈確率を検出
する文脈確率検出部、20は該文脈確率検出部10から
与えられる入力パターンを入力して次の単語の品詞の種
類に応じた文脈確率を算出する、ニューラルネットワー
クを用いた文脈確率算出部、6は前記文脈確率検出部1
0の出力を受けて、複数個の品詞並びの文脈確率と該品
詞並びの先頭または末尾の単語の語彙確率から所定の手
順に従って評価値を算出する評価値算出部である。
【0021】
【作用】予め、文脈確率算出部20に品詞並びの確率を
学習させておく。例えば、3単語品詞並びの場合には、
ニューラルネットワークに後ろから2つの品詞の入力パ
ターンを入力させ、その時の次の単語(先頭単語)の品
詞の種類に応じた確率を予め教師パターンとして与えて
やり、教師パターンとニューラルネットワークの出力と
が等しくなるように学習させておく。
【0022】しかる後、文脈確率算出部20は、文脈確
率検出部10から与えられる品詞並びのパターンを入力
して、次の単語の品詞の種類に応じた文脈確率を算出す
る。例えば、3単語品詞並びの場合には、2個の品詞並
びを入力パターンとして入力し、次の単語の品詞並びを
とる確率(文脈確率)が品詞の種類毎に算出される。こ
の算出された文脈確率を基に、評価値算出部6は3単語
品詞並びのパターン毎の評価値を算出する。
【0023】このように、本発明によれば文脈確率算出
部20を構成するニューラルネットワークに品詞並びの
確率を学習させることにより、例えば3品詞並びの場合
には、後ろから2つの品詞に相当するパターンを入力パ
ターンとして入力してやれば、次の3つ目の品詞(先頭
単語の品詞)がとる確率(文脈確率)を品詞の種類ごと
に出力するので、文脈確率の情報を文脈確率テーブルと
してもっている必要がなくなり、メモリ容量を小さくす
ることができる品詞選択システムを提供することができ
る。
【0024】
【実施例】以下、図面を参照して本発明の動作を詳細に
説明する。
【0025】図2は文脈確率算出部20の構成例を示す
図である。21はニューラルネットワークで、入力層L
1,中間層L2及び出力層L3から構成されている。入
力層L1は品詞カテゴリ数の組合わせが(品詞並びの数
−1)個設けられている。例えば品詞並びが前述した3
個である場合、入力層L1は品詞カテゴリ数の組合わせ
が2個で構成される。出力装置L3は1個のカテゴリ数
の組合わせをもっている。これら品詞カテゴリ数の組合
わせの単位としては、例えば英語の品詞の数である20
個(20ユニット)が用いられる。
【0026】22は出力層L3の出力値と教師パターン
とを比較する比較部である。該比較部22は、出力層L
3の出力(確率)が教師パターンと等しくなるように入
力層L1と中間層L2間のシナプスの重みの変更及び中
間層L2と出力層L3間の重みの変更を行う。最終的
に、出力層L3の出力値と教師パターンが一致した時点
で学習が終了したことになる。この時、入力層L1と中
間層L2間のシナプスの重み及び中間層L2と出力層L
3間の重みはある一定値に固定される。
【0027】図3は本発明の一実施例を示す構成ブロッ
ク図である。図1と同一のものは、同一の符号を伏して
示す。図において、文脈確率検出部10は、語彙確率検
索部1からの単語を入力して所定の数(例えば3個)だ
けの品詞並びを作成する品詞並び作成部11,品詞並び
作成部11の出力を受けて入力パターンを作成する入力
パターン作成部12,該入力パターン作成部12の出力
を文脈確率算出部20に入力してニューラルネットワー
クから得られたそれぞれの品詞毎の文脈確率を受けて出
力値を選択する出力値選択部13から構成されている。
【0028】評価値算出部6は、出力値選択部13から
与えられた文脈確率と語彙確率とから評価値を算出する
評価値算出手段31と、該評価値算出手段31からの複
数の出力のうちから評価値が最大のものを選択する最大
値選択部32から構成されている。そして、最大値選択
部32の出力が求める品詞列となる。このように構成さ
れた装置の動作を説明すれば、以下のとおりである。
【0029】この実施例におけるニューラルネットワー
ク21は、予め大量のデータから抽出した品詞並びの頻
度から、入力テキストについて末尾の単語から先頭の単
語に向かって逆向きに品詞を選択して学習させる方法
と、先頭の単語から末期の単語に向かって前向きに品詞
を選択して学習せさる方法のいずれも用いることができ
る。 (末尾の単語から品詞を選択する場合)図4は末尾の単
語から品詞を選択する場合の学習パターンの作成例を示
す図である。ここでは3単語品詞並びを用いるものとす
る。例えば、 ADV ADV ADV のように副詞が3個並ぶ場合を考える。このような品詞
並びの頻度は大量のデータを検索した時、307個であ
り、その文脈確率は0.07である。この0.07は、
頻度307を3単語品詞並びの後ろ2品詞が同じものの
頻度の総和で割った値として求められる。このようにし
て、次の品詞並び NOT ADV ADV のようなNOTと2個の副詞の並びの頻度は78であ
り、その文脈確率は0.02である。以下同様にして、
後ろの2個が全てADVで先頭の1個がカテゴリ数20
のあらゆる品詞をとる確率が文脈確率として図4に示さ
れている。この文脈確率をニューラルネットワーク21
に学習させる方法について説明する。
【0030】ここでは、図2のニューラルネットワーク
21が入力は2組であり、その品詞種別はいずれもAD
Vであるものとする。このADVを示すのは、20ユニ
ットのうちの最初のユニットに“1”を立てた状態で示
す。ここで、品詞カテゴリ数として20ユニットを用い
たのは、英語の場合、品詞の種類が図24に示すように
20種類であることに対応させたものである。
【0031】図5(a)はこの時の入力パターン例を示
す図である。今、入力パターン作成部12は図5に示す
ようなパターンをニューラルネットワーク21に入力さ
せる。また、例えば、3単語品詞並びとして後ろの2個
がNOUN ADVである場合には、その入力パターン
は図5(b)に示すようなものとなる。NOUNの場
合、その番号は図24より“4”である。図24は0か
ら番号が始まっているので、“4”であることは第5番
目を示す。そこで、NOUNの場合には前から5番目に
“1”が立っている。
【0032】図6はこの時の学習の説明図である。入力
層L1は20ユニットずつ2組で合計40ユニットの入
力を受ける。各組の最初のユニットに“1”が立ってい
るのは副詞であることを示している。出力は20ユニッ
トである。一方、このニューラルネットワーク21の比
較部22に与える教師パターンは、図7に示すようなも
のである。この教師パターンは図4に示す文脈確率をそ
のまま利用したものである。
【0033】つまり、ADV ADV ADV となる品詞並びの確率は0.07であるので、この値を
教師信号として出力層L3の20ユニットの最初のユニ
ットに与える。次のユニットには NOT ADV ADV となる品詞並びの確率である0.02を与える。以下、
図7の値を教師パターンとして比較部22に与えてい
く。最後のユニットには # ADV ADV となる品詞並びの確率である0.08を与える。図6の
構成において、出力層L3の各ユニットの出力が0.0
7,0.02,…,0.08をとるようになるまで何回
も同一の入力パターンを与えてニューラルネットワーク
21の学習を行なわせる。
【0034】以上、後の2個がADV,ADVの場合の
先頭の単語がとる品詞の種類に応じた文脈確率を求める
場合を例にとったが、品詞並びはこれに限るものではな
く、図5(b)に示したものの他、極めて多くのパター
ン(例えば20カテゴリの場合3品詞並びは8000、
学習パターンは400)が存在する。それぞれのパター
ンの組み合わせに対しても、図6のニューラルネットワ
ーク21に学習を行なわせる。
【0035】このようにして、全ての3単語品詞並びに
ついての学習が終了した状態で、図3に示す装置に入力
テキストを入力してやると、文脈確率算出部20は入力
パターンに応じた3個の品詞並びの文脈確率を出力す
る。この文脈確率算出部の出力から目的の品詞並びの確
率の出力値を出力値選択部13が選択して、評価値算出
手段31に与える。
【0036】評価値算出手段31は前記文脈確率と先頭
単語の語彙確率と、それまでの対応する品詞列の累積評
価値を乗算して評価値を算出する。評価値算出手段31
は3品詞並びがとり得る全ての場合についての評価値を
算出するので、最大値選択部32はこれら評価値の中で
一番大きい値の品詞並びを選択し、求めるべき品詞列と
して出力する。 (先頭の単語から品詞を選択する場合)先頭の単語から
品詞を選択する場合も、前述した末尾の単語から品詞を
選択する場合と同様に考えることができる。
【0037】図8は末尾の単語から品詞を選択する場合
の学習パターンの作成例を示す図である。ここでは3単
語品詞並びを用いるものとする。例えば、 ADV ADV ADV のように副詞が3個並ぶ場合を考える。このような品詞
並びの頻度は大量のデータを検索した時、307個であ
り、その文脈確率は0.07である。この0.07は、
頻度307を3単語品詞並びの前2品詞がADV,AD
Vである3品詞並びの頻度の総和で割った値として求め
られる。このようにして、次の品詞並び ADV ADV NOT のようなNOTと2個の副詞の並びの頻度は6であり、
その文脈確率は0.00である。以下同様にして、前の
2個が全てADVで末尾の1個がカテゴリ数20のあら
ゆる品詞をとる確率が文脈確率として図8に示されてい
る。この文脈確率をニューラルネットワーク21に学習
させる方法について説明する。
【0038】ここでは、入力は2組であり、その品詞種
別はいずれもADVであるものとする。このADVを示
すのは、20ユニットのうちの最初のユニットに“1”
を立てた状態で示す。
【0039】図9はこの時の入力パターン例を示す図で
ある。今、入力パターン作成部12は図9に示すような
パターンをニューラルネットワーク21に入力させる。
この時のニューラルネットワークの構成は図6と同じで
ある。
【0040】入力層L1は20ユニットずつ2組で合計
40ユニットの入力を受ける。各組の最初のユニットに
“1”が立っているのは副詞であることを示している。
出力は20ユニットである。一方、このニューラルネッ
トワーク21の比較部22に与える教師パターンは、図
10に示すようなものである。この教師パターンは図8
に示す文脈確率をそのまま利用したものである。
【0041】つまり、ADV ADV ADV となる品詞並びの確率は0.07であるので、この値を
教師信号として出力層L3の20ユニットの最初のユニ
ットに与える。次のユニットには ADV ADV NOT となる品詞並びの確率である0.00を与える。以下、
図10の値を教師パターンとして比較部22に与えてい
く。最後のユニットには ADV ADV # となる品詞並びの確率である0.00を与える。図6の
構成において、出力層L3の各ユニットの出力が0.0
7,0.00,…,0.00をとるようになるまで何回
も同一の入力パターンを与えてニューラルネットワーク
21の学習を行なわせる。
【0042】以上、前から2個がADV,ADVの場合
の末尾の単語がとる品詞の種類に応じた文脈確率を求め
る場合を例にとったが、品詞並びはこれに限るものでは
なく、極めて多くのパターンが存在する。それぞれのパ
ターンの組み合わせに対しても、図6のニューラルネッ
トワーク21に学習を行なわせる。
【0043】このようにして、全ての3単語品詞並びに
ついての学習が終了した状態で、図3に示す装置に入力
テキストを入力してやると、文脈確率算出部20は入力
パターンに応じた3個の品詞並びの文脈確率を出力す
る。この文脈確率算出部の出力から目的の品詞並びの確
率の出力値を出力値選択部13が選択して、評価値算出
手段31に与える。
【0044】評価値算出手段31は前記文脈確率と末尾
単語の語彙確率と、それまでの対応する品詞列の累積評
価値を乗算して評価値を算出する。評価値算出手段31
は3品詞並びがとり得る全ての場合についての評価値を
算出するので、最大値選択部32はこれら評価値の中で
一番大きい値の品詞並びを選択し、求めるべき品詞列と
して出力する。
【0045】次に、具体例を用いて本発明装置の動作を
説明する。ここでは、図24に示した20カテゴリに分
類した品詞を使用し、3品詞並びの文脈確率を利用し
て、入力テキストの各単語の品詞を末尾から先頭に向か
って選択していく場合を考える。ここでは、 I appealed to the children to make less noise. という文章について品詞選択の処理を行う。語彙確率検
索部1は、入力テキスト中の各単語について語彙確率辞
書2を検索し、それぞれの単語について品詞カテゴリと
その確率を抽出する。図11はこのようにして抽出され
た品詞カテゴリとその確率を示す図である。前記文章に
対応して、それぞの単語の品詞カテゴリとその語彙確率
とが示されている。
【0046】品詞並び作成部11は、この検索結果につ
いて3単語の品詞並びを作成する。図12はこのように
して作成された3単語品詞並びを示す図である。文章の
後の方から実現される可能性のある全ての品詞並びが作
成されている。
【0047】入力パターン作成部12は、これらの品詞
並びの後2品詞から図5に示したような入力パターンを
作成し、ニューラルネットワークを用いた文脈確率算出
部20に与える。文脈確率算出部20は、後2品詞から
先頭の単語のとる確率を文脈確率として品詞カテゴリ毎
に出力する。
【0048】出力値選択部13は、与えられた入力パタ
ーンに対する文脈確率算出部20の出力について、品詞
並びの先頭の品詞に対する値を選択し、当該品詞並びの
文脈確率とする。
【0049】評価値算出手段31は、出力値選択部13
から得られた文脈確率Pbと、語彙確率検索部1で検索
した品詞並びの先頭の品詞に対する語彙確率Pvを、入
力テキストの末尾の単語から作成した品詞並びに対する
累積評価値e´にかけた値eを新しい評価値とする。新
しい評価値eは次式で表される。
【0050】 e=Pb×Pv×e´ (1) 図13,図14はこのようにして得られた評価値算出結
果を示す図である。図13と図14は連続しており、図
13の後に図14がくるようになっている。図におい
て、Aの部分は文脈確率算出部20で前述したシーケン
スにより得られた文脈確率、Bは先頭単語の品詞の種類
に応じた語彙確率、Cはそれまでの過程で得られた累積
評価値e、Dは当該累積評価値に対応した品詞並びをそ
れぞれ示している。
【0051】入力テキストの末尾の単語から順次、当該
単語がとる品詞カテゴリの全てについて、それまでに作
成した品詞並びの全てについて当該品詞並びの後2品詞
と合わせて3品詞並びを作成し、文脈確率Pbを検索す
る。この文脈確率Pbと、当該単語の品詞カテゴリにお
ける語彙確率Pvと、それまでに作成した品詞並びの評
価値e´の積を新しい品詞並びの評価値eとしている。
図に示すように、入力テキストの先頭の単語まで、全て
の品詞並びの評価値が算出できた後、最大値選択部32
はこれらの品詞並びの中から最大の評価値を持つものを
選択し、入力テキストの各単語の品詞を決定する。
【0052】図15はこのようにして得られた品詞選択
結果を示す図である。図14の最終段の品詞並びと一致
している。
【0053】図16は本発明の他の実施例を示す構成ブ
ロック図である。図3と同一のものは、同一の符号を付
して示す。図において、1は入力テキストを受けて、単
語毎の語彙確率を検索する語彙確率検索部、2は語彙と
該語彙の確率が格納され、前記語彙検索部1の検索の対
象となる語彙確率辞書、10はは語彙確率検索部1の出
力を受けて入力パターンを作成する文脈確率検出部とし
ての入力パターン作成部である。
【0054】20は入力パターン作成部10から与えら
れる入力パターンを入力して次の単語の品詞の種類に応
じた文脈確率を算出する、ニューラルネットワークを用
いた文脈確率算出部、31は文脈確率算出部20の出力
を受けて、与えられた文脈確率と語彙確率とから評価値
を算出する評価値算出手段、32は該評価値算出手段3
1からの複数の出力のうちから評価値が最大のものを選
択する最大値選択部32である。これら、評価値算出手
段31と最大値選択部32とで評価値算出部6を構成し
ている。このように構成された装置の動作を説明すれ
ば、以下のとおりである。
【0055】この実施例では、後2品詞並びの入力パタ
ーンを図5に示すように“1”か“0”かで入力するの
ではなく、後2品詞並びを構成する単語の各品詞カテゴ
リをとる確率を示す評価値を入力するようにしたもので
ある。
【0056】図3の実施例と同様に、語彙確率検索部1
は入力テキスト中の各単語について語彙確率辞書2を検
索して、それぞれの単語についての品詞カテゴリとその
確率を図11に示すように抽出する。ここでは、品詞を
選択する際の評価値を単語毎に品詞カテゴリの語彙確率
で表現し、ニューラルネットワークを用いた文脈確率算
出部20に対して隣接する後2単語又は前2単語の品詞
カテゴリの確率を入力する。
【0057】図17,図18は評価値算出の例を示す図
である。図17,図18は一連の動作を示したものであ
り、図17の後に図18が続くようになっている。入力
テキストの末尾の単語から品詞を選択する場合には、入
力パターン作成部10は、3単語品詞並びのうちの後2
単語の評価値Eをニューラルネットワーク21に入力
し、得られた出力が文脈確率Pbとなる。
【0058】この文脈確率Pbのそれぞれの品詞カテゴ
リの確率に、語彙確率検索部1で得られた該単語の各品
詞カテゴリの確率をかけたものを当該単語の評価値Eと
する。
【0059】最大値選択部32は、入力テキストの各単
語について、評価値Eにおいて最大の値となっている品
詞カテゴリを当該単語の品詞として選択する。例えば、
図17の場合において、Wn=6の場合には単語として
“make”を評価している。この時の評価値Eは、前
から10番目のユニットが0.34と最大値をとってい
る。前から10番目の品詞は、図22より動詞(V)で
ある。このようにして、品詞を選択した結果も、図15
と同じになる。
【0060】この実施例によれば、ニューラルネットワ
ーク21に品詞カテゴリをとる確率を示す評価値を入力
することにより、文脈確率の検索の回数を減少させるこ
とが可能となり、高速に品詞選択を行うことができる。
【0061】上述の実施例では英語に本発明を適用した
場合について説明したが、本発明はこれに限るものでは
ない。日本語その他の文章についても本発明を適用する
ことができる。
【0062】
【発明の効果】以上、詳細に説明したように、本発明に
よれば文脈確率を求めるのにニューラルネットワークを
用いるようにすることにより、文脈確率テーブルを持つ
必要がなくなり、メモリ容量を小さくすることができる
品詞選択システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の原理ブロック図である。
【図2】文脈確率算出部の構成例を示す図である。
【図3】本発明の一実施例を示す構成ブロック図であ
る。
【図4】末尾の単語から品詞を選択する場合の学習パタ
ーンの作成例を示す図である。
【図5】入力パターン例を示す図である。
【図6】学習の説明図である。
【図7】教師パターン例を示す図である。
【図8】先頭の単語から品詞を選択する場合の学習パタ
ーンの作成例を示す図である。
【図9】入力パターン例を示す図である。
【図10】教師パターン例を示す図である。
【図11】抽出された品詞カテゴリとその確率を示す図
である。
【図12】作成された3単語の品詞並びを示す図であ
る。
【図13】本発明により得られた評価値算出結果を示す
図である。
【図14】本発明により得られた評価値算出結果を示す
図である。
【図15】本発明による品詞選択結果を示す図である。
【図16】本発明の他の実施例を示す構成ブロック図で
ある。
【図17】評価値算出の例を示す図である。
【図18】評価値算出の例を示す図である。
【図19】従来装置の構成例を示すブロック図である。
【図20】語彙確率辞書の内部構成例を示す図である。
【図21】文脈確率テーブルの構成例を示す図である。
【図22】品詞の分類を示す図である。
【符号の説明】
1 語彙確率検索部 2 語彙確率辞書 6 評価値算出部 10 文脈確率検出部 20 文脈確率算出部
フロントページの続き (56)参考文献 山口外、「ニューラルネットを利用し た句境界抽出機能」、電子情報通信学会 全国大会講演論文集、1990年秋季、p. 1−126 山口外、「ニューラルネット利用した 言語処理と音素記号生成−英語音声合成 システムへの応用−」、電子情報通信学 会論文誌、1992年、Vol.J75−D▲ II▼,No.5,p.852−860 Matsumoto T,Yamag uchi Y,”A Multi−La nguage Text−to−Spe ech System Using N eural Networks”,Pr oceedings of the E SCA Wrokshop on Sp eech Synthesis,p. 269−272 (58)調査した分野(Int.Cl.7,DB名) G06F 17/27 G06F 17/28 G06F 15/18 JICSTファイル(JOIS)

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力テキストを受けて、単語毎の語彙確
    率を検索する語彙確率検索部(1)と、 語彙と該語彙の確率が格納され、前記語彙検索部(1)
    の検索の対象となる語彙確率辞書(2)と、 前記語彙確率検索部(1)から検索された語彙確率を基
    に、複数個の品詞並びの文脈確率を検出する文脈確率検
    出部(10)と、 該文脈確率検出部(10)から与えられる入力パターン
    を入力して次の単語の品詞の種類に応じた文脈確率を算
    出する、ニューラルネットワークを用いた文脈確率算出
    部(20)と、 前記文脈確率検出部(10)の出力を受けて、複数個の
    品詞並びの文脈確率と該品詞並びの先頭または末尾の単
    語の語彙確率から所定の手順に従って評価値を算出する
    評価値算出部(6)から構成された品詞選択システム。
  2. 【請求項2】 前記文脈確率算出部(20)がn単語品
    詞並びの文脈確率を算出する場合において、 該品詞並びの先頭から(n−1)番目までの単語の品詞
    パターンを入力として(n−1)単語の品詞並びに対す
    るn番目の単語の各品詞カテゴリがとる確率を出力する
    ように構成したことを特徴とする請求項1記載の品詞選
    択システム。
  3. 【請求項3】 前記文脈確率算出部(20)がn単語品
    詞並びの文脈確率を算出する場合において、 該品詞並びの第2番目から末尾nまでの単語の品詞パタ
    ーンを入力として(n−1)単語の品詞並びに対する先
    頭の単語の各品詞カテゴリがとる確率を出力するように
    構成したことを特徴とする請求項1記載の品詞選択シス
    テム。
  4. 【請求項4】 前記文脈確率算出部(20)がn単語品
    詞並びの文脈確率を算出する場合において、 (n−1)個の品詞並びパターンにそれぞれの品詞をと
    る確率を示す評価値を入力して第n番目又は先頭の単語
    の各品詞カテゴリがとる確率を出力するように構成した
    ことを特徴とする請求項2又は3記載の品詞選択システ
    ム。
JP3043661A 1991-03-08 1991-03-08 品詞選択システム Expired - Fee Related JP3059504B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3043661A JP3059504B2 (ja) 1991-03-08 1991-03-08 品詞選択システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3043661A JP3059504B2 (ja) 1991-03-08 1991-03-08 品詞選択システム

Publications (2)

Publication Number Publication Date
JPH0628392A JPH0628392A (ja) 1994-02-04
JP3059504B2 true JP3059504B2 (ja) 2000-07-04

Family

ID=12670039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3043661A Expired - Fee Related JP3059504B2 (ja) 1991-03-08 1991-03-08 品詞選択システム

Country Status (1)

Country Link
JP (1) JP3059504B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE35910E (en) * 1989-05-11 1998-09-29 Matsushita Electric Industrial Co., Ltd. Moving image signal encoding apparatus and decoding apparatus
US5537317A (en) * 1994-06-01 1996-07-16 Mitsubishi Electric Research Laboratories Inc. System for correcting grammer based parts on speech probability
US20060033831A1 (en) 1999-09-14 2006-02-16 Nikon Corporation Electronic still camera
JP2011091602A (ja) 2009-10-22 2011-05-06 Canon Inc 画像表示装置、撮像装置、及び画像表示方法
JP6605997B2 (ja) 2016-03-17 2019-11-13 株式会社東芝 学習装置、学習方法及びプログラム
CN107665704B (zh) * 2016-07-29 2020-09-11 科大讯飞股份有限公司 语音指令检测模型构建方法、检测方法及***、人机交互方法及设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Matsumoto T,Yamaguchi Y,"A Multi−Language Text−to−Speech System Using Neural Networks",Proceedings of the ESCA Wrokshop on Speech Synthesis,p.269−272
山口外、「ニューラルネットを利用した句境界抽出機能」、電子情報通信学会全国大会講演論文集、1990年秋季、p.1−126
山口外、「ニューラルネット利用した言語処理と音素記号生成−英語音声合成システムへの応用−」、電子情報通信学会論文誌、1992年、Vol.J75−D▲II▼,No.5,p.852−860

Also Published As

Publication number Publication date
JPH0628392A (ja) 1994-02-04

Similar Documents

Publication Publication Date Title
US5479563A (en) Boundary extracting system from a sentence
US7310601B2 (en) Speech recognition apparatus and speech recognition method
JP2848458B2 (ja) 言語翻訳システム
US5765131A (en) Language translation system and method
Kanakaraddi et al. Survey on parts of speech tagger techniques
US6499013B1 (en) Interactive user interface using speech recognition and natural language processing
US7136802B2 (en) Method and apparatus for detecting prosodic phrase break in a text to speech (TTS) system
US6876967B2 (en) Speech complementing apparatus, method and recording medium
JPH03224055A (ja) 同時通訳向き音声認識システムおよびその音声認識方法
CN114298010A (zh) 一种融合双语言模型和句子检测的文本生成方法
Ostrogonac et al. Morphology-based vs unsupervised word clustering for training language models for Serbian
JP2000298667A (ja) 構文情報による漢字変換装置
Carlson et al. Linguistic processing in the KTH multi-lingual text-to-speech system
Bhuyan et al. An N-gram based model for predicting of word-formation in Assamese language
JP3059504B2 (ja) 品詞選択システム
JP2003271629A (ja) 音声入力によるテキスト検索方法およびその装置
Masumura et al. Training a Language Model Using Webdata for Large Vocabulary Japanese Spontaneous Speech Recognition.
JP4084515B2 (ja) アルファベット文字・日本語読み対応付け装置と方法およびアルファベット単語音訳装置と方法ならびにその処理プログラムを記録した記録媒体
JPH117447A (ja) 話題抽出方法及びこれに用いる話題抽出モデルとその作成方法、話題抽出プログラム記録媒体
JP2006107353A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JPH0981184A (ja) 対話支援装置
JP4511274B2 (ja) 音声データ検索装置
Pilar Knowledge-driven subword grammar modeling for automatic speech recognition in tamil and kannada
JPH08339376A (ja) 外国語検索装置及び情報検索システム
JP2005025555A (ja) シソーラス構築システム、シソーラス構築方法、この方法を実行するプログラム、およびこのプログラムを記憶した記憶媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000411

LAPS Cancellation because of no payment of annual fees