JP2000315096A - 音声認識装置を備えたマンマシンシステム - Google Patents

音声認識装置を備えたマンマシンシステム

Info

Publication number
JP2000315096A
JP2000315096A JP11161474A JP16147499A JP2000315096A JP 2000315096 A JP2000315096 A JP 2000315096A JP 11161474 A JP11161474 A JP 11161474A JP 16147499 A JP16147499 A JP 16147499A JP 2000315096 A JP2000315096 A JP 2000315096A
Authority
JP
Japan
Prior art keywords
information
vocabulary
recognition
control
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11161474A
Other languages
English (en)
Other versions
JP3980791B2 (ja
JP2000315096A5 (ja
Inventor
Takahiro Iwata
孝洋 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP16147499A priority Critical patent/JP3980791B2/ja
Priority to US09/562,755 priority patent/US6385582B1/en
Priority to EP00109434A priority patent/EP1050872B1/en
Priority to DE60032193T priority patent/DE60032193T8/de
Publication of JP2000315096A publication Critical patent/JP2000315096A/ja
Publication of JP2000315096A5 publication Critical patent/JP2000315096A5/ja
Application granted granted Critical
Publication of JP3980791B2 publication Critical patent/JP3980791B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】 【課題】誤認識または入力した音声情報を簡易に訂正す
る。 【解決手段】認識結果記領域MRに、音声認識結果であ
る認識結果語彙Dcを属性毎に分類してファイリングす
る。ユーザーから訂正のコマンド操作がなされると、そ
の指令を制御語WWの形態で受付けて、その制御語WW
に基いて訂正の際に照合すべき認識語記憶部11中の認
識辞書を選択設定する。ユーザーが訂正の為に発話した
声の分析データDaをその選択設定した認識辞書中の認
識対象語彙と照合して音声認識することで訂正を行う。
制御語WWには、ファイリングされている認識結果語彙
Dcを指定して訂正する制御命令語、単に「訂正」のコ
マンド操作をすると直近に認識された認識対象語彙Dc
を訂正する制御命令語、次候補の認識対象語彙Dcを直
接選択する次候補の命令語と、次候補の認識対象語彙D
cを指定して選択する次候補の制御命令語が備えられて
おり、これらの制御命令語に該当するコマンド操作を行
うと簡易に訂正の操作を行うことができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識機能を有
するマンマシンシステム(man−machine s
ystem)に関し、特に、ユーザーにとっては意志を
容易に指示することができ、マンマシンシステム側では
ユーザーの意志に従って的確な処理を行うことを可能に
するマンマシンシステムに関するものである。
【0002】
【従来の技術】マンマシンシステムの初期の概念は、人
間と電子計算機との長所を生かすべく構成されたシステ
ム(装置)というものであったが、今では、この概念は
電子計算機のみならず、更に一般的な機械(広義の機
械)と人間との間での関係を円滑にすることを可能にし
たシステムについても言われるようになっている。
【0003】このようなマンマシンシステムとして、話
者(ユーザー)が音声入力することで自分の意志を指示
(命令)することを可能にする音声認識装置を備えたも
のが知られている。一例として、音声入力によりユーザ
ーが目的地等を指示することを可能にした、GPS(G
lobal Positioning System)
航法を用いた車載用ナビゲーションシステムが知られて
いる。
【0004】このナビゲーションシステムは、ユーザー
が所望の目的地を発話すると、その目的地を音声認識
し、現在地から目的地までの走行経路を探索して、表示
装置にその走行経路を地図表示する機能を有している。
【0005】例えば、ナビゲーションシステムは、図1
3に示すような所定ステップの処理を行うことで、ユー
ザーの指示する目的地を認識する。ユーザーが目的地で
ある「目黒駅」までの走行経路を調べたい場合を例示す
れば、まず、第1ステップにおいて、音声認識装置に組
み合わされた音声合成装置が、『名称をどうぞ』という
合成音を発声し、ユーザーに対して具体的な目的地の名
称を音声入力(発話)するように示唆する。
【0006】これに対し、ユーザーが「目黒駅」と発話
すると、音声認識装置が、この「目黒駅」の声の特徴を
抽出し、抽出した特徴パラメータD1を記憶部等に一時
的に保持する。すなわち、第1ステップでは、音声認識
装置は、ユーザーの発話した「目黒駅」という声の特徴
抽出を行うだけに止めておき、最終的な認識までは行わ
ない。
【0007】次に、第2ステップにおいて、再び音声合
成装置が『ジャンルをどうぞ』という合成音を発声する
ことにより、ユーザーの欲する具体的な目的地よりも上
位概念であるジャンルを発話するように示唆する。
【0008】これに対し、ユーザーが「駅名」と発話す
ると、音声認識装置は、この「駅名」の声の特徴を抽出
することにより、その特徴パラメータD2を生成する。
更に、音声認識装置に予め備えられている認識語辞書中
の認識対象語彙と、特徴パラメータD2とを照合し、特
徴パラメータD2に最も類似した認識対象語彙LD2を
選択することで、ユーザーの発話した「駅名」の声につ
いての音声認識を行う。
【0009】次に、ステップ3において、音声合成装置
が『県名をどうぞ』という合成音を発声することによ
り、ユーザーに対して地域名を発話するように示唆す
る。
【0010】これに対して、ユーザーが「東京都」と発
話すると、音声認識装置は、この「東京都」の声の特徴
を抽出することにより、その特徴パラメータD3を生成
する。更に、上記認識語辞書中の認識対象語彙と、特徴
パラメータD3とを照合し、特徴パラメータD3に最も
類似した認識対象語彙LD3を選択することで、ユーザ
ーの発話した「東京都」の声についての音声認識を行
う。
【0011】次に、ステップ4において、音声認識装置
は、認識語辞書中の認識対象語彙のうち、認識対象語彙
LD2及びLD3の範疇に属する認識対象語彙を絞り込
む。更に、その絞り込んだ認識対象語彙と上記の特徴パ
ラメータD1とを照合し、特徴パラメータD1に最も類
似した認識対象語彙LD1を選択することにより、第1
ステップで発話された「目黒駅」の声についての音声認
識を行う。
【0012】すなわち、上記の第1ステップにおいて下
位概念の名称「目黒駅」が発話された時点では、認識語
辞書中に格納されている膨大な数の認識対象語彙の中か
ら、ユーザーの所望する地域内に存在する「目黒駅」の
認識対象語彙LD1を特定することは一般的には困難で
ある。
【0013】このため、発話された「目黒駅」の声の特
徴パラメータD1を記憶部等に保持しておき、第2〜第
4ステップにおいてユーザーからのジャンルと地域名に
関する発話を受けて、認識語辞書中の認識対象語彙の検
索範囲を絞り込んだ後、その絞り込んだ認識対象語彙と
特徴パラメータD1とを照合することで、「目黒駅」の
認識対象語彙LD1を特定し易くしている。
【0014】そして、選択した認識対象語彙LD3とL
D1に基づいて『△△△内の○○○ですね』という合成
音を発声することにより、認識結果をユーザーに提示す
る。すなわち、認識対象語彙LD3とLD1が適切に
「東京都」「目黒駅」と認識された場合には、『△△△
内の○○○ですね』は『東京都内の目黒駅ですね』とい
う合成音となってユーザーに提示される。
【0015】つまり、音声認識装置はあくまでも認識語
辞書の中から最も類似した認識対象語彙LD1〜LD3
を選択するに過ぎないため、ユーザーの発話した声が不
明瞭であった場合等では、「目黒駅」を「目白駅」と誤
認識したり、「東京都」を「京都府」と誤認識する場合
が可能性としてあり得る。このように誤認識した場合に
は、『京都府内の目白駅ですね』という合成音をユーザ
ーに提示することになる。したがって、認識結果をユー
ザーに提示し確認を仰ぐために、認識対象語前LD3と
LD1に基づいて合成音を発声することとしている。
【0016】そして、ユーザーがこの提示された合成音
を聴き、正確な音声認識がなされたと判断して、例えば
「検索開始」等と発話すると、音声認識装置がこれを認
識し、更にナビゲーションシステムがその確認の指示を
受けて現在地から東京都内の目黒駅までの走行経路を探
索し、その探索した走行経路の地図を表示装置に表示す
る。
【0017】一方、ユーザーが誤認識と判断した場合に
は、「戻れ」と発話して指示すると、音声認識装置は、
その指示を受けて再び音声認識を開始し、再び提示した
認識結果についてユーザーからの「検索開始」の指示を
受けるまで、その音声認識を繰り返すようになってい
る。
【0018】このように、上記のナビゲーションシステ
ムは、音声認識装置と音声合成装置との組み合わせによ
り、ユーザーに対して対話操作を可能にしたものである
点で優れた機能を有している。
【0019】また、ユーザーの思考特性に合わせた順番
でキーワードとなる言葉を発話させるようにしているの
で、ユーザーに対して優れた利便性を提供するものであ
る。つまり、ユーザーは所望の目的地を指示する際に、
最も具体的な目的地(上記例で言えば、目黒駅)を最初
に指示し、次にその目的地の存在するジャンルや地域名
を指示するという思考特性を有していることから、ユー
ザーの思考特性に合わせたマンマシンシステムとなって
いる。
【0020】具体例を述べれば、情報検索システムで
は、合理的な情報管理手法として、最も上位概念のカテ
ゴリを決めておき、その上位概念のカテゴリに関連する
中位概念と下位概念の情報を階層化して管理するという
手法が採られている。こうした階層化構造を採用するこ
とで、ユーザーが膨大な下位概念の情報の中から特定情
報を検索する場合に、上位概念と中位概念の情報を利用
して所謂情報の絞り込みを行い、所望の特定情報にいち
早く到達できるようにしている。
【0021】ところが、かかる情報検索システムと同様
の検索手法を用いてマンマシンシステムを構築すること
とすると、ユーザーの思考特性とは合わなくなる場合が
ある。すなわち、上記のナビゲーションシステムを引用
して例示すれば、最初に上位概念のカテゴリ『ジャン
ル』を質問し、それに対してユーザーに「駅名」と発声
してもらうことにし、次に、中位概念の『県名』を質問
して、それに対してユーザーに「東京都」と発声しても
らうことにし、最後に、下位概念の『具体的な駅の名
称』を質問して、それに対して「目黒駅」と発声しても
らうことにした場合には、ユーザーの思考特性とは異な
った順序で質問することになるため、ユーザーに対して
違和感を与える場合がある。
【0022】このような観点からして、上記従来のナビ
ゲーションシステムは、ユーザーの所望する事項を違和
感のない順序で入力させるので、ユーザーに対して優れ
た利便性を提供するものであるということができる。
【0023】
【発明が解決しようとする課題】しかしながら、上記従
来のナビゲーションシステムは、ユーザーの思考特性に
合わせた音声認識手法を講じたことで、次のような不具
合を生じる場合があった。
【0024】例えば図13の場合には、上記したよう
に、第1ステップで発話された「目黒駅」の音を音声認
識せず、第2〜第4ステップで上記の絞り込みを行った
後に初めて「目黒駅」の音を音声認識して、その認識結
果を提示することとしている。
【0025】そして、誤認識があった場合には、「戻
れ」の指示を受けて再度の音声認識を行うことによって
対応することとしている。
【0026】ところが、この「戻れ」の意味は、「1ス
テップ前の処理に戻ってから再度処理を開始しろ」とい
う命令を意味している。このため、目的地「目黒駅」が
誤認識であった場合には、ユーザーは第4ステップから
第1ステップに処理を戻すために、3回「戻れ」と発話
し、更に図13に示した第1〜第4ステップの操作を繰
り返さなければならないため、ユーザーに対して煩雑な
操作を強いるという問題があった。また、ジャンル「駅
名」が誤認識であった場合にも同様に、ユーザーは第4
ステップから第2ステップに処理を戻すために、2回
「戻れ」と発話し、更に図13に示した第2〜第4ステ
ップの操作を繰り返さなければならないため、ユーザー
に対して煩雑な操作を強いるという問題があった。
【0027】このように、従来のナビゲーションシステ
ムは、「戻れ」という発話がなされた場合に、先に音声
入力された情報を新たに音声入力された情報に書き換え
る(置き換える)という機能を用意しておくことで、誤
認識に対応することとしているが、この機能は再度の音
声認識を行うためのもの過ぎないため、ユーザーが簡単
な操作で訂正の指示を行うことを可能にする機能ではな
かった。このため、ユーザーに対し煩雑な操作を強いる
ことになるという問題があった。
【0028】本発明は上記従来の問題点を克服するため
になされたものであり、ユーザーにとって容易な対話操
作(例えば、訂正操作等)を行うことができる音声認識
装置を備えたマンマシンシステムを提供することを目的
とする。
【0029】
【課題を解決するための手段】上記目的を達成するため
本発明は、1又は2以上の処理機能を有し、音声を情報
伝達媒体として対話的に前記一の処理機能の動作を行う
音声認識装置を備えたマンマシンシステムにおいて、前
記各処理機能毎に対応付けられた制御語を予め備え、前
記一の処理機能を提示した後、前記提示に応じて前記一
の処理機能を指定する指令情報を有する音声入力情報が
外部より入力されると、前記音声入力情報を認識し、前
記指令情報に対応する前記制御語に基づいて、前記一の
処理機能の動作を行う制御部を具備する構成とした。
【0030】また前記制御語を、前記処理機能の動作を
起動させる制御命令語と、前記制御命令語の被処理対象
を示す制御対象語との組み合わせで構成し、前記制御部
が、前記制御対象語と制御命令語を示した前記指令情報
を有する前記音声入力情報が外部より入力されると、前
記指令情報に対応する前記制御対象語と制御命令語から
成る前記制御語に基づいて、前記処理機能の動作を行う
構成とした。
【0031】また、前制御語を、前記処理機能の動作を
起動させる制御命令語と、前記制御命令語の被処理対象
であって前記音声入力情報に含まれた前記指令情報によ
って設定される制御対象語との組み合わせで構成し、前
記制御部が、前記制御対象語の指令情報を有する前記音
声入力情報が入力された後、前記制御命令語の指令情報
を有する前記音声入力情報が入力されると、前記制御対
象語と前記制御対象語から成る前記制御語に基づいて、
前記処理機能の動作を行う構成とした。
【0032】これらの構成によると、制御部は、音声入
力情報に含まれた指令情報を、制御語と対応付けて受け
付け、この制御語に基づいて、指令情報で指令された処
理機能の動作を実行する。この制御語に各処理機能を制
御する種々の制御命令語を登録しておくことで、指令情
報に対応した多様な処理が可能となる。
【0033】また、1又は2以上の処理機能を有し、音
声を情報伝達媒体として対話的に前記一の処理機能の動
作を行う音声認識装置を備えたマンマシンシステムにお
いて、予め複数の照合情報を記憶した記憶部と、前記音
声にて入力される音声入力情報と前記記憶部に記憶され
ている前記照合情報とを照合して、所定の類似度基準よ
り類似度の高い1又は複数の照合情報を認識情報として
保持する認識結果保持領域と、前記各処理機能毎に対応
付けられた制御語とを有する制御部とを具備し、前記制
御部が、前記一の処理機能を提示した後、前記提示に応
じて前記一の処理機能を指定する指令情報を有する音声
入力情報が外部より入力されると、前記指令情報に対応
する前記制御語に基づいて、前記認識結果保持領域中に
保持している前記認識情報に対して前記一の処理機能の
動作を行う構成とした。
【0034】かかる構成によっても、上記同様に制御語
に各処理機能を制御する種々の制御命令語を登録してお
くことで、指令情報に対応した多様な処理が可能とな
る。
【0035】また、前記認識情報を、話者の発話した語
彙から成る前記音声入力情報を前記照合情報との照合に
より得られる1又は複数の語彙情報とし、前記制御語
を、前記語彙情報を訂正する指令情報とした。
【0036】また、前記語彙情報を訂正する制御情報
を、前記1又は複数の語彙情報の一を指定して訂正する
制御情報とした。
【0037】また、前記語彙情報を訂正する指令情報
を、前記1又は複数の語彙情報を順次に次候補選択して
訂正する制御情報とした。
【0038】また、前制御語を、前記処理機能に相当す
る訂正の動作を起動させる制御命令語と、前記制御命令
語の被処理対象となる前記語彙情報に相当する制御対象
語との組み合わせで構成される前記指令情報とし、前記
制御部を、前記指令情報を有する前記音声入力情報が外
部より入力されると、前記指令情報に対応する前記制御
対象語と制御命令語から成る前記制御語に基づいて、前
記訂正の動作を行う構成とした。
【0039】また、前記記憶部に、前記複数の照合情報
を上位概念の属性から下位概念の属性の範疇に複数の分
類した階層化構造に基づいて記憶すると共に、前記話者
の発話した語彙から成る前記音声入力情報を保持する情
報保持部を備え、前記制御部が、前記2以上の属性に対
応する前記処理機能を提示して、前記提示に応じて前記
2以上の属性に該当する前記語彙を各属性毎の前記認識
情報として前記認識結果保持領域に記憶した後、前記指
令情報により上位概念の属性の前記認識情報の訂正が指
令されると、前記上位概念の属性の前記認識情報の訂正
処理を行うと共に、前記情報保持部に保持されている前
記上位概念より下位概念の属性の前記音声入力情報を、
前記記憶部に記憶されている前記上位概念に従属する下
位概念の属性の前記照合情報と照合して、所定の類似度
基準より類似度の高い1又は複数の照合情報を認識情報
として再度前記認識結果保持領域に保持する構成とし
た。
【0040】前記制御部は、前記音声入力情報を再度照
合させる際に、前記音声入力情報を、前記下位概念の認
識情報の属性に属する照合情報であって前記下位概念の
認識情報と同一の照合情報を除外した照合情報とを照合
させる構成とした。
【0041】また、前記記憶部に、前記複数の照合情報
を上位概念の属性から下位概念の属性の範疇に複数の分
類した階層化構造に基づいて記憶すると共に、前記話者
の発話した語前から成る前記音声入力情報を保持する情
報保持部を備え、前記制御部が、前記2以上の属性に対
応する前記処理機能を提示して、前記提示に応じて前記
2以上の属性に該当する前記語彙を各属性毎の前記認識
情報として前記認識結果保持領域に記憶した後、前記指
令情報により下位概念の属性の前記認識情報を順次に次
候補選択して訂正する訂正が指令されると、次候補選択
した認識情報を新たな認識情報として提示する構成とし
た。
【0042】これらの構成によると、外部入力される訂
正の指令情報を、種々の訂正処理に関する情報を有する
制御語を介して受け付ける。そして、その制御語に基づ
いて各種の訂正処理が行われる。特に、認識情報が階層
化されて初めて意味をなす情報である場合に、上位概念
の属性の認識情報を訂正すると、下位概念の属性に属す
る認識情報に影響を及ぼし、逆に、下位概念の属性の認
識情報を訂正すると、上位概念の属性に属する認識情報
に影響を及ぼすといった相互に影響を及ぼすことにな
り、適切な訂正処理を行う必要が生じる。このような場
合に、制御語に予め適切な訂正処理を可能にする機能を
設定しておくことで、迅速且つ適切な訂正処理が可能と
なる。
【0043】例えば、ナビゲーションシステムに目的地
を入力する際に、認識結果である認識情報に誤りがあっ
たり、別の目的地に変更するような場合には、迅速な訂
正処理が望まれるが、このような場合に制御語を用いる
ことで対話形式の操作を迅速に行うことが可能となる。
【0044】
【発明の実施の形態】以下本発明の実施の形態を図面を
参照して説明する。尚、一実施形態として、音声認識機
能を有する車載用ナビゲーションシステムについて説明
する。
【0045】図1は、本実施形態の車載用ナビゲーショ
ンシステムに備えられた音声認識装置の構成を示すブロ
ック図である。より厳密に言えば、車載用ナビゲーショ
ンシステムにマンマシンインターフェース(man−m
achine interface)装置として設けら
れた音声認識装置の部分の構成を示している。
【0046】図1において、本音声認識装置は、マイク
ロフォンを有する音声入力部1と、信号処理部2と、記
憶部3と、マイクロプロセッサ(MPU)を備えた制御
部4、キーボード等の操作部5、音声合成用集積回路装
置を有する音声出力部6、液晶ディスプレイ等で形成さ
れた表示部7とを備えて構成されている。
【0047】ただし、操作部5と音声出力部6及び表示
部7は、ナビゲーションシステムに備えられている構成
要素を供用したり、外部装置として別途接続してもよ
い。
【0048】記憶部3は、分析データ記憶部10と認識
語記憶部11を備えて構成されている。信号処理部2
は、ディジタルシグナルプロセッサ(Digital
Signal Processor:DSP)等で形成
され、制御部4からの制御信号に従って動作する音声分
析部8及び類似度演算部9が備えられている。
【0049】音声入力部1は、ユーザーが発話した音声
を集音し、ディジタルデータの音声データDinに変換
して音声分析部8に供給する。
【0050】音声分析部8は、音声データDinに基づ
いてユーザーの発話した音声の特徴抽出を行い、その特
徴抽出結果である特徴パラメータのデータ(以下、分析
データという)Daを出力する。
【0051】分析データ記憶部10は、再記憶可能なメ
モリ(RAM)で形成され、音声分析部8より出力され
る分析データDaを記憶する。また、記憶した分析デー
タDa’を制御部4からの制御信号に応じて類似度演算
部9に供給する。
【0052】ここで、本音声認識装置は、ユーザーに対
して発話してもらうための語彙の範疇を示唆し、その範
疇内の語彙をユーザーが発話するという対話形式を採用
している。そこで、分析データ記憶部10には、示唆し
た範疇に対応付けて分析データDaを記憶するようにし
ている。
【0053】認識語記憶部11は、読出し専用メモリ
(ROM)で形成され、ユーザーの発話した語彙を認識
する際に分析データDa,Da’と照合される多数の参
照データ(以下、認識対象語彙という)が記憶されてい
る。これらの認識対象語彙は、複数の認識辞書中に分類
して格納されている。認識辞書として、図2に示すよう
に、階層化されたジャンル辞書MJと地域名辞書MKと
施設名称辞書MLが備えられている。
【0054】最上層に位置付けられたジャンル辞書MJ
には、「駅名」「病院名」「遊園地名」等の認識対象語
彙が割り当てられている。ジャンル辞書MJに従属され
た地域名辞書MKには、「北海道」「東京都」等の地域
名の認識対象語彙が割り当てられている。地域名辞書M
Kに従属された施設名称辞書MLには、具体的な「目黒
駅」「東京駅」等の施設名称の認識対象語彙が割り当て
られている。
【0055】つまり、ジャンル辞書MJ中の「駅名」の
認識対象語前には、「北海道」「東京都」等の全国の地
域名の認識対象語彙がツリー構造で従属され、各地域名
の認識対象語彙には、各地域に存在する多数の駅の施設
名称がツリー構造で従属されている。また、ジャンル辞
書MJ中の「病院名」の認識対象語彙にも、全国の地域
名が従属し、それぞれの地域名には多数の病院の施設名
称が従属している。「遊園地名」の認識対象語彙につい
ても同様に全国の地域名と多数の遊園地の施設名称が従
属している。
【0056】更に、本音声認識装置には、ユーザーが音
声入力により、又は操作部5から訂正等の命令をするた
め複数の命令情報(以下、命令語彙という)が準備され
ており、これらの命令語彙Wも命令語辞書MCとして認
識語記憶部11に記憶されている。
【0057】尚、ジャンル辞書MJの範疇に属する「駅
名」「病院名」「遊園地」等の認識対象語彙はジャンル
認識対象語彙、地域名辞書MKの範疇に属する「北海
道」「東京都」等の認識対象語彙は地域名認識対象語
彙、施設名称辞書MLの範疇に属する認識対象語彙は施
設名称認識対象語彙と呼ばれ、ユーザーが命令語彙Wを
用いて本音声認識装置に命令する操作はコマンド操作と
呼ばれている。
【0058】類似度演算部9は、音声分析部8より供給
される分析データDaを辞書MJ,MK,ML,MC中
の認識対象語彙Dbと照合し、分析データDaに最も類
似している認識対象語彙Dbと、所定の類似度判定基準
より高い類似度の認識対象語彙(1又は複数個の認識対
象語彙)Dbとを選択し、その選択した認識対象語彙D
bを認識結果語彙Dcとして制御部4へ出力する。ま
た、分析データ記憶部10から供給された分析データD
a’についても同様に処理して、分析データDa’に対
応する認識結果語彙Dcを制御部4へ出力する。
【0059】これにより、ユーザーが発話した「駅名」
「東京都」「目黒駅」等の声や、コマンド操作により発
話された「訂正」等の声を認識した結果が、認識結果語
彙Dcとして制御部4に供給される。
【0060】尚、分析データDa,Da’を照合するた
めの辞書MJ,MK,ML,MCは、制御部4から供給
される制御信号Cによって選択的に切り替えられる。例
えば、ユーザーに対してジャンルの範疇に属する語彙を
発話してもらうように示唆するときは、制御信号Cによ
ってジャンル辞書MJを選択する。そして、示唆に応じ
てユーザーが発話し、それによって得られる分析データ
Da(又はDa’)を類似度演算部9がジャンル辞書M
J中の認識対象語彙Dbと照合する。このように、ユー
ザーに対して示唆する内容と辞書MJ,MK,ML,M
Cの選択との関係が対応付けるられている。また、分析
データ記憶部10から分析データDa’を読み出すとき
も、辞書MJ,MK,ML,MCの選択と関連付けて行
われる。
【0061】制御部4は、予め設定されたシステムプロ
グラムを実行することにより、本音声認識装置全体の動
作を制御するための上記制御信号を出力すると共に、音
声認識した結果を制御出力としてナビゲーションシステ
ム内の中央制御部(図示省略)へ転送する。
【0062】更に、制御部4は、操作部5からユーザー
の指示を受けたり、ユーザーに提示すべきデータや音声
認識した結果を音声出力部6又は表示部7に供給して、
合成音や表示を提示させることにより、聴覚的・視覚的
な対話を行うようになっている。
【0063】また、制御部4には、類似度演算部9から
供給される認識結果語彙Dcを記憶するための認識結果
記憶領域MRが備えられている。図3に示すように、認
識結果記憶領域MRには、ジャンルファイルFJ、地域
名ファイルFK、施設名称ファイルFLが備えられ、こ
れらのファイルFJ,FK,FLに認識結果語彙Dcを
分類して格納する。
【0064】すなわち、上述したように、本音声認識装
置は、語彙の範疇をユーザーに示唆し、それに応じてユ
ーザーがその範疇内の語彙を発話するという対話形式を
採用していることから、『ジャンルをどうぞ』と示唆し
それに応じて発話されたときに得られ認識結果語彙Dc
をジャンルファイルFJに格納する。『地域名をどう
ぞ』『県名をどうぞ』等と示唆しそれに応じて発話され
たときに得られ認識結果語彙Dcを地域名ファイルFK
に格納する。『名称をどうぞ』と示唆しそれに応じて発
話されたときに得られ認識結果語彙Dcを施設名称ファ
イルFLに格納する。
【0065】更に、類似度演算部9から制御部4に類似
度の高い順に複数個の認識結果語前Dcが転送されてく
る。そこで、図3に示すように、ファイルFJ,FK,
FLには、複数個ずつ転送されてくる認識結果語彙Dc
11,Dc12〜、Dc21,Dc22〜、Dc31,
Dc32〜を類似の高い順に揃えて格納する。
【0066】そして、制御部4は、基本的に、これらの
ファイルFJ,FK,ML中に記憶した最も類似度の高
い認識結果語彙Dc11,Dc21,Dc31を調べる
ことで、ユーザーの指示した目的地(施設名称)等を特
定する。ただし、次候補に関するコマンド操作がなされ
た場合には、次候補となる認識結果語彙に基づいて、ユ
ーザーの指示した目的地(施設名称)等を特定する。
【0067】更に、制御部4には、複数の制御語WWが
予めファイリングされて格納されている。これらの制御
語WWは、コマンド操作により指令された命令の内容
(意味)を判定して迅速な対応を行うために設けられて
いる。この制御語WWは、2つの基本的な形態を有して
いる。
【0068】第1の基本型の制御語WWは、図4(a)
に模式的に示すように、制御対象語Xと制御命令語Yの
対で構成されている。制御命令語Yは、ユーザーの指令
に応じて処理すべき作業事項、制御対象語Xは、制御命
令語Yに従って処理すべき対象事項である。例えば、本
音声認識装置が音声認識した結果を『東京都内の駅名で
すね』と提示し、ユーザーが「駅名を訂正」と発話した
場合には、(X+Y)=(駅名+訂正)の構成からなる
制御語WWに基づいて、駅名を訂正するための処理を開
始する。そして、新たに音声入力された結果が「病院
名」となった場合には、訂正結果を『東京都内の病院名
ですね』という合成音声等で再提示する。
【0069】つまり、被制御対象である制御対象語X
は、上記のジャンルと地域名と施設名称の各属性(範
疇)を表す認識対象語彙等と同じ内容となっており、こ
れらの認識対象語彙等に制御命令語Yが予め付加されて
制御語WWが構成されている。
【0070】上記の例は、制御命令語Yが「訂正」にな
っている場合であり、その他にも、図5に示すような各
種形態の制御語WWが予め準備されている。図5中の左
欄に命令語の形態、右欄に命令語の意味、中欄に制御命
令語Yの識別子を示し、「〜」の部分が制御対象語X、
それに続く語彙が制御命令語Yである。
【0071】次に、第2の基本型の制御語WWは、図4
(b)に模式的に示すように、制御命令語Yだけを予め
ファイリングして記憶しておき、ユーザーのコマンド操
作で指摘された認識結果語彙Dcに、指令された制御命
令語Yを後から付加することで、制御語WWを形成する
という構成になっている。つまり、図4(a)に示した
制御語WWは、制御対象語Xが予め定められているのに
対し、図4(b)に示した制御語WWは、制御対象語X
の部分に融通性を持たせたものである。
【0072】本音声認識装置が、ジャンルに属する「駅
名」、地域名に属する「東京都」の順に音声認識した結
果を『東京都内の駅名ですね』と提示し、ユーザーが
「訂正」と発話した場合には、最後(直近)に認識した
地域名に属する「東京都」を訂正すべきと判断する。
【0073】例えば、最後に認識した結果が地域名ファ
イルFK中の認識結果語彙Dc21であった場合であっ
て、認識結果語彙Dc21に基づいて「東京都」の提示
をした場合に、訂正の指示がなされたときには、最後の
認識結果である認識結果語彙Dc21を図4(b)の認
識結果語彙Dcとする。この認識結果語彙Dc21に、
図5中に示す「訂正(CW)」の制御命令語Yを付加す
ることで、図4(b)の制御語WWを生成する。この
(Dc21+Y)の制御語WWに基づいて、地域名を訂
正するための処理を開始する。そして、新たに音声入力
された結果が「神奈川県」となった場合には、訂正結果
を『神奈川県内の駅名ですね』という合成音声等で再提
示する。
【0074】したがって、第2の基本構成の制御語WW
は、ユーザーが音声入力した結果を直ぐに訂正したいよ
うな場合に、迅速な対応ができるようにしたものであ
る。例えば、ユーザーが目的地等を頻繁に切り替えたい
と欲した場合等に、目的地等の音声入力と、「訂正」の
コマンド操作を交互に繰り返すだけで、最終的に指定し
たい目的地等を簡単且つ迅速に指令することができるよ
うになっている。つまり、ユーザーにとっては、制御命
令語Yに該当する「訂正」の語彙を発話するだけで、直
近の認識対象語彙を指定したことになるため、簡単な訂
正が可能となり、優れた操作性が実現されている。
【0075】一方、上記第1の基本構成の制御語WW
は、最後に音声認識された認識結果語彙だけでなくそれ
より前に音声認識された認識結果語彙を訂正しようとす
る場合に、適切な対応処理が可能となる。
【0076】図4(c)〜(e)は、制御語WWの発展
型の具体例を示している。ユーザーのコマンド操作の仕
方に応じて、様々な長さや組み合わせの制御語WWが形
成されることを示している。これらの発展型によれば、
複数の認識結果語彙を一括して訂正したり(図4(d)
(e))、訂正の指令を行っても即座に訂正を行わせる
のでなく、何らかの処理を行った後に、実質的な訂正を
指示することができる(図4(c)〜(e))。
【0077】特に、ユーザーが複数の語彙や命令語彙を
連続した音声として入力する場合に、この発展型の制御
語WWに基づいてユーザーの意志を反映した処理を行う
ことが可能である。
【0078】このように、本音声認識装置は、固定の又
は融通性を持たせた制御対象語Xと制御命令語Yとを組
み合わせた制御語WWを介して、ユーザーの指示と指令
を受け付けるようにしたので、優れた対話操作を可能に
している。
【0079】次に、かかる構成を有する本音声認識装置
の動作例を図6ないし図9に示すフローチャートを参照
して説明する。尚、代表例として、ユーザーが既に音声
入力した語彙を訂正する場合、すなわち図5に示した
「〜を訂正」、「訂正」、「〜の次候補」、「次候補」
のコマンド操作した場合の動作例について説明する。
【0080】図6は、本音声認識装置における音声認識
処理の基本動作を示している。同図において、本音声認
識装は、基本的には、施設名称の語彙→ジャンルの語彙
→地域名の語彙の順でユーザーに発話してもらい、ジャ
ンルと地域名の語彙に基づいて認識語記憶部11中の照
合すべき認識対象語彙を絞り込んだ後、分析データ記憶
部10に保存しておいた施設名称の分析データDa’と
絞り込んだ認識対象語彙Dbとを照合することで、ユー
ザーの発話した施設名称の語彙を特定する。これを直接
発話方式と呼び、ユーザーの思考特性に合わせた対話操
作を可能にしている。
【0081】尚、ジャンルの語彙を音声認識し、その認
識結果に基づいて施設名称の語彙を特定できる場合に
は、地域名の語彙を発話してもらう必要がないので、地
域名の語彙を発話してもらうための示唆を行わない。
【0082】すなわち、図6において、まず本音声認識
装置が、施設名称の語前を音声入力するようにユーザー
に対して示唆し、これに応じて、ユーザーが所望の目的
地である施設名称の語彙を音声入力すると、この分析デ
ータDaを分析データ記憶部10に記憶(保存)する。
【0083】次に、上位概念であるジャンルの範疇に属
する語彙を音声入力するように示唆し、これに対してユ
ーザーがジャンルの範疇に属する語彙(例えば、「駅
名」等の語彙)を音声入力すると、その音声の分析デー
タDaを生成して、ジャンル辞書MJ中の認識対象語彙
Dbと照合し、照合結果の認識結果語彙Dcを記憶結果
記憶領域MR中の該当ファイルFJに記憶する。そし
て、分析データ記憶部10に保存されている分析データ
(ユーザーが発話した施設名称の分析データ)Da’を
音声認識できる条件が揃った場合には、分析データD
a’を該当する施設名称辞書ML中の認識対象語彙Db
と照合し、照合結果の認識結果語彙Dcを施設名称ファ
イルFLに記憶する。
【0084】そして、認識結果である施設名称の認識結
果語彙Dcをユーザーに提示して誤認識等の有無を確認
させる。それに応じて目的地までの走行経路の探索を開
始すべきコマンド操作が行われると、制御語WWに基づ
いて施設名称の目的地までの走行経路を探索して、探索
した走行経路を表示する。
【0085】ただし、上位概念の語彙が1回入力された
だけでは、目的地である施設名称を特定(絞り込み)で
きなかった場合には、更に中位概念の地域名を音声入力
すべき趣旨の示唆をし、地域名の範疇に属する語彙(例
えば、「東京都」等の語彙)を発話してもらい、ジャン
ルの場合と同様の処理を繰り返す。
【0086】図7は、本音声認識装置が音声入力された
語彙を音声認識し、その認識結果をユーザーに提示した
ときに、ユーザーから訂正等のコマンド操作がなされた
場合の基本動作を示している。
【0087】まず、ユーザーに対して訂正等のコマンド
操作をするか否か示唆し、それに応じて音声入力により
又は操作部5から訂正等のコマンド操作がなされると、
その指令された内容を認識する。そして、制御語WWに
基づいて、例えば訂正対象を訂正するための処理を行う
ようになっている。尚、図7に示した処理は、図6に示
した音声認識処理の各ステップにおいて適宜に行われ
る。
【0088】次に、より具体的な動作例を図8及び図9
を参照して説明する。図8において、ユーザーが音声入
力により又は操作部5によって音声認識開始のコマンド
操作をすると、制御部5の制御下でステップ100以降
の処理を開始する。
【0089】ステップ100では、制御部4の指示に従
って音声出力部6が『名称をどうぞ』という合成音を発
声することにより、ユーザーに対して所望の目的地の名
称(施設名称)を音声入力するように示唆(質問)す
る。
【0090】これに対して、ユーザーが施設名称である
例えば「目黒駅」と発話すると(ステップS102)、
この「目黒駅」の音声を集音して音声分析部8が音声分
析し、「目黒駅」の音声の分析データDaを生成する
(ステップS104)。
【0091】次に、分析データ記憶部10が、施設名称
「目黒駅」の分析データDaを記憶する(ステップS1
06)。すなわち、施設名称に該当する認識対象語彙は
膨大な数に上るため、後述する絞り込み処理を完了して
認識辞書の照合範囲が絞られるまで、施設名称の分析デ
ータDaを分析データ記憶部10に記憶する。
【0092】次に、ステップS108において、認識語
記憶部11中のジャンル辞書MJを選択(設定)し、ジ
ャンルに関する音声入力可能状態にする。
【0093】次に、ステップS110において、類似度
演算部9がジャンル辞書MJ中の認識対象語彙Dbに基
づいて入力音声の認識を開始する。更に、音声出力部6
が『ジャンルをどうぞ』という合成音を発声することに
より、ユーザーに対してジャンルの範疇に属する語彙を
発話するように示唆する。
【0094】この示唆に応じてユーザーがジャンルに属
する語彙(例えば、「駅名」)と発声すると(ステップ
S112)、この「駅名」の音声を集音して音声分析部
8が音声の特徴抽出を行うことにより、「駅名」の音声
の分析データDaを生成して、類似度演算部9へ供給す
る(ステップS114)。また、この分析データDaを
分析データ記憶部10に記憶する。
【0095】次に、ステップS116において、類似度
演算部9が「駅名」の音声の分析データDaをジャンル
辞書MJ中の認識対象語童Dbと照合し、類似度判断基
準より高い類似度の1又は複数個の認識対象語彙を選択
する。そして、選択した認識対象語彙を類似度の高い順
番に配列して、認識結果語彙Dcとして制御部4へ供給
し、図3に示したジャンルファイルFJに記憶させる。
【0096】次に、ステップS118において、ジャン
ルファイルFJに記憶した認識結果語彙Dcのうち最も
類似度が高いもの(図3中のDc11が該当する)を音
声出力部6と表示部7に供給し、合成音声と文字表示等
によって認識結果を提示する。例えば、認識結果語彙D
c11が「駅名」であれば、『駅名ですね』等の合成音
を提示する。
【0097】次に、この提示に対応して、ユーザーが発
話によって「駅名を訂正」とコマンド操作すると、ステ
ップS120において訂正指令を認識して「YES」と
判断し、ステップS122へ移行する。
【0098】ここで、ステップS120では、「駅名を
訂正」とのコマンド操作がなされたので、図4(a)に
示した第1の基本型の制御語WWに基づいて、訂正の判
断をする。つまり、制御対象語Xが「駅名」の認識結果
語彙であり、且つ制御命令語Yが「訂正」になっている
制御語WWを調べて、「駅名」をそれと同じ階層に在る
他の認識対象語彙(すなわち、ジャンルの範疇に属する
他の認識対象語彙)で訂正すべきと判断する。
【0099】そして、ステップS122において、制御
語WWに基づいて制御信号Cを認識語記憶部11に供給
して、ジャンル辞書MJを設定する。ただし、制御対象
語Xが「駅名」となっているに応じてジャンル辞書MJ
中の「駅名」の認識対象語彙は除外し、残りの認識対象
語彙を設定する。
【0100】次に、ステップS110−S118の処理
を繰り返す。これにより、ステップS110において
『ジャンルをどうぞ』という合成音声でユーザーに示唆
し、ステップS112においてユーザーが「駅名」以外
の音声入力をすると、ステップS114,S116でこ
れを分析且つ認識して、新たに指示されたジャンルの認
識結果語彙Dcが制御部4に供給される。
【0101】そして、ステップS118において制御部
4が、ジャンルファイルFJ中の旧い認識結巣語彙Dc
11,Dc12〜を、新たな認識結果語彙Dc11,D
c12〜によって訂正する。例えば、ユーザーが「病院
名」を音声入力すると、「病院名」に類似した認識結果
語彙DcがジャンルファイルFJに記憶されることにな
り、ユーザーの指令した訂正処理がなされることとなる
(ステップS112〜S118)。
【0102】また、上記のステップS120において、
単に「訂正」のコマンド操作がなされた場合には、図4
(b)に示した第2の基本型の制御語WWに基づいて、
訂正の判断をする。つまり、ジャンルファイルFJ中の
最も類似度の高い認識対象語彙Dc11に、「訂正」の
命令制御語Yを付加した制御語WWに基づいて、「駅
名」をそれと同じ階層に在る他の認識対象語彙(すなわ
ち、ジャンルの範疇に属する他の認識対象語彙)で訂正
すべきと判断する。
【0103】そして、ステップS122を通って上記ス
テップS110〜S118の処理を繰り返すことで、ジ
ャンルファイルFJ中の旧い認識結果語彙Dc11,D
c12〜を、新たな認識結果語彙Dc11,Dc12〜
によって訂正する。
【0104】尚、ステップS120において、上記の第
1,第2の基本型の制御語WWに対応する訂正コマンド
操作が繰り返し行われた場合には、今までに訂正の指示
がなされた複数の制御対象語X(又は制御結果語Dc)
の全てを、ジャンル辞書MJから除外して、ジャンル辞
書MJ中の残余の認識対象語彙Dbに基づいて類似度の
判定が行われる。つまり、訂正のコマンド操作がなされ
る度に、除外する認識対象語彙を広げていって、照合す
べき認識対象語彙Dbの範囲を絞り込んでいく。このた
め、照合範囲が絞られて迅速な訂正処理が可能となる。
【0105】更にまた、ステップS120において、図
5中に示されている「〜の次候補」の制御語(第1の基
本型の制御語)WWに該当する例えば「駅名の次候補」
のコマンド操作がなされた場合には、ジャンルファイル
FJに記憶されている次の認識結果語彙Dc12を、ス
テップS118において提示する。例えば、認識結果語
彙Dc12が「病院名」であった場合には、『病院名で
すね』と提示する。
【0106】すなわち、「駅名の訂正」や「訂正」のコ
マンド操作がなされた場合とは異なり、上記したステッ
プS122及びステップS110〜S116における再
度の処理では実質的に訂正処理は行わずに、ステップS
118において認識結果語彙Dc12を最も類似度の高
い認識結果語彙として提示する。
【0107】その提示に対してユーザーが再び「〜の次
候補」のコマンド操作をすると、ジャンルファイルFJ
中の更に次候補である認識結果語彙Dc13を提示す
る。また、再び次候補のコマンド操作がなされた場合に
は、ジャンルファイルFJ中の更に次候補である認識結
果語彙Dc14を提示する。したがって、ジャンルファ
イルFJ中に存在する認識結果語彙Dcの個数分だけ、
ユーザーは次候補のコマンド操作を行うことができるよ
うになっている。
【0108】かかる次候補のコマンド操作を行うこと
で、ユーザーはジャンルの語彙を再度音声入力する手間
を省くことができる。更に、本音声認識装置における訂
正処理が高速化する。
【0109】更にまた、ステップS120において、図
5中に示されている「次候補」の制御語(第2の基本形
の制御語)WWに該当するコマンド操作がなされた場合
にも、「〜の次候補」と同様の訂正処理を行う。つま
り、ユーザーが単に「次候補」と発話すると、ジャンル
ファイルFJ中に記憶されている次候補の認識結果語彙
Dc12が制御対象語となり、この認識結果語彙Dc1
2を提示する。そして、再び次候補のコマンド操作がな
された場合には、ジャンルファイルFJ中に記憶されて
いる更に次候補の認識結果語彙Dc13が制御対象語と
なり、この認識結果語彙Dc13を提示する。したがっ
て、ジャンルファイルFJ中に存在する認識結果語彙D
cの個数分だけ、ユーザーは次候補のコマンド操作を行
うことができるようになっている。
【0110】この「次候補」とのみ発話するコマンド操
作によれば、ユーザーは制御対象語Xに該当する語彙を
発話しなくて済むので、「〜の次候補」のコマンド操作
に比してより迅速な訂正が可能となる。
【0111】ただし、いずれの次候補コマンド操作を行
うかはユーザーが適宜に選択することができるので、本
音声認識装置は、融通性の高いシステムとなっている。
【0112】このように、ステップS120において、
「〜を訂正」「訂正」「〜の次候補」「次候補」のコマ
ンド操作を行うことで、ユーザーは簡単に訂正を行うこ
とができ、所望のジャンルを確定することができる。ま
た、説明をするまでもなく、これらのコマンド操作を混
在して行うことも当然に可能である。
【0113】次に、ステップS118で提示した認識結
果に対して、ユーザーがジャンルの語彙が確定したと判
断すると、ステップS120からステップS124の処
理に移行することになる。
【0114】ステップS124では、ファイルFJ,F
Kを調べ、記憶されている認識結果語彙に基づいて施設
名称を確定するのに十分な絞り込み条件が揃ったか否か
判断する。ここで、未だ十分な絞り込み条件が揃ってい
なければ、ステップS126に移行して、次の地域名辞
書MKを設定して、ステップS110からの処理を繰り
返す。
【0115】例えば、ジャンルファイルFJ中に、既に
認識結果語彙Dc11,Dc12〜が記憶されていて
も、地域名ファイルFK中には末だ認識結果語彙が記憶
されていないために絞り込みができない場合には、ステ
ップS124において、未だ絞り込み条件が揃っていな
いと判断し、更にステップS126において、地域名辞
書MKを設定してから、ステップS110の処理へ移行
する。
【0116】このようにステップS110からの処理を
繰り返すと、ステップS110では、ユーザーに対して
地域名の範疇に属する語彙を発話してもらうために例え
ば『県名をどうぞ』という合成音を発声する。
【0117】これに応じてユーザーが「東京都」等の地
域名を音声入力すると(ステップS112)、上記した
ステップS114〜S118の処理により、地域名ファ
イルFKに、類似度の高い1又は複数の認識結果語彙D
c21,Dc22〜を記憶する。
【0118】更に、ステップS118において、ジャン
ルファイルFJと地域名ファイルFKに記憶された認識
結果語彙に基づいて例えば『東京都の駅名ですね』とい
う合成音を提示する。
【0119】これに対してユーザーが、音声で「東京都
を訂正」とコマンド操作すると(S120)、前述した
のと同様に、「〜を訂正」の制御語WWに基づいて地域
名ファイルFK中の認識結果語彙を訂正する。
【0120】尚、地域名に関する訂正処理も上記したジ
ャンルに関する訂正処理と同様に行われるので、詳細な
説明は割愛するが、ステップS120においてユーザー
が単に「訂正」と発話すれば、直近の認識結果である認
識結果語彙Dc21を訂正するための処理が行われる。
【0121】また、「東京都の次候補」と発話すれば、
地域名ファイルFK中の次の候補である認識結果語前D
c22を提示して、提示結果に対して再度「〜の次候
補」のコマンド操作がなされる度に、更に次の次候補を
提示する。このように、「〜の次候補」のコマンド操作
がなされた場合には、ユーザーは訂正のための語彙を発
話する必要がなく簡単な訂正が可能となる。
【0122】また、単に「次候補」と発話された場合に
も「〜の次候補」の場合と同様に、次候補の認識結果語
彙を提示しつつ訂正処理を行う。よって、「次候補」の
コマンド操作によっても、ユーザーは訂正のための語彙
を発話する必要がなく、簡単な訂正が可能となる。
【0123】ただし、ジャンルと地域名に関する認識結
果語彙DcがジャンルファイルFJ及び地域名ファイル
FKに記憶された後、ジャンルファイルFJ中の認識結
果語彙を訂正すべきコマンド操作がなされた場合には、
次に述べる訂正処理が行われる。
【0124】まず、上記の「〜を訂正」、「〜の次候
補」のいずれかのコマンド操作に応じて、ジャンルファ
イルFJ中の認識結果語彙Dc11,Dc12〜を訂正
することになる。次に、ジャンルファイルFJ中の最も
類似度の高い認識結果語彙(訂正後の認識結果語彙)D
c11に従属する地域名辞書MJ中の認識対象語彙Db
を選択設定する。そして、分析データ記憶部10に既に
記憶されているジャンルの分析データDa’と選択設定
した認識対象語彙Dbとを照合することにより、新たな
認識結果語彙Dcを求めて地域名ファイルFKに記憶す
る。
【0125】したがって、地域名より上位概念のジャン
ルを訂正すべきコマンド操作がなされた場合には、既に
記憶されている上記分析データDa’を利用して再度の
音声認識を自動的に行うので、ユーザーは地域名の語彙
を発話しなくとも、地域名ファイルFK中の認識結果語
彙Dc21,Dc22〜を訂正することができる。
【0126】尚、このように自動的に地域名ファイルF
K中の認識結果語彙を訂正した場合でも誤認識等が生じ
る場合が可能性としては存在するが、地域名の範疇に属
する語彙をユーザーが発話した時に得られた分桁データ
Da’に基づいて上記再度の音声認識を行うので、ユー
ザーの所望する地域名を高確率で音声認識することがで
きる。
【0127】この結果、既に音声入力された分析データ
Da’を有効利用することで、訂正処理の高速化が実現
されると共に、ユーザーに対して操作性の向上を図るこ
とができる。
【0128】このようにして認識結果記憶領域MR中に
絞り込み条件を満足する認識結果語彙Dcが揃うと、ス
テップS124における判断が「YES」となり、図9
に示すステップS127の処理へ移行する。
【0129】ステップS127では、図3に示したジャ
ンルファイルFJと地域名ファイルFK中に記憶されて
いる絞り込み条件に適合した認識結果語彙Dcに該当す
る施設名称辞書MLを設定する。例えば、絞り込み条件
に適合した認識結果語彙Dc11とDc21が、それぞ
れ「駅名」と「東京都」であった場合には、図2に示し
た「東京都内の駅名」に従属する「駅名称の一覧」の施
設名称辞書MLが絞り込まれて設定されることになる。
また、「〜の次候補」のコマンド操作がなされた場合に
は、次候補で確定した認識結果語彙に基づいて絞り込み
が行われることになる。
【0130】次に、ステップS128において、分析デ
ータ記憶部10に既に記憶されていた、施設名称(例え
ば、「目黒駅」)の分析データDa’を類似度演算部9
に導入し、この分析データDa’と、上記の「駅名称の
一覧」の施設名称辞書ML中の認識対象語彙Ddとの類
似度を判定する。そレて、類似度の高い認識結果語彙D
cを施設名称ファイルFLに記憶(格納)する。
【0131】次に、ステップS130において、施設名
称ファイルFLに記憶した最も類似度の高い認識結果語
彙(図3中に示すDc31)を音声出力部6から合成音
声によって提示したり表示部7で表示する。例えば、認
識結果語彙Dc31が「目黒駅」となった場合には、最
終的な判定結果を『目黒駅ですね』という合成音声等で
提示する。
【0132】そして、ステップS132以降の処理に移
行して、最終的な判定結果をユーザーに確認させるため
の確認ルーチンとなる。
【0133】まず、ステップS132において、最終的
な認識結果を更に訂正すべきか否かを示唆するために、
『コマンドをどうぞ』という合成音を発声する。
【0134】これに対してユーザーが、ジャンル又は地
域名の訂正をすべきと判断して、「〜を訂正」、「〜の
次候補」の何れかのコマンド操作を行うと、入力された
音声の分析データDaを認識し、ステップS134にお
いて訂正のためのコマンド操作がなされたことを、制御
語WWに基づいて判断(「YES」と判断)して、ステ
ップS136へ移行する。また、音声入力に代えて操作
部5から「訂正」等の指示がなされた場合にも同様にス
テップS136へ移行する。
【0135】ステップS136では、ステップS122
(図8参照)と同様の処理により、訂正命令に該当する
認識語記憶部11中の認識辞書を選択設定する。ただ
し、この選択設定した認識辞書中、訂正指示のなされた
認識対象語彙は除外して設定する。そして、図8に示し
たステップS110からの処理を繰り返すことにより、
ジャンルファイルFJ又は地域名ファイルFK中の認識
結果語彙を新たな認識結果語彙に訂正する。
【0136】尚、ステップS110からの訂正処理につ
いては、先に説明したので、ここではその説明を割愛す
ることする。
【0137】ステップS134においてジャンル又は地
域名を訂正するためのコマンド操作がなされず、「施設
名称」を訂正するためのコマンド操作がなされた場合に
は、ステップS138においてこの「施設名称」を訂正
するためのコマンド操作を、制御語WWに基づいて判断
(「YES」と判断)して、ステップS142へ移行す
る。
【0138】一方、ジャンルと地域名及び施設名称のコ
マンド操作がなされない場合、例えば訂正コマンド以外
の「ルート探索」等のコマンド操作がなされた場合に
は、ステップS138において、制御語WWに基づいて
訂正なしと判断(「NO」と判断)して、ステップS1
40へ移行する。
【0139】ステップS140に移行すると、コマンド
操作で指令された動作を開始する。上記例の「ルート検
索」のコマンド操作がなされたときは、その「コマン
ド」の意味する制御語WWに基づいてファイルFL中の
確定した認識結果語彙Dcを抽出し、その認識結果語彙
Dcの施設名称に該当する目的地までの走行経路を探索
し、その探索した走行経路を表示部7に地図表示する。
そして、一の音声認識処理を終了し、再び音声認識開始
の指示がなされるまで待機する。
【0140】一方、ステップS138において「施設名
称」の訂正コマンド操作、すなわち、「〜を訂正」又は
「訂正」のコマンド操作がなされると、ステップS14
2へ移行して、『施設名称をどうぞ』という合成音を発
声して、施設名称の範疇に属する新たな語彙を発話する
ように示唆する。
【0141】これに応じてユーザーが新たな施設名称の
語前を発話すると(ステップS144)、その分析デー
タDaを生成し(ステップS146)、その分析データ
Daを分析データ記憶部10に記憶して(ステップS1
48)、ステップS127の処理に移行する。
【0142】ステップS127では、今までにジャンル
ファイルFJと地域名ファイルFKに記憶され確定しで
いる認識結果語彙Dcに基づいて絞り込みが行われて、
認識語記憶部11中の施設名称辞書MLが設定される。
ただし、訂正の指示がなされた認識対象語彙は除外して
設定する。
【0143】そして、ステップS128において、分析
データ記憶部10に記憶されている施設名称の分析デー
タDa’と上記の施設名称辞書ML中の認識対象語彙D
bを照合して類似度を判定し、類似度の高い認識結果語
彙Dcが施設名称ファイルFLに記憶される。
【0144】このように、「施設名称」の訂正指示がな
された場合には、ジャンルファイルFJと地域名ファイ
ルFK中に既に記憶されている認識結果語彙Dc、すな
わち、絞り込み条件を満足している認識結果語彙Dcに
基づいて、施設名称辞書MLを選択設定するので、最初
からジャンルや地域名を再設定(訂正や変更)をするの
に比して、迅速な訂正処理が可能となる。この結果、ユ
ーザーに対して煩雑な操作を強いることがなく、操作性
を向上させることができる。
【0145】従来の技術では、「施設名称」の訂正を行
う場合に、上位概念のジャンルや地域名を再度音声入力
しなければならなかったのに比べると、大幅な操作性の
向上が図れる。また、絞り込み処理が適切になされるよ
うに訂正処理が行われるので、音声認識率が向上する。
【0146】更に、ユーザーが施設名称を訂正する際
に、「次候補」又は「〜の次候補」のコマンド操作をす
ると、ステップS142〜S148において、施設名称
ファイルFL中に次候補の認識結果語彙が存在するか否
か判断し、存在していればその次候補の認識結果語彙を
認識結果としてステップS127の処理を行うことで、
上位概念のジャンルや地域名を再度音声入力しなくと
も、絞り込み処理が適切になされるように訂正処理が行
われる。また、ユーザーに対して煩雑な操作を強いるこ
とがなく、操作性を向上させることができる。
【0147】以上に説明したように、本実施形態によれ
ば、ユーザーの思考特性に合わせた音声認識を行うこと
ができるのに加えて、ユーザーに対して煩雑な操作を強
いることなく、簡単且つ迅速な訂正操作(訂正コマンド
操作)を提供することができる。
【0148】次に、「次候補」又は「〜の次候補」のコ
マンド操作がなされた場合の訂正処理のより具体的な動
作例を、図10ないし図12に示すフローチャートを参
照して説明しておく。
【0149】尚、図10ないし図12において図8及び
図9と同一又は相当する処理については同一のステップ
符号で示している。
【0150】ただし、ステップS120において、ユー
ザーからの訂正指示がなされたと判断(「YES」と判
断)すると、図12(a)の処理を行った後、ノードD
又はEを介して、図10中のステップS122又はS1
18の処理を開始する点がより具体的に示されている。
更に、図11において、ステップS134でユーザーか
らの訂正指示がなされたと判断(「YES」と判断)す
ると、図12(b)の処理を行った後、ノードD’又は
Aを介してステップS136又はS127の処理を開始
する点がより具体的に示されている。
【0151】すなわち、「次候補」又は「〜の次候補」
のコマンド操作に該当する次候補の認識結果語彙の決定
は、図12(a)(b)中のステップS204とS30
4で行われるようになっている。
【0152】まず、図10中のステップS120におい
て、訂正をすべきコマンド操作が行われると、図12
(a)に示すステップS200の処理に移行する。
【0153】ステップS200では、単に「次候補」と
発話するコマンド操作がなされたか、又は「〜の次候
補」のコマンド操作がなされたか否か判断し、これらい
ずれかの次候補のコマンド操作がなされた場合にはステ
ップS202において、制御語WWに基づいて、指令さ
れたファイル(FJ,FK,FLのうちの指令されたフ
ァイル)中に次候補の認識結果語彙が存在するか否か判
断する。
【0154】そして、次候補に該当する認識結果語彙が
存在すれば、ステップS204に移行して、次候補を認
識結果とする。更にノードEを介して図10中のステッ
プS118に移行して、その認識結果とした認識結果語
彙を提示する。
【0155】したがって、「次候補」又は「〜の次候
補」のコマンド操作がなされた場合には、ステップS1
10〜S116の処理を行うことなく、ノードEを通じ
て直接にステップS118の処理を行う。これにより、
処理の簡素化を実現している。
【0156】また、図12(a)中のステップS200
とS202において「NO」と判断した場合には、ノー
ドDを介してステップS122に処理が移行する。これ
により、ユーザーは、「次候補」又は「〜の次候補」の
コマンド操作以外の訂正コマンド操作、すなわち「訂
正」又は「〜を訂正」のコマンド操作によって、訂正の
指令を行うことになる。
【0157】次に、図11中のステップS138におい
て、施設名称を訂正するための「次候補」又は「〜の次
候補」のコマンド操作がなされたと判断(「YES」と
判断)すると、ステップS142〜S148の処理を行
ってステップS127以降の処理を繰り返す。ただし、
施設名称の訂正指令が「次候補」又は「〜の次候補」の
コマンド操作によってなされた場合には、ステップS1
42〜S148の処理において、図12(b)の処理を
行って、ステップS127以降の処理を繰り返す。
【0158】このように、図12(a)又は(b)の処
理を行うことで、「次候補」又は「〜の次候補」のコマ
ンド操作がなされた場合に、次候補の認識結果語彙を決
定するようになっている。
【0159】以上説明したように本実施形態によれば、
特に、「次候補」と「〜の次候補」のコマンド操作を備
えたことで、ユーザーにとって極めて簡単且つ迅速な訂
正指令の操作をすることができるという優れた機能を有
している。つまり、認識結果記憶領域MRに記憶されて
いる複数の認識結果語彙Dcは、ユーザーが発話した施
設名称やジャンルや地域名の範疇に属する語彙と同一又
は類似した認識結果語彙であるため、最も類似度の高い
認識結果語彙が誤認識であったとしても、残余の(次候
補の)認識結果語彙の中に、ユーザーの発話した語彙と
同一の認識結果語彙が存在する可能性が極めて高い。こ
のため、ユーザーが「次候補」又は「〜の次候補」のコ
マンド操作により訂正の指令をすれば、高確率で所望の
認識結果語彙を設定することができ、ひいては簡単に訂
正の操作を行うことができる。
【0160】尚、以上に説明した本実施形態では、典型
例として、本音声認識装置がユーザーに対して発話すべ
き語前を示唆し、それに従って、ユーザーが語前を1つ
1つ音声入力する場合を説明した。しかし、本発明はこ
れに限定されるものではない。本音声認識装置がユーザ
ーに対して発話すべき複数の語彙を示唆し、それに従っ
て、ユーザーが複数の語彙を連続音声で音声入力するこ
とが可能である。
【0161】すなわち、複数の語彙を示唆する際に、認
識語記憶部11中の認識辞書のうち、それらの語彙の属
性(範疇)に該当する認識辞書を設定しておき、その設
定した認識辞書中の認識対象語彙Dbと複数の分析デー
タDaを照合して、図4に例示した制御語WWを用いて
ユーザーからの指示や指令を受けることにより、複数の
語彙を制御語WWによって一括して受け付けることがで
きる。
【0162】つまり、制御語WWは、図4(c)〜
(e)に示したように、基本型を複数個繋げることによ
っても実現できるので、複数の語彙が音声入力された場
合に、これら複数の語彙を一括して制御語WWとするこ
とができ、ユーザーから指令された処理をその制御語W
Wに基づいて一括処理したり、分割処理することが可能
である。このように、制御語WWを用いてユーザーの音
声入力を受け付けるようにしたことによって、極めて融
通性の高い処理が可能となっている。
【0163】また、以上に説明した制御命令語Yの語彙
は便法として示したものである。よって、他の語彙でも
よい。例えぱ、「訂正」の語彙は、「違う」「直せ」等
の語彙でもよいし、「次候補」の語彙は、「次ぎ」「候
補」「候補変更」等の語彙でもよい。
【0164】
【発明の効果】以上説明したように本発明によれば、各
処理機能毎に対応付けられた制御語を予め備え、前記一
の処理機能を提示した後、前記提示に応じて前記一の処
理機能を指定する指令情報を有する音声入力情報が外部
より入力されると、前記音声入力情報を認識し、前記指
令情報に対応する前記制御語に基づいて、前記一の処理
機能の動作を行うようにしたので、予め制御語に多様な
処理機能を設定しておくことで、多様な処理を迅速・適
切に実施することが可能となる。この結果、対話型操作
を行うのに優れた効果が得られる。
【図面の簡単な説明】
【図1】本実施形態に係る音声認識装置の構成を示すブ
ロック図である。
【図2】認識辞書の階層化構造を示す説明図である。
【図3】認識結果記憶領域中のファイル構造を示す説明
図である。
【図4】制御語の構造を示す説明図である。
【図5】制御語の種類を例示した説明図である。
【図6】本音声認識装置の基本的な動作例を説明するた
めのフローチャートである。
【図7】本音声認識装置の訂正処理の際の基本的な動作
例を説明するためのフローチャートである。
【図8】本音声認識装置のより具体的な動作例を説明す
るためのフローチャートである。
【図9】本音声認識装置のより具体的な動作例を更に説
明するためのフローチャートである。
【図10】本音声認識装置のより具体的な動作例を更に
説明するためのフローチャートである。
【図11】本音声認識装置のより具体的な動作例を更に
説明するためのフローチャートである。
【図12】本音声認識装置のより具体的な動作例を更に
説明するためのフローチャートである。
【図13】従来の音声認識装置の動作を説明するための
説明図である。
【符号の説明】
1…音声入力部 2…信号処理部 3…記憶部 4…制御部 5…操作部 6…音声出力部 7…表示部 8…音声分析部 9…類似度演算部 10…分析データ記憶部 11…認識語記憶部 MR…認識結果記憶領域 MJ…ジャンル辞書 MK…地域名辞書 ML…施設名称辞書 MC…制御語辞書 FJ…ジャンルファイル FK…地域名ファイル FL…施設名称ファイル

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 1又は2以上の処理機能を有し、音声を
    情報伝達媒体として対話的に前記一の処理機能の動作を
    行う音声認識装置を備えたマンマシンシステムにおい
    て、 前記各処理機能毎に対応付けられた制御語を予め備え、
    前記一の処理機能を提示した後、前記提示に応じて前記
    一の処理機能を指定する指令情報を有する音声入力情報
    が外部より入力されると、前記音声入力情報を認識し、
    前記指令情報に対応する前記制御語に基づいて、前記一
    の処理機能の動作を行う制御部を具備することを音声認
    識装置を備えたマンマシンシステム。
  2. 【請求項2】 前記制御語は、前記処理機能の動作を起
    動させる制御命令語と、前記制御命令語の被処理対象を
    示す制御対象語との組み合わせで構成され、 前記制御部は、前記制御対象語と制御命令語を示した前
    記指令情報を有する前記音声入力情報が外部より入力さ
    れると、前記指令情報に対応する前記制御対象語と制御
    命令語から成る前記制御語に基づいて、前記処理機能の
    動作を行うことを特徴とする請求項1に記載の音声認識
    装置を備えたマンマシンシステム。
  3. 【請求項3】 前記制御語は、前記処理機能の動作を起
    動させる制御命令語と、前記制御命令語の被処理対象で
    あって前記音声入力情報に含まれた前記指令情報によっ
    て設定される制御対象語との組み合わせで構成され、 前記制御部は、前記制御対象語の指令情報を有する前記
    音声入力情報が入力された後、前記制御命令語の指令情
    報を有する前記音声入力情報が入力されると、前記制御
    対象語と前記制御対象語から成る前記制御語に基づい
    て、前記処理機能の動作を行うことを特徴とする請求項
    1に記載の音声認識装置を備えたマンマシンシステム。
  4. 【請求項4】 前記制御対象語は、前記音声入力情報に
    より外部入力された語彙であり、前記制御命令語は、前
    記語彙を少なくとも訂正するための命令語彙であること
    を特徴とする請求項2又は3に記載の音声認識装置を備
    えたマンマシンシステム。
  5. 【請求項5】 1又は2以上の処理機能を有し、音声を
    情報伝達媒体として対話的に前記一の処理機能の動作を
    行う音声認識装置を備えたマンマシンシステムにおい
    て、 予め複数の照合情報を記憶した記憶部と、 前記音声にて入力される音声入力情報と前記記憶部に記
    憶されている前記照合情報とを照合して、所定の類似度
    基準より類似度の高い1又は複数の照合情報を認識情報
    として保持する認識結果保持領域と、前記各処理機能毎
    に対応付けられた制御語とを有する制御部とを具備し、 前記制御部は、前記一の処理機能を提示した後、前記提
    示に応じて前記一の処理機能を指定する指令情報を有す
    る音声入力情報が外部より入力されると、前記指令情報
    に対応する前記制御語に基づいて、前記認識結果保持領
    域中に保持している前記認識情報に対して前記一の処理
    機能の動作を行うことを特徴とする音声認識装置を備え
    たマンマシンシステム。
  6. 【請求項6】 前記認識情報は、話者の発話した語彙か
    ら成る前記音声入力情報を前記照合情報との照合により
    得られる1又は複数の語彙情報であり、 前記制御語は、前記語彙情報を訂正する指令情報である
    ことを特徴とする請求項5に記載の音声認識装置を備え
    たマンマシンシステム。
  7. 【請求項7】 前記語彙情報を訂正する制御情報は、前
    記1又は複数の語彙情報の一を指定して訂正する制御情
    報であることを特徴とする請求項6に記載の音声認識装
    置を備えたマンマシンシステム。
  8. 【請求項8】 前記語彙情報を訂正する指令情報は、前
    記1又は複数の語彙情報を順次に次候補選択して訂正す
    る制御情報であることを特徴とする請求項6に記載の音
    声認識装置を備えたマンマシンシステム。
  9. 【請求項9】 前制御語は、前記処理機能に相当する訂
    正の動作を起動させる制御命令語と、前記制御命令語の
    被処理対象となる前記語彙情報に相当する制御対象語と
    の組み合わせで構成される前記指令情報であり、 前記制御部は、前記指令情報を有する前記音声入力情報
    が外部より入力されると、前記指令情報に対応する前記
    制御対象語と制御命令語から成る前記制御語に基づい
    て、前記訂正の動作を行うことを特徴とする請求項6〜
    8のいずれか1項に記載の音声認識装置を備えたマンマ
    シンシステム。
  10. 【請求項10】前記記憶部は、前記複数の照合情報を上
    位概念の属性から下位概念の属性の範疇に複数の分類し
    た階層化構造に基づいて記憶すると共に、前記話者の発
    話した語彙から成る前記音声入力情報を保持する情報保
    持部を備え、 前記制御部は、前記2以上の属性に対応する前記処理機
    能を提示して、前記提示に応じて前記2以上の属性に該
    当する前記語彙を各属性毎の前記認識情報として前記認
    識結果保持領域に記憶した後、前記指令情報により上位
    概念の属性の前記認識情報の訂正が指令されると、前記
    上位概念の属性の前記認識情報の訂正処理を行うと共
    に、前記情報保持部に保持されている前記上位概念より
    下位概念の属性の前記音声入力情報を、前記記憶部に記
    憶されている前記上位概念に従属する下位概念の属性の
    前記照合情報と照合して、所定の類似度基準より類似度
    の高い1又は複数の照合情報を認識情報として再度前記
    認識結果保持領域に保持することを特徴とする請求項6
    〜10のいずれか1項に記載の音声認識装置を備えたマ
    ンマシンシステム。
  11. 【請求項11】前記制御部は、前記音声入力情報を再度
    照合させる際に、前記音声入力情報を、前記下位概念の
    認識情報の属性に属する照合情報であって、前記下位概
    念の認識情報と同一の照合情報を除外した照合情報とを
    照合させることを特徴とする請求項10に記載の音声認
    識装置を備えたマンマシンシステム。
  12. 【請求項12】前記記憶部は、前記複数の照合情報を上
    位概念の属性から下位概念の属性の範疇に複数の分類し
    た階層化構造に基づいて記憶すると共に、前記話者の発
    話した語彙から成る前記音声入力情報を保持する情報保
    持部を備え、 前記制御部は、前記2以上の属性に対応する前記処理機
    能を提示して、前記提示に応じて前記2以上の属性に該
    当する前記語彙を各属性毎の前記認識情報として前記認
    識結果保持領域に記憶した後、前記指令情報により下位
    概念の属性の前記認識情報を順次に次候補選択して訂正
    する訂正が指令されると、次候補選択した認識情報を新
    たな認識情報として提示することを特徴とする請求項8
    に記載の音声認識装置を備えたマンマシンシステム。
  13. 【請求項13】前記音声認識装置を備えたマンマシンシ
    ステムは、ナビゲーションシステムであることを特徴と
    する請求項1〜12のいずれか1項に記載の音声認識装
    置を備えたマンマシンシステム。
JP16147499A 1999-05-03 1999-05-03 音声認識装置を備えたマンマシンシステム Expired - Lifetime JP3980791B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP16147499A JP3980791B2 (ja) 1999-05-03 1999-05-03 音声認識装置を備えたマンマシンシステム
US09/562,755 US6385582B1 (en) 1999-05-03 2000-05-02 Man-machine system equipped with speech recognition device
EP00109434A EP1050872B1 (en) 1999-05-03 2000-05-03 Method and system for selecting recognized words when correcting recognized speech
DE60032193T DE60032193T8 (de) 1999-05-03 2000-05-03 Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16147499A JP3980791B2 (ja) 1999-05-03 1999-05-03 音声認識装置を備えたマンマシンシステム

Publications (3)

Publication Number Publication Date
JP2000315096A true JP2000315096A (ja) 2000-11-14
JP2000315096A5 JP2000315096A5 (ja) 2005-04-07
JP3980791B2 JP3980791B2 (ja) 2007-09-26

Family

ID=15735788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16147499A Expired - Lifetime JP3980791B2 (ja) 1999-05-03 1999-05-03 音声認識装置を備えたマンマシンシステム

Country Status (4)

Country Link
US (1) US6385582B1 (ja)
EP (1) EP1050872B1 (ja)
JP (1) JP3980791B2 (ja)
DE (1) DE60032193T8 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385582B1 (en) * 1999-05-03 2002-05-07 Pioneer Corporation Man-machine system equipped with speech recognition device
JP2004508594A (ja) * 2000-09-08 2004-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 置換コマンドを有する音声認識方法
JP2004526196A (ja) * 2001-02-28 2004-08-26 ヴォイス−インサイト 情報システムにアクセスする自然言語問合せシステム
JP2006505002A (ja) * 2002-11-02 2006-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声認識の方法およびシステム
JP2006184670A (ja) * 2004-12-28 2006-07-13 Nissan Motor Co Ltd 音声認識装置、方法、およびシステム
WO2013175523A1 (ja) * 2012-05-22 2013-11-28 三菱電機株式会社 音声認識装置
WO2015162638A1 (ja) * 2014-04-22 2015-10-29 三菱電機株式会社 ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム
JP2020170051A (ja) * 2019-04-01 2020-10-15 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100012047A (ko) * 1999-10-27 2010-02-04 피루쯔 가사비안 일체화된 키패드 시스템
DE10012572C2 (de) * 2000-03-15 2003-03-27 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zur Spracheingabe eines Zielortes mit Hilfe eines definierten Eingabedialogs in ein Zielführungssystem
US20060143007A1 (en) * 2000-07-24 2006-06-29 Koh V E User interaction with voice information services
JP4116233B2 (ja) * 2000-09-05 2008-07-09 パイオニア株式会社 音声認識装置ならびにその方法
US6870947B2 (en) * 2001-07-24 2005-03-22 Ncr Corporation Method of processing items in a check processing system and an apparatus therefor
JP3902483B2 (ja) * 2002-02-13 2007-04-04 三菱電機株式会社 音声処理装置及び音声処理方法
GB2409561A (en) * 2003-12-23 2005-06-29 Canon Kk A method of correcting errors in a speech recognition system
US20060041926A1 (en) * 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
NZ589653A (en) * 2004-06-04 2012-10-26 Keyless Systems Ltd System to enhance data entry in mobile and fixed environment
EP2393203A3 (en) * 2005-06-16 2013-03-06 Systems Ltd Keyless Data entry system
JP4804052B2 (ja) * 2005-07-08 2011-10-26 アルパイン株式会社 音声認識装置、音声認識装置を備えたナビゲーション装置及び音声認識装置の音声認識方法
DE112006002988T5 (de) * 2005-12-14 2009-01-29 Mitsubishi Electric Corp. Spracherkennungsvorrichtung
JP4131978B2 (ja) * 2006-02-24 2008-08-13 本田技研工業株式会社 音声認識機器制御装置
KR100819234B1 (ko) * 2006-05-25 2008-04-02 삼성전자주식회사 네비게이션 단말의 목적지 설정 방법 및 장치
US20080141125A1 (en) * 2006-06-23 2008-06-12 Firooz Ghassabian Combined data entry systems
US7831431B2 (en) * 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
US8457946B2 (en) * 2007-04-26 2013-06-04 Microsoft Corporation Recognition architecture for generating Asian characters
IL188523A0 (en) * 2008-01-01 2008-11-03 Keyless Systems Ltd Data entry system
DE102008027958A1 (de) * 2008-03-03 2009-10-08 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
US20110131040A1 (en) * 2009-12-01 2011-06-02 Honda Motor Co., Ltd Multi-mode speech recognition
US9188456B2 (en) 2011-04-25 2015-11-17 Honda Motor Co., Ltd. System and method of fixing mistakes by going back in an electronic device
US9341492B2 (en) * 2011-11-10 2016-05-17 Mitsubishi Electric Corporation Navigation device, navigation method, and navigation program
JP2014109889A (ja) * 2012-11-30 2014-06-12 Toshiba Corp コンテンツ検索装置、コンテンツ検索方法及び制御プログラム
JP6102588B2 (ja) * 2013-07-10 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10748523B2 (en) 2014-02-28 2020-08-18 Ultratec, Inc. Semiautomated relay method and apparatus
US10389876B2 (en) 2014-02-28 2019-08-20 Ultratec, Inc. Semiautomated relay method and apparatus
US10878721B2 (en) 2014-02-28 2020-12-29 Ultratec, Inc. Semiautomated relay method and apparatus
US20180034961A1 (en) 2014-02-28 2018-02-01 Ultratec, Inc. Semiautomated Relay Method and Apparatus
US20180270350A1 (en) 2014-02-28 2018-09-20 Ultratec, Inc. Semiautomated relay method and apparatus
CN103863188B (zh) * 2014-04-03 2016-06-01 安徽师范大学 车用语音识别信号在线自诊断方法
KR20160027640A (ko) * 2014-09-02 2016-03-10 삼성전자주식회사 전자 장치 및 전자 장치에서의 개체명 인식 방법
CN104376198B (zh) * 2014-11-04 2017-06-09 中国科学院深圳先进技术研究院 自适应磁共振并行成像方法和装置
JP6974073B2 (ja) * 2017-08-29 2021-12-01 京セラ株式会社 電子機器、充電台、コミュニケーションシステム、方法、およびプログラム
WO2019211967A1 (ja) * 2018-05-01 2019-11-07 株式会社Nttドコモ 対話装置
US10388272B1 (en) 2018-12-04 2019-08-20 Sorenson Ip Holdings, Llc Training speech recognition systems using word sequences
US11170761B2 (en) 2018-12-04 2021-11-09 Sorenson Ip Holdings, Llc Training of speech recognition systems
US10573312B1 (en) 2018-12-04 2020-02-25 Sorenson Ip Holdings, Llc Transcription generation from multiple speech recognition systems
US11017778B1 (en) 2018-12-04 2021-05-25 Sorenson Ip Holdings, Llc Switching between speech recognition systems
US11539900B2 (en) 2020-02-21 2022-12-27 Ultratec, Inc. Caption modification and augmentation systems and methods for use by hearing assisted user
US11488604B2 (en) 2020-08-19 2022-11-01 Sorenson Ip Holdings, Llc Transcription of audio
US20230326453A1 (en) * 2022-04-08 2023-10-12 Palantir Technologies Inc. Approaches of augmenting outputs from speech recognition

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
WO1993007562A1 (en) * 1991-09-30 1993-04-15 Riverrun Technology Method and apparatus for managing information
DE4225475A1 (de) * 1992-08-01 1994-02-03 Philips Patentverwaltung Einrichtung zur Spracherkennung
US5983179A (en) * 1992-11-13 1999-11-09 Dragon Systems, Inc. Speech recognition system which turns its voice response on for confirmation when it has been turned off without confirmation
JPH09114489A (ja) * 1995-10-16 1997-05-02 Sony Corp 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車
US5794189A (en) * 1995-11-13 1998-08-11 Dragon Systems, Inc. Continuous speech recognition
US6138098A (en) * 1997-06-30 2000-10-24 Lernout & Hauspie Speech Products N.V. Command parsing and rewrite system
JP3980791B2 (ja) * 1999-05-03 2007-09-26 パイオニア株式会社 音声認識装置を備えたマンマシンシステム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385582B1 (en) * 1999-05-03 2002-05-07 Pioneer Corporation Man-machine system equipped with speech recognition device
JP2004508594A (ja) * 2000-09-08 2004-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 置換コマンドを有する音声認識方法
JP2004526196A (ja) * 2001-02-28 2004-08-26 ヴォイス−インサイト 情報システムにアクセスする自然言語問合せシステム
JP2006505002A (ja) * 2002-11-02 2006-02-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声認識の方法およびシステム
JP2006184670A (ja) * 2004-12-28 2006-07-13 Nissan Motor Co Ltd 音声認識装置、方法、およびシステム
JP4661216B2 (ja) * 2004-12-28 2011-03-30 日産自動車株式会社 音声認識装置、方法、およびシステム
WO2013175523A1 (ja) * 2012-05-22 2013-11-28 三菱電機株式会社 音声認識装置
WO2015162638A1 (ja) * 2014-04-22 2015-10-29 三菱電機株式会社 ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム
JP5968578B2 (ja) * 2014-04-22 2016-08-10 三菱電機株式会社 ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム
JP2020170051A (ja) * 2019-04-01 2020-10-15 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP7363075B2 (ja) 2019-04-01 2023-10-18 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
DE60032193T2 (de) 2007-11-22
EP1050872A2 (en) 2000-11-08
JP3980791B2 (ja) 2007-09-26
EP1050872A3 (en) 2001-10-10
US6385582B1 (en) 2002-05-07
DE60032193T8 (de) 2008-03-20
EP1050872B1 (en) 2006-12-06
DE60032193D1 (de) 2007-01-18

Similar Documents

Publication Publication Date Title
JP2000315096A (ja) 音声認識装置を備えたマンマシンシステム
US6598018B1 (en) Method for natural dialog interface to car devices
US9159317B2 (en) System and method for recognizing speech
US20080177541A1 (en) Voice recognition device, voice recognition method, and voice recognition program
US7949524B2 (en) Speech recognition correction with standby-word dictionary
KR101383552B1 (ko) 다중 명령어가 포함된 단일 문장의 음성인식방법
US8005673B2 (en) Voice recognition device, voice recognition method, and voice recognition program
JP3990075B2 (ja) 音声認識支援方法及び音声認識システム
US5797116A (en) Method and apparatus for recognizing previously unrecognized speech by requesting a predicted-category-related domain-dictionary-linking word
US8548806B2 (en) Voice recognition device, voice recognition method, and voice recognition program
JP4666648B2 (ja) 音声応答システム、音声応答プログラム
JP4116233B2 (ja) 音声認識装置ならびにその方法
JP4260788B2 (ja) 音声認識機器制御装置
JP4283984B2 (ja) 音声認識装置ならびに方法
JP4928701B2 (ja) 目的案内システム内に定義されている入力ダイアログを使って目的地を言語入力するための方法
JP2008233678A (ja) 音声対話装置、音声対話方法、及び音声対話用プログラム
JP2008097082A (ja) 音声対話装置
JP2008242462A (ja) 多言語の非ネイティブ音声の認識
JP2002123290A (ja) 音声認識装置ならびに音声認識方法
US6879953B1 (en) Speech recognition with request level determination
DE112021000292T5 (de) Sprachverarbeitungssystem
JP3530109B2 (ja) 大規模情報データベースに対する音声対話型情報検索方法、装置および記録媒体
JP4639990B2 (ja) 音声対話装置及び音声理解結果生成方法
JP3581044B2 (ja) 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体
KR20100126992A (ko) 명령횟수를 줄일 수 있는 음성 인식을 이용한 주소 검색 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040506

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070628

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100706

Year of fee payment: 3