JP2003141113A - 翻訳装置、音声翻訳方法、およびプログラム - Google Patents

翻訳装置、音声翻訳方法、およびプログラム

Info

Publication number
JP2003141113A
JP2003141113A JP2001334721A JP2001334721A JP2003141113A JP 2003141113 A JP2003141113 A JP 2003141113A JP 2001334721 A JP2001334721 A JP 2001334721A JP 2001334721 A JP2001334721 A JP 2001334721A JP 2003141113 A JP2003141113 A JP 2003141113A
Authority
JP
Japan
Prior art keywords
sentence
language
unit
voice
sentence example
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001334721A
Other languages
English (en)
Inventor
Shigeru Kafuku
滋 加福
Koichi Nakagome
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2001334721A priority Critical patent/JP2003141113A/ja
Publication of JP2003141113A publication Critical patent/JP2003141113A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 音声認識結果から用例候補を提示して選択さ
せることで、的確かつ高速な翻訳処理を実現する。 【解決手段】 入力された音声を音声認識し、予め用意
された単語のうちで最も尤度の高いものを候補として抽
出する。また、場面毎に用例を用意し、各用例に関連す
る単語を関連づける。抽出した単語と、各用例の単語と
を比較し、一致度に基づいてスコアリングし、スコアの
高いものを候補として提示する。提示された候補から適
切なものを選択し、選択された用例の対訳を出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、的確な対訳を高速
に出力することができる翻訳装置等に関する。
【0002】
【従来の技術】従来より、海外旅行などで現地の人と会
話をするとき、その会話を支援する携帯型会話翻訳装置
が用いられている。この種の会話翻訳機における音声翻
訳は話者が発話した自然言語の音声文を推論手法により
音声認識し、その認識結果を文字列に変換し、対応する
他の言語の文字列を選び出している。しかし、人間どう
しのコミニケーションの過程で現れる様々な言語現象
を、余すことなく完全に網羅することは不可能に近く、
このため、網羅されていない言語現象が発話された場合
には誤った処理が行われる場合があった。
【0003】そこで、最近では、このような弊害を解決
するために、原文の用例とその対訳例との組を用例デー
タベースに多数格納しておき、所定の言語で原文が音声
入力されると、その音声文を音声認識し、その認識結果
の会話文の音声からキーワードとなる単語を抽出し、抽
出された単語を含む用例を用例データベースの多数の用
例から検索し、その検索結果の用例のうち単語の一致度
が最大の用例を選択し、その用例の対訳例にしたがっ
て、原文の翻訳が行われるような翻訳機も出現してきて
いる。
【0004】
【発明が解決しようとする課題】従来の用例を利用する
方法では、相手の言葉が理解できない人々に自分の意志
を伝えることはできるが、その自分の意志に対しての相
手からの応答の言葉に対する処理は考慮されていなかっ
た。このため、相手からの問いかけが理解できない、あ
るいは聞き取ることができずに、相手とのコミニケーシ
ョンが円滑に行えない場合があった。
【0005】本発明は、上記実状に鑑みてなされたもの
で、より正確に翻訳文例を出力することができる翻訳装
置、音声翻訳方法、およびプログラムを提供することを
目的とする。
【0006】
【課題を解決するための手段】上記目的を達成するた
め、本発明の第1の観点にかかる翻訳装置は、複数の自
然言語のうち、一対の他言語間の翻訳を行う翻訳装置に
おいて、前記複数言語のうち、前記一対の他言語のうち
の一方を設定する言語設定手段と、前記言語設定手段で
設定された言語による音声文を取得して音声認識する音
声認識手段と、前記音声認識手段による音声認識結果に
基づき、前記取得した音声文に含まれる単語を認識する
単語認識手段と、各言語について、複数の文例と、各文
例に関連する少なくとも1つの単語と、各文例の対訳文
例と、を対応付けて記憶している文例記憶手段と、前記
単語認識手段で認識された単語と、前記文例記憶手段に
記憶された単語との一致度に基づいて、対応する文例を
複数選出する文例候補選出手段と、前記文例候補選出手
段が選出した文例を、使用者に選択可能に出力する文例
候補出力手段と、前記文例候補出力手段が出力した文例
のうち、前記使用者に選択された文例に対応する対訳文
例を、前記文例記憶手段から取得して出力する対訳文例
出力手段と、前記音声認識手段による音声認識の対象と
なる言語を、前記言語設定手段により設定された言語か
ら他方の言語に切り替える対象言語切替手段と、を備え
ることを特徴とする。
【0007】このような構成によれば、音声入力された
第1言語(例えば、日本語)の音声文を音声認識して単
語抽出を行い、予め用意された文例に対応づけられた単
語と比較する。比較の結果、単語の一致度が高い文例を
所定数選出し、その中から最適なものを話者に選択させ
る。そして、選択された文例の対訳(第2言語:例えば
英語)を、例えば、表示装置や音声合成装置などの出力
装置に出力させることで、相手に提示することができ
る。このため、話者が伝えたい内容の対訳を的確に出力
することができる。また、例えば、対訳を出力した後な
どに、対象言語を他方に切り替えることができるので、
応答者による応答の翻訳にも対応でき、会話の進行を妨
げずに翻訳処理を行うことができる。
【0008】上記翻訳装置において、前記文例記憶手段
は、文例および対訳文例を場面毎に分類して記憶してい
ることが望ましく、この場合、前記音声認識手段は、音
声認識対象となる音声文が用いられる場面を予め指定さ
せる場面指定手段を備え、前記文例候補選出手段は、前
記場面指定手段で指定された場面に対応した文例から候
補を選出するものとすることができる。
【0009】また、この場合、前記対訳文例出力手段が
出力する対訳文例に対する応答文例を前記場面毎に予め
記憶している応答文例記憶手段と、前記場面指定手段に
よる場面指定を契機に、当該場面に対応する応答文例を
前記応答文例記憶手段から取得する応答文例取得手段
と、をさらに備えることが望ましく、この場合、前記文
例候補選出手段は、前記対象言語切替手段による対象言
語の切り替え後は、前記応答文例取得手段が取得した応
答文例から文例候補を選出するものとすることができ
る。
【0010】上記のような構成によれば、文例を予め場
面毎に分類しておき、話者に予め場面を選択させてお
く。そして、選択された場面に対応する文例から候補文
例を選出するので、より的確に話者の意図する文例を選
出することができる。
【0011】また、場面の選択に対応して、提示した対
訳に対する相手方の応答を予測し、予めメモリなどに保
持しておくので、相手方が応答文例を選択する際の処理
を高速に行うことができる。この場合、応答文例も場面
毎に分類されているので、応答者の意図する文例を的確
に選出することができる。
【0012】上記翻訳装置において、前記音声認識手段
は、前記複数言語について、音声に含まれる各音素をモ
デル化した音素モデルと、複数種類の単語の音素パター
ン系列情報を登録した言語モデルと、を予め記憶してい
るモデル記憶部を備えていることが望ましく、この場
合、入力された音声文を、前記モデル記憶部に記憶され
た前記音素モデルと前記言語モデルとを参照することで
音声認識し、前記単語認識手段は、認識対象となる単語
を含むグループの前後に、無音状態を示すグループおよ
び前記言語モデルに登録されていない単語を含むグルー
プを配置する接続関係を定義するためのグループ間接続
規則を示す情報を予め記憶しておく接続規則記憶手段を
備え、前記接続規則記憶手段に記憶されたグループ間接
続規則に基づいて、前記音声認識手段が音声認識した音
声文から、各グループごとの最大尤度を求め、該求めた
最大尤度に基づいて、認識対象となる単語を抽出するも
のとすることができる。
【0013】このような構成によれば、例えば、発話さ
れた音声文の発話前と発話後の無音部や、助詞などのそ
れ自体には意味のない語を峻別し、必要な単語のみを抽
出できるので、文例候補の選出をより的確に行うことが
できる。
【0014】上記翻訳装置において、現在位置の位置情
報を取得する位置情報取得手段をさらに備えていてもよ
く、この場合、前記言語設定手段は、前記位置情報取得
手段が取得した現在位置情報に基づいて、前記一対の他
言語のうちの一方を設定するものとすることができる。
【0015】このような構成によれば、例えば、翻訳装
置にGPS(Global Positioning System:全地球測位
システム)などに対応した受信装置などを備えること
で、翻訳装置の現在位置情報を取得し、これに基づいて
対象言語を設定する。すなわち、例えば、使用者の使用
言語はデフォルトで設定しておき、相手方が使用する言
語を現在位置により判別して自動的に設定する。これに
より、例えば、同一国内で地方により使用言語が異なる
ような場合でも、使用者が意識することなく適切な言語
を設定することができる。
【0016】上記翻訳装置において、前記音声認識手段
は、取得された音声文を、前記音素モデルと前記言語モ
デルのすべてを参照して音声認識することで、当該音声
文を構成する言語を判別する発話言語判別手段を備えて
いてもよく、この場合、前記言語設定手段は、所定の文
言を母国語で発話するよう促す複数言語によるメッセー
ジを出力し、前記発話言語判別手段が判別した、該メッ
セージに応じて発話された所定文言の言語を設定するも
のとすることができる。
【0017】このような構成によれば、例えば、上記翻
訳装置の起動時に、表示装置などに、所定の文言(例え
ば、あいさつなど)を母国語で発話するよう促すメッセ
ージを、複数言語で表示し、このメッセージに応じて発
話された文言を音声認識することによって発話された言
語を判別するので、使用毎に設定言語を適宜変更するこ
とができる。
【0018】前記翻訳装置は、携帯型端末装置から構成
されることが望ましい。
【0019】このような構成とすることで、本発明にか
かる翻訳装置を、例えば、海外旅行などの際に携行する
ことができ、他言語でのコミュニケーションが必要とな
る場面で本発明にかかる翻訳装置を活用することができ
る。
【0020】上記翻訳装置において、前記対象言語切替
手段は、前記対訳文例出力手段による対訳文例の出力を
契機に、音声認識対象の言語を他方に切り替えるものと
することができる。
【0021】このような構成によれば、対訳の出力毎
に、対象言語を相手方の言語に自動的に切り替えること
ができる。
【0022】また、上記翻訳装置が携帯型端末装置から
構成される場合、発話者がいずれであるかを判別する発
話者判別手段をさらに備えていてもよく、この場合、前
記対象言語切替手段は、前記発話者判別手段の判別結果
に基づいて、対象言語を切り替えるものとすることがで
きる。
【0023】また、この場合、前記発話者判別手段は、
発話者の音声を収集して前記音声認識部に音声信号を供
給する音声収集手段であって、音声の入力方向を特定可
能な音声収集手段(例えば、指向性マイクロフォン)を
少なくとも2つ備えるものとすることができ、前記各音
声収集手段が特定した入力方向の差異に基づいて、前記
発話者がいずれであるかを判別し、前記対象言語切替手
段は、前記発話者判別手段が判別した発話者の発話タイ
ミングに基づいて、対象言語を切り替えるものとするこ
とができる。
【0024】あるいは、前記文例候補出力手段による文
例候補出力時の前記翻訳装置の方向、および、前記対訳
文例出力手段による対訳文例出力時の前記翻訳装置の方
向を特定する装置方向特定手段と、前記装置方向特定手
段が特定した前記翻訳装置の方向の変化を検出する方向
変化検出手段と、をさらに備えていてもよく、この場
合、前記対象言語切替手段は、前記方向変化検出手段の
検出結果に基づいて、対象言語を切り替えるものとする
ことができる。
【0025】さらにこの場合、上記翻訳装置は、表示手
段と、前記文例候補出力手段、および、前記対訳文例出
力手段からの出力を、前記表示手段に表示させる表示制
御手段と、をさらに備えているものとすることができ、
この場合、前記表示制御手段は、前記対象言語切替手段
が、前記出力対象判別手段の判別結果に基づいて対象言
語を切り替えた場合、判別された出力対象に応じて、表
示方向を変化させてもよい。
【0026】上記のような構成によれば、二者間で翻訳
装置の受け渡しをしながら会話を進行するような場合に
おいて、発話者がいずれかであるかに基づいて、対象言
語を自動的に切り替えることができる。ここで、翻訳装
置の音声認識部に音声を入力するための音声収集装置
(例えば、マイクロフォン)を指向性のあるものとし、
このような音声収集装置を、例えば、翻訳装置の表面お
よび裏面のそれぞれに少なくとも1つ備えた構成とすれ
ば、対面して会話をしている場合、音声の入力方向に基
づいて、二者のうちのいずれが発話しているかを判別す
ることができる。したがって、音声認識のために音声入
力をする者がいずれかによって、対象言語を自動的に切
り替えることができる。
【0027】あるいは、出力情報の内容と、装置の方向
とから、対象言語を自動的に切り替えることもできる。
すなわち、文例候補を参照する者が二者のうちの一方で
ある場合、対訳を参照する者は他方であるとみなすこと
ができる。したがって、文例候補の出力時および対訳文
例の出力時それぞれにおける翻訳装置の方向を特定した
場合、装置方向の変化を検出することで受け渡し動作を
検出することができる。この受け渡し動作に応じて対象
言語を自動的に切り替えれば、会話の進行に応じて順次
翻訳処理を行うことができる。さらにこの場合、情報の
提示対象者がいずれか(出力情報が文例候補か、対訳文
例か)であることに応じて、表示画面を、例えば上下反
転させることで、装置の受け渡し時に装置自体を反転、
転回等させる必要がない。
【0028】上記目的を達成するため、本発明の第2の
観点にかかる音声翻訳方法は、一対の他言語のうちのい
ずれかを、話者の発話状況に応じて指定する言語指定ス
テップと、前記言語指定ステップで指定された言語によ
る音声文を取得して音声認識する音声認識ステップと、
前記音声認識ステップでの音声認識結果に基づき、前記
取得した音声文に含まれる単語を認識する単語認識ステ
ップと、各言語について、複数の文例と、各文例に関連
する少なくとも1つの単語と、各文例の対訳文例と、を
対応付けて予め蓄積しておく文例蓄積ステップと、前記
単語認識ステップで認識された単語と、前記文例蓄積ス
テップで蓄積された単語との一致度に基づいて、対応す
る文例を複数選出する文例候補選出ステップと、前記文
例候補選出ステップで選出された文例を、選択可能に出
力する文例候補出力ステップと、前記文例候補出力ステ
ップで出力された文例のうち、選択された文例に対応す
る対訳文例を取得して出力する対訳文例出力ステップ
と、を備えることを特徴とする。
【0029】上記目的を達成するため、本発明の第3の
観点にかかるプログラムは、コンピュータを、音声文を
取得する音声文取得部、複数の自然言語のうち、一対の
他言語を指定する言語指定部、前記音声文取得部が取得
した音声文を、前記言語指定部が指定した一方の言語に
基づいて音声認識する音声認識部、前記音声認識部によ
る音声認識結果に基づいて、前記音声文に含まれる単語
を認識する単語認識部、各言語について、複数の文例
と、各文例に関連する少なくとも1つの単語と、各文例
の対訳文例と、を対応付けて蓄積する文例蓄積部、前記
単語認識部が認識した単語と、前記文例蓄積部に蓄積さ
れている単語との一致度に基づいて、対応する文例を複
数選出する文例候補選出部、前記文例候補選出部が選出
した複数の文例を選択可能に出力する文例候補出力部、
前記文例候補出力部が出力した文例のうち、選択された
文例に対応する対訳文例を出力する対訳文例出力部、前
記対訳文例出力部による対訳文例の出力を契機に、前記
音声認識部が音声認識対象とする言語を他方に切替可能
にする対象言語切替部、として機能させることを特徴と
する。
【0030】
【発明の実施の形態】以下、添付図面を参照して、本発
明の実施の形態について説明する。
【0031】図1は、本発明の実施の形態にかかる翻訳
装置100の外観を示す図である。図示するように、翻
訳装置100は、携帯型の装置であり、その外部構成と
して、音声入力部110、入力部200、および出力部
300を備えている。
【0032】音声入力部110は、例えば、マイクロフ
ォンなどから構成され、後述する音声認識を行う音声文
を入力するためのものである。
【0033】入力部200は、例えば、各種ボタン群で
構成され、後述する各種選択動作を行うためのものであ
る。
【0034】出力部300は、例えば、液晶表示装置な
どから構成され、後述する候補文例や対訳文例などを表
示する。
【0035】次に、翻訳装置100の内部構成を図2を
参照して説明する。図2は、翻訳装置100の内部構成
を模式的に示すブロック図である。
【0036】図示するように、翻訳装置100は、図1
に示す構成の他に、音声認識部120、文法ファイル1
30、モデル格納部140、尤度計算部150、単語出
力部160、用例管理部170、用例格納部180、お
よびワークエリア190を備えている。
【0037】また、上記入力部200は、より詳細に
は、言語指定部210、場面指定部220、および用例
指定部230を備えている。言語指定部210は、対象
言語を指定する。場面指定部は、予め用意された場面に
基づいて、翻訳対象となるフレーズが使用される場面を
指定する。用例指定部230は、翻訳装置100が抽出
した用例候補から使用者の意図する用例を選択して指定
するためのものである。
【0038】音声認識部120は、AD変換部121、
パワー分析部122、音声区間検出部123、および特
徴抽出部124を備えている。
【0039】AD変換部121は、音声入力部110に
入力された音声(アナログ信号)をA/D変換するもの
で、この音声を時系列で示すデジタル音声信号(例え
ば、PCM信号)に変換する。
【0040】パワー分析部122は、AD変換部121
でA/D変換されたデジタル音声信号を、所定の時間間
隔(2.0〜4.0ミリ秒)で音声データを、時間窓な
どのハミング窓によって複数のフレームに区分し、区分
した各フレームから音声データを切り出してパワー成分
を求める。
【0041】音声区間検出部123は、パワー分析部1
22が求めたパワー成分が所定の閾値を超えたフレーム
を音声区間として検出する。例えば、1秒以内にパワー
成分が閾値を下回ったフレームは、音声区間としない。
【0042】特徴抽出部124は、音声区間検出部12
3が検出した音声区間について、それぞれパワー分析部
122が算出したパワー成分に基づいて音響特徴ベクト
ルX(t)を計算する。
【0043】文法ファイル130は、翻訳装置100が
対応する言語について、それぞれの文法規則を定義した
ファイルであり、後述する単語認識処理において参照さ
れる。なお、本実施の形態では、説明を容易にするた
め、翻訳装置100が対応できる言語数を2とし、それ
ぞれを「第1言語」および「第2言語」として説明す
る。また、本実施の形態では、第1言語を日本語、第2
言語を英語とした場合の例を説明する。
【0044】モデル格納部140は、第1言語用音響モ
デル格納部141、第1言語用言語モデル格納部14
2、第2言語用音響モデル格納部143、および第2言
語用言語モデル格納部144を備える。音響モデル格納
部141および143は、各言語について、認識対象と
なる音声を構成する全ての音素をモデル化した音素モデ
ルを格納している。音素モデルとしては、例えば隠れマ
ルコフモデル(HMM)が適用されるものとする。ま
た、言語モデル格納部142および144は、各言語に
ついて、単語毎の音素パターン系列情報を登録した単語
辞書を格納している。
【0045】尤度計算部150は、音響特徴ベクトルX
(t)とHMMによる音素モデルとを参照してフレーム
毎の連続音素認識を行い、各フレームの尤度の合計が最
大となるものを暫定的に第1位候補単語として抽出す
る。
【0046】単語出力部160は、尤度計算部150が
抽出した単語を出力する。
【0047】用例管理部170は、場面名レジスタ17
1、用例群名レジスタ172、および予測応答用例管理
テーブル173を備える。場面名レジスタ171は、場
面指定部220で指定された場面名を保持する。用例群
名レジスタ172は、後述する用例候補抽出処理におい
て対象となる用例群ファイル名を保持する。予測応答用
例管理テーブル173は、それぞれの言語について、選
出される用例候補に基づいて、その用例に対する応答を
示す用例を指定するテーブルである。すなわち、図3に
示すように、第1言語の用例群ファイルと、第2言語の
応答用例群ファイル名とが対応付けられて記録されてい
る。また、第2言語の用例群ファイルと、第1言語の応
答用例群ファイル名とを対応させた同様のテーブルも用
意されているものとする。
【0048】用例格納部180は、用例データベース
(第1言語)181、予測応答用例データベース(第2
言語)182、用例データベース(第2言語)183、
および、予測応答用例データベース(第1言語)184
を備える。
【0049】用例データベース181および183は、
それぞれの言語について、図4に示すような階層化した
ディレクトリ構造で用例データを格納している。この階
層構造は、翻訳を必要とする場面に基づいて構成されて
いる。本実施の形態では、第1階層〜第3階層までを場
面設定階層とし、最下層である第4階層に用例群ファイ
ルを格納するものとする。
【0050】すなわち、図4の例では、「緊急」→「病
院で」→「症状」に対応する用例群ファイルが第4階層
に複数用意されている。ここには、各症状毎(例えば、
「頭痛」、「腹痛」など)に用例群ファイル「hospJ0
1」、「hospJ02」、「hospJ03」が用意されているもの
とする。
【0051】図5に、用例群ファイル「hospJ01」のデ
ータ構造の例を示す。この例では、用例群ファイル1
は、「頭痛」に関する用例を格納しているファイルであ
る。図示するように、用例群ファイル1には、「頭痛」
に関連する用例がn種類用意されている。なお、この
「hospJ01」は、「緊急」→「病院で」→「症状」とい
う階層の最下層であるため、「頭痛がします」などの病
院で頭痛を訴える際の用例が用意されている。そして、
各用例には、当該用例を導き出すためのキーワードが対
応付けられている。本実施形態では、キーワードとして
ワード1からワード5の5つを設定しており、数値が大
きくなるほど、より具体性が高いことを示している。さ
らに、各用例の第2言語(英語)での対訳例文が対応付
けられている。
【0052】各用例群ファイルには、図6に示すような
スコアリングテーブルが用意されている。このスコアリ
ングテーブルは、後述する用例候補抽出処理で行われる
スコア計算の際に参照されるものであり、上述のキーワ
ード(ワード1〜ワード5)それぞれの配点を示してい
る。上述したように、ワード番号が高くなるにしたがっ
て具体性の高いワードとしているため、配点もワード番
号が大きくなるにしたがって高くなるように設定してい
る。なお、配点については各用例群ファイル毎に異なら
せてもよい。
【0053】予測応答用例データベース182および1
84は、最終的に提示した用例に対し、相手方が返答す
る用例を蓄積している。すなわち、発話者が用いる用例
が用例データベースに蓄積されており、応答者が用いる
用例が予測応答用例データベースに蓄積されている。こ
のため、第1言語の用例データベース181には、第2
言語の予測応答用例データベース182が対応し、第2
言語の用例データベース183には、第1言語の予測応
答用例データベース184が対応するように構成されて
いる。
【0054】ワークエリア190は、用例エリア(第1
言語)191、応答用例エリア(第2言語)192、用
例エリア(第2言語)193、および応答用例エリア
(第1言語)を備える。各エリアには、用例格納部18
0に格納されている用例ファイルが展開され、後述する
各処理が行われる。
【0055】次に、本実施の形態にかかる翻訳装置10
0の動作を図面を参照して説明する。
【0056】図7は、翻訳装置100の動作を説明する
ためのフローチャートである。まず、翻訳装置100の
出力部300に、第1言語または第2言語を選択する画
面を表示し、入力部200を操作することで一方を選択
する(ステップS101)。すなわち、入力部200の
動作により、言語指定部210がいずれかの言語を設定
する。ここでは、第1言語(日本語)が設定された場合
を例に説明する。
【0057】次に、出力部300に、場面を指定するた
めの場面メニューが図8に示すように表示される(ステ
ップS102)。使用者は、入力部200を操作して所
望の場面を選択する。なお、上述のように、場面は階層
構造となっているので、場面指定の最下層である第3階
層に用意された場面(以下、「詳細場面」とする)が選
択されるまで、所定のメニュー画面が表示される。
【0058】詳細場面が選択されると(ステップS10
3:Yes)、場面指定部220は、選択された場面の
場面名を用例管理部170の場面名レジスタ171に格
納する(ステップS104)。以下、詳細場面「症状」
が選択された場合を例に説明する。
【0059】翻訳装置100は、場面名レジスタ171
に格納された場面名「症状」に対応する用例群ファイル
(すなわち、「hospJ01」、「hospJ02」、「hospJ0
3」)を用例データベース(第1言語)181から取得
して、用例エリア(第1言語)191に格納する(ステ
ップS105)。
【0060】次に、翻訳装置100は、出力部300
に、音声入力部110への音声入力を促すメッセージを
表示する。これにより、使用者による音声入力がなされ
ると(ステップS106:Yes)、音声認識処理を開
始する(ステップS200)。なお、所定時間以上音声
入力がなされない場合(ステップS106:No、ステ
ップS107:Yes)は、処理を終了する。
【0061】次に、ステップS200の音声認識処理
を、図9のフローチャートを参照して説明する。ここで
は、音声文「頭がすごく痛いが」が音声入力部110に
入力された場合を例に説明する。
【0062】まず、AD変換部121が、入力された音
声「頭がすごく痛いが」をA/D変換し、パワー分析部
122が、変換されたデジタル音声信号を所定時間毎で
複数のフレームに区分し、各フレームのパワー成分を算
出する(ステップS201)。
【0063】次に、ステップS201でのパワー分析に
基づいて、音声区間検出部123が、音声区間検出を行
う(ステップS202)。ステップS201で算出した
各フレームのパワー成分を所定の閾値と比較し、閾値を
上回ったフレームを音声区画として抽出する。
【0064】この処理で候補の単語を抽出するのに必要
なだけの音声区画が検出されたかどうかを判定する(ス
テップS203)。必要なだけの音声区画が検出されて
いなければ(ステップS203:No)、処理を終了す
る。必要なだけの音声区間が検出された場合には、特徴
抽出部124は、ステップS201で算出した各フレー
ムのパワー成分に基づいて、ステップS203で抽出し
た音声区間の音響特徴ベクトルX(t)を計算する(ス
テップS204)。
【0065】次に、尤度計算部150は、ステップS2
04で算出した音声特徴ベクトルX(t)と、第1言語
用音響モデル格納部141に格納されている音素モデル
としての隠れマルコフモデル(HMM)と、文法ファイ
ル130に格納されている接続規則に従って、累積尤度
計算を行う(ステップS205)。
【0066】このHMMモデルの接続規則について図1
0を参照して説明する。この規則は、音声文に含まれる
単語をワードスポッテイング法を用いて認識する時のH
MMモデルの接続関係を定義するものであり、予め文法
ファイル130に格納されており、グループという概念
があり、各グループ内に1つ以上の単語を含む構成にな
っている。その構成は、認識対象の単語である複数の単
語(グループ)の前後に無音とガベージモデル(全ての
音素に対応するモデル)を置き、前後に無関係な発話が
あってもそれを吸収するようにするものである。
【0067】ここで、以下の条件にしたがって、最大尤
度値の算出が行われる(ステップS300)。・1フレ
ーム目から尤度計算を行うのは接続規則に定義された開
始グループ(0,1,3グループ)に含まれている単語
のみである。・第0グループには、Bという単語(ここ
でBもEも単語)だけが含まれている。また第0グルー
プは、第0グループ、第1グループ、第3グループに変
移する可能性があり、Bの最終状態は、第0グループ、
第1グループ、第3グループに含まれる全ての単語の先
頭の状態に遷移しており、通常のビタビアルゴニズム
で、累計尤度が大きい遷移が優先され、累積尤度計算が
時間ごとに進められる。
【0068】この処理を、図11に示すフローチャート
を参照して説明する。すなわに、各グループ毎に遷移先
グループを判定(ステップS301)して、最大尤度を
示す単語を判別する(ステップS302)。そして、ス
テップS302で判別された単語の最大尤度値を取得す
る(ステップS303)。
【0069】この際、後処理のバックトレースに必要な
データとして、各フレームごとに各グループの全ての単
語のうち、最終状態の尤度が最も大きいものはどの単語
か、その単語の尤度の値、その単語の開始フレームの値
を求め、保存しておく(ステップS206)。
【0070】全フレームの累積尤度計算が終了したら
(ステップS207:Yes)、保存しておいた尤度計
算結果を遡ること(バックトレース)で認識結果を求め
る(ステップS208)。
【0071】最終グループである1,2,4の各グルー
プに含まれる全ての単語の尤度のうち、最も累積尤度の
高いものを求める。例えば、第2グループ(E)であっ
た場合、Eが出力になり、Eの開始フレームまで遡り、
その時点で同様に第2グループに接続している1,2,
4のグループに含まれる全ての単語の尤度のうち最も大
きいものを求める。
【0072】このようにして、開始フレームの0フレー
ムまで遡ると(ステップS209:Yes)、最大尤度
を示したルートが出力となる。
【0073】この認識結果から1発話につき最大3個の
キーワードを検出する(ステップS210)。
【0074】本実施例では、入力された音声文が「頭が
すごく痛いが」であるので、図12に示すように、認識
結果として「BBBあたまGすごくGいたいGGEE
E」が取得される。ここで、Bは発音前の無音を示し、
Gはキーワード以外の発話を吸収するガベージモデルを
示し、Eは発話後の無音を示すので、抽出されるキーワ
ードは「あたま」、「すごく」、「いたい」となる。
【0075】次に、ステップS200の音声認識処理の
結果に基づいて、用例候補抽出処理(ステップS40
0)が実行される。この用例候補抽出処理を、図13の
フローチャートを参照して説明する。
【0076】尤度計算部150は、上述の音声認識処理
で抽出した単語、すなわち「あたま」、「すごく」、
「いたい」を、単語出力部160に出力する(ステップ
S401)。
【0077】次に、用例群名レジスタに、対象となる用
例群ファイルの先頭ファイル名を設定する(ステップS
402)。上記の例では、「症状」に対応する用例群フ
ァイル「hospJ01」、「hospJ01」、「hospJ03」のうち
の先頭ファイルを示す「hospJ01」が設定される。
【0078】したがって、ステップS105で用例エリ
ア(第1言語)191に格納された用例群ファイルのう
ち、「hospJ01」に対応するものを用いて以下の処理が
行われる。
【0079】「hospJ01」の各用例毎に、対応するキー
ワードとステップS401で取得した単語とを個々に比
較し、一致するものがあるか否かを判別する(ステップ
S403,404)。ここで一致するものがある場合、
図5に示すスコアリングテーブルに設定されている配点
に基づいてスコア計算を行う(ステップS405)。
【0080】このスコア計算処理を図14を参照して説
明する。まず、ステップS401で取得された単語「あ
たま」、「すごく」、「いたい」と、用例No.1のキ
ーワードとを比較すると、「あたま」と「いたい」が一
致する。ここで、用例No.1では、「あたま」がワー
ド1、「いたい」がワード4に設定されているので、ス
コアリングポイントテーブルに基づいて、「あたま」の
80点と「いたい」の95点の計175点が付けられ
る。
【0081】同様にして、「hospJ01」ファイルのすべ
ての用例についてスコア計算を行う(ステップS40
6:No、S407)。すべての用例についてスコア計
算が終了すると(ステップS406:Yes)、次の用
例群ファイルについて同様の処理を行う(ステップS4
08:No、S409)。
【0082】すべての用例群ファイルについて上述の処
理が終了し(ステップS408:Yes)、単語の一致
が検出されなかった場合(ステップS410:No)
は、ステップS111(図7)にもどり、出力部300
に音声再入力要求メッセージを表示する。
【0083】一方、単語の一致があり、スコア付与がな
された場合(ステップS410:Yes)は、付与され
たスコアの上位から所定数の用例を候補として取得し
(ステップS411)、対応する対訳用例とともに用例
エリア(第1言語)191に格納して、図7に示すフロ
ーに戻る。本実施の形態では上位3つの用例を取得する
ものとする。
【0084】ステップS411で取得された候補用例
が、図15に示すように出力部300に表示される(ス
テップS108)。ここで、3つの候補用例は選択可能
に表示されている。すなわち、入力部200を操作する
ことで、音声入力時に発話した文と最も近い用例を選択
することができる。
【0085】ここで、用例の選択がされず、所定の取消
動作が行われた場合(ステップS109:No、S11
0:Yes)は、出力部300に所定の音声再入力要求
メッセージを表示する(ステップS111)。
【0086】一方、用例が選択された場合(ステップS
109:Yes)は、用例エリア(第1言語)191か
ら、選択された用例に対応する対訳用例が取得され、図
16に示すように出力部300に表示される(ステップ
S112)。
【0087】対訳が表示されると、用例群ファイル更新
処理(ステップS500)が実行される。この用例群フ
ァイル更新処理を図17に示すフローチャートを参照し
て説明する。
【0088】まず、ステップS109で選択された用例
に対応する用例群ファイル名を用例群名レジスタ172
から取得する(ステップS501)。
【0089】次に、予測応答用例管理テーブル173を
参照し、ステップS501で取得した用例群ファイル名
に対応した、第2言語についての用例群ファイル名(予
測応答用例群名)を取得する(ステップS502)。
【0090】ステップS502で取得した予測応答用例
群名を用例群名レジスタ172に設定する(ステップS
503)。
【0091】ステップS503で設定した予測応答用例
群名に対応するすべての用例群ファイルを、予測応答用
例データベース(第2言語)182から取得し、応答用
例エリア(第2言語)192に格納して処理を終了する
(ステップS504、ステップS505)。
【0092】この後、ステップS112で表示した対訳
を相手方に提示または発話する。図16に示すように、
出力部300には、表示された対訳に対する応答を発話
するよう表示されている。したがって、応答者は、表示
された"I have a terrible headache."(頭がすごく痛
みます)に応答する音声文を、音声入力部110に入力
する。
【0093】以降は、第2言語(英語)について上述し
た処理と同様の処理(音声認識処理、用例候補抽出処
理、用例選択、選択用例の対訳表示)が行われる。な
お、ステップS504にて、予測された応答用例が応答
用例エリア(第2言語)192にすでに格納されている
ので、この中から応答用例候補が選出されることにな
る。すなわち、図18(a)に示すように、3つの第2
言語の応答用例候補が出力部300に選択可能に表示さ
れる。そして応答者が、入力部200を操作して、最も
ふさわしい用例を選択する。選択された応答用例の対訳
(第1言語:日本語)が、図18(b)に示すように出
力部300に表示される。
【0094】以上説明したように、本発明の実施の形態
にかかる翻訳装置100によれば、発話した内容に近い
用例候補を使用者に選択させ、選択された用例の対訳を
表示するとともに、その用例に対する応答を予め予測し
て音声認識するので、的確かつ高速に翻訳処理を行うこ
とができる。
【0095】上記実施の形態では、出力部300を、例
えば表示装置によって構成し、選択された用例の対訳を
表示するものであった。これに対して、出力部300を
何らかの電子回路に接続させ、出力部300からの出力
結果に従って当該電子回路を動作させるものとしてもよ
い。例えば、出力部300に音声合成装置を接続させる
ことで、対訳を音声出力してもよい。
【0096】上記翻訳装置100は、携帯型装置から構
成されるものとして説明したが、この場合、翻訳装置1
00は専用装置でなくてもよい。例えば、汎用のPDA
(Personal Digital Assistance:携帯情報端末)に、
上記各処理を実現するためのプログラムをインストール
することにより、本実施の形態にかかる翻訳装置100
を実現してもよい。また、携帯電話やPHS(Personal
Handyphone System)端末などの移動体通信端末に同様
のプログラムを搭載することで、上記翻訳装置100と
して機能させてもよい。
【0097】上記実施の形態では、説明を容易にするた
め、対応言語を第1言語(日本語)と第2言語(英語)
の2つとしたが、多くの言語の中から、当該話者同士が
使用する言語を選択するように構成してもよい。この場
合、モデル格納部140、用例格納部180、ワークエ
リア190などを適宜拡張することで対応できる。
【0098】あるいは、翻訳装置100に通信機能を持
たせることで、これらの記憶領域を、例えば、外部のホ
ストコンピュータなどに用意し、インターネットなどを
介して処理を行うようにしてもよい。このような構成に
より、記憶容量に制限のある携帯型装置であっても、よ
り多くの言語に対応することができる。
【0099】また、上記実施の形態では、言語選択を手
動で設定していたが、言語選択の方法は任意である。例
えば、対訳が表示されたことを契機に自動的に言語を切
り替えるようにしてもよい。
【0100】あるいは、発話者がいずれであるかを判別
して、言語を切り替えるようにしてもよい。この場合、
例えば、音声入力部110を、指向性のあるマイクロフ
ォンなどで構成し、さらに翻訳装置100に少なくとも
2個備えるように構成する。そして、これら複数個のマ
イクロフォンで音声を取得する際、その到達時間の相違
から発話者の方向を検知するように構成する。このよう
な構成とすることで、1つの発話の終了後に、異なる方
向からの音声が検出されることを契機に、言語を切り替
えるように構成することができる。
【0101】あるいは、翻訳装置100が出力する情報
の出力対象を判別することで、言語切替を行ってもよ
い。すなわち、候補文例が表示されているときは、発話
者が画面を見ており、対訳文例が表示されているとき
は、相手方に画面を提示していると考えられる。したが
って、例えば、候補文例が表示されているとき、およ
び、対訳文例が表示されているときの翻訳装置100の
方向を判別するように構成し、この方向の変化に基づい
て、対象言語を切り替えるようにしてもよい。この場
合、翻訳装置100の方向に応じて、出力部300上で
の表示方向を、たとえば、上下反転するようにしてもよ
い。これにより、二者間で翻訳装置100を受け渡しす
る場合に、翻訳装置100自体を反転させる必要がな
い。
【0102】また、翻訳装置100にGPS(Global P
ositioning System:全地球測位システム)に対応した
受信装置を備えることで、現在位置に応じて使用言語を
自動的に設定するようにしてもよい。この場合、翻訳装
置100の所有者の使用言語はデフォルトで設定してお
き、相手方の言語を適宜自動設定する。このような構成
によれば、例えば、同一国内において、地方毎に使用言
語が異なるような場合でも、使用者が意識することなく
適切な言語を設定することができる。
【0103】上記のように、所有者の使用言語をデフォ
ルトで固定設定しておく他に、音声認識を用いて設定す
るように構成してもよい。例えば、翻訳装置100の起
動時に、出力部300(表示装置)に、所定の文言(例
えば、あいさつなど)を母国語で発話するよう促すメッ
セージを、複数言語で表示する。このメッセージに応じ
て発話された文言を音声認識部120が音声認識するこ
とによって言語を判別する。この場合、モデル格納部1
40に格納されている、すべての言語についての音響モ
デルおよび言語モデルを参照することで、言語判別を行
う。そして、判別された言語を対象言語として設定する
ことができる。
【0104】なお、上記の翻訳装置100は、携帯型装
置に限らず、パーソナルコンピュータなどの汎用コンピ
ュータをプラットフォームとしても実現することができ
る。例えば、音声入力部110及び出力部300は、そ
れぞれ汎用コンピュータに接続されるマイクロフォン、
表示装置によって実現される。文法ファイル130、モ
デル格納部140、ワークエリア190は、それぞれに
対応した領域がメモリに確保されることによって実現さ
れる。モデル格納部140が格納するモデル、音声認識
処理を行う前に予め外部装置から読み込まれてメモリに
記憶されるものである。パワー分析部122、音声区間
検出部123、特徴抽出部124、および尤度計算部1
50は、CPU(Central Processing Unit)がメモリ
に記憶されたプログラムを実行することによって実現さ
れる。
【0105】このような構成によれば、本発明にかかる
音声翻訳方法を、例えば、インターネットなどを介し
て、他言語の人とコミュニケーションをする場合などに
適用することができる。
【0106】
【発明の効果】以上説明したように、本発明によれば、
的確な対訳を高速に出力することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかる翻訳装置の外観を
示す図である。
【図2】図1の翻訳装置の構成を示すブロック図であ
る。
【図3】図2に示す予測応答用例管理テーブルに記録さ
れる情報の例を示す図である。
【図4】図2に示す用例データベースに記録される情報
の構成を説明するための図である。
【図5】図2に示す用例データベースに記録される用例
群ファイルの一例を示す図である。
【図6】図5に示す用例群ファイルとともに用例データ
ベースに記録されるスコアリングテーブルの例を示す図
である。
【図7】本発明の実施の形態にかかる翻訳装置の動作を
説明するためのフローチャートである。
【図8】図7に示す処理において、翻訳装置に表示され
る場面設定画面の表示例を示す図である。
【図9】図7に示す処理における、音声認識処理を説明
するためのフローチャートである。
【図10】図9に示す音声認識処理に用いられるHMM
モデルの接続規則を説明するための図である。
【図11】図9に示す音声認識処理における、最大尤度
算出処理を説明するためのフローチャートである。
【図12】図9に示す音声認識処理において、認識単語
が出力される仕組みを説明するための図である。
【図13】図7に示す処理における、用例候補抽出処理
を説明するためのフローチャートである。
【図14】図13に示す用例候補抽出処理におけるスコ
ア計算処理を説明するための図である。
【図15】図7に示す処理で表示される用例候補表示画
面の表示例を示す図である。
【図16】図7に示す処理で表示される対訳表示画面の
表示例を示す図である。
【図17】図7に示す処理における、用例群ファイル更
新処理を説明するためのフローチャートである。
【図18】本発明の実施の形態にかかる翻訳装置におい
て、応答者の操作により表示される画面の表示例を示す
図であり、(a)は用例候補表示画面の表示例を示し、
(b)は対訳表示画面の表示例を示す。
【符号の説明】
100…翻訳装置、110…音声入力部、120…音声
認識部、140…モデル格納部、150…尤度計算部、
170…用例管理部、180…用例格納部、200…入
力部、300…出力部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/22 G10L 3/00 571U 571V Fターム(参考) 5B091 AA03 BA19 CB12 CB24 CC15 DA11 5D015 AA05 AA06 BB01 BB02 HH00 KK02

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】複数の自然言語のうち、一対の他言語間の
    翻訳を行う翻訳装置において、 前記複数言語のうち、前記一対の他言語のうちの一方を
    設定する言語設定手段と、 前記言語設定手段で設定された言語による音声文を取得
    して音声認識する音声認識手段と、 前記音声認識手段による音声認識結果に基づき、前記取
    得した音声文に含まれる単語を認識する単語認識手段
    と、 各言語について、複数の文例と、各文例に関連する少な
    くとも1つの単語と、各文例の対訳文例と、を対応付け
    て記憶している文例記憶手段と、 前記単語認識手段で認識された単語と、前記文例記憶手
    段に記憶された単語との一致度に基づいて、対応する文
    例を複数選出する文例候補選出手段と、 前記文例候補選出手段が選出した文例を、使用者に選択
    可能に出力する文例候補出力手段と、 前記文例候補出力手段が出力した文例のうち、前記使用
    者に選択された文例に対応する対訳文例を、前記文例記
    憶手段から取得して出力する対訳文例出力手段と、 前記音声認識手段による音声認識の対象となる言語を、
    前記言語設定手段により設定された言語から他方の言語
    に切り替える対象言語切替手段と、 を備えることを特徴とする翻訳装置。
  2. 【請求項2】前記文例記憶手段は、文例および対訳文例
    を場面毎に分類して記憶し、 前記音声認識手段は、音声認識対象となる音声文が用い
    られる場面を予め指定させる場面指定手段を備え、 前記文例候補選出手段は、前記場面指定手段で指定され
    た場面に対応した文例から候補を選出する、 ことを特徴とする請求項1に記載の翻訳装置。
  3. 【請求項3】前記対訳文例出力手段が出力する対訳文例
    に対する応答文例を前記場面毎に予め記憶している応答
    文例記憶手段と、 前記場面指定手段による場面指定を契機に、当該場面に
    対応する応答文例を前記応答文例記憶手段から取得する
    応答文例取得手段と、をさらに備え、 前記文例候補選出手段は、前記対象言語切替手段による
    対象言語の切り替え後は、前記応答文例取得手段が取得
    した応答文例から文例候補を選出する、ことを特徴とす
    る請求項2に記載の翻訳装置。
  4. 【請求項4】前記音声認識手段は、 前記複数言語について、音声に含まれる各音素をモデル
    化した音素モデルと、複数種類の単語の音素パターン系
    列情報を登録した言語モデルと、を予め記憶しているモ
    デル記憶部を備え、 入力された音声文を、前記モデル記憶部に記憶された前
    記音素モデルと前記言語モデルとを参照することで音声
    認識し、 前記単語認識手段は、 認識対象となる単語を含むグループの前後に、無音状態
    を示すグループおよび前記言語モデルに登録されていな
    い単語を含むグループを配置する接続関係を定義するた
    めのグループ間接続規則を示す情報を予め記憶しておく
    接続規則記憶手段を備え、 前記接続規則記憶手段に記憶されたグループ間接続規則
    に基づいて、前記音声認識手段が音声認識した音声文か
    ら、各グループごとの最大尤度を求め、該求めた最大尤
    度に基づいて、認識対象となる単語を抽出する、 ことを特徴とする請求項1乃至3のいずれか1項に記載
    の翻訳装置。
  5. 【請求項5】現在位置の位置情報を取得する位置情報取
    得手段をさらに備え、 前記言語設定手段は、前記位置情報取得手段が取得した
    現在位置情報に基づいて、前記一対の他言語のうちの一
    方を設定する、 ことを特徴とする請求項1乃至4のいずれか1項に記載
    の翻訳装置。
  6. 【請求項6】前記音声認識手段は、 取得された音声文を、前記音素モデルと前記言語モデル
    のすべてを参照して音声認識することで、当該音声文を
    構成する言語を判別する発話言語判別手段を備え、 前記言語設定手段は、 所定の文言を母国語で発話するよう使用者に促す複数言
    語によるメッセージを出力し、 前記発話言語判別手段が判別した、該メッセージに応じ
    て発話された所定文言の言語を設定する、 ことを特徴とする請求項1乃至5のいずれか1項に記載
    の翻訳装置。
  7. 【請求項7】前記翻訳装置は、携帯型端末装置から構成
    される、 ことを特徴とする請求項1乃至6のいずれか1項に記載
    の翻訳装置。
  8. 【請求項8】前記対象言語切替手段は、前記対訳文例出
    力手段による対訳文例の出力を契機に、音声認識対象の
    言語を他方に切り替える、 ことを特徴とする請求項1乃至7のいずれか1項に記載
    の翻訳装置。
  9. 【請求項9】発話者がいずれであるかを判別する発話者
    判別手段をさらに備え、 前記対象言語切替手段は、前記発話者判別手段の判別結
    果に基づいて、対象言語を切り替える、 ことを特徴とする請求項7に記載の翻訳装置。
  10. 【請求項10】前記発話者判別手段は、 発話者の音声を収集して前記音声認識部に音声信号を供
    給する音声収集手段であって、音声の入力方向を特定可
    能な音声収集手段を少なくとも2つ備え、 前記各音声収集手段が特定した入力方向の差異に基づい
    て、前記発話者がいずれであるかを判別し、 前記対象言語切替手段は、前記発話者判別手段が判別し
    た発話者の発話タイミングに基づいて、対象言語を切り
    替える、 ことを特徴とする請求項9に記載の翻訳装置。
  11. 【請求項11】前記発話者判別手段は、 前記文例候補出力手段による文例候補出力時の前記翻訳
    装置の方向、および、前記対訳文例出力手段による対訳
    文例出力時の前記翻訳装置の方向を特定する装置方向特
    定手段と、 前記装置方向特定手段が特定した前記翻訳装置の方向の
    変化を検出する方向変化検出手段と、をさらに備え、 前記対象言語切替手段は、前記方向変化検出手段の検出
    結果に基づいて、対象言語を切り替える、 ことを特徴とする請求項9に記載の翻訳装置。
  12. 【請求項12】表示手段と、 前記文例候補出力手段、および、前記対訳文例出力手段
    からの出力を、前記表示手段に表示させる表示制御手段
    と、をさらに備え、 前記表示制御手段は、前記対象言語切替手段が、前記発
    話者判別手段の判別結果に基づいて対象言語を切り替え
    た場合、判別された発話者に応じて、表示方向を変化さ
    せる、 ことを特徴とする請求項9に記載の翻訳装置。
  13. 【請求項13】一対の他言語のうちのいずれかを、話者
    の発話状況に応じて指定する言語指定ステップと、 前記言語指定ステップで指定された言語による音声文を
    取得して音声認識する音声認識ステップと、 前記音声認識ステップでの音声認識結果に基づき、前記
    取得した音声文に含まれる単語を認識する単語認識ステ
    ップと、 各言語について、複数の文例と、各文例に関連する少な
    くとも1つの単語と、各文例の対訳文例と、を対応付け
    て予め蓄積しておく文例蓄積ステップと、 前記単語認識ステップで認識された単語と、前記文例蓄
    積ステップで蓄積された単語との一致度に基づいて、対
    応する文例を複数選出する文例候補選出ステップと、 前記文例候補選出ステップで選出された文例を、選択可
    能に出力する文例候補出力ステップと、 前記文例候補出力ステップで出力された文例のうち、選
    択された文例に対応する対訳文例を取得して出力する対
    訳文例出力ステップと、 を備えることを特徴とする音声翻訳方法。
  14. 【請求項14】コンピュータを、 音声文を取得する音声文取得部、 複数の自然言語のうち、一対の他言語を指定する言語指
    定部、 前記音声文取得部が取得した音声文を、前記言語指定部
    が指定した一方の言語に基づいて音声認識する音声認識
    部、 前記音声認識部による音声認識結果に基づいて、前記音
    声文に含まれる単語を認識する単語認識部、 各言語について、複数の文例と、各文例に関連する少な
    くとも1つの単語と、各文例の対訳文例と、を対応付け
    て蓄積する文例蓄積部、 前記単語認識部が認識した単語と、前記文例蓄積部に蓄
    積されている単語との一致度に基づいて、対応する文例
    を複数選出する文例候補選出部、 前記文例候補選出部が選出した複数の文例を選択可能に
    出力する文例候補出力部、 前記文例候補出力部が出力した文例のうち、選択された
    文例に対応する対訳文例を出力する対訳文例出力部、 前記対訳文例出力部による対訳文例の出力を契機に、前
    記音声認識部が音声認識対象とする言語を他方に切替可
    能にする対象言語切替部、 として機能させることを特徴とするプログラム。
JP2001334721A 2001-10-31 2001-10-31 翻訳装置、音声翻訳方法、およびプログラム Pending JP2003141113A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001334721A JP2003141113A (ja) 2001-10-31 2001-10-31 翻訳装置、音声翻訳方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001334721A JP2003141113A (ja) 2001-10-31 2001-10-31 翻訳装置、音声翻訳方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2003141113A true JP2003141113A (ja) 2003-05-16

Family

ID=19149812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001334721A Pending JP2003141113A (ja) 2001-10-31 2001-10-31 翻訳装置、音声翻訳方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2003141113A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
JP2011027979A (ja) * 2009-07-24 2011-02-10 Fujitsu Ltd 音声翻訳装置及び音声翻訳方法
JP2011033879A (ja) * 2009-08-03 2011-02-17 Tze Fen Li サンプルを用いずあらゆる言語を識別可能な識別方法
US8082142B2 (en) 2007-03-14 2011-12-20 Nec Corporation Speech recognition method, speech recognition system and server thereof
JP2016151813A (ja) * 2015-02-16 2016-08-22 巴電気通信株式会社 対話支援システム
CN107632982A (zh) * 2017-09-12 2018-01-26 郑州科技学院 语音控制外语翻译设备用的方法和装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139134A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体
US8082142B2 (en) 2007-03-14 2011-12-20 Nec Corporation Speech recognition method, speech recognition system and server thereof
JP2011027979A (ja) * 2009-07-24 2011-02-10 Fujitsu Ltd 音声翻訳装置及び音声翻訳方法
JP2011033879A (ja) * 2009-08-03 2011-02-17 Tze Fen Li サンプルを用いずあらゆる言語を識別可能な識別方法
JP2016151813A (ja) * 2015-02-16 2016-08-22 巴電気通信株式会社 対話支援システム
CN107632982A (zh) * 2017-09-12 2018-01-26 郑州科技学院 语音控制外语翻译设备用的方法和装置

Similar Documents

Publication Publication Date Title
JP3962767B2 (ja) 対話支援装置
JP4468264B2 (ja) 多言語による名称の音声認識のための方法とシステム
US8949133B2 (en) Information retrieving apparatus
KR100679042B1 (ko) 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템
US7949524B2 (en) Speech recognition correction with standby-word dictionary
US6856956B2 (en) Method and apparatus for generating and displaying N-best alternatives in a speech recognition system
JP2001005488A (ja) 音声対話システム
EP1617409A1 (en) Multimodal method to provide input to a computing device
JP2008097082A (ja) 音声対話装置
JP4236597B2 (ja) 音声認識装置、音声認識プログラムおよび記録媒体。
JP2002123290A (ja) 音声認識装置ならびに音声認識方法
KR20060070605A (ko) 영역별 언어모델과 대화모델을 이용한 지능형 로봇 음성인식 서비스 장치 및 방법
JP3415585B2 (ja) 統計的言語モデル生成装置、音声認識装置及び情報検索処理装置
WO2000010160A1 (fr) Dispositif et procede de reconnaissance vocale, dispositif de navigation, telephone portable et processeur d'informations
JP2005249829A (ja) 音声認識を行うコンピュータネットワークシステム
JP2003141113A (ja) 翻訳装置、音声翻訳方法、およびプログラム
JP2004133003A (ja) 音声認識辞書作成方法及びその装置と音声認識装置
JP2871557B2 (ja) 音声認識装置
JP3296783B2 (ja) 車載用ナビゲーション装置および音声認識方法
CN111489742B (zh) 声学模型训练方法、语音识别方法、装置及电子设备
JP2003108551A (ja) 携帯型機械翻訳装置、翻訳方法及び翻訳プログラム
JP2011027979A (ja) 音声翻訳装置及び音声翻訳方法
JP4611823B2 (ja) 音声認識候補文字列選択装置
Sugamura et al. Speech processing technologies and telecommunications applications at NTT
JPH1039894A (ja) 音声による入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070130