JP2001101187A - 翻訳装置および翻訳方法、並びに記録媒体 - Google Patents

翻訳装置および翻訳方法、並びに記録媒体

Info

Publication number
JP2001101187A
JP2001101187A JP27774399A JP27774399A JP2001101187A JP 2001101187 A JP2001101187 A JP 2001101187A JP 27774399 A JP27774399 A JP 27774399A JP 27774399 A JP27774399 A JP 27774399A JP 2001101187 A JP2001101187 A JP 2001101187A
Authority
JP
Japan
Prior art keywords
translation
unit
language
information
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP27774399A
Other languages
English (en)
Inventor
Hideki Shimomura
秀樹 下村
Kazuhiko Tajima
和彦 田島
Seiichi Aoyanagi
誠一 青柳
Hiroaki Ogawa
浩明 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP27774399A priority Critical patent/JP2001101187A/ja
Priority to EP00308403A priority patent/EP1089193A3/en
Priority to US09/676,126 priority patent/US6952665B1/en
Publication of JP2001101187A publication Critical patent/JP2001101187A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 円滑な対話を行う。 【解決手段】 音声認識部1では、そこに入力される音
声が音声認識され、その音声認識結果が、機械翻訳部2
に供給される。機械翻訳部2では、音声認識部1からの
音声認識結果が機械翻訳される。これにより、日本語の
ユーザと英語のユーザとの対話が行われている場合にお
いて、対話管理部5は、その対話履歴を記憶し、その対
話履歴や、あらかじめ記憶している知識に基づいて、例
えば、機械翻訳部2の翻訳結果が、対話の流れから、不
自然でないかどうか等を判定する。そして、翻訳結果が
不自然である場合、対話管理部5は、機械翻訳部2に対
して、翻訳結果が不自然である旨を出力し、機械翻訳部
2は、翻訳をやり直す。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、翻訳装置および翻
訳方法、並びに記録媒体に関し、特に、例えば、異なる
言語による発話を行うユーザどうしが、円滑に対話を行
うこと等ができるようにする翻訳装置および翻訳方法、
並びに記録媒体に関する。
【0002】
【従来の技術】例えば、日本語と英語等の、異なる言語
による発話を行うユーザどうしがコミュニケーションを
図るためのツールとして、音声翻訳システムがある。音
声翻訳システムでは、例えば、日本語の発話が音声認識
され、その音声認識結果が英語に翻訳されて、合成音で
出力されるとともに、英語の発話が音声認識され、その
音声認識結果が日本語に翻訳されて、合成音で出力され
る。従って、英語の話者(ユーザ)は、日本語の話者の
発話を、英語で聞くことができ、また、日本語の話者
は、英語の話者の発話を、日本語で聞くことができ、相
互に、相手の発話を理解して対話を行うことができる。
【0003】
【発明が解決しようとする課題】ところで、上述のよう
な音声翻訳システムでは、必ずしも、正確な翻訳が行わ
れるとは限らない。そして、正確な翻訳が行われなかっ
た場合には、ユーザどうしの間で、円滑な対話が困難に
なることがある。
【0004】本発明は、このような状況に鑑みてなされ
たものであり、より正確な翻訳等を行うことができるよ
うにして、円滑な対話を行うこと等ができるようにする
ものである。
【0005】
【課題を解決するための手段】本発明の翻訳装置は、第
1の言語を第2の言語に翻訳するとともに、第2の言語
を第1の言語に翻訳する翻訳手段と、第1および第2の
言語による対話の履歴である対話履歴を記憶する履歴記
憶手段と、所定の知識を記憶している知識記憶手段と、
対話履歴または所定の知識に基づいて、所定の処理を行
う処理手段とを含むことを特徴とする。
【0006】処理手段には、対話履歴または所定の知識
に基づいて、入力文に対する応答を生成させることがで
きる。
【0007】また、処理手段には、対話履歴または所定
の知識に基づいて、翻訳手段による翻訳結果をチェック
させ、そのチェックの結果を、翻訳手段に供給させるこ
とができ、この場合、翻訳手段には、処理手段からの情
報に基づいて、翻訳を行わせることができる。
【0008】さらに、処理手段には、対話履歴または所
定の知識に基づいて、対話における話題の遷移を検出さ
せ、その検出結果を、翻訳手段に供給させることがで
き、この場合、翻訳手段には、処理手段からの情報に基
づいて、翻訳を行わせることができる。
【0009】また、処理手段には、対話履歴または所定
の知識に基づいて、翻訳手段による翻訳を補助させるこ
とができる。即ち、例えば、処理手段には、対話履歴ま
たは所定の知識に基づいて、翻訳に必要な情報を取得さ
せ、翻訳手段に供給させることができる。また、処理手
段には、翻訳に必要な情報を取得することができないと
き、翻訳に必要な情報を入力するように、ユーザに要求
させることができる。
【0010】本発明の翻訳装置には、音声を認識する音
声認識手段をさらに設けることができ、この場合、翻訳
手段には、音声認識手段による音声の認識結果を翻訳さ
せることができる。
【0011】また、本発明の翻訳装置には、翻訳手段に
よる翻訳結果に対応する合成音を生成する音声合成手段
をさらに設けることができる。
【0012】本発明の翻訳方法は、第1の言語を第2の
言語に翻訳するとともに、第2の言語を第1の言語に翻
訳する翻訳ステップと、第1および第2の言語による対
話の履歴である対話履歴を記憶する履歴記憶ステップ
と、対話履歴または所定の知識に基づいて、所定の処理
を行う処理ステップとを含むことを特徴とする。
【0013】本発明の記録媒体は、第1の言語を第2の
言語に翻訳するとともに、第2の言語を第1の言語に翻
訳する翻訳ステップと、第1および第2の言語による対
話の履歴である対話履歴を記憶する履歴記憶ステップ
と、対話履歴または所定の知識に基づいて、所定の処理
を行う処理ステップとを含むプログラムが記録されてい
ることを特徴とする。
【0014】本発明の翻訳装置および翻訳方法、並びに
記録媒体においては、第1の言語が第2の言語に翻訳さ
れるとともに、第2の言語が第1の言語に翻訳される。
一方、第1および第2の言語による対話の履歴である対
話履歴が記憶され、その対話履歴、または所定の知識に
基づいて、所定の処理が行われる。
【0015】
【発明の実施の形態】図1は、本発明を適用した音声翻
訳システム(システムとは、複数の装置が論理的に集合
した物をいい、各構成の装置が同一筐体中にあるか否か
は問わない)の一実施の形態の構成例を示している。
【0016】この音声翻訳システムでは、例えば、日本
語による音声が入力されると、その音声が英語に翻訳さ
れて出力され、また、英語による音声が入力されると、
その音声が日本語に翻訳されて出力されるようになって
おり、これにより、日本語のユーザ(話者)と、英語の
ユーザとが、対話を行うことができるようになってい
る。
【0017】即ち、音声認識部1には、ユーザが発話し
た音声が入力されるようになっており、音声認識部1
は、入力された音声を音声認識し、その音声認識結果と
してのテキスト、その他付随する情報を、機械翻訳部2
や、表示部4、対話管理部5などに、必要に応じて出力
する。
【0018】機械翻訳部2は、音声認識部1が出力する
音声認識結果を解析し、入力された音声を、その音声の
言語以外の言語に機械翻訳し(本実施の形態では、日本
語は英語に、英語は日本語に、それぞれ翻訳される)、
その翻訳結果としてのテキスト、その他付随する情報
を、音声合成部3や、表示部4、対話管理部5などに、
必要に応じて出力する。音声合成部3は、機械翻訳部2
や対話管理部5などの出力に基づいて音声合成処理を行
い、これにより、例えば、入力された音声の、他の言語
への翻訳結果としての合成音等を出力する。
【0019】表示部4は、例えば、液晶ディスプレイ等
で構成され、音声認識部1による音声認識結果や、機械
翻訳部2による機械翻訳結果、対話管理部5が出力する
情報等を、必要に応じて表示する。
【0020】対話管理部5は、音声認識部1や機械翻訳
部2の出力から、ユーザの発話の内容の意味理解を行
い、その意味理解の結果に基づいて、ユーザどうしの対
話の履歴(対話履歴)を管理する。さらに、対話管理部
5は、例えば、日本語や英語に関する知識を有してお
り、その知識や、さらには、上述の対話履歴に基づい
て、音声認識部1や機械翻訳部2に対し、音声認識や機
械翻訳の補助を行うための情報をフィードバックする等
の各種の処理を行う。また、対話管理部5は、必要なテ
キストを生成し、音声合成部3や、表示部4に、必要に
応じて出力する。
【0021】以上のように構成される音声翻訳システム
においては、例えば、日本語の音声が入力されると、そ
の音声が、音声認識部1で音声認識され、機械翻訳部2
に供給される。機械翻訳部2では、音声認識部1による
音声認識結果が、英語に機械翻訳され、音声合成部3お
よび対話管理部5に供給される。音声合成部3では、機
械翻訳部2による翻訳結果に対応する合成音が生成され
て出力される。また、英語の音声が入力されると、その
音声が、音声認識部1で音声認識され、機械翻訳部2に
供給される。機械翻訳部2では、音声認識部1による音
声認識結果が、日本語に機械翻訳され、音声合成部3お
よび対話管理部5に供給される。音声合成部3では、機
械翻訳部2による翻訳結果に対応する合成音が生成され
て出力される。
【0022】従って、図1の音声翻訳システムによれ
ば、英語のユーザは、日本語のユーザによる日本語の発
話を理解し、また、日本語のユーザは、英語のユーザに
よる英語の発話を理解することができ、日本語のユーザ
と、英語のユーザとの間で対話を行うことができる。
【0023】なお、以上のようにして、日本語のユーザ
と、英語のユーザとの間で対話が行われている場合にお
いて、対話管理部5では、機械翻訳部2による翻訳結果
に基づいて、日本語のユーザと英語のユーザとによる対
話履歴が構成され、その対話履歴や、あらじめ記憶して
いる知識に基づいて、円滑な対話が行われるようにする
ための各種の処理が行われる。
【0024】次に、図2は、図1の音声認識部1の構成
例を示している。
【0025】ユーザの発話は、マイク11に入力され、
マイク11では、その発話が、電気信号としての音声信
号に変換される。この音声信号は、AD(Analog Digita
l)変換部12に供給される。AD変換部12では、マイ
ク11からのアナログ信号である音声信号がサンプリン
グ、量子化され、ディジタル信号である音声データに変
換される。この音声データは、特徴抽出部13に供給さ
れる。
【0026】特徴抽出部13は、AD変換部12からの
音声データについて、適当なフレームごとに、例えば、
スペクトルや、線形予測係数、ケプストラム係数、線ス
ペクトル対等の特徴パラメータを抽出し、特徴量バッフ
ァ14およびマッチング部15に供給する。特徴量バッ
ファ14では、特徴抽出部13からの特徴パラメータが
一時記憶される。
【0027】マッチング部15は、特徴量抽出部13か
らの特徴パラメータ、または特徴量バッファ14に記憶
された特徴パラメータに基づき、音響モデルデータベー
ス16、辞書データベース17、および文法データベー
ス18を必要に応じて参照しながら、マイク11に入力
された音声(入力音声)を認識する。
【0028】即ち、音響モデルデータベース16は、音
声認識する音声の言語における個々の音素や音節などの
音響的な特徴を表す音響モデルを記憶している。ここ
で、音響モデルとしては、例えば、HMM(Hidden Mark
ov Model)などを用いることができる。辞書データベー
ス17は、認識対象の各単語について、その発音に関す
る情報が記述された単語辞書を記憶している。文法デー
タベース18は、辞書データベース17の単語辞書に登
録されている各単語が、どのように連鎖する(つなが
る)かを記述した文法規則を記憶している。ここで、文
法規則としては、例えば、文脈自由文法(CFG)や、
統計的な単語連鎖確率(N−gram)などに基づく規
則を用いることができる。
【0029】マッチング部15は、辞書データベース1
7の単語辞書を参照することにより、音響モデルデータ
ベース16に記憶されている音響モデルを接続すること
で、単語の音響モデル(単語モデル)を構成する。さら
に、マッチング部15は、幾つかの単語モデルを、文法
データベース18に記憶された文法規則を参照すること
により接続し、そのようにして接続された単語モデルを
用いて、特徴パラメータに基づき、例えば、HMM法等
によって、マイク11に入力された音声を認識する。
【0030】そして、マッチング部15による音声認識
結果は、例えば、テキスト等で出力される。
【0031】なお、マッチング部15は、対話管理部5
から、そこで得られる情報(以下、適宜、対話管理情報
という)を受信することができるようになっており、そ
の対話管理情報に基づいて、精度の高い音声認識を行う
ことができるようになっている。
【0032】また、マッチング部15は、入力された音
声を対象として、再度、処理を行うことが必要な場合
は、特徴量バッファ14に記憶された特徴パラメータを
用いて処理を行うようになっており、これにより、ユー
ザに再度の発話を要求せずに済むようになっている。
【0033】次に、図3は、図1の機械翻訳部2の構成
例を示している。
【0034】テキスト解析部21には、音声認識部1が
出力する音声認識結果としてのテキスト等が、機械翻訳
の対象として入力されるようになっており、テキスト解
析部21は、辞書データベース24や解析用文法データ
ベース25を参照しながら、そのテキストを解析する。
【0035】即ち、辞書データベース24には、各単語
の表記や、解析用文法を適用するために必要な品詞情報
などが記述された単語辞書が記憶されている。また、解
析用文法データベース25には、単語辞書に記述された
各単語の情報に基づいて、単語連鎖に関する制約等が記
述された解析用文法規則が記憶されている。そして、テ
キスト解析部21は、その単語辞書や解析用文法規則に
基づいて、そこに入力されるテキスト(入力テキスト)
の形態素解析や、構文解析等を行い、その入力テキスト
を構成する単語や構文の情報等の言語情報を抽出する。
ここで、テキスト解析部21における解析方法として
は、例えば、正規文法や、文脈自由文法、統計的な単語
連鎖確率を用いたものなどがある。
【0036】テキスト解析部21で得られた入力テキス
トの解析結果としての言語情報は、言語変換部22に供
給される。言語変換部22は、言語変換データベース2
6を参照し、入力テキストの言語の言語情報を、翻訳結
果の言語の言語情報に変換する。
【0037】即ち、言語変換データベース26には、入
力言語(言語変換部22への入力の言語)の言語情報か
ら、出力言語(言語変換部22からの出力の言語)の言
語情報への変換パターン(テンプレート)や、入力言語
と出力言語との対訳用例およびその対訳用例と入力言語
との間の類似度の計算に用いられるシソーラス等の、言
語情報を変換するための言語変換データが記憶されてい
る。そして、言語変換部22では、このような言語変換
データに基づいて、入力テキストの言語の言語情報が、
出力言語の言語情報に変換される。
【0038】言語変換部22で得られた出力言語の言語
情報は、テキスト生成部23に供給され、テキスト生成
部23は、辞書データベース27および生成用文法デー
タベース28を参照することにより、出力言語の言語情
報から、入力テキストを出力言語に翻訳したテキストを
生成する。
【0039】即ち、辞書データベース27には、出力言
語の文を生成するのに必要な単語の品詞や活用形等の情
報が記述された単語辞書が記憶されており、また、生成
用文法データベース28には、出力言語の文を生成する
のに必要な単語の活用規則や語順の制約等の生成用文法
規則が記憶されている。そして、テキスト生成部23
は、これらの単語辞書および生成用文法規則に基づい
て、言語変換部22からの言語情報を、テキストに変換
して出力する。
【0040】なお、言語変換部22は、テキスト解析部
21の出力に含まれる情報だけでは、入力テキストの言
語の言語情報を、出力言語の言語情報に変換(翻訳)す
るのが困難である場合、翻訳に必要な情報が不足してい
る旨の不完全翻訳情報を、対話管理部5に出力すること
ができるようになっており、これにより、その不足して
いる情報を得て、翻訳を行うことができるようになって
いる。
【0041】また、言語変換部22は、対話管理部5か
ら、対話管理情報を受信することができるようになって
おり、その対話管理情報に基づいて、精度の高い翻訳を
行うことができるようになっている。
【0042】次に、図4は、図1の音声合成部3の構成
例を示している。
【0043】テキスト解析部31には、機械翻訳部2が
出力する翻訳結果としてのテキストや、対話管理部5が
出力するテキストが、音声合成処理の対象として入力さ
れるようになっており、テキスト解析部31は、辞書デ
ータベース34や解析用文法データベース35を参照し
ながら、そのテキストを解析する。
【0044】即ち、辞書データベース34には、各単語
の品詞情報や、読み、アクセント等の情報が記述された
単語辞書が記憶されており、また、解析用文法データベ
ース35には、辞書データベース34の単語辞書に記述
された単語について、単語連鎖に関する制約等の解析用
文法規則が記憶されている。そして、テキスト解析部3
1は、この単語辞書および解析用文法規則に基づいて、
そこに入力されるテキストの形態素解析や構文解析等の
解析を行い、後段の規則合成部32で行われる規則音声
合成に必要な情報を抽出する。ここで、規則音声合成に
必要な情報としては、例えば、ポーズの位置や、アクセ
ントおよびイントネーションを制御するための情報その
他の韻律情報や、各単語の発音等の音韻情報などがあ
る。
【0045】テキスト解析部31で得られた情報は、規
則合成部32に供給され、規則合成部32では、音素片
データベース36を用いて、テキスト解析部31に入力
されたテキストに対応する合成音の音声データ(ディジ
タルデータ)が生成される。
【0046】即ち、音素片データベース36には、例え
ば、CV(Consonant, Vowel)や、VCV、CVC等の形
で音素片データが記憶されており、規則合成部32は、
テキスト解析部31からの情報に基づいて、必要な音素
片データを接続し、さらに、ポーズ、アクセント、イン
トネーション等を適切に付加することで、テキスト解析
部31に入力されたテキストに対応する合成音の音声デ
ータを生成する。
【0047】この音声データは、DA変換部33に供給
され、そこで、アナログ信号としての音声信号に変換さ
れる。この音声信号は、図示せぬスピーカに供給され、
これにより、テキスト解析部31に入力されたテキスト
に対応する合成音が出力される。
【0048】次に、図5は、図1の対話管理部5の第1
の構成例を示している。
【0049】テキスト解析部41には、例えば、機械翻
訳部2が出力する翻訳結果(翻訳文)のテキスト、その
他付随する情報が供給されるようになっており、テキス
ト解析部41は、その翻訳文の構文構造を、辞書データ
ベース44および文法データベース45を参照して解析
する。ここで、本実施の形態では、辞書データベース4
4には日本語と英語の辞書が、文法データベース45に
は日本語と英語の文法規則が、それぞれ記憶されてお
り、テキスト解析部41は、機械翻訳部2からの翻訳文
を、その言語に対応する辞書と文法規則を参照して解析
する。
【0050】なお、機械翻訳部2の出力に、そのテキス
ト解析部21(図3)において得られる解析結果が含ま
れ、その解析結果を、対話管理部5のテキスト解析部4
1の解析結果として代用することができる場合には、テ
キスト解析部41における一部または全部の処理を省略
することが可能である。
【0051】テキスト解析部41による翻訳文の解析結
果(翻訳文の構文構造)は、意味理解部42に供給され
る。意味理解部42は、知識データベース46や対話履
歴記憶部47を参照し、テキスト解析部41が出力する
翻訳文の構文構造に基づいて、その翻訳文の意味を解析
し、その意味理解を行う。即ち、知識データベース46
には、一般常識や、言語的な知識等の、意味理解を行う
のに用いられる知識が記憶されており、対話履歴記憶部
47は、音声翻訳システムを介して行われた対話の履歴
(対話履歴)を記憶するようになっている。そして、意
味理解部42は、これらの知識や対話履歴を、必要に応
じて参照して、翻訳文の意味理解を行う。このように、
知識や対話履歴を参照することにより、いま処理の対象
となっている翻訳文の意味の曖昧さや不完全さを解消
し、意味理解に基づいた精度の高い翻訳を行うことが可
能となる。
【0052】ここで、意味理解部42による翻訳文の意
味の解析方法としては、例えば、「自然言語の文法理
論」、郡司隆男著、産業図書に記載されている語彙機能
文法や句構造文法を用いて記述された解析ルールにした
がって、翻訳文を解析し、その意味構造を抽出するもの
等がある。なお、この場合、上述のような解析ルールの
他、各単語について、その意味や文法上の役割を記述し
た辞書が必要となるが、これらの解析ルールや辞書は、
意味理解部42が内蔵しているものとする。
【0053】意味理解部42による翻訳文の意味理解の
結果は、対話制御部43に供給される。対話制御部43
は、翻訳文のテキストおよびその意味理解の結果の一部
または全部を、対話履歴記憶部47に順次供給して記憶
させ、これにより、音声翻訳システムを介して行われた
対話の履歴(対話履歴)を記憶させていく(構成してい
く)。
【0054】さらに、図5の実施の形態では、対話制御
部43は、意味理解部42による翻訳文の意味理解の結
果に基づき、その翻訳文の内容に関連する情報を、知識
データベース46および対話履歴記憶部47から検索す
る。そして、対話制御部43は、その検索の結果、翻訳
文について、既知の事項を検出することができた場合
は、その事項を用い、機械翻訳部2が出力した翻訳文に
対する応答としての応答文を生成するための意味情報や
その他付加情報を生成し、応答文生成部49に供給す
る。この場合、応答文生成部49は、生成規則データベ
ース48に記憶された、例えば単語の活用規則や語順の
制約等の生成用文法規則を参照し、対話制御部43から
供給される情報を用いて、機械翻訳部2が出力した翻訳
文に対する応答文のテキストを、入力言語で生成し、音
声合成部3に出力する。
【0055】従って、この場合、入力音声の翻訳結果は
出力されず、対話管理部5で生成された、その入力音声
に対する応答文が、合成音で出力される。
【0056】一方、対話制御部43は、翻訳文の内容に
関連する情報の検索の結果、その翻訳文について、既知
の事項を検出することができなかった場合は、翻訳文の
テキスト、その他付随する情報を、音声合成部3に出力
する。
【0057】従って、この場合、入力音声の翻訳結果に
対応する合成音が出力される。
【0058】次に、図6のフローチャートを参照して、
図5の対話制御部43の処理について、さらに説明す
る。
【0059】対話制御部43は、意味理解部42から、
翻訳文の意味理解の結果を受信すると、その翻訳文のテ
キストおよび意味理解の結果を、対話履歴記憶部47に
供給し、対話履歴として記憶させる。
【0060】そして、ステップS1において、意味理解
部42による翻訳文の意味理解の結果に基づき、その翻
訳文の内容に関連する情報が、知識データベース46お
よび対話履歴記憶部47から検索され、ステップS2に
進み、翻訳文の内容に関連する情報を検出することがで
きたかどうかが判定される。ステップS2において、翻
訳文の内容に関連する情報を検出することができなかっ
たと判定された場合、ステップS3に進み、対話制御部
43は、翻訳文のテキスト、その他付随する情報を、音
声合成部3に出力する。そして、ステップS1に戻り、
意味理解部42から、次の翻訳文の意味理解の結果が供
給されるのを待って、以下、同様の処理が繰り返され
る。
【0061】また、ステップS2において、翻訳文の内
容に関連する情報を検出することができた判定された場
合、ステップS4に進み、その情報を用いて、機械翻訳
部2が出力した翻訳文に対する応答文を生成するための
意味情報やその他付加情報が生成される。さらに、対話
制御部43は、その応答文を生成するための情報を、応
答文生成部49に出力し、ステップS1に戻る。そし
て、意味理解部42から、次の翻訳文の意味理解の結果
が供給されるのを待って、以下、同様の処理が繰り返さ
れる。
【0062】以上の処理によれば、ユーザの発話回数を
減らして、その負担を軽減することができる。
【0063】即ち、例えば、いま、音声翻訳システムが
時計を有しており、また、知識データベース46には、
「現在時刻は、時計を参照することで得ることができ
る」旨の知識が記憶されているとする。この場合、例え
ば、日本語のユーザが、「いま何時?」と発話し、機械
翻訳部2において、その翻訳結果として、「What timei
s it now ?」が得られたとすると、対話管理部5では、
その意味理解部42において、翻訳文「What time is i
t now ?」が、現在時刻を尋ねているものであることが
理解される。さらに、対話制御部43において、翻訳文
「What time isit now ?」の意味理解の結果に基づき、
その内容に関連する情報として、知識データベース46
に記憶されている「現在時刻は、時計を参照することで
得ることができる」旨の知識が検索され、その検索結果
に基づいて、音声処理システムが内蔵する時計から現在
時刻が取得される。
【0064】いま、上述のようにして取得された現在時
刻が、例えば、午後3時であったとすると、対話制御部
43は、日本語のユーザによる発話「いま何時?」に対
する応答文として、例えば、その発話と同一言語による
文「午後3時です。」を生成するための情報を、応答文
生成部49に供給する。これにより、応答文生成部49
では、応答文「午後3時です。」が生成され、音声合成
部3に供給され、音声合成部3では、合成音「午後3時
です。」が生成されて出力される。
【0065】また、例えば、対話履歴記憶部47に、対
話履歴として、英語のユーザの名前が「John」である旨
が記憶されているとする。この場合、例えば、日本語の
ユーザが、「あなたの名前は何ですか?」と発話し、機
械翻訳部2において、その翻訳結果として、「What is
your name ?」が得られたとすると、対話管理部5で
は、意味理解部42において、翻訳文「What is your n
ame ?」が、英語のユーザの名前を尋ねているものであ
ることが理解される。さらに、対話制御部43におい
て、翻訳文「What is your name ?」の意味理解の結果
に基づき、その内容に関連する情報として、対話履歴記
憶部47に記憶されている英語のユーザの名前「John」
が検索される。
【0066】そして、対話制御部43は、日本語のユー
ザによる発話「あなたの名前は何ですか?」に対する応
答文として、例えば、その発話と同一言語による文「Jo
hnです。」を生成するための情報を、応答文生成部49
に供給する。これにより、応答文生成部49では、応答
文「Johnです。」が生成され、音声合成部3に供給さ
れ、音声合成部3では、合成音「Johnです。」が生成さ
れて出力される。
【0067】以上のように、知識データベース46や対
話履歴記憶部47を参照することにより、音声翻訳シス
テムが認識している事項に関する質問については、その
翻訳文を出力し、かつ相手の応答があるのを待って、そ
の応答を翻訳して出力するのではなく、音声翻訳システ
ムにおいて、応答文を生成して出力するようにしたの
で、ユーザの発話回数を減らして、その負担を軽減する
ことができる。
【0068】次に、図7は、図1の対話管理部5の第2
の構成例を示している。なお、図中、図5における場合
と対応する部分については、同一の符号を付してあり、
以下では、その説明は、適宜省略する。即ち、図7の対
話管理部5は、生成規則データベース48および応答文
生成部49が設けられておらず、対話チェック部51が
新たに設けられている他は、図5における場合と基本的
に同様に構成されている。
【0069】但し、図7の実施の形態においては(後述
する図9の実施の形態においても同様)、対話制御部4
3は、翻訳文のテキストおよびその意味理解の結果を、
対話履歴記憶部47に順次供給して記憶させ、これによ
り、音声翻訳システムを介して行われた対話の履歴(対
話履歴)を記憶させていく処理だけを行うようになって
いる。
【0070】対話チェック部51には、意味理解部42
で得られる翻訳文の意味理解の結果が供給されるように
なっており、対話チェック部51は、意味理解部42に
よる翻訳文の意味理解の結果に基づき、その翻訳文の内
容に関連する情報を、知識データベース46および対話
履歴記憶部47から検索する。さらに、対話制御部43
は、その検索の結果、対話の流れに対して、翻訳文が不
自然でないかどうかや、対話における話題が変更された
かどうかといった点をチェックする。そして、対話制御
部43は、翻訳文が不自然である場合には、その旨を表
す対話不整合情報を、対話における話題が変更された場
合には、その変更後の話題を表す話題遷移情報を、それ
ぞれ対話管理情報として、音声認識部1(図2)のマッ
チング部15や、機械翻訳部2の言語変換部22に出力
する。
【0071】次に、図8のフローチャートを参照して、
図7の対話チェック部51の処理について、さらに説明
する。
【0072】対話チェック部51は、意味理解部42か
ら、翻訳文の意味理解の結果を受信すると、ステップS
11において、その翻訳文の意味理解の結果に基づき、
その翻訳文の内容に関連する情報を、知識データベース
46および対話履歴記憶部47から検索する。そして、
ステップS12に進み、ステップS11の検索結果に基
づいて、対話の流れに対して、翻訳文が不自然であるか
どうかが判定され、不自然でないと判定された場合、ス
テップS13をスキップして、ステップS14に進む。
【0073】また、ステップS12において、対話の流
れに対して、翻訳文が不自然であると判定された場合、
ステップS13に進み、その旨を表す対話不整合情報
が、対話管理情報として、音声認識部1(図2)のマッ
チング部15および機械翻訳部2(図3)の言語変換部
22に供給され、ステップS14に進む。
【0074】ステップS14では、ステップS11の検
索結果に基づいて、対話における話題が変更された(遷
移した)かどうかが判定される。ステップS14におい
て、対話における話題が変更されていないと判定された
場合、ステップS15をスキップして、ステップS11
に戻り、意味理解部42から、次の翻訳文の意味理解の
結果が供給されるのを待って、以下、同様の処理が繰り
返される。
【0075】また、ステップS14において、対話にお
ける話題が変更されたと判定された場合、ステップ15
に進み、その旨を表す話題遷移情報が、対話管理情報と
して、音声認識部1(図2)のマッチング部15および
機械翻訳部2(図3)の言語変換部22に供給される。
そして、ステップS11に戻り、意味理解部42から、
次の翻訳文の意味理解の結果が供給されるのを待って、
以下、同様の処理が繰り返される。
【0076】以上の処理によれば、音声翻訳システムに
おける音声の認識精度や、機械翻訳の精度を高めること
が可能となる。
【0077】即ち、例えば、いま、機械翻訳部2におい
て、日本語による発話「はい」に対して、翻訳文「as
h」が得られたとすると、この翻訳文「ash」は、対話管
理部5のテキスト解析部41および意味理解部42を介
して、対話チェック部51に供給される。そして、対話
チェック部51では、知識データベース46および対話
履歴記憶部47を参照することにより、日本語による発
話「はい」に対する翻訳文「ash」が、対話の流れから
考えて、不自然でないかどうかが判定される。
【0078】いま、対話履歴記憶部47に、直前の英語
による発話が「Are you fine ?」である旨の対話履歴が
記憶されていたとすると、このような単純疑問文「Are
youfine ?」に対する返事には、「Yes」または「No」が
用いられるのが自然であり(このような知識は、知識デ
ータベース46に記憶されているとする)、従って、こ
の場合、対話チェック部51では、翻訳文「ash」は、
対話の流れから、不自然であると判定され、対話不整合
情報が、対話管理情報として、音声認識部1(図2)の
マッチング部15および機械翻訳部2(図3)の言語変
換部22に出力される。
【0079】音声認識部1のマッチング部15は、対話
不整合情報を受信すると、直前に出力した音声認識結果
が誤っていたものとして、直前に入力された音声に対し
て、他の認識結果の候補を出力する。また、機械翻訳部
2の言語変換部22も、対話不整合情報を受信すると、
直前に出力した翻訳結果が誤っていたものとして、他の
翻訳結果の候補を出力する。この他の候補は、再び、対
話チェック部51において処理され、その結果、音声合
成部3においては、最終的に、対話の流れから、自然な
翻訳文(不自然でない翻訳文)が出力されることにな
る。
【0080】従って、この場合、音声翻訳システムが出
力する翻訳文の精度を高めることができる。
【0081】なお、上述の場合において、対話チェック
部51から、音声認識部1のマッチング部15や、機械
翻訳部2の言語変換部22に供給する対話不整合情報に
は、単純疑問文に対する返事として、「Yes」や「No」
を用いた発話が行われている可能性が高い旨の情報を含
めることができ、マッチング部15や言語変換部22に
は、その情報を考慮して、処理を行わせるようにするこ
とが可能である。
【0082】また、例えば、対話チェック部51では、
知識データベース46および対話履歴記憶部47を参照
することにより、翻訳文に含まれる単語、および対話履
歴記憶部47に記憶されている最近の単語の分布(特
に、名詞の分布)が求められ、その分布が、特定の分野
(例えば、医学の分野など)で用いられる単語に偏って
いるかどうかが判定される。対話チェック部51は、単
語の分布が、特定の分野で用いられる単語に偏っている
場合、対話における話題が、その分野に関するものに遷
移したと認識し、その分野に関する対話が行われている
旨の話題遷移情報を、対話管理情報として、音声認識部
1(図2)のマッチング部15および機械翻訳部2(図
3)の言語変換部22に出力する。
【0083】ここで、一般には、ある特定の単語が繰り
返し発話されている場合には、その単語を中心として、
話題が遷移していることが推測される。
【0084】音声認識部1のマッチング部15では、話
題遷移情報を受信すると、その話題遷移情報に含まれる
話題に関する語彙に、特に重みをおいて(あるいは、そ
のような語彙が登録されている辞書を特に用いて)音声
認識が行われる。また、機械翻訳部2の言語変換部22
でも、話題遷移情報に含まれる話題に関する語彙につい
てのパラメータに重みをおいて機械翻訳が行われる。
【0085】従って、この場合、音声認識部1における
認識精度や、機械翻訳部2における翻訳精度を向上させ
ることができる。
【0086】なお、話題遷移情報には、対話における話
題の分野(あるいは、その分野において使用頻度が高い
単語)の他、例えば、対話チェック部51において求め
られる単語の分布の偏り等の、定量的な情報を含めるこ
とが可能である。
【0087】次に、図9は、図1の対話管理部5の第3
の構成例を示している。なお、図中、図5における場合
と対応する部分については、同一の符号を付してあり、
以下では、その説明は、適宜省略する。即ち、図9の対
話管理部5は、応答文生成部49が設けられておらず、
不完全情報判定部61および質問文生成部62が新たに
設けられている他は、図5における場合と基本的に同様
に構成されている。
【0088】不完全情報判定部61には、機械翻訳部2
(図3)の言語変換部22が出力する、翻訳に必要な情
報が不足している旨の不完全翻訳情報が供給されるよう
になっており、不完全情報判定部61は、不完全翻訳情
報を受信した場合、翻訳に必要な情報を、知識データベ
ース46や対話履歴記憶部47から検索する。
【0089】即ち、言語変換部22は、処理中に、翻訳
を行うことができない情報に陥った場合、処理を中断
し、その処理途中の情報を、不完全翻訳情報に含めて、
不完全情報判定部61に供給する。不完全情報判定部6
1は、その不完全翻訳情報に基づいて、翻訳に失敗した
箇所や、その失敗の原因を特定し、知識データベース4
6や対話履歴記憶部47を参照して、その失敗原因を取
り除くための、翻訳に不足している情報(不足情報)を
検索する。
【0090】そして、不完全情報判定部61は、不足情
報が得られた場合、その不足情報を、対話管理情報とし
て、機械翻訳部2(図3)の言語変換部22に供給す
る。この場合、言語変換部22は、不完全情報判定部6
1からの不足情報を用いて処理を再開する。
【0091】一方、不足情報が得られなかった場合、不
完全情報判定部61は、不足情報を得るための質問文を
生成するように、質問文生成部62に要求する。この場
合、質問文生成部62は、不完全情報判定部61の要求
にしたがい、生成規則データベース48を参照して、不
足情報をユーザに回答してもらうための質問文を、翻訳
に失敗した音声の言語で生成し、音声合成部3に出力す
る。これにより、音声合成部3では、不足情報を得るた
めの質問文に対応する合成音が生成されて出力される。
【0092】以上のようにして質問文が出力され、その
質問文に対する回答を、ユーザが発話すると、その発話
は、音声認識部1で音声認識され、機械翻訳部2に供給
される。そして、機械翻訳部2では、その音声認識結果
が、その前の音声認識結果に追加され、処理が再開され
る。
【0093】次に、図10のフローチャートを参照し
て、図9の不完全情報判定部61の処理について、さら
に説明する。
【0094】不完全情報判定部61は、機械翻訳部2
(図3)の言語変換部22から、不完全翻訳情報を受信
すると、ステップS21において、その不完全翻訳情報
に基づいて、翻訳に失敗した箇所や、その失敗の原因を
特定し、知識データベース46や対話履歴記憶部47を
参照して、その失敗原因を取り除くための、翻訳に不足
している不足情報を検索する。
【0095】そして、ステップS22に進み、不完全情
報判定部61は、不足情報が得られたかどうかを判定す
る。ステップS22において、不足情報が得られなかっ
たと判定された場合、ステップS23に進み、不完全情
報判定部61は、不足情報を得るための質問文を生成す
るように、質問文生成部62に要求し、処理を終了す
る。この場合、質問文生成部62では、不足情報をユー
ザに回答してもらうための質問文が生成され、音声合成
部3を介して出力される。
【0096】一方、ステップS22において、不足情報
が得られたと判定された場合、ステップS24に進み、
不完全情報判定部61は、その不足情報を、対話管理情
報として、機械翻訳部2(図3)の言語変換部22に出
力し、処理を終了する。
【0097】以上の処理によれば、機械翻訳部2におい
て、高精度な翻訳が可能となる。
【0098】即ち、例えば、いま、日本語のユーザによ
る発話「渡して下さい。」が音声認識され、機械翻訳部
2に供給されたとする。この場合、機械翻訳部2では、
「渡して下さい。」に対する翻訳文について、動詞とし
て、「hand」を使用し、渡す物を表す目的語として、不
自然でない代名詞「it」を使用することまでが決定され
る。しかしながら、元の発話「渡して下さい。」には、
渡す相手を表す目的語の情報が不足しており、このた
め、機械翻訳部2では、「渡して下さい。」に対する完
全な翻訳文を生成することができず、処理が中断する。
【0099】このように、日本語を英語に翻訳する場合
に、目的語や主語等が不明なため、翻訳文としての英文
を生成することができず、処理が中断した場合、機械翻
訳部2(の言語変換部22)は、その処理途中の情報、
即ち、いまの場合、動詞「hand」の目的語の決定ができ
ない旨を含む不完全翻訳情報を、対話管理部5の不完全
情報判定部61に出力する。
【0100】不完全情報判定部61は、不完全翻訳情報
を受信すると、その不完全翻訳情報から、機械翻訳部2
の翻訳において、どのような問題が発生しているのかを
理解し、その問題を解消することができるかどうかを、
即ち、ここでは、動詞「hand」の目的語が不足している
という問題を解消することができるかどうかを、知識デ
ータベース46および対話履歴記憶部47を参照するこ
とで判定する。
【0101】具体的には、例えば、いま、対話履歴記憶
部47における最近の対話履歴において、ある男性に対
して、何かを渡す旨の発話が記録されている場合には、
不完全情報判定部61では、上述の動詞「hand」の目的
語は、その男性を表す「him」であることが推定され、
これにより、機械翻訳部2の翻訳において生じている問
題を解消することができると判定される。この場合、不
完全情報判定部61は、動詞「hand」の目的語は「hi
m」である旨の不足情報を、対話管理情報として、機械
翻訳部2に出力し、機械翻訳部2では、この対話管理情
報を用いて、処理が再開される。
【0102】また、上述のような推定を行うことができ
ず、このため、機械翻訳部2の翻訳において生じている
問題を解消することができないと判定された場合には、
不完全情報判定部61は、動詞「hand」の目的語を、ユ
ーザから得るための質問文を、質問文生成部62に生成
させる。
【0103】即ち、この場合、質問文生成部62では、
例えば、「目的語は何ですか?」等の、動詞「hand」の
目的語を、ユーザから得るための質問文を生成する。こ
こで、そのような質問文としては、その他、例えば、
「目的語は彼ですか、彼女ですか?」や、「誰に対して
そうするのですか?」等が考えられるが、どのようなパ
ターンの質問文を生成するかは、質問文生成部62にお
いて、適宜選択するようにすることができる。
【0104】質問文生成部62で得られた質問文は、音
声合成部3に供給され、そこで合成音として出力され
る。いま、例えば、音声合成部3において、質問文「目
的語は何ですか?」に対応する合成音に対して、ユーザ
が、「Johnです。」と発話したとすると、その発話は、
音声認識部1において音声認識され、機械翻訳部2に供
給される。機械翻訳部2では、この音声認識結果「John
です。」が、その前の音声認識結果に追加され、処理が
再開される。即ち、いまの場合、機械翻訳部2では、音
声認識結果「Johnです。」によって、動詞「hand」の目
的語が不足しているという問題が解消され(目的語が、
「John」であることが認識され)、中断していた翻訳処
理が再開され、翻訳文「hand it John.」が生成され
る。
【0105】以上のように、機械翻訳部2において、音
声認識部1における音声認識結果だけからでは、完全な
翻訳を行うことができない場合であっても、対話管理部
5における知識や、対話履歴を参照することにより、翻
訳に不足している情報を得て、翻訳を行うことが可能と
なる。さらに、対話管理部5における知識や、対話履歴
を参照しても、翻訳に不足している情報を得ることがで
きない場合には、その情報を得るための質問を出力し、
その質問に対してユーザに応えてもらうことで、翻訳に
不足している情報を得て、翻訳を行うことが可能とな
る。
【0106】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
専用のハードウェアとしての音声翻訳システムに組み込
まれているコンピュータや、汎用のコンピュータ等にイ
ンストールされる。
【0107】そこで、図11を参照して、上述した一連
の処理を実行するプログラムをコンピュータにインスト
ールし、コンピュータによって実行可能な状態とするた
めに用いられる、そのプログラムが記録されている記録
媒体について説明する。
【0108】プログラムは、図11(A)に示すよう
に、コンピュータ101に内蔵されている記録媒体とし
てのハードディスク102や半導体メモリ103に予め
記録しておくことができる。
【0109】あるいはまた、プログラムは、図11
(B)に示すように、フロッピーディスク111、CD-R
OM(Compact Disc Read Only Memory)112,MO(Magnet
o optical)ディスク113,DVD(Digital Versatile Di
sc)114、磁気ディスク115、半導体メモリ116
などの記録媒体に、一時的あるいは永続的に格納(記
録)しておくことができる。このような記録媒体は、い
わゆるパッケージソフトウエアとして提供することがで
きる。
【0110】なお、プログラムは、上述したような記録
媒体からコンピュータにインストールする他、図11
(C)に示すように、ダウンロードサイト121から、
ディジタル衛星放送用の人工衛星122を介して、コン
ピュータ101に無線で転送したり、LAN(Local Area N
etwork)、インターネットといったネットワーク131
を介して、コンピュータ123に有線で転送し、コンピ
ュータ101において、内蔵するハードディスク102
などにインストールすることができる。
【0111】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
【0112】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
【0113】次に、図12は、図11のコンピュータ1
01の構成例を示している。
【0114】コンピュータ101は、図12に示すよう
に、CPU(Central Processing Unit)142を内蔵してい
る。CPU142には、バス141を介して、入出力イン
タフェース145が接続されており、CPU142は、入
出力インタフェース145を介して、ユーザによって、
キーボードやマウス等で構成される入力部147が操作
されることにより指令が入力されると、それにしたがっ
て、図11(A)の半導体メモリ103に対応するROM
(Read Only Memory)143に格納されているプログラム
を実行する。あるいは、また、CPU142は、ハードデ
ィスク102に格納されているプログラム、衛星122
若しくはネットワーク131から転送され、通信部14
8で受信されてハードディスク102にインストールさ
れたプログラム、またはドライブ149に装着されたフ
ロッピディスク111、CD-ROM112、MOディスク11
3、DVD114、若しくは磁気ディスク115から読み
出されてハードディスク102にインストールされたプ
ログラムを、RAM(Random Access Memory)144にロー
ドして実行する。そして、CPU142は、その処理結果
を、例えば、入出力インタフェース145を介して、LC
D(Liquid CryStal Display)等で構成される表示部14
6に、必要に応じて出力する。
【0115】なお、本実施の形態では、日本語と英語と
の相互の翻訳を行うようにしたが、本発明は、その他の
言語の翻訳を行う場合にも適用可能である。
【0116】また、本実施の形態では、音声認識部1に
おいて、音声を認識し、その音声認識結果を、機械翻訳
部2で翻訳するようにしたが、機械翻訳部2には、その
他、例えば、キーボードから入力されたテキストや、文
字認識装置で、手書き文字等を認識して得られるテキス
ト等を対象に翻訳を行わせることが可能である。
【0117】さらに、本実施の形態では、翻訳結果を、
合成音で出力するようにしたが、翻訳結果は、テキスト
で表示するようにすることも可能である。
【0118】
【発明の効果】本発明の翻訳装置および翻訳方法、並び
に記録媒体によれば、第1の言語が第2の言語に翻訳さ
れるとともに、第2の言語が第1の言語に翻訳される。
一方、第1および第2の言語による対話の履歴である対
話履歴が記憶され、その対話履歴、または所定の知識に
基づいて、所定の処理が行われる。従って、例えば、所
定の処理において、翻訳に必要な情報を得るようにする
こと等により、精度の高い翻訳を行うことが可能とな
る。
【図面の簡単な説明】
【図1】本発明を適用した音声翻訳システムの一実施の
形態の構成例を示すブロック図である。
【図2】音声認識部1の構成例を示すブロック図であ
る。
【図3】機械翻訳部2の構成例を示すブロック図であ
る。
【図4】音声合成部3の構成例を示すブロック図であ
る。
【図5】対話管理部5の第1の構成例を示すブロック図
である。
【図6】図5の対話制御部43の処理を説明するための
フローチャートである。
【図7】対話管理部5の第2の構成例を示すブロック図
である。
【図8】図7の対話チェック部51の処理を説明するた
めのフローチャートである。
【図9】対話管理部5の第3の構成例を示すブロック図
である。
【図10】図9の不完全情報判定部61の処理を説明す
るためのフローチャートである。
【図11】本発明を適用した記録媒体を説明するための
図である。
【図12】図11のコンピュータ101の構成例を示す
ブロック図である。
【符号の説明】
1 音声認識部, 2 機械翻訳部, 3 音声合成
部, 4 表示部, 5対話管理部, 11 マイク
(マイクロフォン), 12 AD変換部, 13 特
徴抽出部, 14 特徴量バッファ, 15 マッチン
グ部, 16 音響モデルデータベース, 17 辞書
データベース, 18 文法データベース, 21 テ
キスト解析部, 22 言語変換部, 23 テキスト
生成部,24 辞書データベース, 25 解析用文法
データベース, 26 言語変換データベース, 27
辞書データベース, 28 生成用文法データベー
ス,31 テキスト解析部, 32 規則合成部, 3
3 DA変換部, 34辞書データベース, 35 解
析用文法データベース, 36 音素片データベース,
41 テキスト解析部, 42 意味理解部, 43
対話制御部,44 辞書データベース, 45 文法
データベース, 46 知識データベース, 47 対
話履歴記憶部, 48 生成規則データベース, 49
応答文生成部, 51 対話チェック部, 61 不
完全情報判定部, 62 質問文生成部, 101 コ
ンピュータ, 102 ハードディスク, 103 半
導体メモリ, 111 フロッピーディスク, 112
CD-ROM, 113 MOディスク, 114 DVD,
115 磁気ディスク, 116 半導体メモリ,12
1 ダウンロードサイト, 122 衛星, 131
ネットワーク,141 バス, 142 CPU, 14
3 ROM, 144 RAM, 145 入出力インタフェ
ース, 146 表示部, 147 入力部, 148
通信部, 149 ドライブ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 青柳 誠一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小川 浩明 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B091 AA03 BA03 CA12 CA14 CA21 CB12 CB32 CC04 CD13 EA04

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 第1の言語の入力文を翻訳し、第2の言
    語の翻訳文を出力するとともに、前記第2の言語の入力
    文を翻訳し、前記第1の言語の翻訳文を出力する翻訳装
    置であって、 前記第1の言語を前記第2の言語に翻訳するとともに、
    前記第2の言語を前記第1の言語に翻訳する翻訳手段
    と、 前記第1および第2の言語による対話の履歴である対話
    履歴を記憶する履歴記憶手段と、 所定の知識を記憶している知識記憶手段と、 前記対話履歴または所定の知識に基づいて、所定の処理
    を行う処理手段とを含むことを特徴とする翻訳装置。
  2. 【請求項2】 前記処理手段は、前記対話履歴または所
    定の知識に基づいて、入力文に対する応答を生成するこ
    とを特徴とする請求項1に記載の翻訳装置。
  3. 【請求項3】 前記処理手段は、前記対話履歴または所
    定の知識に基づいて、前記翻訳手段による翻訳結果をチ
    ェックし、そのチェックの結果を、前記翻訳手段に供給
    し、 前記翻訳手段は、前記処理手段からの情報に基づいて、
    翻訳を行うことを特徴とする請求項1に記載の翻訳装
    置。
  4. 【請求項4】 前記処理手段は、前記対話履歴または所
    定の知識に基づいて、前記対話における話題の遷移を検
    出し、その検出結果を、前記翻訳手段に供給し、 前記翻訳手段は、前記処理手段からの情報に基づいて、
    翻訳を行うことを特徴とする請求項1に記載の翻訳装
    置。
  5. 【請求項5】 前記処理手段は、前記対話履歴または所
    定の知識に基づいて、前記翻訳手段による翻訳を補助す
    ることを特徴とする請求項1に記載の翻訳装置。
  6. 【請求項6】 前記処理手段は、前記対話履歴または所
    定の知識に基づいて、翻訳に必要な情報を取得し、前記
    翻訳手段に供給することを特徴とする請求項5に記載の
    翻訳装置。
  7. 【請求項7】 前記処理手段は、前記翻訳に必要な情報
    を取得することができないとき、翻訳に必要な情報を入
    力するように、ユーザに要求することを特徴とする請求
    項6に記載の翻訳装置。
  8. 【請求項8】 音声を認識する音声認識手段をさらに含
    み、 前記翻訳手段は、前記音声認識手段による前記音声の認
    識結果を翻訳することを特徴とする請求項1に記載の翻
    訳装置。
  9. 【請求項9】 前記翻訳手段による翻訳結果に対応する
    合成音を生成する音声合成手段をさらに含むことを特徴
    とする請求項1に記載の翻訳装置。
  10. 【請求項10】 第1の言語の入力文を翻訳し、第2の
    言語の翻訳文を出力するとともに、前記第2の言語の入
    力文を翻訳し、前記第1の言語の翻訳文を出力する翻訳
    方法であって、 前記第1の言語を前記第2の言語に翻訳するとともに、
    前記第2の言語を前記第1の言語に翻訳する翻訳ステッ
    プと、 前記第1および第2の言語による対話の履歴である対話
    履歴を記憶する履歴記憶ステップと、 前記対話履歴または所定の知識に基づいて、所定の処理
    を行う処理ステップとを含むことを特徴とする翻訳方
    法。
  11. 【請求項11】 第1の言語の入力文を翻訳し、第2の
    言語の翻訳文を出力するとともに、前記第2の言語の入
    力文を翻訳し、前記第1の言語の翻訳文を出力する翻訳
    処理を、コンピュータに行わせるプログラムが記録され
    ている記録媒体であって、 前記第1の言語を前記第2の言語に翻訳するとともに、
    前記第2の言語を前記第1の言語に翻訳する翻訳ステッ
    プと、 前記第1および第2の言語による対話の履歴である対話
    履歴を記憶する履歴記憶ステップと、 前記対話履歴または所定の知識に基づいて、所定の処理
    を行う処理ステップとを含むプログラムが記録されてい
    ることを特徴とする記録媒体。
JP27774399A 1999-09-30 1999-09-30 翻訳装置および翻訳方法、並びに記録媒体 Withdrawn JP2001101187A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP27774399A JP2001101187A (ja) 1999-09-30 1999-09-30 翻訳装置および翻訳方法、並びに記録媒体
EP00308403A EP1089193A3 (en) 1999-09-30 2000-09-25 Translating apparatus and method, and recording medium used therewith
US09/676,126 US6952665B1 (en) 1999-09-30 2000-09-29 Translating apparatus and method, and recording medium used therewith

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27774399A JP2001101187A (ja) 1999-09-30 1999-09-30 翻訳装置および翻訳方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2001101187A true JP2001101187A (ja) 2001-04-13

Family

ID=17587718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27774399A Withdrawn JP2001101187A (ja) 1999-09-30 1999-09-30 翻訳装置および翻訳方法、並びに記録媒体

Country Status (3)

Country Link
US (1) US6952665B1 (ja)
EP (1) EP1089193A3 (ja)
JP (1) JP2001101187A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008554A (ja) * 2010-05-24 2012-01-12 Denso Corp 音声認識装置
JP2016529603A (ja) * 2013-12-25 2016-09-23 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド オンライン音声翻訳方法及び装置
JP2023503718A (ja) * 2020-01-30 2023-01-31 グーグル エルエルシー 音声認識

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003005166A2 (en) 2001-07-03 2003-01-16 University Of Southern California A syntax-based statistical translation model
JP3933449B2 (ja) * 2001-11-22 2007-06-20 株式会社東芝 コミュニケーション支援装置
US8527280B2 (en) * 2001-12-13 2013-09-03 Peter V. Boesen Voice communication device with foreign language translation
US7620538B2 (en) 2002-03-26 2009-11-17 University Of Southern California Constructing a translation lexicon from comparable, non-parallel corpora
US7536293B2 (en) * 2003-02-24 2009-05-19 Microsoft Corporation Methods and systems for language translation
US20040172236A1 (en) * 2003-02-27 2004-09-02 Fraser Grant E. Multi-language communication system
US8548794B2 (en) 2003-07-02 2013-10-01 University Of Southern California Statistical noun phrase translation
JP4839838B2 (ja) * 2003-12-12 2011-12-21 日本電気株式会社 情報処理システム、情報処理方法および情報処理用プログラム
US7596499B2 (en) * 2004-02-02 2009-09-29 Panasonic Corporation Multilingual text-to-speech system with limited resources
US8296127B2 (en) 2004-03-23 2012-10-23 University Of Southern California Discovery of parallel text portions in comparable collections of corpora and training using comparable texts
US8666725B2 (en) 2004-04-16 2014-03-04 University Of Southern California Selection and use of nonstatistical translation components in a statistical machine translation framework
JP5452868B2 (ja) 2004-10-12 2014-03-26 ユニヴァーシティー オブ サザン カリフォルニア トレーニングおよび復号のためにストリングからツリーへの変換を使うテキスト‐テキスト・アプリケーションのためのトレーニング
WO2006070373A2 (en) * 2004-12-29 2006-07-06 Avraham Shpigel A system and a method for representing unrecognized words in speech to text conversions as syllables
WO2005057424A2 (en) * 2005-03-07 2005-06-23 Linguatec Sprachtechnologien Gmbh Methods and arrangements for enhancing machine processable text information
JP4058057B2 (ja) * 2005-04-26 2008-03-05 株式会社東芝 日中機械翻訳装置、日中機械翻訳方法および日中機械翻訳プログラム
US8886517B2 (en) 2005-06-17 2014-11-11 Language Weaver, Inc. Trust scoring for language translation systems
US8676563B2 (en) 2009-10-01 2014-03-18 Language Weaver, Inc. Providing human-generated and machine-generated trusted translations
US7643985B2 (en) * 2005-06-27 2010-01-05 Microsoft Corporation Context-sensitive communication and translation methods for enhanced interactions and understanding among speakers of different languages
US10319252B2 (en) * 2005-11-09 2019-06-11 Sdl Inc. Language capability assessment and training apparatus and techniques
US8145472B2 (en) * 2005-12-12 2012-03-27 John Shore Language translation using a hybrid network of human and machine translators
JP5011751B2 (ja) * 2006-02-27 2012-08-29 富士通株式会社 訳語情報出力処理プログラム,処理方法および処理装置
KR100707970B1 (ko) * 2006-03-10 2007-04-16 (주)인피니티 텔레콤 이동통신단말기를 이용한 통역 서비스 방법
US8943080B2 (en) 2006-04-07 2015-01-27 University Of Southern California Systems and methods for identifying parallel documents and sentence fragments in multilingual document collections
US8886518B1 (en) 2006-08-07 2014-11-11 Language Weaver, Inc. System and method for capitalizing machine translated text
US7860705B2 (en) * 2006-09-01 2010-12-28 International Business Machines Corporation Methods and apparatus for context adaptation of speech-to-speech translation systems
JP2008077601A (ja) * 2006-09-25 2008-04-03 Toshiba Corp 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
JP4398966B2 (ja) * 2006-09-26 2010-01-13 株式会社東芝 機械翻訳を行う装置、システム、方法およびプログラム
US8433556B2 (en) 2006-11-02 2013-04-30 University Of Southern California Semi-supervised training for statistical word alignment
US9122674B1 (en) 2006-12-15 2015-09-01 Language Weaver, Inc. Use of annotations in statistical machine translation
US8468149B1 (en) 2007-01-26 2013-06-18 Language Weaver, Inc. Multi-lingual online community
JP5121252B2 (ja) * 2007-02-26 2013-01-16 株式会社東芝 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
JP4791984B2 (ja) * 2007-02-27 2011-10-12 株式会社東芝 入力された音声を処理する装置、方法およびプログラム
US8615389B1 (en) 2007-03-16 2013-12-24 Language Weaver, Inc. Generation and exploitation of an approximate language model
JP4213755B2 (ja) * 2007-03-28 2009-01-21 株式会社東芝 音声翻訳装置、方法およびプログラム
US8831928B2 (en) 2007-04-04 2014-09-09 Language Weaver, Inc. Customizable machine translation service
US8825466B1 (en) 2007-06-08 2014-09-02 Language Weaver, Inc. Modification of annotated bilingual segment pairs in syntax-based machine translation
US20080312902A1 (en) * 2007-06-18 2008-12-18 Russell Kenneth Dollinger Interlanguage communication with verification
DE112009004313B4 (de) * 2009-01-28 2016-09-22 Mitsubishi Electric Corp. Stimmerkennungseinrichtung
US8990064B2 (en) 2009-07-28 2015-03-24 Language Weaver, Inc. Translating documents based on content
US8380486B2 (en) 2009-10-01 2013-02-19 Language Weaver, Inc. Providing machine-generated translations and corresponding trust levels
US10417646B2 (en) 2010-03-09 2019-09-17 Sdl Inc. Predicting the cost associated with translating textual content
US9576570B2 (en) 2010-07-30 2017-02-21 Sri International Method and apparatus for adding new vocabulary to interactive translation and dialogue systems
US8527270B2 (en) * 2010-07-30 2013-09-03 Sri International Method and apparatus for conducting an interactive dialogue
JP5666937B2 (ja) * 2011-02-16 2015-02-12 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US11003838B2 (en) 2011-04-18 2021-05-11 Sdl Inc. Systems and methods for monitoring post translation editing
US8694303B2 (en) 2011-06-15 2014-04-08 Language Weaver, Inc. Systems and methods for tuning parameters in statistical machine translation
US8886515B2 (en) 2011-10-19 2014-11-11 Language Weaver, Inc. Systems and methods for enhancing machine translation post edit review processes
US8942973B2 (en) 2012-03-09 2015-01-27 Language Weaver, Inc. Content page URL translation
US10261994B2 (en) 2012-05-25 2019-04-16 Sdl Inc. Method and system for automatic management of reputation of translators
US9152622B2 (en) 2012-11-26 2015-10-06 Language Weaver, Inc. Personalized machine translation via online adaptation
US9201865B2 (en) * 2013-03-15 2015-12-01 Bao Tran Automated assistance for user request that determines semantics by domain, task, and parameter
US20170293610A1 (en) * 2013-03-15 2017-10-12 Bao Tran Voice assistant
DE102013213337A1 (de) * 2013-07-08 2015-01-08 Continental Automotive Gmbh Verfahren und Einrichtung zur Identifizierung und Ausgabe des Inhalts eines Hinweistextes
WO2015054240A1 (en) * 2013-10-07 2015-04-16 President And Fellows Of Harvard College Computer implemented method, computer system and software for reducing errors associated with a situated interaction
US9213694B2 (en) 2013-10-10 2015-12-15 Language Weaver, Inc. Efficient online domain adaptation
JP2015125499A (ja) * 2013-12-25 2015-07-06 株式会社東芝 音声通訳装置、音声通訳方法及び音声通訳プログラム
KR20150085145A (ko) * 2014-01-13 2015-07-23 한국전자통신연구원 사용자 반응 기반 통역 시스템 및 그 방법
US9747282B1 (en) 2016-09-27 2017-08-29 Doppler Labs, Inc. Translation with conversational overlap
KR102449875B1 (ko) 2017-10-18 2022-09-30 삼성전자주식회사 음성 신호 번역 방법 및 그에 따른 전자 장치
US10831999B2 (en) * 2019-02-26 2020-11-10 International Business Machines Corporation Translation of ticket for resolution
CN111414464B (zh) * 2019-05-27 2023-04-07 腾讯科技(深圳)有限公司 一种问题生成方法、装置、设备及存储介质
KR20210081103A (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 복수의 언어를 포함하는 음성을 인식하는 인공 지능 장치 및 그 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0664585B2 (ja) * 1984-12-25 1994-08-22 株式会社東芝 翻訳編集装置
GB2177525B (en) * 1985-05-14 1989-08-16 Sharp Kk Translation system
US5384701A (en) * 1986-10-03 1995-01-24 British Telecommunications Public Limited Company Language translation system
US4864503A (en) * 1987-02-05 1989-09-05 Toltran, Ltd. Method of using a created international language as an intermediate pathway in translation between two national languages
JP2831647B2 (ja) * 1988-03-31 1998-12-02 株式会社東芝 機械翻訳システム
US5568383A (en) * 1992-11-30 1996-10-22 International Business Machines Corporation Natural language translation system and document transmission network with translation loss information and restrictions
JPH09259126A (ja) * 1996-03-21 1997-10-03 Sharp Corp データ処理装置
US6161083A (en) * 1996-05-02 2000-12-12 Sony Corporation Example-based translation method and system which calculates word similarity degrees, a priori probability, and transformation probability to determine the best example for translation
SE519273C2 (sv) * 1996-05-13 2003-02-11 Telia Ab Förbättringar av , eller med avseende på, tal-till-tal- omvandling
US6085162A (en) * 1996-10-18 2000-07-04 Gedanken Corporation Translation system and method in which words are translated by a specialized dictionary and then a general dictionary
US6161082A (en) * 1997-11-18 2000-12-12 At&T Corp Network based language translation system
US6092036A (en) * 1998-06-02 2000-07-18 Davox Corporation Multi-lingual data processing system and system and method for translating text used in computer software utilizing an embedded translator
US6175819B1 (en) * 1998-09-11 2001-01-16 William Van Alstine Translating telephone

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008554A (ja) * 2010-05-24 2012-01-12 Denso Corp 音声認識装置
JP2016529603A (ja) * 2013-12-25 2016-09-23 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド オンライン音声翻訳方法及び装置
JP2023503718A (ja) * 2020-01-30 2023-01-31 グーグル エルエルシー 音声認識
JP7255032B2 (ja) 2020-01-30 2023-04-10 グーグル エルエルシー 音声認識

Also Published As

Publication number Publication date
EP1089193A3 (en) 2003-05-07
US6952665B1 (en) 2005-10-04
EP1089193A2 (en) 2001-04-04

Similar Documents

Publication Publication Date Title
JP2001101187A (ja) 翻訳装置および翻訳方法、並びに記録媒体
US6879956B1 (en) Speech recognition with feedback from natural language processing for adaptation of acoustic models
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US6374224B1 (en) Method and apparatus for style control in natural language generation
US10163436B1 (en) Training a speech processing system using spoken utterances
US8566076B2 (en) System and method for applying bridging models for robust and efficient speech to speech translation
US20010023397A1 (en) Conversation processing apparatus, method therefor, and recording medium therefor
JP2001506382A (ja) 分散システムにおけるパターン認識登録
US11295730B1 (en) Using phonetic variants in a local context to improve natural language understanding
US20220180864A1 (en) Dialogue system, dialogue processing method, translating apparatus, and method of translation
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
Lee Speech translation
US20040006469A1 (en) Apparatus and method for updating lexicon
JP2000029492A (ja) 音声翻訳装置、音声翻訳方法、音声認識装置
Ronzhin et al. Survey of russian speech recognition systems
AbuZeina et al. Cross-word modeling for Arabic speech recognition
KR20110100079A (ko) 대화체 앞뒤 문장정보를 이용한 다국어 음성합성 시스템 및 방법
US6772116B2 (en) Method of decoding telegraphic speech
JP2001117921A (ja) 翻訳装置および翻訳方法、並びに記録媒体
JP2001117752A (ja) 情報処理装置および情報処理方法、並びに記録媒体
JP2003162524A (ja) 言語処理装置
JP2001117583A (ja) 音声認識装置および音声認識方法、並びに記録媒体
JP2005250071A (ja) 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
JP2001100788A (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP2001117922A (ja) 翻訳装置および翻訳方法、並びに記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061205