JPH07129594A - 自動通訳システム - Google Patents

自動通訳システム

Info

Publication number
JPH07129594A
JPH07129594A JP5272476A JP27247693A JPH07129594A JP H07129594 A JPH07129594 A JP H07129594A JP 5272476 A JP5272476 A JP 5272476A JP 27247693 A JP27247693 A JP 27247693A JP H07129594 A JPH07129594 A JP H07129594A
Authority
JP
Japan
Prior art keywords
voice
input
unit
output
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5272476A
Other languages
English (en)
Inventor
Masaie Amano
真家 天野
Kimito Takeda
公人 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5272476A priority Critical patent/JPH07129594A/ja
Publication of JPH07129594A publication Critical patent/JPH07129594A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】 【目的】 音声認識誤り、翻訳誤りの発生などのような
使用中に生ずる様々な状況に対処できる自動通訳システ
ムを提供すること。 【構成】 発話入力のための音声入力部1、指示情報入
力のための指示入力部2、音声出力部3および表示部4
を有し、互いに異なる種類の言語を示す属性が付された
複数の入出力手段と、一の入出力手段に含まれる音声入
力部からの発話を該属性に基づいて音声認識してコード
化する音声認識手段10と、該コードを他の属性の言語
に対応するコードに翻訳する双方向自動翻訳手段12
と、該コードを音声に変換する音声生成手段11と、該
発話の認識結果または翻訳結果が特定できなかった場合
に前記一つの入出力手段の操作者すなわち話し手と該結
果に対する確認のための対話をするとともに、該対話が
行われる間、他の入出力手段の操作者すなわち聞き手と
該対話に関する対話をする対話手段13を備えた。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、異なる言語の話者が互
いに自国の言語で対話することを可能とする自動通訳シ
ステムに関する。
【0002】
【従来の技術】従来、互いに異なる言語の話者が対話す
るシステムとしては、ポータブル翻訳機のように、2か
国語以上の簡単な対訳辞書とキーボードと、1行程度の
液晶表示部を持ち、キーボードから入力された複数の単
語をそのままの順序で次々と辞書を引き、表示すること
を基本としたものがあるだけであった。これは、翻訳機
という名がつけられているが、言語の文法解析、意味解
析などは行なわないので正しい翻訳は出力されず、単な
る辞書引きツールに過ぎないものであった。
【0003】この装置では、例えば、 かれ レストラン いく と入力すると、 HE RESTAURANT GO のように単語がでてくるだけであった。このような装置
は、すぐに分かるように、複雑な文章に対しては全く実
用にならない。また、簡単な文章でさえ、助詞などの機
能語は辞書にその意味を記述することができないため、
意味がまったく逆の翻訳になることもある。例えば、
「太郎を花子は好きだ。」という意味を、次のように入
力すると、 Taro Hanako 好き Taro Hanako like となり、どちらが、どちらを好きなのか全く分からない
し、場合によっては太郎が花子を好きだと誤解されてし
まうこともあり得る。
【0004】一方、本格的な自動翻訳システムとして
は、原言語の文法解析、意味解析を行なうとともに、対
象言語の生成過程を有する機械翻訳システムが、文書翻
訳の領域で実用化されている。
【0005】しかし、これらは専ら文書翻訳に用いら
れ、対話をするための装置になっていない。典型的に
は、2言語以上の言語を同時に翻訳するような構成には
なっておらず、たとえ双方向翻訳機能をもっていても、
一度、一つ翻訳方向の翻訳を終了してから、逆方向の翻
訳プログラムを読び出すという手順が必要であった。
【0006】また、従来の翻訳機はキーボード入力で原
文を入力しており、音声入力によることはできなかっ
た。一方、音声による通訳システムも研究されている
が、現在では、発話された音声を音声認識し、それを単
純に機械翻訳部に通し、翻訳された結果を音声生成部で
音声に変換するだけのものであり、音声認識誤り、翻訳
誤りが起った時にどう対処するか等の実用的な問題に対
する配慮はされていないなどの問題があった。
【0007】
【発明が解決しようとする課題】このように従来では、
2か国語の話者が自由に音声で対話できる完全な通訳機
は実現されていなかった。本発明は、上記事情に鑑みて
なされたもので、音声認識誤り、翻訳誤りの発生などの
ような使用中に生ずる様々な状況に対処できる自動通訳
システムを提供することを目的とする。
【0008】
【課題を解決するための手段】本発明に係る自動通訳シ
ステムでは、発話を入力するための音声入力部、指示情
報を入力するための指示入力部、与えられた音声信号を
音声に変換して出力する音声出力部および与えられた情
報を表示する表示部を有し、互いに異なる種類の言語を
示す属性が付与された複数の入出力手段と、前記複数の
入出力手段のうち一つの入出力手段に含まれる前記音声
入力部から入力された発話を、該一つの入出力手段に付
与された前記属性に基づいて音声認識し対応するコード
またはコード列を生成する音声認識手段と、該コードま
たはコード列を、前記一つの入出力手段の他の入出力手
段に付与された属性が示す種類の言語に対応するコード
またはコード列にそれぞれ翻訳する双方向自動翻訳手段
と、該コードまたはコード列を、前記音声出力部に与え
るための音声信号に変換する音声生成手段と、前記音声
認識手段が前記入力された発話に対する認識結果を特定
できなかった場合または前記双方向自動翻訳手段が該音
声認識手段によって生成された前記コードまたはコード
列に対する翻訳結果を特定できなかった場合に、該認識
または該翻訳の結果に対する確認のための確認処理を前
記一つの入出力手段に含まれる前記音声入力部および前
記指示入力部の少なくとも一方ならびに前記音声出力部
および前記表示部の少なくとも一方を用いて行うととも
に、該確認処理が行われる間、前記他の入出力手段に含
まれる前記表示部および前記音声入力部の少なくとも一
方に該確認処理に関する情報を出力する対話手段とを備
えたことを特徴とする。
【0009】また、好ましくは、前記音声入力部から入
力された前記発話を前記音声認識手段に与えるととも
に、前記他の入出力手段に含まれる音声出力部から該発
話をそのまま出力させるように構成すると良い。
【0010】また、前記音声認識手段は、前記発話が前
記音声入力部から入力される際に前記指示入力部から与
えられた該発話の中の少なくとも1つの字種を特定する
情報を用いて、該発話を音声認識するように構成しても
良い。
【0011】さらに、発話者が、前記指示入力部および
前記音声入力部の少なくとも一方を用いて、自分の発話
が終了したことを該自動通訳システムに伝えるように構
成すると好ましい。また、発話者が、前記指示入力部お
よび前記音声入力部の両方を用いて発話を入力するよう
に構成しても良い。
【0012】
【作用】この結果、本発明(請求項1)によれば、2以
上の各入出力手段は、それぞれ処理対象とする言語の種
類が予め決定されており、いずれかの入出力手段の音声
入力部から発話が入力されると、音声認識手段は該発話
を前記属性が示す種類の言語として音声認識し、双方向
自動翻訳手段はこの認識結果を他の言語に翻訳し、音声
生成手段はこの翻訳結果を音声信号に変換し、翻訳した
言語に対応する音声出力部はこの音声信号を音声に変換
して出力する。ここで、発話者の発話を音声認識した結
果、音声認識に失敗した場合、または音声認識は成功し
たものとして処理され、翻訳の段階で失敗した場合のい
ずれの場合も、対話部を通じて認識または翻訳できなか
った部分を前記一つの入出力手段の操作者である発話者
と対話しながら修正するとともに、対話部は該修正のた
めに発話者と対話している間、前記他の入出力手段の操
作者である一人または複数人の聞き手の対話相手に対し
て、しばらく待つ旨などを知らせたり、聞き手に状況を
逐一知らせたり、問い合わせに答えるような対話相手に
なるなどして、聞き手に無音時間を生じさせることを防
ぐ。
【0013】また、前記対話手段は、音声を用いるのに
加えて、表示部や指示入力部を使い文字や記号などで行
うこともできるので、音声のみによる修正情報が再び音
声認識に失敗することによる再修正が生ずることを防ぐ
ことができる。
【0014】また、本発明(請求項2)によれば、前記
一つの入出力手段に含まれる音声入力部から入力された
前記発話を前記他の入出力手段に含まれる音声出力部か
らそのまま出力させる。従って、前記他の入出力手段の
操作者である聞き手が前記一つの入出力手段の操作者で
ある対話相手の発話状況を相手の肉声と背景状況をモニ
ターできる。
【0015】すなわち、音声通訳された応答が、音声生
成部による合成音であると、発話相手に関する情報が得
られなず、はなはだしい場合、女性の話し手の声が男性
音で合成される可能性もあるが、上記によって、相手の
性別、年齢、イントネーションによる会話の焦点、感情
などの情報が、相手の肉声によって得られ、また、相手
が一人なのか、誰かと相談しながら話しているのかなど
の状況や、相手のいる場所の背景音など通常の電話のよ
うに相手の置かれた状況についての情報を得ることがで
きる。
【0016】一方、上記対話部の動作中に対話相手と該
自動通訳システムの会話をモニターできるので、聞き手
の待ち時間が長くなった場合、話者と応答部との会話を
モニターすることにより、意味は分からなくても、状況
認識に役立たせることも可能である。
【0017】また、本発明(請求項3)によれば、話し
手は発話入力の際に、該発話の中の少なくとも1つの字
種を特定する情報を前記指示入力部からシステムに与
え、前記音声認識手段は、この情報を用いて該発話を音
声認識する。
【0018】従って、例えば英語では大文字か小文字
か、日本語では普通名詞か固有名詞か、などの区別等の
音声のみによっては伝えることの難しい言語情報を用い
て該発話を音声認識するので、音声認識の性能が高めら
れる。
【0019】
【実施例】以下、図面を参照しながら実施例を説明す
る。図1は、本発明の一実施例に係る自動通訳システム
を示す概略構成図である。この自動通訳システムは、異
なる言語で話す2人の話者Aおよび話者Bの間の通訳を
行うものであり、例えば自動翻訳電話や同時通訳機とい
ったシステムに適用できる。
【0020】図のように、該自動通訳システムは、表示
部1、入力部2、マイクロフォン3およびスピーカ4か
らなる話者A用の第1の入出力部、表示部5、入力部
6、マイクロフォン7およびスピーカ8からなる話者B
用の第2の入出力部、制御部9、音声処理部20および
自動通訳部30を備える。また、音声処理部20は音声
認識部10および音声生成部11を有し、自動通訳部1
5は双方向自動翻訳部12と、自然言語理解部14およ
び自然言語生成部15からなる対話部13とを有する。
【0021】第1の入出力部および第2の入出力部はそ
れぞれ、予め使用する言語の種類を決めておく。ここで
は、各入出力部に対して言語の種類を示す属性を付与し
ておくものとする。
【0022】表示部1,5は、当該システムの使用者に
情報を伝えるために、文字や記号などの可視情報を表示
するためのものであり、液晶パネルなどにより構成され
る。入力部2,6は、文字や記号など音声以外により発
話や後述する確認用処理などに関する指示情報を入力す
るためのものであり、例えばキーボードマウスやタッチ
パネル等から構成される。
【0023】マイクロフォン3,7は、話者の音声発話
を入力するためのものである。スピーカ4,8は、音声
生成部11からの出力を発声する。制御部9は、当該シ
ステム全体の動作を制御するものであり、2種類の言語
における翻訳の方向、各種情報の流れの方向、情報のア
ドレスなど全てに渡って管理・制御する。
【0024】音声認識部10は、マイクロフォン3,7
から入力された音声を前記属性に基づいて認識する。音
声生成部11は、自動翻訳部12からの出力および対話
部13からの出力を音声化する。
【0025】双方向自動翻訳部12は、音声認識部10
から送出されてくる発話者の発話を対話相手方言語に翻
訳する。対話部13は、認識結果や翻訳結果に曖昧性が
あるときのように話し手に対する確認や再度の音声入力
が必要な場合に、自然言語理解部14および自然言語生
成部15を用いて、当該システムが話し手と対話すると
ともに、この対話中に当該システムが聞き手と対話する
ものである。この対話のための入出力も双方向自動翻訳
部12と同じ経路を通って運ばれる。
【0026】自然言語理解部14は、発話者の発話が、
曖昧性の解消に対する入力の場合には、自然言語で入力
された文章に対して構文・意味解釈を行い、発話者の指
示を解釈する。
【0027】自然言語生成部15は、音声認識部10で
認識された音声認識結果に曖昧性が生じた場合、または
双方向自動翻訳部12で翻訳結果に曖昧性が生じた場合
に、発話者へ曖昧性があることを知らせる文章を作成す
る。
【0028】例えば、音声認識結果に曖昧性がある場
合、「音声認識に曖昧性があります。つぎの2つのう
ち、どちらが正しいか番号で答えてください。1.かた
しはがくせいです 2.わたしはがくせいです」を作成
する。この作成された文章は、話し手側の表示部に出力
されるとともに、音声生成部11に送られ、音声化され
て発話に知らせられる。
【0029】発話者は、スピーカに音声出力されたメッ
セージまたは表示部に表示されたメッセージで、曖昧性
があることを知ると、解消する文章を自然言語で入力す
る。例えば、「2番が正解です」と入力する。この入力
は、自然言語14で解釈が行われ、2番目の文章に該当
する「わたしはがくせいです」が選択される。
【0030】図2は、自動通訳システムの動作を表すフ
ローチャートである。以下、図2を参照しながら、自動
通訳システムの動作を説明する。ここでは、話者Aが話
し手となり、話者Bが聞き手となっている状態であるも
のとする。また、話者Aは日本語を用い、話者Bは英語
を用いるものとする。
【0031】a)認識および通訳がそれぞれ一回で成功
した場合は、処理の流れは次のようになる。発話者Aの
発話はまず、マイクロフォン3で入力される(ステップ
1)。
【0032】入力された音声発話(例えば「わたしはが
くせいです」)は、制御部9によって音声認識部10に
送られ、ここで前記属性に基づいてコード化される(ス
テップ2)。
【0033】コード化された発話(すなわちコードまた
はコード列)は、制御部9を介して自動翻訳部12に送
られ、ここで相手方である話者Bの用いる言語による文
章(例えば「I am a student.」)に対
応するコードまたはコード列に翻訳される(ステップ
4)。
【0034】翻訳された結果は、再び制御部9を通って
音声生成部11に送られ、音声化される(ステップ
7)。音声化された発話は、制御部9により、相手方B
のスピーカ8に送られ、音声出力される(ステップ
8)。
【0035】b)次に、音声認識部10による認識結果
として適正なものが得られなかったと判断された場合、
例えば認識ができないためあるいは認識結果に曖昧性が
あるために認識結果を特定できなかった場合など、につ
いて説明する。
【0036】発話者Aの発話が、マイクロフォン3で入
力される(ステップ1)。入力された音声発話は、制御
部9によって音声認識部10に送られ、コード化される
(ステップ2)。
【0037】ここで、その認識結果として適正なものが
得られなかったと判断された場合(ステップ3)、制御
部9は、音声認識部10から音声認識結果とともに認識
結果の付帯情報を受けとり、それに応じた確認用処理を
行なう(ステップ6)。
【0038】例えば、図3のように「わたしはがくせい
です」との発話に対する認識結果として、曖昧性が生じ
たものとする。図3では、「わたし」の中の「わ」が、
「わ」と「か」のどちらか認識できず、両方が出力され
た様子を表している。
【0039】制御部9は、音声認識部10から図3の2
つの音声認識結果とともに認識結果の付帯情報、例えば
「曖昧性があります」を受けとって、対話部13にこの
情報を送り、自然言語生成部15に「わ」と「か」のど
ちらが正しいかを発話者Aに問い合せる問い合せ文を作
成させ、音声生成部11により音声化して、スピーカ4
により音声で問い合せるとともに、必要に応じて文字コ
ードのまま表示部1にも同じ問い合せを表示する。発話
者Aは、この問い合せに応じて、「わ」の発音に注意す
るなりして再度「わたしはがくせいです」と発話入力
し、再度の認識処理を試みる(ステップ1〜3)。
【0040】そして、発話が正しく認識されるまで、以
上の処理ループを繰り返す。さらに、本実施例では、前
記問い合せに対して、上記例のように表示部1に表示さ
れた音声認識結果に正しいものがある場合は、例えば図
3の2番目の音声認識結果「わたしはがくせいです」を
前述したような方法により音声であるいはキーボード等
から選択入力することで確認を行って、再度の認識処理
を省くことが可能である。
【0041】一方、上記確認用処理が行われている間、
待機することになる聞き手Bに対しても、対話部13は
待機用処理を行なう(ステップ6)。例えば、「話し手
Aからの発話の到着が遅れますので、しばらくお待ち下
さい」あるいは「話し手Aからの発話を確認しておりま
すので、しばらくお待ち下さい」などの旨の案内を出し
て、無音状態を回避することによって、聞き手Bがいら
ついたり、不安になったりすることがないようにする。
この案内は、音声生成部11を通して、スピーカ8およ
び表示部5の一方あるいは両方を使って行なうことがで
きる。これらの様子を図4に示す。
【0042】また、上記の他に、聞き手に状況を逐一知
らせたり、聞き手の問い合わせに答えるなどして対話相
手として機能させることも可能である。次に、上記のよ
うにして正しくコード化された発話は、制御部9を介し
て自動翻訳部12に送られ、ここで相手方である話者B
の用いる言語による文章に翻訳される(ステップ4)。
【0043】翻訳された結果は、再び制御部9を通って
音声生成部11に送られ、音声化される(ステップ
7)。音声化された発話は、制御部9により、相手方B
のスピーカ8に送られ、音声出力される(ステップ
8)。
【0044】c)次に、音声認識部10が認識誤りを検
出できずに、自動翻訳部12による翻訳結果として適正
なものが得られなかったと判断された場合、例えば翻訳
ができないためあるいは翻訳結果に曖昧性があるために
翻訳結果を特定できなかった場合など、について説明す
る。
【0045】発話者Aの発話は、マイクロフォン3で入
力される(ステップ1)。入力された音声発話は、制御
部9によって音声認識部10に送られ、ここでコード化
される(ステップ2)。
【0046】コード化された発話は、制御部9を介して
自動翻訳部12に送られ、ここで相手方である話者Bの
用いる言語による文章に翻訳される(ステップ4)。そ
の翻訳結果として適正なものが得られなかったと判断さ
れた場合(ステップ5)、制御部9は、自動翻訳部12
から自動翻訳結果とともに翻訳結果の付帯情報を受けと
り、それに応じた確認用処理を行なう(ステップ6)。
【0047】例えば、図5に、音声認識部10が認識誤
りを検出できなかった場合の様子を示す。仮に音声認識
部10が音声認識結果「かたしはがくせいです」を正し
いと判断した場合、該認識結果は制御部9に送られる。
制御部9からこの結果を受取った自動翻訳部12は、
「かたし」を辞書中に見つけられず、未知語として処理
する。この結果、翻訳は不完全なものとなる。全く翻訳
できない場合、あるいは部分的に翻訳できない場合など
いろいろな場合が想定される。これは音声認識の誤りの
性質と自動翻訳部の設計思想に依存する。
【0048】ここでは、一例として、図5のような結果
が自動翻訳部12から制御部9に返されるものとする。
制御部9は、この結果を対話部13に送り発話者Aに、
修正を求めるための適切な問い合せ文を生成させ、上記
の音声認識誤りの場合と同様にして、話し手Aと確認の
ための対話を行なう。
【0049】また、上記の音声認識誤りの場合と同様に
して、上記対話と同時に聞き手Bと待機のための対話を
行なう。このようにして正しく翻訳された結果は、再び
制御部9を通って音声生成部11に送られ、音声化され
る(ステップ7)。
【0050】音声化された発話は、制御部9により、相
手方Bのスピーカ8に送られ、音声出力される(ステッ
プ8)。このように、本実施例の自動通訳システムで
は、音声認識結果や翻訳結果に何等可の問題があった場
合に、話し手と確認のための対話をすると同時に、待機
している聞き手にも該確認に関する情報を伝えるために
対話を行う対話手段を設けたので、音声入力による自動
翻訳で実際に生ずるさまざまな問題に対しての対処が可
能となり、該システムの実用性を飛躍的に向上させるこ
とができる。
【0051】ここで、上記では発話として音声のみを用
いていたが、音声に加えてキーボードなどからの入力を
用いることにより、記号のように音声入力のみでは入力
しにくいもの、あるいは音声入力に何度も失敗したもの
等が簡単に入力可能になる。
【0052】また、本実施例の自動通訳システムは、2
人の会話者A,Bが同じ場所で対面しながら用いること
も、また制御部9を公衆通信回線に接続して遠隔地にい
る相手との対話に用いることもできる。すなわち、公衆
通信回線を通して会話する場合、スピーカからの出力は
合成音声になるため、相手の年齢、性別、感情、イント
ネーションなどの情報、あるいは相手が一人なのか、誰
かと相談しながら話しているのかなどの状況、相手のい
る場所の背景音など相手の置かれた状況についての情報
が欠落することがあり、相手側の様子が分からない可能
性があるが、制御部9によって発話者Aのマイクロフォ
ン3からの肉声をそのまま、聞き手Bに流すように構成
することによって、該欠落することがある情報を得るこ
とができる。ここで、図6には発話者の発話が、翻訳さ
れる場合の単純化したパスと肉声のパスを、図7には発
話者の発話が聞き手に到着する相対的タイミングを示
す。各図中、t1は発話の開始時刻である。この肉声
は、制御部9から直ちに、公衆通信回線を通って相手に
送られる。この遅れは、通信衛星を通した場合で、1秒
程度である。すなわち、 t2=t1+1sec程度 である。また、t3は、発話者が発話にかかる時間、音
声認識にかかる時間、自動翻訳にかかる時間、誤りが生
じた場合の問い合せ・対話にかかる時間からなる。この
時間量は、特定が困難であるが、誤りの修正のための対
話時間がないとし、10語程度の短い発話ならば、実測
によれば最大30秒程度である。すなわち、 t3≦
t1+30sec である。
【0053】また、遠隔地通信の場合、時間遅れのため
の会話のタイミングがうまく取れないなどの問題があ
る。国際電話では、特に衛星通信の場合、この発話のタ
イミングは現在でも普通に体験されるところである。自
動通訳を行うシステムでは、音声認識処理、機械翻訳処
理などのため、この時間遅れが膨大なものになる可能性
がある。本実施例では、前記対話手段を用いることによ
って、時間遅れの期間に聞き手にメッセージを与えるな
どすることができる。
【0054】また、音声入力による場合、発話の終了を
自動的に認識することは困難である。そこで、ある一定
時間、音声入力がない場合、終了したと見做して、翻訳
を開始することもできる。あるいは、トランシーバのよ
うに、制御部9に対して、「どうぞ」のような一定の音
声合図をすることもできる。キーボードなどの音声以外
による入力手段を用いて、システムに発話の終了を伝え
るようにすれば確実であるのでより好ましい。
【0055】また、音声では、大文字、小文字の区別あ
るいは、普通名詞と固有名詞の区別が困難である。英語
の場合「japan」は「漆器」、「Japan」は
「日本」と訳さなければならないが、音声で、この区別
をすることは極めて困難である。また、日本語でも、
「近藤」と「混同」の区別は困難である。このような情
報もキーボードから入力するように構成すれば好まし
い。その他、文章中に他言語が混在する場合(例えば、
「How about “go men na sa
i”」)なども同様である。
【0056】ここで、音声生成部5では、生成する音声
に話者の属性、例えば年齢、性別、イントネーション
(皮肉、喜怒哀楽等)、アクセントなどを反映させるよ
うに構成すると、聞き手が翻訳音声から話し相手に関す
る情報を得ることができるようになるので効果的であ
る。
【0057】また、双方向自動翻訳部12では、ダイア
レクト、例えば語彙の方言、出身地、教育背景などを反
映させて翻訳するようにすれば、聞き手が翻訳文の内容
から話し相手に関する情報を得ることができるようにな
るので効果的である。
【0058】例えば、英語の「I」に対応する日本語と
しては、「私」、「僕」、「俺」をはじめとして種々の
ものが揚げられるが、まず、該双方向自動翻訳部12
は、会話初期には「私」を用いておき、会話が進む過程
で用いられる語彙等を分析して、逐次適切な語彙に置き
換えていくようにすれば良い。
【0059】次に、本発明の他の実施例に係る自動通訳
システムについて説明する。図8は、本実施例の自動通
訳システムを示す概略構成図である。この自動通訳シス
テムは、図1の自動通訳システムを、異なる言語で話す
N人の話者の間の通訳を行うもの拡張した例である。な
お、N人の話者のうちに同一の言語で話す者が含まれて
いても構わない。
【0060】図のように、該自動通訳システムは、表示
部、入力部、マイクロフォンおよびスピーカからなる入
出力部をN組み備えたものであり、例えば話者Aが話し
手となった場合、話者B〜Nが聞き手となる。
【0061】この場合、音声処理部20には、最大N種
類の言語を処理できる機能を付加し、自動通訳部30に
は、一方の言語から他方の言語への翻訳として最大N×
(N−1)種類の翻訳機能を付加する修正を図1のシス
テムに施せば良い。
【0062】なお、このN人用自動通訳システムの動作
は、図1のシステムの説明から自明であるので、詳細な
説明は省略する。また、本発明は上述した各実施例に限
定されるものではなく、その要旨を逸脱しない範囲で、
種々変形して実施することができる。
【0063】
【発明の効果】本発明に係る自動通訳システムでは、音
声認識や翻訳において何等かの問題が生じた場合に、話
し手と確認のための対話をすると同時に、待機している
聞き手にも該確認に関する情報を伝えるために対話を行
う対話手段を設けたので、音声入力による自動翻訳で実
際に生ずる種々の問題に対する対処が可能となり、該シ
ステムの実用性を飛躍的に向上させることができる。
【図面の簡単な説明】
【図1】本発明の一実施例に係る自動通訳システムを示
す概略構成図
【図2】同実施例の動作を示すフローチャート
【図3】同実施例における認識誤りの出力例を示す図
【図4】同実施例におけるシステムから発話者への問い
合せの出力例を示す図
【図5】同実施例における自動翻訳部での誤りの出力例
を示す図
【図6】同実施例における音声発話のパスを説明する図
【図7】同実施例における発話の聞き手に対する発話時
とその到着時の相対的タイミングを示す図
【図8】本発明の他の実施例に係る自動通訳システムを
示す概略構成図
【符号の説明】
1,5…表示部、2,6…入力部、3,7…マイクロフ
ォン、4,8…スピーカ、9…制御部、10…音声認識
部、11…音声生成部、12…双方向自動翻訳部、13
…対話部、14…自然言語理解部、15…自然言語生成
部、20…音声処理部、30…自動通訳部

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】発話を入力するための音声入力部、指示情
    報を入力するための指示入力部、与えられた音声信号を
    音声に変換して出力する音声出力部および与えられた情
    報を表示する表示部を有し、互いに異なる種類の言語を
    示す属性が付与された複数の入出力手段と、 前記複数の入出力手段のうち一つの入出力手段に含まれ
    る前記音声入力部から入力された発話を、該一つの入出
    力手段に付与された前記属性に基づいて音声認識し対応
    するコードまたはコード列を生成する音声認識手段と、 該コードまたはコード列を、前記一つの入出力手段の他
    の入出力手段に付与された属性が示す種類の言語に対応
    するコードまたはコード列にそれぞれ翻訳する双方向自
    動翻訳手段と、 該コードまたはコード列を、前記音声出力部に与えるた
    めの音声信号に変換する音声生成手段と、 前記音声認識手段が前記入力された発話に対する認識結
    果を特定できなかった場合または前記双方向自動翻訳手
    段が該音声認識手段によって生成された前記コードまた
    はコード列に対する翻訳結果を特定できなかった場合
    に、該認識または該翻訳の結果に対する確認のための確
    認処理を前記一つの入出力手段に含まれる前記音声入力
    部および前記指示入力部の少なくとも一方ならびに前記
    音声出力部および前記表示部の少なくとも一方を用いて
    行うとともに、該確認処理が行われる間、前記他の入出
    力手段に含まれる前記表示部および前記音声入力部の少
    なくとも一方に該確認処理に関する情報を出力する対話
    手段とを備えたことを特徴とする自動通訳システム。
  2. 【請求項2】前記音声入力部から入力された前記発話を
    前記音声認識手段に与えるとともに、前記他の入出力手
    段に含まれる音声出力部から該発話をそのまま出力させ
    ることを特徴とする請求項1に記載の自動通訳システ
    ム。
  3. 【請求項3】前記音声認識手段は、前記発話が前記音声
    入力部から入力される際に前記指示力部から与えられた
    該発話の中の少なくとも1つの字種を特定する情報を用
    いて、該発話を音声認識することを特徴とする請求項1
    に記載の自動通訳システム。
JP5272476A 1993-10-29 1993-10-29 自動通訳システム Pending JPH07129594A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5272476A JPH07129594A (ja) 1993-10-29 1993-10-29 自動通訳システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5272476A JPH07129594A (ja) 1993-10-29 1993-10-29 自動通訳システム

Publications (1)

Publication Number Publication Date
JPH07129594A true JPH07129594A (ja) 1995-05-19

Family

ID=17514461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5272476A Pending JPH07129594A (ja) 1993-10-29 1993-10-29 自動通訳システム

Country Status (1)

Country Link
JP (1) JPH07129594A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997027551A1 (fr) * 1996-01-25 1997-07-31 Makoto Hosokawa Systeme d'interpretation automatique
WO2002005125A1 (en) * 2000-07-11 2002-01-17 Soo Sung Lee Language independent voice communication system
US8275603B2 (en) 2006-09-28 2012-09-25 Kabushiki Kaisha Toshiba Apparatus performing translation process from inputted speech
JP2013045282A (ja) * 2011-08-24 2013-03-04 Kyushu Institute Of Technology コミュニケーション支援システム
WO2014192457A1 (ja) * 2013-05-30 2014-12-04 ソニー株式会社 クライアント装置、制御方法、システム、およびプログラム
JP2016053726A (ja) * 2008-04-15 2016-04-14 フェイスブック・インコーポレイテッドFacebook, Inc. 現場にて音声−音声翻訳をメンテナンスするシステム及び方法
JP2016186646A (ja) * 2016-06-07 2016-10-27 株式会社東芝 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
US9753918B2 (en) 2008-04-15 2017-09-05 Facebook, Inc. Lexicon development via shared translation database
US9830318B2 (en) 2006-10-26 2017-11-28 Facebook, Inc. Simultaneous translation of open domain lectures and speeches
JP2019082981A (ja) * 2017-10-30 2019-05-30 株式会社テクノリンク 異言語間コミュニケーション支援装置及びシステム
JP2020091472A (ja) * 2018-12-06 2020-06-11 イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. 双方向通訳システム
JP2021032921A (ja) * 2019-08-16 2021-03-01 株式会社日本レカム 音声認識による自動翻訳機の人工知能による自動アップデートとそのアップデート配信及び情報システム
US11222185B2 (en) 2006-10-26 2022-01-11 Meta Platforms, Inc. Lexicon development via shared translation database

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997027551A1 (fr) * 1996-01-25 1997-07-31 Makoto Hosokawa Systeme d'interpretation automatique
WO2002005125A1 (en) * 2000-07-11 2002-01-17 Soo Sung Lee Language independent voice communication system
US8275603B2 (en) 2006-09-28 2012-09-25 Kabushiki Kaisha Toshiba Apparatus performing translation process from inputted speech
US9830318B2 (en) 2006-10-26 2017-11-28 Facebook, Inc. Simultaneous translation of open domain lectures and speeches
US11972227B2 (en) 2006-10-26 2024-04-30 Meta Platforms, Inc. Lexicon development via shared translation database
US11222185B2 (en) 2006-10-26 2022-01-11 Meta Platforms, Inc. Lexicon development via shared translation database
JP2016053726A (ja) * 2008-04-15 2016-04-14 フェイスブック・インコーポレイテッドFacebook, Inc. 現場にて音声−音声翻訳をメンテナンスするシステム及び方法
US9753918B2 (en) 2008-04-15 2017-09-05 Facebook, Inc. Lexicon development via shared translation database
JP2013045282A (ja) * 2011-08-24 2013-03-04 Kyushu Institute Of Technology コミュニケーション支援システム
WO2014192457A1 (ja) * 2013-05-30 2014-12-04 ソニー株式会社 クライアント装置、制御方法、システム、およびプログラム
US10225608B2 (en) 2013-05-30 2019-03-05 Sony Corporation Generating a representation of a user's reaction to media content
JPWO2014192457A1 (ja) * 2013-05-30 2017-02-23 ソニー株式会社 クライアント装置、制御方法、システム、およびプログラム
JP2016186646A (ja) * 2016-06-07 2016-10-27 株式会社東芝 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
JP2019082981A (ja) * 2017-10-30 2019-05-30 株式会社テクノリンク 異言語間コミュニケーション支援装置及びシステム
JP2020091472A (ja) * 2018-12-06 2020-06-11 イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. 双方向通訳システム
JP2021032921A (ja) * 2019-08-16 2021-03-01 株式会社日本レカム 音声認識による自動翻訳機の人工知能による自動アップデートとそのアップデート配信及び情報システム

Similar Documents

Publication Publication Date Title
EP0465058B1 (en) Written language parser system
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
JP4481972B2 (ja) 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
Waibel Interactive translation of conversational speech
US20030115059A1 (en) Real time translator and method of performing real time translation of a plurality of spoken languages
EP2571023B1 (en) Machine translation-based multilingual human-machine dialog
JP3350293B2 (ja) 対話処理装置及び対話処理方法
JP2005513619A (ja) リアルタイム翻訳機および多数の口語言語のリアルタイム翻訳を行う方法
US20100217582A1 (en) System and methods for maintaining speech-to-speech translation in the field
JPH07129594A (ja) 自動通訳システム
US20150254238A1 (en) System and Methods for Maintaining Speech-To-Speech Translation in the Field
JPH10504404A (ja) 音声認識のための方法および装置
JP6397641B2 (ja) 自動通訳装置及び方法
KR100400220B1 (ko) 대화 모델을 이용한 자동 통역 장치 및 방법
Kodirov et al. Implementation of web application based on Augmentative and Alternative Communication (AAC) method for People with Hearing and Speech Impairment
JPH08263499A (ja) 自動翻訳装置及び自動通訳装置
Furui Toward the ultimate synthesis/recognition system
Furui Toward the ultimate synthesis/recognition system.
Spiegel et al. Applying speech synthesis to user interfaces
JPH0950290A (ja) 音声認識装置および該装置を用いた通信装置
Wattenbarger et al. Serving Customers With Automatic Speech Recognition—Human‐Factors Issues
Baggia THE IMPACT OF STANDARDS ON TODAY’S SPEECH APPLICATIONS
ElAarag et al. A speech recognition and synthesis tool
JP3136038B2 (ja) 通訳装置
Mao et al. STIS: a Chinese spoken dialogue system about Shanghai transportation information