JPH09292971A - 翻訳装置 - Google Patents

翻訳装置

Info

Publication number
JPH09292971A
JPH09292971A JP8106746A JP10674696A JPH09292971A JP H09292971 A JPH09292971 A JP H09292971A JP 8106746 A JP8106746 A JP 8106746A JP 10674696 A JP10674696 A JP 10674696A JP H09292971 A JPH09292971 A JP H09292971A
Authority
JP
Japan
Prior art keywords
voice
unit
input
translation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8106746A
Other languages
English (en)
Inventor
Kazuo Ishii
和夫 石井
Satoshi Fujimura
聡 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP8106746A priority Critical patent/JPH09292971A/ja
Publication of JPH09292971A publication Critical patent/JPH09292971A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】 【課題】 翻訳装置の利便性を向上させる。 【解決手段】 ユーザAにより日本語で発話がなされる
と、その音声は、マイク1Aを介して音声認識部8に供
給される。マイク1Aから入力された音声は日本語とみ
なされ、音声認識部8で音声認識され、さらに翻訳部9
で英語に翻訳される。そして、その結果得られる英語の
翻訳文に対応する合成音が、音声合成部10で生成さ
れ、ユーザBが使用するスピーカ2Bに供給されて出力
される。一方、ユーザBにより英語で発話がなされる
と、その音声は、マイク1Bを介して音声認識部8に供
給される。マイク1Bから入力された音声は英語とみな
され、音声認識部8で音声認識され、さらに翻訳部9で
日本語に翻訳される。そして、その結果得られる日本語
の翻訳文に対応する合成音が、音声合成部10で生成さ
れ、ユーザAが使用するスピーカ2Aに供給されて出力
される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、翻訳装置に関す
る。特に、例えば携帯に便利な翻訳装置に関する。
【0002】
【従来の技術】図11は、従来の携帯型の翻訳装置(音
声翻訳機)の一例の構成を示している。この翻訳装置に
おいては、例えば、日本語の入力文を、音声により入力
すると、その入力文を英語などに翻訳した翻訳文に対応
する合成音が出力されるとともに、その逆に、英語の入
力文を、音声により入力すると、それを日本語に翻訳し
た翻訳文に対応する合成音が出力されるようになされて
いる。
【0003】即ち、マイク(マイクロフォン)1Aは、
そこに音声が入力されると、その音声を、電気信号とし
ての音声信号に変換し、音声認識部8に出力するように
なされている。スピーカ2Aは、音声合成部10より供
給される合成音を出力するようになされている。
【0004】音声認識部8は、制御部11の制御の下、
マイク1Aからの音声信号に基づき、例えばHMM(Hi
dden Markov Model)法その他の所定の音声認識アルゴ
リズムにしたがって音声認識を行い、その音声認識結果
として、マイク1Aに入力された音声に対応する、例え
ばテキストデータなどを出力するようになされている。
このテキストデータは、音声認識部8から翻訳部9に供
給されるようになされている。
【0005】翻訳部9は、制御部11の制御の下、音声
認識部8からの所定の言語のテキストデータを、それと
異なる言語に翻訳し、その結果得られる翻訳文(テキス
トデータなど)を、音声合成部10に出力するようにな
されている。音声合成部10は、制御部11の制御にし
たがい、翻訳部9からの翻訳文に対応する合成音を生成
し、スピーカ2Aに供給するようになされている。
【0006】制御部11は、キースイッチ部14の操作
に対応して、音声認識部8、翻訳部9、および音声合成
部10を制御するようになされている。さらに、制御部
11は、LCD(液晶ディスプレイ)表示部12を制御
することにより、所定の情報を表示させるようになされ
ている。また、制御部11には、メモリカード13が装
着可能になされており、制御部11は、このメモリカー
ド13に記憶されたデータを、音声認識部8、翻訳部
9、または音声合成部10に供給することで、それぞれ
に音声認識処理、翻訳処理、または音声合成処理を行わ
せるようになされている。
【0007】メモリカード13には、所定の言語L1お
よびそれと異なる言語L2による音声を音声認識するた
めに必要なデータ、言語L1とL2との間の翻訳を行う
ために必要なデータ、並びに言語L1およびL2による
合成音を生成するために必要なデータ(以下、適宜、こ
れらのデータすべてを含めて言語データという)が記憶
されている。従って、メモリカード13を他のものと交
換することによって、種々の言語の音声認識および音声
合成、並びに種々の言語間の翻訳を行うことができるよ
うになされている。
【0008】キースイッチ部14は、制御部11に対
し、所定の指令を与えるときに操作されるようになされ
ている。
【0009】次に、例えば、日本人のユーザ(日本語の
話者)Aと、アメリカ人のユーザ(英語の話者)Bと
が、この翻訳装置を用いて会話を行う場合を例に、その
動作について説明する。従って、メモリカード13に
は、日本語および英語の言語データが記憶されているも
のとする。
【0010】まず、ユーザAが、ユーザBに対して発話
を行う場合においては、例えば、ユーザAは、キースイ
ッチ部14(言語選択ボタン)を、日本語の入力文を英
語に翻訳するように操作する。この操作に対応する操作
信号は、制御部11において受信され、制御部11は、
この操作信号を受信すると、音声認識部8を日本語の音
声を音声認識するように、翻訳部9を日本語を英語に翻
訳するように、音声合成部10を英語の合成音を生成す
るように、それぞれ制御する。
【0011】その後、ユーザAが、マイク1Aに対し
て、日本語による発話を行うと、その音声は、マイク1
Aを介することにより音声信号とされ、音声認識部8に
供給される。音声認識部8では、マイク1Aからの音声
信号に基づいて音声認識が行われ、これにより、マイク
1Aに入力された日本語の音声が認識される。そして、
その音声認識の結果得られるテキストデータは、翻訳部
9に供給される。
【0012】翻訳部9では、音声認識部8からの日本語
のテキストデータが英語に翻訳され、その結果得られる
英語の翻訳文が音声合成部10に供給される。音声合成
部10では、翻訳部9からの翻訳文に対応した合成音
(英語の合成音)が生成され、スピーカ2Aに供給され
る。これにより、スピーカ2Aからは、ユーザAが発し
た日本語の音声を英語に翻訳した合成音が出力される。
【0013】次に、ユーザBが、ユーザAに対して発話
を行う場合においては、例えば、ユーザBは、キースイ
ッチ部14を、英語の入力文を日本語に翻訳するように
操作する。この操作に対応する操作信号は、制御部11
において受信され、制御部11は、この操作信号を受信
すると、音声認識部8を英語の音声を音声認識するよう
に、翻訳部9を英語を日本語に翻訳するように、音声合
成部10を日本語の合成音を生成するように、それぞれ
制御する。
【0014】その後、ユーザBが、マイク1Aに対し
て、英語による発話を行うと、その音声は、マイク1A
を介することにより音声信号とされ、音声認識部8に供
給される。音声認識部8では、マイク1Aからの音声信
号に基づいて音声認識が行われ、これにより、マイク1
Aに入力された英語の音声が認識される。そして、その
音声認識の結果得られるテキストデータは、翻訳部9に
供給される。
【0015】翻訳部9では、音声認識部8からの英語の
テキストデータが日本語に翻訳され、その結果得られる
日本語の翻訳文が音声合成部10に供給される。音声合
成部10では、翻訳部9からの翻訳文に対応した合成音
(日本語の合成音)が生成され、スピーカ2Aに供給さ
れる。これにより、スピーカ2Aからは、ユーザBが発
した英語の音声を日本語に翻訳した合成音が出力され
る。
【0016】なお、音声認識部8において得られる音声
の認識結果および翻訳部9において得られる翻訳文は、
制御部11にも供給されるようになされており、制御部
11は、この認識結果および翻訳文を受信すると、LC
D表示部12に供給して表示させるようになされてい
る。従って、この場合、LCD表示部12では、マイク
1Aに入力された音声認識結果と、それを翻訳した翻訳
結果とが同時に表示される。
【0017】次に、図12は、従来の携帯型の翻訳装置
の他の一例の構成を示している。液晶表示部(LCD
(液晶ディスプレイ))101は、所定の情報を表示す
るようになされている。カーソルキー102は、液晶表
示部101に表示されたカーソルを移動させるときや、
液晶表示部101の表示画面をスクロールさせるときな
どに操作される。電源スイッチ104は、ONスイッチ
104aおよびOFFスイッチ104bで構成され、そ
れぞれは、装置の電源をオンまたはオフするときに操作
される。アルファベットキー105は、アルファベット
を入力するときに操作される。決定キー106は、アル
ファベットキー105を操作することにより入力された
文字列を確定したり、また、カーソルキー102を操作
することにより選択した項目を確定したりするときに操
作される。ファンクション(機能)キー107には、各
種の機能が割り当てられており、その機能を実行させる
ときに操作される。
【0018】次に、以上のように構成される翻訳装置の
動作について説明する。なお、ここでは、翻訳装置は、
例えば、英単語を入力すると、その英単語の意味を日本
語で記述したもの(英単語を日本語に翻訳したもの)を
出力するようになされているものとする。
【0019】ユーザは、まず最初に、ONスイッチ10
4aを操作することにより、装置の電源をオンにする。
その後、ユーザは、アルファベットキー105を操作す
ることにより、意味を調べようとする英単語を入力す
る。即ち、例えば、英単語「dog」の意味を調べよう
とするときは、アルファベットキー105のうちの
「d」、「o」、「g」の文字に対応するキーを順次操
作することで、「dog」を入力する。
【0020】アルファベットキー105を操作すること
により入力された文字は、液晶表示部101に表示され
るようになされており、従って、この場合、液晶表示部
101には、「dog」が表示される。
【0021】ユーザは、液晶表示部101の表示を見る
ことで、意味を調べようとする英単語「dog」が正し
く入力されたことを確認し、その後、決定キー106を
操作する。
【0022】決定キー106が操作されると、翻訳装置
では、液晶表示部101に表示された英単語「dog」
の意味(「dog」の翻訳結果)が、その内蔵する英和
辞書(電子辞書)(図示せず)から検索され、液晶表示
部101に表示される。
【0023】以上のようにして、ユーザにより入力され
た英単語の意味が表示される。なお、この場合、英単語
の意味が、液晶表示部101の1画面に表示しきれない
ときには、カーソルキー102を操作して、画面をスク
ロールさせることにより、その全体を見ることができる
ようになされている。
【0024】
【発明が解決しようとする課題】ところで、図11に示
した従来の翻訳装置においては、以下のような課題があ
った。
【0025】即ち、日本語から英語、または英語から日
本語のうちのいずれの翻訳を行うかを制御部11に認識
させるために、日本人であるユーザAが発話するとき、
およびアメリカ人であるユーザBが発話するときに、そ
の都度、キースイッチ部14を操作する必要があった。
さらに、そのために、ユーザAとBとの間で、翻訳装置
を発話をする側に手渡しする必要もあり、このようなこ
とを、発話を行うたびに行うのは面倒であった。
【0026】そこで、制御部11に、マイク1Aに入力
された音声の言語を、自動的に識別(自動言語識別)さ
せる方法があるが、言語の識別は困難で、正しい識別結
果が得られるとは限らなかった。
【0027】また、翻訳装置を、ユーザAおよびBがそ
れぞれ携帯していれば、上述の課題を解決することがで
きるが、例えば、ユーザAが、ユーザBの国に行く場合
において、ユーザAが、翻訳装置を携帯していくことは
考えられるが、ユーザBが、自国において、翻訳装置を
携帯していることは、現実的には考えにくい。
【0028】そこで、例えば、ユーザAが、ユーザBの
国に行くときに、翻訳装置を2台携帯していく方法があ
るが、翻訳装置が携帯型に構成されているといっても、
それを2台携帯するのは面倒であり、さらに、この場
合、ユーザAの経済的負担も大になる。
【0029】一方、図12に示した従来の翻訳装置にお
いては、以下のような課題があった。
【0030】即ち、このような翻訳装置を、例えば路上
などで使用する場合には、ユーザは、左手または右手の
うちのいずれか一方の手で装置を持ち、LCD101を
見ながら、他方の手で装置を操作する必要があった。こ
のため、装置の操作を、LCD101以外のものを見な
がら行うことは、そのものと、LCD101との間での
視線の移動が必要となり、ユーザに煩わしさを感じさせ
る課題があった。さらに、装置の操作を、筆記用具その
他の物を持ちながら行うのは困難であった。
【0031】そこで、図11に示した翻訳装置における
場合と同様に、装置にマイクおよびスピーカを設け、マ
イクから意味を調べようとする英単語(日本語に翻訳し
ようとする英単語)を入力するようにするとともに、そ
の英単語の意味を、スピーカから合成音で出力させるよ
うにする方法がある。
【0032】しかしながら、装置自体にマイクおよびス
ピーカを設けた場合には、マイクに混入する雑音を低減
するために、ユーザは、装置に設けられたマイクに口を
近づけて(あるいは、装置を近づけて)発話を行う必要
があり、面倒であった。さらに、環境雑音のレベルが大
きい場合には、装置に設けられたスピーカに耳を近づけ
て(あるいは、装置を近づけて)合成音を聴く必要があ
り、やはり面倒であった。
【0033】本発明は、このような状況に鑑みてなされ
たものであり、翻訳装置の利便性を向上させることがで
きるようにするものである。
【0034】
【課題を解決するための手段】請求項1に記載の翻訳装
置は、音声を入力する入力手段が、複数設けられている
ことを特徴とする。
【0035】請求項10に記載の翻訳装置は、入出力部
と本体とが、分離して設けられていることを特徴とす
る。
【0036】請求項1に記載の翻訳装置においては、音
声を入力する入力手段が、複数設けられている。
【0037】請求項10に記載の翻訳装置においては、
入出力部と本体とが、分離して設けられている。
【0038】
【発明の実施の形態】以下に、本発明の実施例を説明す
るが、その前に、特許請求の範囲に記載の発明の各手段
と以下の実施例との対応関係を明らかにするために、各
手段の後の括弧内に、対応する実施例(但し、一例)を
付加して、本発明の特徴を記述すると、次のようにな
る。
【0039】即ち、請求項1に記載の翻訳装置は、音声
を入力する入力手段(例えば、図1や図4に示すマイク
1Aおよび1B、図2に示すマイク24、図3に示すマ
イク33など)と、入力手段に入力された音声を音声認
識する音声認識手段(例えば、図1や図4に示す音声認
識部8など)と、音声認識手段の音声認識結果を、入力
手段に入力された音声の言語と異なる言語に翻訳する翻
訳手段(例えば、図1や図4に示す翻訳部9など)と、
翻訳手段の翻訳結果を出力する出力手段(例えば、図1
や図4に示すスピーカ2Aおよび2B、図1や図4に示
すLCD表示部12、図2に示すスピーカ22、図3に
示すスピーカ31など)とを備える翻訳装置であって、
入力手段が、複数設けられていることを特徴とする。
【0040】請求項3に記載の翻訳装置は、翻訳手段の
翻訳結果に対応する合成音を生成する生成手段(例え
ば、図1や図4に示す音声合成部10など)をさらに備
え、出力手段が、生成手段により生成される合成音を出
力することを特徴とする。
【0041】請求項7に記載の翻訳装置は、所定の端末
との通信を制御する通信制御手段(例えば、図4に示す
電話部43など)をさらに備えることを特徴とする。
【0042】請求項9に記載の翻訳装置は、情報を再生
する再生手段(例えば、図4に示すMD(ミニディスク
(商標))部45など)をさらに備え、出力手段が、再
生手段により再生される情報も出力することを特徴とす
る。
【0043】請求項10に記載の翻訳装置は、音声を入
力する入力手段(例えば、図5乃至図10に示すマイク
54など)と、所定の情報に対応する合成音を出力する
出力手段(例えば、図5乃至図10に示すスピーカ53
など)とを有する入出力部と、入力手段に入力された音
声を音声認識する音声認識手段(例えば、図6に示す音
声認識回路62など)と、音声認識手段の音声認識結果
を、入力手段に入力された音声の言語と異なる言語に翻
訳する翻訳手段(例えば、図6に示すCPU65など)
と、翻訳手段により出力される翻訳結果に対応する合成
音を生成し、出力手段に供給する生成手段(例えば、図
6に示す音声合成回路68など)とを有する本体とを備
え、入出力部と本体とが、分離して設けられていること
を特徴とする。
【0044】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。
【0045】図1は、本発明を適用した携帯型の翻訳装
置の第1実施例の構成を示している。なお、図中、図1
1における場合と基本的機能が同様の部分については、
同一の符号を付してあり、以下では、その説明は、適宜
省略する。
【0046】即ち、この実施例においては、マイク1A
またはスピーカ2Aが、スイッチ3の端子3aまたはス
イッチ4の端子4aにそれぞれ接続されており、従っ
て、マイク1Aまたはスピーカ2Aは、スイッチ3また
は4を介して、音声認識部8または音声合成部10とそ
れぞれ接続されている。また、スイッチ3の端子3bお
よびスイッチ4の端子4bは、コネクタ(ヘッドセット
用コネクタ)7Aに接続されている。
【0047】さらに、この実施例においては、マイク1
Aまたはスピーカ2Aの他のマイクまたはスピーカとし
て、マイク1Bまたはスピーカ2Bがそれぞれ設けられ
ている。このマイク1Bまたはスピーカ2Bも、マイク
1Aまたはスピーカ2Aと同様にして、それぞれ音声認
識部8または音声合成部10に接続されている。即ち、
マイク1Bまたはスピーカ2Bは、スイッチ5の端子5
aまたはスイッチ6の端子6aとそれぞれ接続されてお
り、スイッチ5または6は、音声認識部8または音声合
成部10とそれぞれ接続されている。また、スイッチ5
の端子5bおよびスイッチ6の端子6bは、コネクタ
(ヘッドセット用コネクタ)7Bに接続されている。
【0048】以上のように、音声の入力を行うためのマ
イクと、合成音の出力を行うためのスピーカとが、複数
設けられている。
【0049】コネクタ7Aおよび7Bには、外部のマイ
クから音声を入力し、また、外部のスピーカに音声を出
力するときに、そのマイク、スピーカが接続されるよう
になされている。なお、コネクタ7Aまたは7Bに、マ
イクおよびスピーカが外部から接続されたときには、通
常は端子3a乃至6aを選択しているスイッチ3乃至6
は、端子3b乃至6bを選択するようになされており、
これにより、外部のマイクまたはスピーカが、音声認識
部8または音声合成部10とそれぞれ電気的に接続され
るようになされている。
【0050】次に、図11における場合と同様に、日本
語の話者としてのユーザAと、英語の話者としてのユー
ザBとが、この翻訳装置を用いて会話を行う場合を例
に、その動作について説明する。なお、ここでは、例え
ば、マイク1Aおよびスピーカ2AをユーザAが、マイ
ク1Bおよびスピーカ2BをユーザBが使用するものと
する。
【0051】まず、ユーザAまたはBは、キースイッチ
部14を操作し、これにより、マイク1Aおよびスピー
カ2Aを、日本語の入出力用として設定するとともに、
マイク1Bおよびスピーカ2Bを、英語の入出力用とし
て設定する。このように設定することで、制御部11で
は、以下、マイク1Aまたは1Bには、日本語または英
語の音声がそれぞれ入力されるものとして、また、スピ
ーカ2Aまたは2Bには、日本語または英語の合成音が
それぞれ供給されるように制御が行われる。
【0052】即ち、ユーザAが日本語による発話を行っ
た場合、その日本語の音声は、マイク1Aおよびスイッ
チ3を介して、音声認識部8に供給される。音声認識部
8は、スイッチ3を介して音声を受信すると、その旨
を、制御部11に出力する。制御部11は、音声認識部
8より、スイッチ3を介して音声が入力された旨を受信
すると、音声認識部8を日本語の音声を音声認識するよ
うに、翻訳部9を日本語を英語に翻訳するように、音声
合成部10を英語の合成音を生成するように、それぞれ
制御する。
【0053】そして、以下、図11における場合と同様
の処理が行われ、これにより、LCD表示部12には、
マイク1Aに入力された日本語の音声の音声認識結果、
およびその音声認識結果を英語に翻訳した翻訳文が表示
され、音声合成部10では、その翻訳文に対応する合成
音(英語の合成音)が生成される。この翻訳文の合成音
は、音声合成部10から、スイッチ6を介して、スピー
カ2Bに供給されて出力される。これにより、ユーザB
は、スピーカ2Bから、ユーザAの発話を英語に翻訳し
た合成音を聴くことができる。
【0054】一方、ユーザBが英語による発話を行う
と、その英語の音声は、マイク1Bおよびスイッチ5を
介して、やはり、音声認識部8に供給される。音声認識
部8は、スイッチ5を介して音声を受信すると、その旨
を、制御部11に出力する。制御部11は、音声認識部
8より、スイッチ5を介して音声が入力された旨を受信
すると、音声認識部8を英語の音声を音声認識するよう
に、翻訳部9を英語を日本語に翻訳するように、音声合
成部10を日本語の合成音を生成するように、それぞれ
制御する。
【0055】そして、以下、図11における場合と同様
の処理が行われ、これにより、LCD表示部12には、
マイク1Bに入力された英語の音声の音声認識結果、お
よびその音声認識結果を日本語に翻訳した翻訳文が表示
され、音声合成部10では、その翻訳文に対応する合成
音(日本語の合成音)が生成される。この翻訳文の合成
音は、音声合成部10から、スイッチ4を介して、スピ
ーカ2Aに供給されて出力される。これにより、ユーザ
Aは、スピーカ2Aから、ユーザBの発話を日本語に翻
訳した合成音を聴くことができる。
【0056】以上のように、マイクが2つ設けられてい
るので、最初に、マイク1Aおよび1Bに入力される音
声の言語を設定することで、それ以降は、音声が、スイ
ッチ3または5のうちのいずれを介して入力されたもの
であるかを判別することにより、即ち、ここでは、マイ
ク1Aまたは1Bのうちのいずれかから音声が入力され
たかを判別することにより、その音声の言語を、容易に
認識することができる。その結果、ユーザAが発話する
ときと、ユーザBが発話するときとで、キースイッチ部
14を操作する必要がなく、従って、ユーザAおよびB
に煩わしさを感じさせることを防止することができる。
また、そのような操作を防止するために、翻訳装置を2
台用意する必要もない。
【0057】なお、ユーザAとBとは、通常は、翻訳装
置を挟んで、向き合った状態で会話を行うことが予想さ
れるため、マイク1Aまたは1Bそれぞれは、そのよう
な状態で装置が使用されるときに、ユーザAまたはBの
発話を良好に拾うことができるような指向性を有するも
のとすることができる。また、マイク1Aおよび1Bの
指向性は、所定の方向に変更することができるようにす
ることもできる。
【0058】次に、この実施例においては、上述したよ
うに、コネクタ7Aおよび7Bが設けられており、この
コネクタ7Aや7Bには、例えば図2に示すヘッドセッ
トや、図3に示すイヤーセットなどを接続することがで
きるようになされている。即ち、翻訳装置には、ヘッド
セットやイヤーセットなどが外部から接続可能になされ
ている。
【0059】図2に示すヘッドセットにおいては、ユー
ザの頭部に装着可能な装着部21にスピーカ22が設け
られている。なお、スピーカ22は、装着部21がユー
ザの頭部に装着されたときに、そのユーザの耳の部分に
位置するように取り付けられている。さらに、装着部2
2には、アーム23の一端が取り付けられており、その
他端には、マイク24が設けられている。なお、アーム
23は、装着部21がユーザの頭部に装着されたとき
に、その先端に設けられたマイク24が、ユーザの口の
前に位置するように構成されている。
【0060】スピーカ22およびマイク24には、信号
をやりとりするためのコード25が接続されており、こ
のコード25の、スピーカ22およびマイク24が接続
されていない方の一端には、コネクタ7Aや7Bに装着
することのできるジャック26が設けられている。
【0061】ユーザは、以上のようなヘッドフォンを使
用するとき、ジャック26をコネクタ7Aまたは7Bに
差し込むとともに、装着部21を頭部に装着する。
【0062】例えば、ジャック26がコネクタ7Aに差
し込まれた場合、スイッチ3または4は、端子3bまた
は4bをそれぞれ選択するようになされており、これに
より、音声認識部8とマイク24とが、また、音声合成
部10とスピーカ22とが、ぞれぞれ電気的に接続され
る。従って、この場合、ユーザAが日本語による発話を
行うと、その日本語の音声は、マイク24およびスイッ
チ3を介して、音声認識部8に入力される。また、音声
合成部10が出力する日本語の合成音は、スイッチ4を
介して、スピーカ22に供給されて出力される。
【0063】一方、ジャック26がコネクタ7Bに差し
込まれた場合、スイッチ5または6は、端子5bまたは
6bをそれぞれ選択するようになされており、これによ
り、やはり、音声認識部8とマイク24とが、また、音
声合成部10とスピーカ22とが、ぞれぞれ電気的に接
続される。従って、この場合、ユーザBが英語による発
話を行うと、その英語の音声は、マイク24およびスイ
ッチ5を介して、音声認識部8に入力される。また、音
声合成部10が出力する英語の合成音は、スイッチ6を
介して、スピーカ22に供給されて出力される。
【0064】次に、図3に示すイヤーセットにおいて
は、ユーザの耳に装着可能なスピーカ31にアーム32
が取り付けられている。そして、アーム32の、スピー
カ31が設けられていない用の一端には、マイク33が
設けられている。なお、アーム32は、スピーカ31が
ユーザの耳に装着されたときに、その先端に設けられた
マイク33が、ユーザの口の前に位置するように構成さ
れている。
【0065】スピーカ31およびマイク33には、信号
をやりとりするためのコード34が接続されており、こ
のコード34の、スピーカ31およびマイク33が接続
されていない方の一端には、コネクタ7Aや7Bに装着
することのできるジャック35が設けられている。
【0066】ユーザは、以上のようなイヤーセットを使
用するとき、ジャック35をコネクタ7Aまたは7Bに
差し込むとともに、スピーカ31を耳に装着する。この
場合、上述のヘッドセットにおける場合と同様にして、
マイク33に入力された音声は、音声認識部8に供給さ
れ、また、音声合成部10が出力する合成音が、スピー
カ31に供給される。
【0067】以上のようなヘッドセットやイヤーセット
においては、マイク24や33がユーザの口の前に位置
するようになされているので、そこには周囲の雑音が混
入しにくくなり、従って、音声認識部8における音声認
識の精度を向上させることが可能となる。さらに、ユー
ザが、それほど大きな声で発話を行う必要もなくなる。
また、ユーザAまたはBのうちの少なくともいずれか一
方が、ヘッドセットやイヤーセットを使用するようにす
ることで、一方の音声が、他方が使用するマイクに混入
する割合を低減することができる。さらに、スピーカ2
2や31は、ユーザの耳の部分に位置するようになされ
ているので、大きな雑音のある環境下であっても、翻訳
結果を、明瞭に聴くことが可能となる。
【0068】また、ユーザAおよびBの両方が、ヘッド
セットやイヤーセットを使用するようにした場合、それ
ぞれの音声を、的確に拾うことが可能となり、その結
果、両者の発話が重なっても、音声認識部8、翻訳部
9、および音声合成部10に、その両者の音声に対する
処理を、例えば時分割で行わせるようにすることで、そ
のような同時になされた発話に対する対応も可能とな
る。
【0069】次に、図4は、本発明を適用した携帯型の
翻訳装置の第2実施例の構成を示している。なお、図
中、図1における場合と対応する部分については、同一
の符号を付してあり、以下では、その説明は、適宜省略
する。即ち、この翻訳装置は、セレクタ41および4
2、電話部43、アンテナ(ANT)44、並びにMD
部45が新たに設けられている他は、図1の翻訳装置と
同様に構成されている。
【0070】セレクタ41は、制御部11により制御さ
れ、その入力端子i1,i2、またはi3に入力される
信号のうちのいずれかを選択して、その出力端子out
から出力するようになされている。なお、セレクタ41
の入力端子i1乃至i3それぞれには、音声合成部10
が出力する日本語の合成音、MD部45の出力信号、ま
たは電話部43の出力信号が入力されるようになされて
おり、また、その出力端子outは、スイッチ4と接続
されている。
【0071】セレクタ42は、制御部11により制御さ
れ、その入力端子i1またはi2に入力される信号のう
ちのいずれかを選択して、その出力端子outから出力
するようになされている。なお、セレクタ42の入力端
子i1またはi2それぞれには、マイク1Aが出力する
日本語の音声信号(またはコネクタ7Aを介して供給さ
れる日本語の音声信号)、または音声合成部10が出力
する英語の合成音が入力されるようになされており、ま
た、その出力端子outは、電話部43と接続されてい
る。
【0072】電話部43は、電話通信を行うための制御
を行うようになされている。即ち、電話部43は、セレ
クタ42の出力端子outから供給される音声を変調し
て、アンテナ44に出力し、また、アンテナ44から供
給される信号を復調して音声信号とし、セレクタ41の
入力端子i3および音声認識部8に出力するようになさ
れている。アンテナ44は、電話部43からの信号を、
電波として放射し、また、図示せぬ電話機(携帯電話
機)から基地局を介して送信されてくる電波を受信する
ようになされている。MD部45は、ミニディスクの再
生を行うようになされている。
【0073】次に、その動作について説明する。なお、
ここでも、例えば、第1実施例における場合と同様に、
マイク1Aおよびスピーカ2Aを、日本語による発話を
行うユーザAが、マイク1Bおよびスピーカ2Bを、英
語による発話を行うユーザBが使用するものとする。
【0074】まず、ユーザAとBとの間で会話を行う場
合においては、第1実施例における場合と同様に、キー
スイッチ部14を操作する。この場合、制御部11は、
第1実施例における場合と同様の制御を行うとともに、
セレクタ41を、その入力端子i1に入力される信号
を、その出力端子outから出力するように制御する。
従って、この場合、音声合成部10が出力する日本語の
合成音は、セレクタ41およびスイッチ4を介して、ス
ピーカ2Aに出力される。
【0075】また、この場合、マイク1Aおよび1Bに
入力された音声は、音声認識部8に供給され、さらに、
音声合成部10が出力する英語の合成音は、スイッチ6
を介してスピーカ2Bに供給される。
【0076】従って、この場合、第1実施例における場
合と同様に、ユーザAとBとは会話を行うことができ
る。
【0077】次に、ユーザAが、日本語の発話を行う、
例えば電話機などの端末を有するユーザ(以下、適宜、
電話機日本語ユーザという)と電話通信を行う場合、そ
の旨を指示するように、キースイッチ部14を操作す
る。この場合、制御部11は、セレクタ41を、その入
力端子i3に入力される信号を、その出力端子outか
ら出力するように制御するとともに、セレクタ42を、
その入力端子i1に入力される信号を、その出力端子o
utから出力するように制御する。
【0078】従って、この場合、マイク1Aに入力され
たユーザAの音声は、スイッチ3およびセレクタ42を
介して、電話部43に供給され、また、電話部43から
出力される音声信号は、セレクタ41およびスイッチ4
を介してスピーカ2Aに供給される。
【0079】さらに、制御部11は、電話部43を電話
通信の制御を行うように制御する。これにより、マイク
1Aに入力されたユーザAの音声は、スイッチ3および
セレクタ42を介して、電話部43に供給され、この電
話部43から、電話機日本語ユーザの有する電話機に送
信される。一方、電話機日本語ユーザが有する電話機か
ら送信されてきた音声信号は、アンテナ44で受信さ
れ、電話機部43に供給される。電話部43は、この音
声信号を、セレクタ41およびスイッチ4を介して、ス
ピーカ2Aに供給し、これにより、スピーカ2Aから
は、電話機日本語ユーザの音声が出力される。
【0080】以上のようにして、ユーザAと、電話機日
本語ユーザとの間において、電話通信による会話を行う
ことができる。
【0081】次に、ユーザAが、英語の発話を行う、例
えば電話機などの端末を有するユーザ(以下、適宜、電
話機英語ユーザという)と電話通信を行う場合、その旨
を指示するように、キースイッチ部14を操作する。こ
の場合、制御部11は、セレクタ41を、その入力端子
i1に入力される信号を、その出力端子outから出力
するように制御するとともに、セレクタ42を、その入
力端子i2に入力される信号を、その出力端子outか
ら出力するように制御する。さらに、制御部11は、上
述の場合と同様に、電話部43を電話通信の制御を行う
ように制御する。
【0082】この場合、マイク1Aに入力されたユーザ
Aの日本語の音声は、スイッチ3を介して、音声認識部
8に供給され、以下、音声認識部8、翻訳部9、および
音声合成部10において、第1実施例における場合と同
様の処理が行われる。これにより、音声合成部10から
は、ユーザAによる日本語の発話を英語に翻訳した翻訳
文に対応する合成音が出力される。この英語の合成音
は、セレクタ42において選択されている入力端子i2
に供給され、その出力端子outから電話部43に供給
される。その結果、ユーザAの発話を英語に翻訳した合
成音は、電話機英語ユーザの有する電話機に送信され
る。
【0083】一方、電話機英語ユーザが有する電話機か
ら送信されてきた音声信号は、アンテナ44で受信さ
れ、電話機部43に供給される。電話部43は、この音
声信号を、音声認識部8に供給する。この場合、音声認
識部8、翻訳部9、および音声合成部10では、第1実
施例において、マイク1Bから音声が供給された場合と
同様の処理が行われる。即ち、この場合、電話機英語ユ
ーザが有する電話機からの音声、つまり英語の音声は、
日本語に翻訳され、合成音として、音声合成部10から
出力される。この日本語の合成音は、セレクタ41にお
いて選択されている入力端子i1に供給され、その出力
端子outから、スイッチ4を介して、スピーカ2Aに
供給される。これにより、スピーカ2Aからは、電話機
英語ユーザの音声を日本語に翻訳した合成音が出力され
る。
【0084】以上のようにして、ユーザAと、電話機英
語ユーザとの間において、電話通信による会話を行うこ
とができる。
【0085】次に、ユーザAが、例えばMDに記録され
た音楽などを聴こうとする場合には、そのMDをMD部
45にセットするとともに、そのMDを再生するよう
に、キースイッチ部14を操作する。この場合、制御部
11は、セレクタ41を、その入力端子i2に入力され
る信号を、その出力端子outから出力するように制御
するとともに、MD部45を、そこにセットされたMD
を再生するように制御する。
【0086】これに対応して、MD部45では、MDの
再生が行われ、その再生信号が、セレクタ41において
選択されている入力端子i2に供給され、その出力端子
outから出力される。従って、この再生信号は、スイ
ッチ4を介して、スピーカ2Aに供給される。これによ
り、スピーカ2Aからは、MDから再生された音楽が出
力される。
【0087】以上のようにして、ユーザAは、MDから
再生された音楽を聴くことができる。
【0088】ところで、この翻訳装置においても、第1
実施例における場合と同様に、ヘッドセットやイヤーセ
ットを装着することができるようになされている。上述
のように、MDから再生された音楽を、ヘッドセットや
イヤーセットを用いて聴くという翻訳装置の使用態様
は、通常の携帯型のラジオ受信機や、カセットテープレ
コーダなどで、音楽を聴くのと同様の態様であるから、
このように、MD部45を設けることによって、翻訳装
置においてヘッドセットやイヤーセットを用いることに
対する違和感を低減することができる。
【0089】また、第2実施例では、電話部43を設け
たことによって、電話による会話が可能となるが、この
電話による会話は、ヘッドセットやイヤーセットを用い
ることにより行い易くなり、さらに、そのような使用態
様が定着すれば、やはり、翻訳装置においてヘッドセッ
トやイヤーセットを用いることに対する違和感を低減す
ることができる。
【0090】なお、第2実施例においては、情報を再生
する装置として、MD部45を設けるようにしたが、そ
の他、例えばラジオ受信機や、カセットテープレコーダ
などを設けるようにすることも可能である。さらに、将
来、携帯に便利なように、例えば音楽を記録したICカ
ードなどが実現された場合には、そのようなICカード
を再生するための装置を設けるようにすることも可能で
ある。
【0091】また、第1実施例および第2実施例におい
ては、マイクおよびスピーカを2つずつ設けるようにし
たが、マイクおよびスピーカは、3以上設けるようにす
ることも可能である。この場合、3人以上のユーザどう
しの間で、異なる言語による会話を行うことが可能とな
る。
【0092】次に、図5は、本発明を適用した翻訳装置
の第3実施例の外観構成を示している。この翻訳装置
も、第1実施例および第2実施例における場合と同様に
携帯型とされている。
【0093】この翻訳装置は、装置の電源をオン、オフ
するときに操作される電源スイッチ55が設けられた本
体52と、音声を出力するスピーカ53および音声を入
力するマイク54とが、独立に、分離して設けられてい
る。即ち、スピーカ53およびマイク54は、本体52
自体に設けられているのではなく、本体52とは別に設
けられている。なお、図5の実施例では、本体52と、
スピーカ53およびマイク54とは、所定の接続線を介
して接続されている。
【0094】そして、この翻訳装置においては、マイク
54に、例えば日本語の音声を入力すると、それが電気
信号としての音声信号に変換され、本体52に供給され
るようになされている。本体52では、マイク54に入
力された音声が音声認識され、さらに、その音声認識結
果が、例えば英語などに翻訳されるようになされてい
る。そして、本体52では、その英語に翻訳された翻訳
文に対応する合成音が生成され、これが、スピーカ53
から出力されるようになされている。
【0095】なお、スピーカ53は、ユーザの耳に取り
付け可能なように、例えばイヤフォンなどとされてい
る。
【0096】以上のように、スピーカ53は、本体52
と分離して設けられ、ユーザの耳に取り付け可能なよう
になされているので、例えば、環境雑音のレベルが大き
い場所において装置を使用する場合であっても、合成音
を聞き取ることがことができる。また、マイク54も、
本体52と分離して設けられているので、そのマイク5
4だけを、ユーザの口に近づけるだけで、そこに混入す
る雑音を低減することができる。
【0097】次に、図6は、図5の翻訳装置の電気的構
成例を示している。マイク54から出力されるアナログ
の音声信号は、A/D変換器61に供給されるようにな
されている。A/D変換器61は、マイク54からのア
ナログの音声信号を、所定のサンプリングクロックにし
たがってサンプリングし、さらに量子化することで、デ
ィジタルの音声信号に変換するようになされている。A
/D変換器61においてディジタル信号とされた音声信
号は、音声認識回路62に供給されるようになされてい
る。
【0098】音声認識回路62は、A/D変換器61か
ら音声信号を受信すると、その音声信号の、例えば音程
(周波数)や、強弱(振幅)、速度(発話速度)などを
音響分析し、その分析結果に基づいて、マイク54に入
力された音声を音声認識するようになされている。この
音声認識結果は、CPU(Central Processor Unit)6
5に供給されるようになされている。
【0099】RAM(Random Access Memory)63は、
音声認識回路62の動作上必要なデータを記憶するよう
になされている。ROM(Read Only Memory)64は、
音声認識回路62が音声認識の対象とする、例えば単語
などを記憶しており、従って、音声認識回路62では、
このROM64に記憶されている単語を対象として、マ
イク54に入力された音声が、音声認識されるようにな
されている。
【0100】CPU65は、キーインターフェイス72
からの信号に対応して、装置の電源を、オン、オフする
ようになされている。さらに、CPU65は、音声認識
回路62および音声合成回路68を制御するようにもな
されている。また、CPU65は、音声認識回路62か
らマイク54に入力された、例えば日本語による音声の
音声認識結果を、例えば英語に翻訳するようにもなされ
ている。なお、その結果得られる翻訳文は、音声合成回
路68に供給されるようになされている。
【0101】ROM66は、CPU65が行う翻訳に必
要なデータが記憶されており、従って、CPU65は、
ROM66に記憶されたデータを参照しながら翻訳を行
うようになされている。さらに、ROM66には、シス
テムプログラムやアプリケーションプログラムが記憶さ
れており、CPU65は、このROM66に記憶されて
いるプログラムを実行することで、上述したような処理
を行うようになされている。RAM67は、CPU65
の動作上必要なデータを一時記憶するようになされてい
る。
【0102】音声合成回路68は、CPU65から供給
される翻訳文に対応した合成音を、ROM69およびR
AM70にアクセスしながら生成するようになされてい
る。即ち、ROM69は、例えば、いわゆるCVやVC
Vなどの単位で音素片データを記憶しており、また、R
AM70は、音声合成回路68の動作上必要なデータを
一時記憶するようになされている。そして、音声合成回
路68は、CPU65から供給される翻訳文に対応した
合成音(音声データ)を、ROM69に記憶されてい
る、必要な音素片データを読み出して接続することによ
り生成するようになされている。
【0103】音声合成回路68で生成された合成音は、
D/A変換器71に供給されるようになされている。こ
の合成音は、ディジタル信号とされており、D/A変換
器71は、このディジタルの合成音をD/A変換するこ
とにより、アナログの合成音とするようになされてい
る。このアナログ信号とされた合成音は、スピーカ53
に供給され、これにより、スピーカ53からは、マイク
54に入力された日本語の音声を英語に翻訳した合成音
が出力されるようになされている。
【0104】キーインターフェイス72は、電源スイッ
チ55が操作されると、その操作に対応した信号を、C
PU65に出力するようになされている。
【0105】次に、その動作について説明する。ユーザ
により、電源スイッチ55が、装置の電源をオンするよ
うに操作されると、キーインターフェイス72から、C
PU65に対して、その操作に対応した信号(以下、適
宜、オン信号という)が供給される。CPU65は、キ
ーインターフェイス72からオン信号を受信すると、装
置の電源をオン状態にする。
【0106】その後、マイク54に日本語による音声が
入力されると、その音声は、A/D変換器61を介し
て、音声認識回路62に供給される。音声認識回路62
では、マイク54からの音声が音声認識され、その音声
認識結果が、CPU65に供給される。CPU65は、
音声認識回路62から音声認識結果(日本語の音声認識
結果)を受信すると、それを英語に翻訳し、その翻訳文
を、音声合成回路68に出力する。音声合成回路68
は、CPU65から翻訳文を受信すると、その翻訳文に
対応した合成音を生成し、D/A変換器71を介して、
スピーカ53に供給する。これにより、スピーカ53か
らは、マイク54に入力された日本語の音声を英語に翻
訳した合成音が出力される。
【0107】次に、以上のような翻訳装置の使用形態
(態様)について、図7乃至図10を参照して説明す
る。本体(基体部)52は、図7乃至図10に示すよう
に、ベルト82が取り付け可能になされており、これに
より、ユーザは、ベルト82を肩などにかけることによ
り、本体52を、容易に携帯することができるようにな
されている。さらに、イヤフォンとして構成されるスピ
ーカ53は、耳に装着することができるようになされて
いる。
【0108】そして、図7の実施例では、マイク54
は、例えば、鉛筆やペンなどの筆記具81(筆記具81
の一端)に取り付け可能になされている。従って、この
場合、ユーザは、例えば、鉛筆やペンなどの筆記具81
を持ち、その筆記具81で紙にメモなどを取りながら、
翻訳装置を使用することができる。また、翻訳結果は、
合成音で、スピーカ53から出力されるので、ユーザ
は、翻訳結果を見る必要がなく、従って、例えば、紙に
書かれた文章などを見ながらであっても、容易に、装置
を使用することができる。さらに、この場合、ユーザ
は、マイク54が取り付けられた筆記具81を口元に移
動して発話を行うことにより、マイク54に混入する雑
音を低減することができる。
【0109】次に、図8の実施例では、マイク54は、
本体52とスピーカ53とを接続する接続線の途中に取
り付けられており、これにより、スピーカ53をユーザ
の耳に装着したときに、マイク54が、ユーザの口元に
位置するようになされている。
【0110】図9の実施例では、スピーカ53およびマ
イク54によりヘッドセットが構成されている。即ち、
ユーザの頭部に装着される装着部91には、スピーカ5
3が設けられている。なお、スピーカ53は、装着部9
1がユーザの頭部に装着されたときに、そのユーザの耳
の部分に位置するように取り付けられている。さらに、
装着部91には、アーム92の一端が取り付けられてお
り、その他端には、マイク54が設けられている。な
お、アーム92は、装着部91がユーザの頭部に装着さ
れたときに、その先端に設けられたマイク54が、ユー
ザの口の前に位置するように構成されている。
【0111】図10の実施例では、スピーカ53とマイ
ク54とが、所定の接続線により接続されており、これ
により、スピーカ53をユーザの耳に装着したときに、
マイク54が、ユーザの口元に位置するようになされて
いる。さらに、この場合、マイク54には、データの送
受を無線で行うための通信装置54Aが設けられている
とともに、本体52にも、同様の通信装置52Aが設け
られており、これにより、本体52と、スピーカ53お
よびマイク54との間において、信号のやりとりを無線
で行うことができるようになされている。
【0112】図8乃至図10の実施例においても、図7
の実施例における場合と同様に、スピーカ53が、ユー
ザの耳に装着されているので、環境雑音のレベルが大き
い場所において装置を使用する場合であっても、容易
に、合成音を聞き取ることがことができる。さらに、マ
イク54は、スピーカ53をユーザの耳に取り付けたと
きに、その口元に位置するようになされているので、マ
イク54に混入する雑音を低減することができる。
【0113】なお、第3実施例においては、CPU65
に翻訳処理を行われるようにしたが、ROM66に記憶
させるアプリケーションプログラムを変更することによ
って、CPU65には、種々の情報処理を行わせるよう
にすることが可能である。
【0114】さらに、第3実施例においては、本体52
と分離したマイクとスピーカとを1組だけ設けるように
したが、このようなマイクとスピーカとは、第1実施例
および第2実施例で説明したように、複数セット設ける
ようにすることも可能である。
【0115】また、以上の実施例では、日本語と英語と
の間の翻訳を行うようにしたが、翻訳の対象とする言語
は、日本語および英語に限定されるものではない。さら
に、翻訳処理は、例えば文単位や、単語単位などの任意
の単位で行わせるようにすることが可能である。
【0116】
【発明の効果】請求項1に記載の翻訳装置によれば、音
声を入力する入力手段が、複数設けられている。従っ
て、複数のユーザは、各入力手段を使用することができ
るので、装置の利便性を向上させることができる。
【0117】請求項10に記載の翻訳装置によれば、入
出力部と本体とが、分離して設けられている。従って、
入出力部を、ユーザが使用し易い位置に、容易に移動さ
せることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した翻訳装置の第1実施例の構成
を示すブロック図である。
【図2】図1の翻訳装置に接続可能なヘッドセットを示
す図である。
【図3】図1の翻訳装置に接続可能なイヤーセットを示
す図である。
【図4】本発明を適用した翻訳装置の第2実施例の構成
を示すブロック図である。
【図5】本発明を適用した翻訳装置の第3実施例の外観
構成を示す図である。
【図6】図5の翻訳装置の電気的構成例を示すブロック
図である。
【図7】図5の翻訳装置の使用状態を示す図である。
【図8】図5の翻訳装置の使用状態を示す図である。
【図9】図5の翻訳装置の使用状態を示す図である。
【図10】図5の翻訳装置の使用状態を示す図である。
【図11】従来の翻訳装置の一例の構成を示すブロック
図である。
【図12】従来の翻訳装置の他の一例の構成を示す平面
図である。
【符号の説明】
1A,1B マイク, 2A,2B スピーカ, 3乃
至6 スイッチ, 7A,7B コネクタ, 8 音声
認識部, 9 翻訳部, 10 音声合成部,11 制
御部, 12 LCD表示部, 13 メモリカード,
14 キースイッチ部, 22 スピーカ, 24
マイク, 31 スピーカ, 33マイク, 43 電
話部, 44 MD部, 52 本体, 52A 通信
装置, 53 スピーカ, 54 マイク, 54A
通信装置, 62 音声認識回路, 65 CPU,
68 音声合成回路, 81 筆記具
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 551 G06F 15/20 592A 15/38 V

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 音声を入力する入力手段と、 前記入力手段に入力された前記音声を音声認識する音声
    認識手段と、 前記音声認識手段の音声認識結果を、前記入力手段に入
    力された音声の言語と異なる言語に翻訳する翻訳手段
    と、 前記翻訳手段の翻訳結果を出力する出力手段とを備える
    翻訳装置であって、 前記入力手段は、複数設けられていることを特徴とする
    翻訳装置。
  2. 【請求項2】 前記入力手段は、所定の方向に指向性を
    有するマイクロフォンであることを特徴とする請求項1
    に記載の翻訳装置。
  3. 【請求項3】 前記翻訳手段の翻訳結果に対応する合成
    音を生成する生成手段をさらに備え、 前記出力手段は、前記生成手段により生成される前記合
    成音を出力することを特徴とする請求項1に記載の翻訳
    装置。
  4. 【請求項4】 前記出力手段は、複数設けられているこ
    とを特徴とする請求項3に記載の翻訳装置。
  5. 【請求項5】 前記入力手段および出力手段は、ユーザ
    の頭部に装着可能になされていることを特徴とする請求
    項4に記載の翻訳装置。
  6. 【請求項6】 前記複数の入力手段および出力手段のう
    ちの少なくとも1組は、外部から接続可能になされてい
    ることを特徴とする請求項4に記載の翻訳装置。
  7. 【請求項7】 所定の端末との通信を制御する通信制御
    手段をさらに備えることを特徴とする請求項1に記載の
    翻訳装置。
  8. 【請求項8】 前記音声認識手段は、前記通信制御手段
    により受信される音声も音声認識し、 前記翻訳手段は、前記通信制御手段により受信された音
    声の、前記音声認識手段による音声認識結果も、その音
    声の言語と異なる言語に翻訳することを特徴とする請求
    項7に記載の翻訳装置。
  9. 【請求項9】 情報を再生する再生手段をさらに備え、 前記出力手段は、前記再生手段により再生される前記情
    報も出力することを特徴とする請求項1に記載の翻訳装
    置。
  10. 【請求項10】 音声を入力する入力手段と、 所定の情報に対応する合成音を出力する出力手段とを有
    する入出力部と、 前記入力手段に入力された前記音声を音声認識する音声
    認識手段と、 前記音声認識手段の音声認識結果を、前記入力手段に入
    力された音声の言語と異なる言語に翻訳する翻訳手段
    と、 前記翻訳手段により出力される翻訳結果に対応する合成
    音を生成し、前記出力手段に供給する生成手段とを有す
    る本体とを備え、 前記入出力部と本体とは、分離して設けられていること
    を特徴とする翻訳装置。
  11. 【請求項11】 前記入出力部と本体との間では、デー
    タの送受が無線で行われることを特徴とする請求項10
    に記載の翻訳装置。
  12. 【請求項12】 前記入力手段は、筆記具に取り付け可
    能になされていることを特徴とする請求項10に記載の
    翻訳装置。
  13. 【請求項13】 前記入出力部は、ユーザの頭部に装着
    可能になされていることを特徴とする請求項10に記載
    の翻訳装置。
  14. 【請求項14】 前記出力手段は、所定の接続線を介し
    て前記本体と接続されており、 前記入力手段は、前記所定の接続線の途中に取り付けら
    れていることを特徴とする請求項10に記載の翻訳装
    置。
JP8106746A 1996-04-26 1996-04-26 翻訳装置 Pending JPH09292971A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8106746A JPH09292971A (ja) 1996-04-26 1996-04-26 翻訳装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8106746A JPH09292971A (ja) 1996-04-26 1996-04-26 翻訳装置

Publications (1)

Publication Number Publication Date
JPH09292971A true JPH09292971A (ja) 1997-11-11

Family

ID=14441493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8106746A Pending JPH09292971A (ja) 1996-04-26 1996-04-26 翻訳装置

Country Status (1)

Country Link
JP (1) JPH09292971A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308198A (ja) * 1999-02-16 2000-11-02 Gm & M:Kk 補聴器
JP2002123282A (ja) * 2000-10-17 2002-04-26 Brother Ind Ltd 翻訳装置および記録媒体
JP2002330194A (ja) * 2001-04-27 2002-11-15 Kenwood Corp 電話装置、音声合成システム、音素情報登録装置、音素情報登録・音声合成装置
US7676372B1 (en) 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
JP2013073355A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 対話支援装置、方法及びプログラム
JP2013164515A (ja) * 2012-02-10 2013-08-22 Toshiba Corp 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
WO2018008227A1 (ja) * 2016-07-08 2018-01-11 パナソニックIpマネジメント株式会社 翻訳装置および翻訳方法
JP2018018052A (ja) * 2016-07-13 2018-02-01 株式会社富士通ソーシアルサイエンスラボラトリ 端末装置、翻訳方法、及び、翻訳プログラム
KR20190005617A (ko) * 2017-07-07 2019-01-16 윤성용 다중 화자용 통번역기
CN109637555A (zh) * 2019-02-15 2019-04-16 广东科学技术职业学院 一种商务会议用日语语音识别翻译***
JP2020091472A (ja) * 2018-12-06 2020-06-11 イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. 双方向通訳システム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308198A (ja) * 1999-02-16 2000-11-02 Gm & M:Kk 補聴器
US7676372B1 (en) 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
JP4439740B2 (ja) * 1999-02-16 2010-03-24 有限会社ジーエムアンドエム 音声変換装置及び方法
JP2002123282A (ja) * 2000-10-17 2002-04-26 Brother Ind Ltd 翻訳装置および記録媒体
JP2002330194A (ja) * 2001-04-27 2002-11-15 Kenwood Corp 電話装置、音声合成システム、音素情報登録装置、音素情報登録・音声合成装置
JP2013073355A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 対話支援装置、方法及びプログラム
JP2013164515A (ja) * 2012-02-10 2013-08-22 Toshiba Corp 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
WO2018008227A1 (ja) * 2016-07-08 2018-01-11 パナソニックIpマネジメント株式会社 翻訳装置および翻訳方法
JPWO2018008227A1 (ja) * 2016-07-08 2018-08-16 パナソニックIpマネジメント株式会社 翻訳装置および翻訳方法
JP2018018052A (ja) * 2016-07-13 2018-02-01 株式会社富士通ソーシアルサイエンスラボラトリ 端末装置、翻訳方法、及び、翻訳プログラム
JP2018018053A (ja) * 2016-07-13 2018-02-01 株式会社富士通ソーシアルサイエンスラボラトリ 端末装置、翻訳方法、及び、翻訳プログラム
KR20190005617A (ko) * 2017-07-07 2019-01-16 윤성용 다중 화자용 통번역기
JP2020091472A (ja) * 2018-12-06 2020-06-11 イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. 双方向通訳システム
CN109637555A (zh) * 2019-02-15 2019-04-16 广东科学技术职业学院 一种商务会议用日语语音识别翻译***
CN109637555B (zh) * 2019-02-15 2022-05-24 广东科学技术职业学院 一种商务会议用日语语音识别翻译***

Similar Documents

Publication Publication Date Title
US7292880B2 (en) Hands-free function
KR100804855B1 (ko) 음성으로 제어되는 외국어 번역기용 방법 및 장치
US8498425B2 (en) Wearable headset with self-contained vocal feedback and vocal command
CA1312668C (en) Method for entering digit sequences by voice command
US6985913B2 (en) Electronic book data delivery apparatus, electronic book device and recording medium
EP1101219A1 (en) Wearable telecommunications apparatus with voise/speech control features
KR100259918B1 (ko) 핸즈프리키트의 쇼트메시지 음성합성 장치 및 방법
JPH09292971A (ja) 翻訳装置
JP2001308977A (ja) 電気音響変換装置、耳装着型電子装置、及び放音再生システム
CN101242440A (zh) 一种带语音复读功能的手机
JP2002027039A (ja) 通信通訳システム
KR100807778B1 (ko) 학습 보조 장치
JPH05199578A (ja) 音声入力装置と遮音マスクの組合せ装置
JPH026101B2 (ja)
KR19990046770A (ko) 송,수화기능을갖는핸드폰용이어폰
JP2003509712A (ja) スピーチ情報の無線送受信のための個人用情報システム
JPS6270972A (ja) 電子翻訳機
KR100684519B1 (ko) 카오디오용 음성 인식 핸즈프리 장치 및 이를 구비하는카오디오
JPS61228573A (ja) 電子通訳機
JP2000184077A (ja) ドアホンシステム
JP2000231558A (ja) 通信装置、通信方法及び通信制御プログラムを記録した記録媒体
KR200341366Y1 (ko) 휴대형 음악감상용 단말기 및 그에 결합되는 스캐너 장치
KR100538111B1 (ko) 휴대용 엠피쓰리 체인저
RU2571588C2 (ru) Электронное устройство для автоматического перевода устной речи с одного языка на другой
JP2002259373A (ja) 辞書装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041102