JP2002304392A - 音声翻訳システム - Google Patents

音声翻訳システム

Info

Publication number
JP2002304392A
JP2002304392A JP2001105349A JP2001105349A JP2002304392A JP 2002304392 A JP2002304392 A JP 2002304392A JP 2001105349 A JP2001105349 A JP 2001105349A JP 2001105349 A JP2001105349 A JP 2001105349A JP 2002304392 A JP2002304392 A JP 2002304392A
Authority
JP
Japan
Prior art keywords
language
voice
speech
translation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001105349A
Other languages
English (en)
Inventor
Takeshi Matsuda
猛 松田
Atsushi Nishino
敦士 西野
Gruhn Rainer
グルーン ライナー
Satoru Nakamura
哲 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR ONSEI GENGO TSUSHIN KENKYU
ATR Spoken Language Translation Research Laboratories
Original Assignee
ATR ONSEI GENGO TSUSHIN KENKYU
ATR Spoken Language Translation Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR ONSEI GENGO TSUSHIN KENKYU, ATR Spoken Language Translation Research Laboratories filed Critical ATR ONSEI GENGO TSUSHIN KENKYU
Priority to JP2001105349A priority Critical patent/JP2002304392A/ja
Publication of JP2002304392A publication Critical patent/JP2002304392A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】 【構成】 互いに異なる言語を母国語(使用言語)とす
る2人の話者が通信ネットワーク40を介して会話をす
るとき、各々の話者の発話音声は、音声翻訳システム1
0によって取り込まれる。音声翻訳システム10は、取
り込まれた発話音声に基づいて各々の話者の母国語が特
定し、特定した母国語に基づいて発話音声を翻訳し、そ
して翻訳された合成音声を各々の話者に伝える。 【効果】 オペレータを介在させることなく、翻訳音声
による会話を成立させることができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、音声翻訳システ
ムに関し、特にたとえば、互いに異なる言語を使用する
2人の話者の間で通信回線を介して行なわれる会話を翻
訳(通訳)する、音声翻訳システムに関する。
【0002】
【従来技術】従来のこの種の音声翻訳システムとして
は、各々の話者の発話音声に音声認識,言語翻訳および
音声合成の一連の翻訳処理を施し、合成音声を相手方に
伝えるものがあった。
【0003】
【発明が解決しようとする課題】しかし、従来技術は、
予め決定された2つの言語間での翻訳を前提としてお
り、翻訳先の言語を変更するにはオペレータを介在させ
る必要があった。
【0004】それゆえに、この発明の主たる目的は、オ
ペレータを介在させることなく任意の言語間で翻訳を行
なうことができる、音声翻訳システムを提供することで
ある。
【0005】
【課題を解決するための手段】この発明は、互いに異な
る言語を使用する複数の話者の間で通信回線を介して行
なわれる会話を翻訳する音声翻訳システムにおいて、各
々の話者の発話音声を取り込む取り込み手段、発話音声
の特徴を抽出する抽出手段、発話音声の特徴に基づいて
各々の話者の使用言語を特定する特定手段、発話音声の
内容を認識する認識手段、発話音声の内容を特定手段に
よる特定結果に基づいて翻訳する翻訳手段、翻訳手段に
よる翻訳結果に基づいて合成音声を作成する作成手段、
および合成音声を出力する出力手段を備えることを特徴
とする、音声翻訳システムである。
【0006】
【作用】互いに異なる言語を使用する複数の話者の発話
音声は取り込み手段によって取り込まれる。発話音声の
特徴は抽出手段によって抽出され、特定手段は、抽出さ
れた特徴に基づいて各々の話者の使用言語を特定する。
また、発話音声の内容は認識手段によって認識され、翻
訳手段は、認識された内容を特定手段による特定結果に
基づいて翻訳する。合成手段は翻訳結果に基づいて合成
音声を作成し、作成された合成音声は出力手段によって
出力される。これによって、オペレータが介在すること
なく、各々の話者の間で通信回線を介した会話が成立す
る。
【0007】好ましくは、各々の話者の電話番号が、電
話番号検出手段によって検出され、各々の話者が属する
国が、当該電話番号に基づいて国検出手段によって検出
される。音声案内手段は、発話音声の取り込みに先立っ
て、検出された国の公用語で音声案内を行なう。このと
き、特定手段は、音声案内に対する返事に基づいて各々
の話者の使用言語を特定する。
【0008】さらに好ましくは、音声案内に対して返事
がないと、音声案内の言語が変更手段によって変更され
る。音声案内に対して肯定的な返事があると、決定手段
が、現時点の音声案内の言語を返事をした話者の使用言
語として決定する。
【0009】特定された使用言語を示す使用言語情報を
メモリに格納する場合、翻訳手段はメモリに格納された
使用言語情報に従って翻訳を行なう。
【0010】発話音声が取り込まれる毎に発話元の使用
言語を特定する場合、発話音声の取り込む毎に特定され
た使用言語情報によってメモリを更新するようにしても
よい。
【0011】
【発明の効果】この発明によれば、取り込まれた発話音
声の特徴に基づいて各々の話者の使用言語を特定するよ
うにしたため、オペレータが介在しなくても、通信回線
を介して翻訳音声による会話を行なうことができる。
【0012】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0013】
【実施例】図1を参照して、この実施例の音声翻訳シス
テム10は、インターネットのような通信ネットワーク
40に接続される。通信ネットワーク40には、複数の
電話機20および30も接続される。ここで、電話機2
0はたとえば日本国内に設置され、日本国在住の日本人
Aによって使用される。また、電話機30はたとえば米
国内に設置され、米国在住のドイツ人Bによって使用さ
れる。
【0014】日本人Aが音声翻訳システム10を利用し
てドイツ人Bと会話したいとき、日本人Aは、まず音声
翻訳システム10にアクセスする。ドイツ人Bに対する
発呼処理は音声翻訳システム10によって行なわれ、ド
イツ人Bが応答すると、通話可能状態となる。日本人A
の発話音声は日本語からドイツ語に翻訳され、翻訳され
た合成音声がドイツ人Bに伝えられる。逆に、ドイツ人
Bの発話音声はドイツ語から日本語に翻訳され、翻訳さ
れた合成音声が日本人Aに伝えられる。
【0015】図2を参照して、音声翻訳システム10
は、統合管理システム10a,データベースサーバ10
b,複数の音声認識システム10c,10c,…,複数
の言語翻訳システム10d,10d,…および複数の音
声合成システム10e,10e,…およびモデム10f
からなる。この音声翻訳システム10は、分散ネットワ
ークによって構成され、音声認識システム10cによる
音声認識,言語翻訳システム10dによる言語翻訳,お
よび音声合成システム10eによる音声合成によって、
発話音声の翻訳が実現される。
【0016】具体的には、各々の話者(日本人Aおよび
ドイツ人B)の発話音声の内容は、音声認識システム1
0cによって認識される。音声認識システム10はま
た、発話音声の特徴を抽出し、発話元の音声母国語(日
本人Aについては日本語、ドイツ人Bについてはドイツ
語),声質および性別を特定する。特定された母国語情
報,声質情報および性別情報は、データベースサーバ1
0bに登録される。
【0017】言語翻訳システム10dは、認識された発
話音声の内容をデータベースサーバ10bに登録された
母国語情報に基づいて翻訳する。日本人Aについては母
国語情報“日本語”がデータベースサーバ10bに登録
され、日本人Aについては母国語情報“日本語”がデー
タベースサーバ10bに登録される。このため、日本人
Aの発話音声の内容は言語翻訳システム10dによって
ドイツ語に翻訳され、また逆にドイツ国人Bの発話音声
の内容は言語翻訳システム10dによって日本語に翻訳
される。
【0018】音声合成システム10eは、言語翻訳シス
テム10dによる翻訳内容とデータベースサーバ10b
に登録された声質情報および性別情報に基づいて合成音
声を作成し、作成した合成音声を各々の話者に伝える。
日本人Aが高い声で話す女性であれば、女性らしい口調
でかつキーの高いドイツ語の合成音声がドイツ人Bに伝
えられる。また、ドイツBが低い声で話す男性であれ
ば、男性らしい口調でかつキーの低い日本語の合成音声
が日本人Aに伝えられる。
【0019】音声認識システム10c,言語翻訳システ
ム10d,音声合成システム10eおよびデータベース
サーバ10bは、統合管理システム10aによって管理
される。モデム10fを通してアクセスがあると、統合
管理システム10がこれらのシステムおよびサーバを制
御し、利用者に翻訳サービスを提供する。統合管理シス
テム10aは、具体的には図3〜図8に示すフロー図を
処理する。
【0020】音声翻訳システム10へのアクセス要求に
は発呼元の電話番号情報が含まれる。このため、まずス
テップS1でアクセス要求から電話番号情報を取得し、
続くステップS3では検出された電話番号情報に基づい
て発呼元の国情報を検出する。日本人Aが電話機20を
用いて音声翻訳システム10にアクセスした場合、電話
番号情報には国番号“81”が含まれる。ステップS3
では、この国番号“81”から発呼元の国を日本と特定
する。ステップS5ではこうして得られた発呼元の電話
番号情報および国情報を内部メモリに保持し、ステップ
S7では、保持された国情報から発呼者の母国語(発呼
者が属する国の公用語)を仮決定する。発呼者が日本人
Aであるとき、ステップS7では日本語が母国語として
仮決定される。
【0021】ステップS9では、仮決定された母国語で
発呼者に音声ガイダンスを行なう。仮決定された母国語
が日本語であれば、“こちらはATR音声言語通信研究
所の提供する自動音声翻訳サービスです。あなたがお話
になる言語は日本語ですか?”という内容の合成音声が
発呼者に伝えられる。音声ガイダンスを終えると、ステ
ップS11で発呼者からの音声入力があったかどうか判
断するとともに、ステップS13で所定時間が経過した
かどうか判断する。所定期間内に音声入力がなかったと
きは、発呼者の母国語は仮決定母国語と異なるとみな
し、ステップS15で仮決定母国語をたとえば英語に変
更してからステップS9に戻る。ステップS9では、変
更された言語すなわち英語による音声ガイダンスが行な
われる。
【0022】発呼者から音声入力があったときは、音声
認識システム10cを制御してステップS17〜S21
の処理を行なう。まずステップS17で、入力された発
話音声の特徴を抽出する。ステップS19では抽出され
た特徴から発話者の母国語,声質および性別を特定し、
特定した母国語情報,声質情報および性別情報を発呼元
の電話番号情報および国情報と関連付けてデータベース
サーバ10bに登録する。ステップS21では、入力さ
れた発話音声を認識して音声ガイダンスに対する返事を
取得する。
【0023】取得した返事が“はい、そうです”などの
肯定的な返事であれば、ステップS23でYESと判断
し、ステップS31に進む。これに対して、返事が否定
的であればステップS25に進み、返事から発話者の言
語を決定できるかどうか判断する。返事の内容が単に
“いいえ”であれば、ステップS25でNOと判断し、
ステップS15で仮決定母国語を変更してからステップ
S9に戻る。一方、返事が“いいえ、英語です”のよう
に母国語を決定できる言葉が入っていれば、ステップS
25でYESと判断し、ステップS27でデータベース
サーバ10bの母国語情報を更新してからステップS3
1に進む。
【0024】ステップS31では通話相手の電話番号の
入力を促す音声ガイダンスを行なう。具体的には、デー
タベースサーバ10bに登録された母国語情報に従う言
語で、“相手先の電話番号を国番号から言ってください
?”との音声メッセージを出力する。ステップS33で
はこの音声メッセージに対して音声入力があったかどう
か判断し、ステップS35では所定期間が経過したかど
うか判断する。発呼者から応答がないまま所定期間が経
過したときは、ステップS35でYESと判断し、ステ
ップS31に戻る。このため、同じ音声メッセージが再
度出力される。
【0025】一方、発呼者の発話音声が入力されると、
ステップS33でYESと判断し、音声認識システム1
0cを用いてステップS37〜41の処理を行なう。ス
テップS37では発話音声の特徴を抽出し、ステップS
39では抽出された特徴から特定した発話者の母国語情
報,声質情報および性別情報をデータベースサーバ10
bに登録する。つまり、データベースサーバ10bに登
録された母国語情報,声質情報および性別情報は、発話
音声が入力される毎に更新される。
【0026】ステップS41では入力された発話音声を
認識して相手方の電話番号情報を取得し、続くステップ
S43では取得した電話番号情報の正当性を判断する。
電話番号情報に国番号が含まれていないような場合、こ
のステップでNOと判断され、ステップS31に戻る。
一方、電話番号情報が正当であれば、ステップS45に
進み、電話番号を確認するための音声ガイダンスを行な
う。具体的には、データベースサーバ10bに登録され
た母国語情報に従う言語で、“相手先の電話番号は、○
○○−××××−△△△△△ですね?”との音声メッセ
ージを出力する。
【0027】ステップS47ではこの音声メッセージに
対して音声入力があったかどうか判断し、ステップS4
9では所定期間が経過したかどうか判断する。所定期間
にわたって返事がないときはステップS49でYESと
判断し、ステップS45に戻る。一方、発呼者から音声
による返事があるとステップS47でYESと判断し、
音声認識システム10cを用いてステップS51〜55
の処理を行なう。ステップS51では、返事を形成する
音声から特徴を抽出する。ステップS53では、抽出さ
れた特徴から発話者の母国語情報,声質情報および性別
情報を特定し、特定した情報によってデータベースサー
バ10bを更新する。ステップS53の処理が完了する
と、ステップS55で返事の内容を認識する。
【0028】ステップS57では認識した音声が肯定的
であるかどうか判断し、“いいえ”のような否定的な返
事であれば、ステップS31に戻る。これによって、電
話番号の入力を案内する音声ガイダンスからの一連の処
理が繰り返される。一方、“はい、そうです”のような
肯定的な返事が取得されたときは、ステップS57から
ステップS59に進み、ステップS41で取得した電話
番号情報から通話相手の国情報を検出する。電話番号情
報に含まれる国番号が“1”であれば、通話相手の属す
る国は米国とされる。続いて、ステップS61で通話相
手の電話番号情報および国情報を内部メモリに保持し、
ステップS63で通話相手の母国語(通話相手が属する
国の公用語)を仮決定する。通話相手の属する国が米国
であれば、通話相手の母国語は英語と仮決定される。
【0029】ステップS65では、通話相手の名前の入
力を促がす音声ガイダンスを行なう。発呼者には、発呼
者の母国語で“相手先の名前を言ってください?”との
音声メッセージが伝えられる。ステップS67ではこの
音声メッセージに対して音声による返事があったかどう
か判断し、ステップS69では所定期間が経過したかど
うか判断する。返事がないまま所定期間が経過すると、
ステップS69でYESと判断し、再度の音声ガイダン
スを行なうべくステップS65に戻る。
【0030】一方、発呼者から返事があったときは、ス
テップS67でYESと判断し、音声認識システム10
cを用いてステップS71〜75の処理を行なう。ステ
ップS71では発話音声の特徴を抽出し、ステップS7
3では抽出された特徴から特定した母国語情報,声質情
報および性別情報によってデータベースサーバ10bを
更新し、ステップS75では発話音声の認識処理によっ
て通話相手の名前を取得する。
【0031】こうして通話相手の電話番号情報および名
前の取得が完了すると、ステップS77およびS79で
通話相手がデータベースサーバ10bに登録されていな
いかどうか判別する。具体的には、通話相手の電話番号
情報をキーワードとしてデータベースサーバ10bを検
索し、同じ電話番号情報を発見できたかどうかステップ
S79で判断する。電話番号情報を発見できなかったと
きはそのままステップS85に進むが、電話番号情報を
発見できたときは、ステップS81でデータベースサー
バ10bから通話相手の母国語情報を取得し、ステップ
S83で通話相手の仮決定母国語を変更してからステッ
プS85に進む。たとえばステップS63で仮決定され
た母国語が英語であり、データベースサーバ10bから
取得された母国語情報がドイツ語であれば、仮決定母国
語が英語からドイツ語に変更される。
【0032】ステップS85では通話相手への発呼処理
を行ない、ステップS87では回線状態がOKかどうか
を、ステップS89では相手方から応答があったかどう
かをそれぞれ判断する。回線状態がビジー(話し中)で
あるか、相手方からの応答がないときは、ステップS8
7またはS89からステップS107に進む。ステップ
S107では、通話不能であることを案内するための音
声ガイダンスを行なう。具体的には、回線状態がビジー
であれば“相手方の電話は使用中です”との音声メッセ
ージが出力され、応答がないときは“相手方からの応答
がありません”との音声メッセージが出力される。これ
に対して発呼者が電話回線を切断すると、ステップS1
09でYESと判断し、処理を終了する。
【0033】これに対して、回線状態がOKでかつ相手
方から応答があると、ステップS87およびS89でY
ESと判断し、ステップS91でサービス案内のための
音声ガイダンスを行なう。このとき、ステップS75で
取得した相手方の名前を用いられる。具体的には、仮決
定された母国語で“こちらはATR音声言語通信研究所
の提供する自動音声翻訳サービスです。あなたはシュレ
ーダさんですか?”との音声メッセージが相手方に伝え
られる。
【0034】ステップS93ではこの音声メッセージに
対して音声による返事があったかどうか判断し、ステッ
プS95では所定期間が経過したかどうか判断する。返
事がないまま所定期間が経過すると、ステップS95で
YESと判断し、ステップS97で仮決定母国語を変更
してからステップS91に戻る。一方、相手方から返事
があったときは、ステップS93でYESと判断し、ス
テップS99で音声認識システム10cを用いて返事の
内容を認識するとともに、ステップS101で認識した
返事が肯定的であるか肯定的であるかを判断する。
【0035】ここで、返事が“シュレーダは不在です”
のような否定的な返事であれば、ステップS101から
ステップS107に進み、“シュレーダさんは不在だそ
うです”との音声メッセージを発呼者に伝える。これに
対して、返事が“はい、そうです”のような肯定的な返
事であればステップS101でYESと判断し、音声認
識システム10cを用いてステップS103およびS1
05の処理を行なう。ステップS103では発話音声の
特徴を抽出し、ステップS105では抽出された特徴か
ら特定した母国語情報,声質情報および性別情報をデー
タベースサーバ10bに登録または更新する。
【0036】つまり、通話相手がデータベースサーバ1
0bに登録済みであれば、特定した母国語情報,声質情
報および性別情報によってデータベースサーバ10bを
更新し、通話相手が未登録であれば、特定した母国語情
報,声質情報および性別情報をステップS61で保持し
た通話相手の電話番号情報および国情報と関連付けてデ
ータベースサーバ10bに登録する。
【0037】こうして発呼者および通話相手の両方の母
国語が特定され、かつ通話可能状態となると、ステップ
S111でサービス開始を案内するための音声ガイダン
スを行なう。具体的には、“それではお話しください”
との音声メッセージを発呼者および通話相手の両方に伝
える。これによって、双方の会話が開始される。
【0038】ステップS113では一方の話者の発話音
声を取り込み、ステップS115では音声認識システム
10cを用いて発話音声の特徴を抽出する。続くステッ
プS117では、抽出された特徴に基づいて発話者の母
国語,声質および性別を特定し、特定した母国語情報,
声質情報および性別情報によってデータベースサーバ1
0bの登録済み情報を更新する。つまり、会話が開始さ
れた後も、発話音声を入力する毎にデータベースサーバ
10bの母国語情報,声質情報および性別情報が更新さ
れる。
【0039】ステップS119では、取り込まれた発話
音声の内容を音声認識システム10cを用いて認識し、
かつ認識した内容を言語翻訳システム10dを用いて他
方の話者の母国語に翻訳する。このとき、翻訳先の言語
は、データベースサーバ10bに登録された他方の話者
の母国語情報によって決定される。
【0040】翻訳処理が完了すると、音声合成システム
10eを用いてステップS121およびS123を処理
する。ステップS121では翻訳内容の合成音声を作成
し、ステップS123では作成された合成音声を再生す
る。再生された合成音声は、他方の話者に伝えられる。
【0041】ステップS125では、いずれかの話者が
電話回線を切断したかどうか判断し、NOであればステ
ップS113に戻る。これによって、各々の話者が発話
する毎に発話音声が翻訳され、翻訳された合成音声が相
手方に伝えられる。つまり、翻訳された合成音声を用い
た会話が継続して行なわれる。一方の話者が電話回線を
切断するとステップS125からステップS127に進
み、回線の切断を案内する音声ガイダンスが行なわれ
る。つまり、“相手方が電話を切りましたのでサービス
を終了します、ご利用ありがとうございました”との音
声メッセージが他方の話者に伝えられる。これに対し
て、他方の話者が回線を切断すると、ステップS129
でYESと判断し、処理を終了する。
【0042】以上の説明から分かるように、互いに異な
る言語を母国語(使用言語)とする2人の話者が通信ネ
ットワーク40を介して会話をするとき、各々の話者の
発話音声は、音声翻訳システム10によって取り込まれ
る。音声翻訳システム10は、取り込まれた発話音声に
基づいて各々の話者の母国語を特定し、特定した母国語
に基づいて発話音声を翻訳し、そして翻訳された合成音
声を各々の話者に伝える。
【0043】各々の話者の母国語を特定するとき、まず
電話番号に基づいて各々の話者の属する国が検出され、
検出された国の公用語によって音声案内が行なわれる。
母国語は、この音声案内に対する返事に基づいて特定さ
れる。ただし、検出された国の公用語と話者の母国語と
が一致しない場合もあるため、音声案内に対する返事が
ないときは、音声案内の言語が変更される。音声案内に
対して肯定的な返事があったときは、この現点の音声案
内の言語が母国語として特定される。
【0044】特定された母国語情報はデータベースサー
バ10bに登録され、言語翻訳はデータベースサーバ1
0bに登録された母国語情報に従って行なわれる。ま
た、各々の話者の母国語の特定は、発話音声が取り込ま
れる毎に行なわれる。データベースサーバ10bに登録
された母国語情報は、母国語が特定される毎に更新され
る。
【0045】したがって、オペレータを介在させなくて
も母国語が異なる話者の間で会話を行なうことができ、
さらに会話の途中での突然の話者の変更にも対応するこ
とができる。
【図面の簡単な説明】
【図1】音声翻訳システムおよび複数の電話機が通信ネ
ットワークに接続された状態を示す図解図である。
【図2】音声翻訳システムの構成の一例を示す図解図で
ある。
【図3】音声翻訳システムの動作の一部を示すフロー図
である。
【図4】音声翻訳システムの動作の他の一部を示すフロ
ー図である。
【図5】音声翻訳システムの動作のその他の一部を示す
フロー図である。
【図6】音声翻訳システムの動作のさらにその他の一部
を示すフロー図である。
【図7】音声翻訳システムの動作の他の一部を示すフロ
ー図である。
【図8】音声翻訳システムの動作のその他の一部を示す
フロー図である。
【符号の説明】
10…音声翻訳システム 10a…統合管理システム 10b…データベースサーバ 10c…音声合成システム 10d…言語翻訳システム 10e…音声認識システム 10f…モデム 20,30…電話機 40…通信ネットワーク
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 551C 531K (72)発明者 西野 敦士 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 (72)発明者 ライナー グルーン 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 (72)発明者 中村 哲 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 Fターム(参考) 5B091 AA03 CB12 CB32 DA02 5D015 AA06 KK02 KK04 5D045 AB03

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】互いに異なる言語を使用する複数の話者の
    間で通信回線を介して行なわれる会話を翻訳する音声翻
    訳システムにおいて、 各々の前記話者の発話音声を取り込む取り込み手段、 前記発話音声の特徴を抽出する抽出手段、 前記発話音声の特徴に基づいて各々の前記話者の使用言
    語を特定する特定手段、 前記発話音声の内容を認識する認識手段、 前記発話音声の内容を前記特定手段による特定結果に基
    づいて翻訳する翻訳手段、 前記翻訳手段による翻訳結果に基づいて合成音声を作成
    する作成手段、および前記合成音声を出力する出力手段
    を備えることを特徴とする、音声翻訳システム。
  2. 【請求項2】各々の前記話者の電話番号を検出する電話
    番号検出手段、 前記電話番号に基づいて各々の前記話者が属する国を検
    出する国検出手段、および前記国検出手段によって検出
    された国の公用語で音声案内をする音声案内手段をさら
    に備え、 前記特定手段は前記音声案内に対する返事に基づいて前
    記使用言語を特定する第1言語特定手段を含む、請求項
    1記載の音声翻訳システム。
  3. 【請求項3】前記第1言語特定手段は、前記音声案内に
    対して返事がないとき前記音声案内の言語を変更する変
    更手段、および前記音声案内に対して肯定的な返事があ
    ったとき現時点の前記音声案内の言語を前記使用言語と
    して決定する決定手段を含む、請求項2記載の音声翻訳
    システム。
  4. 【請求項4】前記特定手段は前記第1言語特定手段によ
    って特定された前記使用言語を示す使用言語情報をメモ
    リに格納する格納手段をさらに含み、 前記翻訳手段は前記メモリに格納された前記使用言語情
    報に従って翻訳を行なう、請求項2または3記載の音声
    翻訳システム。
  5. 【請求項5】前記特定手段は、前記発話音声が取り込ま
    れる毎に発話元の前記使用言語を特定する第2言語特定
    手段、および前記第2言語特定手段によって特定された
    前記使用言語を示す使用言語情報によって前記メモリを
    更新する更新手段をさらに含む、請求項4記載の音声翻
    訳システム。
JP2001105349A 2001-04-04 2001-04-04 音声翻訳システム Withdrawn JP2002304392A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001105349A JP2002304392A (ja) 2001-04-04 2001-04-04 音声翻訳システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001105349A JP2002304392A (ja) 2001-04-04 2001-04-04 音声翻訳システム

Publications (1)

Publication Number Publication Date
JP2002304392A true JP2002304392A (ja) 2002-10-18

Family

ID=18958056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001105349A Withdrawn JP2002304392A (ja) 2001-04-04 2001-04-04 音声翻訳システム

Country Status (1)

Country Link
JP (1) JP2002304392A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248002A (ja) * 2010-05-25 2011-12-08 Fujitsu Toshiba Mobile Communications Ltd 翻訳装置
JP2012079330A (ja) * 2011-12-01 2012-04-19 Olympus Imaging Corp ガイド装置およびガイド方法
JP2019146055A (ja) * 2018-02-22 2019-08-29 クラリオン株式会社 通話装置、及び通話装置の制御方法
JP2020003591A (ja) * 2018-06-27 2020-01-09 株式会社第一興商 リモコン装置
JP2020190625A (ja) * 2019-05-22 2020-11-26 株式会社日本レカム 音声認識による自動翻訳装置及び情報システム
JPWO2021049445A1 (ja) * 2019-09-10 2021-03-18

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248002A (ja) * 2010-05-25 2011-12-08 Fujitsu Toshiba Mobile Communications Ltd 翻訳装置
JP2012079330A (ja) * 2011-12-01 2012-04-19 Olympus Imaging Corp ガイド装置およびガイド方法
JP2019146055A (ja) * 2018-02-22 2019-08-29 クラリオン株式会社 通話装置、及び通話装置の制御方法
JP2020003591A (ja) * 2018-06-27 2020-01-09 株式会社第一興商 リモコン装置
JP7061520B2 (ja) 2018-06-27 2022-04-28 株式会社第一興商 リモコン装置
JP2020190625A (ja) * 2019-05-22 2020-11-26 株式会社日本レカム 音声認識による自動翻訳装置及び情報システム
JPWO2021049445A1 (ja) * 2019-09-10 2021-03-18
WO2021049445A1 (ja) * 2019-09-10 2021-03-18 日本電気株式会社 言語推定装置、言語推定方法、およびプログラム
JP7331933B2 (ja) 2019-09-10 2023-08-23 日本電気株式会社 言語推定装置、言語推定方法、およびプログラム

Similar Documents

Publication Publication Date Title
US20200227027A1 (en) Updating a voice template
JP3168033B2 (ja) 音声テレフォン・ダイヤリング
JP4247929B2 (ja) 電話における自動音声認識のための方法
JP2957862B2 (ja) 通信システム及び通信方法
US5797124A (en) Voice-controlled voice mail having random-order message retrieval based on played spoken identifier list
US20160171981A1 (en) Method for Embedding Voice Mail in a Spoken Utterance Using a Natural Language Processing Computer System
US9538348B2 (en) Method and message server for routing a speech message
US6724866B2 (en) Dialogue device for call screening and classification
JPH06242793A (ja) 仲間正規化スコアリングを使用する話者検証法
US20200211560A1 (en) Data Processing Device and Method for Performing Speech-Based Human Machine Interaction
CN107205097A (zh) 移动终端查找方法、装置以及计算机可读存储介质
TW200304638A (en) Network-accessible speaker-dependent voice models of multiple persons
US20020071527A1 (en) Voice label processing apparatus and method
CN110858841B (zh) 通过已注册用户的认证来注册新用户的电子设备和方法
CN111601002A (zh) 一种客户号码状态匹配方法、装置、电子设备及存储介质
CN113779217A (zh) 一种基于人机交互的智能语音外呼业务方法及***
JP2002304392A (ja) 音声翻訳システム
JP5253097B2 (ja) インターホンシステムおよびインターホンプログラム
JP2002311983A (ja) 翻訳電話システム
KR20090076318A (ko) 실시간 대화 서비스 시스템 및 그 방법
JP4486235B2 (ja) 音声認識装置
CN106302950A (zh) 一种通话验证方法、装置及移动终端
CN114390144A (zh) 语音来电智能处理方法、装置和控制***
JP2002320037A (ja) 翻訳電話システム
JP2001024781A (ja) 発呼者により生成された音声メッセージを分類する方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080701