JP2017120616A - 機械翻訳方法、及び、機械翻訳システム - Google Patents

機械翻訳方法、及び、機械翻訳システム Download PDF

Info

Publication number
JP2017120616A
JP2017120616A JP2016145755A JP2016145755A JP2017120616A JP 2017120616 A JP2017120616 A JP 2017120616A JP 2016145755 A JP2016145755 A JP 2016145755A JP 2016145755 A JP2016145755 A JP 2016145755A JP 2017120616 A JP2017120616 A JP 2017120616A
Authority
JP
Japan
Prior art keywords
text information
specific
specific text
translation
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016145755A
Other languages
English (en)
Inventor
持田 哲司
Tetsuji Mochida
哲司 持田
務 秦
Tsutomu Hata
務 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to CN201610903217.2A priority Critical patent/CN106919559A/zh
Priority to US15/371,258 priority patent/US20170185587A1/en
Publication of JP2017120616A publication Critical patent/JP2017120616A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】機械翻訳システムの機能向上のため、さらなる改善が必要とされていた。【解決手段】第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得ステップ(S1)と、取得ステップ(S1)において取得した翻訳前テキスト情報に、記憶部において記憶されている第1特定テキスト情報が含まれているか否かを判定する判定ステップ(S2)と、判定ステップ(S2)において、翻訳前テキスト情報に、第1特定テキスト情報が含まれていることが判定された場合、記憶部において記憶され、かつ、第1特定テキスト情報に対応付けられている第2特定テキスト情報及び当該第2特定テキスト情報の第2音声データの少なくも一方を出力する出力ステップ(S3)とを含む。【選択図】図6

Description

本発明は、機械翻訳方法、及び、機械翻訳システムに関する。
近年、自国語で発話することで、多国語に翻訳して音声出力させることができる機械翻訳システムが注目されている。このような機械翻訳システムは、世界の言葉の壁を取り払い、グローバルコミュニケーションの促進を担うことが期待される。
また、近年、このような機械翻訳システムは、個人利用向けのものから、ビジネス利用向けのものへ適用範囲を広げており、来訪外国者とのコミュニケーションツールとして、公共施設、店舗等での利用が検討されている。
このような機械翻訳システムを、ビジネス利用向けに導入する場合、利用用途毎に、頻繁に翻訳が要求される発話文または会話文が存在する。そのため、例えば特許文献1には、頻繁に翻訳が要求される文章を、伝言コードに対応づけて、事前に登録する技術が開示されている。これにより、ユーザは、利用時に所望の伝言コードを指定することにより、伝言コードに対応づけられた文章を呼び出すことができる。
特開平9−139969号公報
しかしながら、特許文献1に開示される技術は、頻繁に翻訳が要求される発話文等であってビジネスにおける利用用途毎に内容の異なる発話文等に対する発話者の負担を、全体として軽減できない。
したがって、頻繁に翻訳が要求される発話文において、発話者の負担を軽減するとともに、当該発話文の翻訳時間を短縮させるという機械翻訳システムの機能向上のためには、さらなる機能改善が必要とされる。
本発明は、上述の事情を鑑みてなされたもので、機械翻訳システムの機能をさらに向上できる機械翻訳方法及び機械翻訳システムを提供することを目的とする。
上記目的を達成するために、本開示の一形態に係る機械翻訳方法は、機械翻訳システムにおける機械翻訳方法であって、記憶部において、第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された前記第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって前記特定単語または前記特定文と翻訳等価性のない第2特定テキスト情報、及び、当該第2特定テキスト情報の第2音声データの少なくも一方が対応付けられて記憶されており、前記第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得ステップと、前記取得ステップにおいて取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれているか否かを判定する判定ステップと、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていることが判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する出力ステップとを含む。
また、上記目的を達成するために、本開示の一形態に係る機械翻訳システムは、第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された前記第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって前記特定単語または前記特定文と翻訳等価性のない第2特定テキスト情報及び当該第2特定テキスト情報の第2音声データの少なくも一方を対応付けて記憶する記憶部と、前記第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得部と、前記取得部において取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれているか否かを判定する判定部と、前記判定部により、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていることが判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する出力部とを備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示の機械翻訳方法及び機械翻訳システムによれば、機械翻訳システムの機能向上のためのさらなる改善を実現できる。
図1は、従来の機械翻訳システムの機能構成の一例を示す図である。 図2Aは、本開示における情報管理システムが提供するサービスの全体像を示す図である。 図2Bは、本開示における情報提供システムの一部構成の変形例を示す図である。 図2Cは、本開示における情報提供システムの一部構成の変形例を示す図である。 図3は、実施の形態1における機械翻訳システムの構成の一例を示すブロック図である。 図4は、図3に示す翻訳判定処理部の詳細構成の一例を示すブロック図である。 図5は、実施の形態1における機械翻訳システムの構成の別の態様を示すブロック図である。 図6は、実施の形態1における機械翻訳システムの動作概要を示すフローチャートである。 図7は、実施の形態1における機械翻訳システムの動作の具体的態様を示すフローチャートである。 図8は、実施の形態1における記憶部において対応付けて記憶される特定文と定型文の一例を示す図である。 図9は、ディスプレイを備える機械翻訳システムの使用場面の一例を示す図である。 図10は、実施の形態1の変形例に係る機械翻訳システムの構成の一例を示す図である。 図11は、実施の形態1の変形例に係る情報端末の構成の一例を示す図である。 図12は、実施の形態1の変形例における機械翻訳システムの動作を示すシーケンス図である。 図13は、実施の形態1の変形例における機械翻訳システムの動作の別の例を示すシーケンス図である。 図14は、実施の形態2における機械翻訳システムの動作の具体的態様を示すフローチャートである。 図15は、実施の形態3における機械翻訳システムの動作の具体的態様を示すフローチャートである。 図16は、実施の形態3における記憶部において対応付けて記憶される特定単語と発話順と対応する定型文の一例を示す図である。 図17は、サービスの類型1(自社データセンタ型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 図18は、サービスの類型2(IaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 図19は、サービスの類型3(PaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 図20は、サービスの類型4(SaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。
(本開示の基礎となった知見)
機械翻訳は1990年頃に登場した。しかし、機械翻訳の当初の翻訳精度は、英日翻訳で60%程度、日英翻訳で50%程度がトップクラスという実情であった。そのため、機械翻訳により生じた相当数の誤りの訂正を人手で行う必要があり、完全な機械翻訳は夢の技術とされていた。しかしながら、近年、機械翻訳にDeep Learning等の高度な機械学習技術を用いることにより、翻訳精度が急激に向上してきている。そのため、機械翻訳は、PCアプリ、Webアプリ、スマートフォンアプリ等において簡単に利用可能な翻訳システムとして利用されつつある。
一方、音声認識も、統計的手法によるさまざまな技術発展により、認識率が向上してきている。そのため、音声認識は、ユーザの発話内容をテキスト化するだけでなく、発話による機器制御等、電化機器の音声制御インタフェースとして利用されつつある。
このような背景の元、世界の言葉の壁を取り払い、グローバルコミュニケーションの促進を担うものとして、近年、自国語で発話し、多国語に翻訳して音声出力する機械翻訳システムが注目されている。
図1は、従来の機械翻訳システムの機能構成の一例を示す図である。図1に示す機械翻訳システム90は、音声入力部91、音声認識部92、翻訳部93、音声合成部94、及び、音声出力部95を備える。
音声入力部91は、話し手が第1言語で発話した音声が入力される。音声入力部91は、入力された音声を音声データに変換して音声認識部92に出力する。音声認識部92は、受信した音声データに対して、音声認識処理を実行し、音声データを第1言語のテキストデータへ変換する処理を実行する。音声認識部92は、変換した第1言語のテキストデータを翻訳部に出力する。翻訳部93は、受信した第1言語のテキストデータに対して、第2言語へ翻訳する翻訳処理を実行し、第2言語のテキストデータを生成する。翻訳部93は、生成した第2言語のテキストデータを音声合成部94に出力する。音声合成部94は、受信した第2言語のテキストデータを第2言語の音声データに変換し、音声出力部95に出力する。音声出力部95は、受信した第2言語の音声データを、第2言語の音声として出力(発話)する。
このようにして、機械翻訳システム90は、第1言語で発話した話し手の発話内容を受信し、第2言語に翻訳した後、第2言語の音声として聞き手へ音声出力する。これにより、使用言語の異なる話者間でのコミュニケーションを実現することができる。
このような機械翻訳システムは、個人の旅行先での利用やSNSでの利用等、主に個人利用されてきたが、近年の音声認識精度、翻訳精度の向上により、来訪外国者とのコミュニケーションツールとして、公共施設、店舗等でのビジネス向けの利用も検討されるようになってきている。
しかしながら、ビジネス利用向けに機械翻訳システムを導入する場合には、個人利用向けのものよりも正確な翻訳、すなわち高い翻訳精度が要求される。一方で、例えばホテルや旅行会社、交通機関、案内所、医療分野、ショップ等でのビジネスにおける利用などでは、利用用途毎に、独自の会話、単語、言い回しなど、特殊な会話文が存在する。そして、特殊な会話文に対しては、機械翻訳システムが、例えば、機械学習技術などを用いて事前に学習を行なっていない限り、音声認識及び翻訳結果が正しく行われないという課題がある。
さらに、ビジネスにおける利用用途毎には、頻繁に翻訳が要求される発話文または会話文が存在する。つまり、発話者(サービス提供者)は、頻繁に、自国語が異なる言語である相手(サービス受領者)に対して、発話または会話する文(発話文または会話文)が存在する。そのため、相手(サービス受領者)に対して機械翻訳システムにこれらの文を翻訳させるために、発話者(サービス提供者)は、これらの文を同じ内容で何度も発話する必要がある。このことは、発話者(サービス提供者)の負担になる。
特に、これらの文の長さが長い場合には、発話者の負担をさらに増大させてしまうだけでなく、機械翻訳システムにおいて、これらの文の音声認識及び翻訳結果が一度で正しく行われないことにも繋がる。すなわち、これらの文の長さが長い場合には、機械翻訳システムに、発話環境の周囲のノイズが多く入力されてしまうことになるので、これらの文(発話文または会話)の音声認識処理において、誤認識の発生頻度が増大し、誤った翻訳文が出力されることにも繋がる。その結果、発話者は再度発話し直さなければならないので、発話者のさらなる負担になる。
このような課題への対策として、例えば特許文献1には、定型伝言メッセージを作成するメッセージデータ受信装置において、頻繁に翻訳が要求される文章を、伝言コードに対応づけて事前に登録することが開示されている。
より具体的には、特許文献1では、頻繁に利用される単語または文章を、伝言コード(No)それぞれに割り当てた対応テーブルを定型伝言メモリ(33)に予め格納する。受信回路(22)が受信した受信データの中に、伝言コードが含まれている場合、定型伝言メモリ(33)に格納されている対応テーブルに基づき、受信データの中に含まれている伝言コードに対応した呼出し内容(単語、文章)を抽出する。そして、受信データに含まれている伝言コードと置換することにより、受信信号のメッセージを生成する。このようにして、発話者は、利用時に所望の伝言コードを指定することにより、伝言コードに対応づけられた文章を呼び出すことができる。これにより、伝言コードを使うだけで容易に長いメッセージを生成することができ、ユーザの負担を軽減できる。
しかしながら、特許文献1に開示される技術では、対応テーブルに事前登録した単語または文章は、伝言コードとして番号のような意味を持たない数値と対応付けられている。そのため、ユーザは対応テーブルにおいて、単語または文章が、どの番号と対応付けられているかを記憶しておく必要があり、ユーザの負担が大きい。特に、事前登録されている単語、または文章が多ければ多いほど、ユーザの負担が大きく問題となる。
つまり、特許文献1に開示される技術では、頻繁に翻訳が要求される発話文等であって、ビジネスにおける利用用途毎に内容の異なる発話文等に対して、発話者の負担を軽減するための技術的な課題は解決されていない。
したがって、頻繁に翻訳が要求される発話文において、発話者の負担を軽減するとともに、当該発話文の翻訳時間を短縮させるという機械翻訳システムの機能向上のためには、さらなる機能改善が必要である。
上記目的を達成するために、本開示の一態様に係る機械翻訳方法は、機械翻訳システムにおける機械翻訳方法であって、記憶部において、第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された前記第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって前記特定単語または前記特定文と翻訳等価性のない第2特定テキスト情報、及び、当該第2特定テキスト情報の第2音声データの少なくも一方が対応付けられて記憶されており、前記第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得ステップと、前記取得ステップにおいて取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれているか否かを判定する判定ステップと、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていることが判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する出力ステップとを含む。
これにより、発話者は、利用頻度の高い第1言語の発話文すべての文を発話することなく、第1言語の特定単語または特定文(第1特定テキスト情報)を含む発話をするだけで、頻繁に利用する第2言語の定型文(第2特定テキスト情報)及びその音声データの一方を出力できるので、発話者の発話負担が軽減される。また、第2言語の定型文(第2特定テキスト情報)及びその音声データは、第2言語の定型文を第1言語で簡潔に言い表した単語などに対応付けされる。つまり、実施の形態1の第2特定テキスト情報及びその音声データは、意味を持たない数字などに対応付けされない。これにより、ユーザが対応付けを事前にまたは別途記憶しておかなければならない負担も軽減できる。
また、例えば、前記判定ステップでは、前記翻訳前テキスト情報と、前記記憶部において記憶されている前記第1特定テキスト情報とが一致するか否かを判定し、前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報と前記第1特定テキスト情報とが一致すると判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力するとしてもよい。
これにより、発話者の発話文の内容(翻訳前テキスト情報)と第1特定テキスト情報とが一致する場合にのみ、第2特定テキスト情報及びその音声データの一方を出力させることができる。
つまり、発話者が、第1特定テキスト情報のみを発話した場合は、第2特定テキスト情報及びその音声データの一方を翻訳結果として出力させることができる。一方、発話者が第1特定テキスト情報以外の文言を含む発話をした場合には、発話した内容がそのまま翻訳された翻訳文(翻訳後テキスト情報)を出力させることができる。これによって、発話者は、第1特定テキスト情報を会話中の単語または文章として利用することができる。
また、例えば、前記記憶部では、前記第2特定テキスト情報にはそれぞれ、2以上の前記第1特定テキスト情報と、前記2以上の前記第1特定テキスト情報の各々が、文中において現れるべき順序を示す順序情報とが対応付けられて記憶されており、前記判定ステップにおいて、前記取得ステップにおいて取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記2以上の第1特定テキスト情報が含まれ、かつ、前記2以上の第1特定テキスト情報が、前記順序情報の示す順序で含まれているか否かを判定し、前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記記憶部において記憶されている前記2以上の第1特定テキスト情報が含まれ、かつ、前記2以上の第1特定テキスト情報が前記順序情報の示す順序で含まれていると判定された場合、前記2以上の前記第1特定テキスト情報及び前記順序情報に対応する前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力するとしてもよい。
これにより、発話者の発話文の内容(翻訳前テキスト情報)において、複数の第1特定テキスト情報が、所定の順序で現れる場合に、複数の第1特定テキスト情報に対応付けられた第2特定テキスト情報及びその音声データの一方を出力させることができる。つまり、発話者は、第1特定テキスト情報を含む発話文に対応する第2特定テキスト情報及びその音声データの一方を出力させるのか、発話した内容がそのまま翻訳された翻訳文を出力させるのかを、発話の仕方により適宜選択可能となる。
また、例えば、前記記憶部では、一の前記第2特定テキスト情報に、異なる一以上の前記第1特定テキスト情報であってそれぞれ同一の特定単語を含み異なる特定文を示す一以上の前記第1特定テキスト情報が対応付けて記憶されているとしてもよい。
これにより、一の第2特定テキスト情報に対して異なる複数の言い回しや異なる複数のキーワードを設定できる。これにより、ユーザが第2特定テキスト情報を出力したい場合に、複数の言い回しや複数のキーワードのいずれかによって第2特定テキスト情報を出力させることができる。
また、例えば、前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていないと判定された場合、前記翻訳前テキスト情報が前記第2言語に翻訳された翻訳後テキスト情報が出力されるとしてもよい。
これにより、翻訳前テキスト情報に、第1特定テキスト情報が含まれる場合は、翻訳前テキスト情報を第2言語へ翻訳する翻訳処理が省略されるが、翻訳前テキスト情報に、第1特定テキスト情報が含まれない場合は、翻訳前テキスト情報を第2言語へ翻訳する翻訳処理が実行される。これにより、利用頻度の高い発話、または独自の会話、単語、言い回しに対して翻訳処理時間の短縮が実現可能である。
また、例えば、前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれると判定された場合、前記翻訳後テキスト情報は出力されないとしてもよい。
このように、翻訳前テキスト情報に、第1特定テキスト情報が含まれる場合は、翻訳前テキスト情報を第2言語へ翻訳する翻訳処理が実行されない。これにより、機械翻訳処理システムにおける翻訳処理を簡素化できるとともに、翻訳処理能力を他の処理に充てることができるので、機械翻訳システムの機能向上を図ることができる。
また、例えば、前記記憶部では、さらに、前記第2特定テキスト情報が前記第1言語に翻訳された第3特定テキスト情報を、前記第1特定テキスト情報及び前記第2特定テキスト情報のうち少なくとも前記第2特定テキスト情報に対応付けて記憶されており、前記出力ステップでは、前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を出力する場合、さらに、前記第3特定テキスト情報を出力するとしてもよい。
このように、第2特定テキスト情報である第2言語の定型文を出力する際には、当該第2言語の定型文と翻訳関係にある第1言語の文章も出力される。これにより、発話者は、自身が発話した発話文に基づいてどのような内容の情報が聞き手に伝わっているかを確認可能となる。
また、例えば、前記出力ステップにおいて出力された前記第3特定テキスト情報は、ディスプレイにおいて表示されるとしてもよい。
これにより発話者は、自身が発話した発話文に基づいてどのような内容の情報が聞き手に伝わっているかを目視で確認可能となる。
また、例えば、前記機械翻訳システムは、所定の通信手段により、ディスプレイを有する情報端末と接続されており、前記出力ステップでは、前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、前記所定の通信手段により、前記情報端末に出力するとしてもよい。
また、例えば、前記情報端末では、前記出力ステップにおいて前記第2特定テキスト情報が出力された場合、前記第2特定テキスト情報に音声合成処理を行い第2音声データを生成し、生成した前記第2音声データが示す音声を出力するとしてもよい。
また、例えば、前記機械翻訳方法は、前記第1言語を発話する者と前記第2言語を発話する者との間の所定の状況において用いられるとしてもよい。
また、上記目的を達成するために、本開示の一態様に係る機械翻訳システムは、第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された前記第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって前記特定単語または前記特定文と翻訳等価性のない第2特定テキスト情報及び当該第2特定テキスト情報の第2音声データの少なくも一方を対応付けて記憶する記憶部と、前記第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得部と、前記取得部において取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれているか否かを判定する判定部と、前記判定部により、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていることが判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する出力部とを備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本開示の一態様に係る機械翻訳方法等について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることも出来る。
(提供するサービスの全体像)
まず、本実施の形態における機械翻訳システムを情報管理システムとして提供するサービスの全体像について説明する。
図2Aは、本開示における情報管理システムが提供するサービスの全体像を示す図である。図2Bは、本開示における情報提供システムの一部構成の変形例を示す図である。図2Cは、本開示における情報提供システムの一部構成の変形例を示す図である。図2Aに示す情報管理システムは、グループ11000、データセンタ運営会社11100及びサービスプロバイダ11200を備える。
グループ11000は、例えば企業、団体又は家庭等であり、その規模を問わない。グループ11000は、第1の機器及び第2の機器を含む複数の機器11010及びホームゲートウェイ11020を備える。複数の機器11010は、インターネットと接続可能な機器(例えば、スマートフォン、パーソナルコンピュータ(PC)又はテレビ等)、及びそれ自身ではインターネットと接続不可能な機器(例えば、照明、洗濯機又は冷蔵庫等)を含む。複数の機器11010は、それ自身ではインターネットと接続不可能であっても、ホームゲートウェイ11020を介してインターネットと接続可能となる機器を含んでもよい。また、ユーザ10100は、グループ11000内の複数の機器11010を使用する。
データセンタ運営会社11100は、クラウドサーバ11110を備える。クラウドサーバ11110は、インターネットを介して様々な機器と連携する仮想化サーバである。クラウドサーバ11110は、主に通常のデータベース管理ツール等で扱うことが困難な巨大なデータ(ビッグデータ)等を管理する。データセンタ運営会社11100は、データの管理、クラウドサーバ11110の管理、及びそれらを行うデータセンタの運営等を行っている。データセンタ運営会社11100が行っている役務の詳細については後述する。
ここで、データセンタ運営会社11100は、データの管理又はクラウドサーバ11110の管理のみを行っている会社に限らない。例えば、図2Bに示すように、複数の機器11010のうちの一つの機器を開発又は製造している機器メーカが、データの管理又はクラウドサーバ11110の管理等を行っている場合は、機器メーカがデータセンタ運営会社11100に該当する。また、データセンタ運営会社11100は一つの会社に限らない。例えば、図2Cに示すように、機器メーカ及び管理会社が共同又は分担してデータの管理又はクラウドサーバ11110の管理を行っている場合は、両者又はいずれか一方がデータセンタ運営会社11100に該当する。
サービスプロバイダ11200は、サーバ11210を備える。ここで言うサーバ11210とは、その規模は問わず、例えば、個人用PC内のメモリ等も含む。また、サービスプロバイダ11200がサーバ11210を備えていない場合もある。
なお、上記の情報管理システムにおいて、ホームゲートウェイ11020は必須ではない。例えば、クラウドサーバ11110が全てのデータ管理を行っている場合等は、ホームゲートウェイ11020は不要となる。また、家庭内の全ての機器がインターネットに接続されている場合のように、それ自身ではインターネットと接続不可能な機器は存在しない場合もある。
次に、上記の情報管理システムにおける情報の流れを説明する。
まず、グループ11000の第1の機器又は第2の機器は、各ログ情報をデータセンタ運営会社11100のクラウドサーバ11110にそれぞれ送信する。クラウドサーバ11110は、第1の機器又は第2の機器のログ情報を集積する(図2Aの矢印11310)。ここで、ログ情報とは、複数の機器11010の例えば運転状況又は動作日時等を示す情報である。例えば、ログ情報は、テレビの視聴履歴、レコーダーの録画予約情報、洗濯機の運転日時、洗濯物の量、冷蔵庫の開閉日時、又は冷蔵庫の開閉回数などを含むが、これらの情報に限らず、種々の機器から取得が可能な種々の情報を含んでもよい。なお、ログ情報は、インターネットを介して複数の機器11010自体から直接クラウドサーバ11110に提供されてもよい。また、ログ情報は、複数の機器11010から一旦ホームゲートウェイ11020に集積され、ホームゲートウェイ11020からクラウドサーバ11110に提供されてもよい。
次に、データセンタ運営会社11100のクラウドサーバ11110は、集積したログ情報を一定の単位でサービスプロバイダ11200に提供する。ここで、一定の単位とは、データセンタ運営会社11100が集積した情報を整理してサービスプロバイダ11200に提供することの出来る単位でもよいし、サービスプロバイダ11200が要求する単位でもよい。また、一定の単位で提供するとしているが、一定の単位でなくてもよく、状況に応じて提供する情報量が変化してもよい。ログ情報は、必要に応じてサービスプロバイダ11200が保有するサーバ11210に保存される(図2Aの矢印11320)。
そして、サービスプロバイダ11200は、ログ情報をユーザに提供するサービスに適合する情報に整理し、ユーザに提供する。情報が提供されるユーザは、複数の機器11010を使用するユーザ10100でもよいし、外部のユーザ10200でもよい。ユーザ10100,10200への情報提供方法としては、例えば、サービスプロバイダ11200から直接ユーザ10100,10200へ情報が提供されてもよい(図2Aの矢印11330,11340)。また、ユーザ10100への情報提供方法としては、例えば、データセンタ運営会社11100のクラウドサーバ11110を再度経由して、ユーザ10100に情報が提供されてもよい(図2Aの矢印11350,11360)。また、データセンタ運営会社11100のクラウドサーバ11110は、ログ情報をユーザに提供するサービスに適合する情報に整理し、サービスプロバイダ11200に提供してもよい。
なお、ユーザ10100は、ユーザ10200と異なっていても同一であってもよい。
(実施の形態1)
以下、本開示における機械翻訳システムについて説明する。
[機械翻訳システムの構成]
図3は、実施の形態1における機械翻訳システム10の構成の一例を示すブロック図である。
機械翻訳システム10は、第1言語を発話する者と第2言語を発話する者との間の所定の状況において用いられる。より具体的には、機械翻訳システム10は、上述したように、例えばホテルや旅行会社、交通機関、案内所、医療分野、ショップ等でのビジネス(所定の状況)において、来訪外国者とのコミュニケーションツールとして利用される。この機械翻訳システム10は、図3に示すように、音声入力部11と、音声認識部12と、翻訳部13と、音声合成部14と、音声出力部15と、翻訳判定処理部16とを備える。これらは、例えばLSI内部バスで接続されてもよい。
<音声入力部11>
音声入力部11は、話し手が第1言語で発話した音声が入力される。音声入力部11は、入力された音声を音声データ(以下、翻訳前音声データと記載)に変換して音声認識部12に出力する。本実施の形態では、音声入力部11は、例えばマイクロフォンからなる。
<音声認識部12>
音声認識部12は、取得した翻訳前音声データに対して、音声認識処理を実行し、翻訳前音声データを第1言語のテキストデータ(以下、翻訳前テキスト情報と記載)へ変換する音声認識処理を実行する。音声認識部12は、変換した翻訳前テキスト情報を翻訳判定処理部16に出力する。
なお、音声認識部12は、CPU、メモリなどから構成されるコンピュータで実現され、音声認識部12が自ら音声認識処理を実行してもよいが、それに限らない。音声認識部12は、通信機能とメモリ機能とを有し、インターネットなど所定の通信手段によりクラウド(サーバ群)と通信してもよい。この場合、音声認識部12は、取得した翻訳前音声データをクラウドに送信し、クラウドから当該翻訳前音声データに対する音声認識処理を実行した結果を取得してもよい。
<翻訳部13>
翻訳部13は、翻訳判定処理部16から翻訳前テキスト情報を取得した場合、取得した翻訳前テキスト情報に対して、第2言語へ翻訳する翻訳処理を実行し、第2言語のテキストデータ(以下、翻訳後テキスト情報と記載)を生成する。翻訳部13は、生成した翻訳後テキスト情報を音声合成部14に出力する。
なお、翻訳部13は、生成した翻訳後テキスト情報を音声合成部14に出力するとしたが、これに限らず、生成した翻訳後テキスト情報を翻訳判定処理部16に出力し、翻訳判定処理部16が音声合成部14に出力するとしてもよい。つまり、翻訳部13は、生成した翻訳後テキスト情報を、翻訳判定処理部16を介して音声合成部14に出力するとしてもよい。
また、翻訳部13は、CPU、メモリなどから構成されるコンピュータで実現され、翻訳部13が自ら翻訳処理を実行してもよいが、それに限らない。翻訳部13は、通信機能とメモリ機能とを有し、インターネットなど所定の通信手段によりクラウドと通信してもよい。この場合、翻訳部13は、取得した翻訳前テキスト情報をクラウドに送信し、クラウドから翻訳前テキスト情報に対する翻訳処理を実行した結果を取得してもよい。
<音声合成部14>
音声合成部14は、翻訳後テキスト情報を取得した場合、翻訳後テキスト情報から第2言語の音声データ(以下翻訳後音声データとも記載)を生成する音声合成処理を行う。また、音声合成部14は、第2特定テキスト情報を取得した場合、第2特定テキスト情報から第2言語の音声データ(以下、翻訳後音声データとも記載)を生成する音声合成処理を行う。そして、音声合成部14は、生成した翻訳後音声データを、音声出力部15に出力する。
なお、音声合成部14は、CPU、メモリなどから構成されるコンピュータで実現され、音声合成部14が自ら音声合成処理を実行してもよいが、それに限らない。音声合成部14は、通信機能とメモリ機能とを有し、インターネットなど所定の通信手段によりクラウドと通信して、取得した翻訳後テキストデータまたは第2特定テキスト情報をクラウドに送信してもよい。そして送信した翻訳後テキストデータまたは第2特定テキスト情報に対する音声認識処理を実行した結果をクラウドから取得してもよい。
<音声出力部15>
音声出力部15は、受信した第2言語の音声データを、第2言語の音声として出力(発話)する音声出力処理を行う。本実施の形態では、音声出力部15は、例えばスピーカからなる。
<翻訳判定処理部16>
図4は、図3に示す翻訳判定処理部16の詳細構成の一例を示すブロック図である。
翻訳判定処理部16は、例えば図4に示すように、取得部161と、判定部162と、記憶部163と、出力部164とを備える。
記憶部163は、第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって特定単語または特定文と翻訳等価性のない第2特定テキスト情報とを対応付けて記憶する。ここで、第1特定テキスト情報は、例えば[タバコの説明」や「翻訳機の説明」など、「タバコ」や「翻訳機」などのキーワード(特定単語)を含む短い文(特定文)であるが、キーワード(特定単語)のみでもよい。また、翻訳等価性がないとは、翻訳が非対称であることを意味する。つまり、翻訳機の説明という特定文に対して、特定文そのままの文や特定文をそのまま含む文ではなく、「いらっしゃいませ。これは翻訳機です。ピーという音の後に短い英語で話してください。日本語に翻訳します。」という定型文に対応していることを意味する。
なお、記憶部163では、一の第2特定テキスト情報に、異なる一以上の第1特定テキスト情報であってそれぞれ同一の特定単語を含み異なる特定文を示す一以上の第1特定テキスト情報が対応付けて記憶されていてもよい。つまり、第2特定テキスト情報は、異なる複数の言い回しや異なる複数のキーワードに対応づけられているとしてもよい。これにより、定型文である第2特定テキスト情報を異なる複数の言い回しや異なる複数のキーワードのいずれかで呼び出すことができる。
取得部161は、第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する。
判定部162は、取得部161が取得した翻訳前テキスト情報に、記憶部163において記憶されている第1特定テキスト情報が含まれているか否かを判定する。
判定部162は、翻訳前テキスト情報に、第1特定テキスト情報が含まれていることを判定した場合、出力部164に、記憶部163において記憶され、かつ、第1特定テキスト情報に対応付けられている第2特定テキスト情報を、出力させる。ここで、判定部162は、翻訳前テキスト情報に、記憶部163において記憶されている第1特定テキスト情報が含まれると判定した場合、出力部164に、取得部161が取得した翻訳後テキスト情報を出力させない。
また、判定部162は、翻訳前テキスト情報に、第1特定テキスト情報が含まれていないことを判定した場合、出力部164に、翻訳前テキスト情報を出力させる。
出力部164は、判定部162の判定結果に従って、第2特定テキスト情報または翻訳前テキスト情報を出力する。本実施の形態では、出力部164は、判定部162の判定結果に従って、第2特定テキスト情報を音声合成部14に、翻訳前テキスト情報を翻訳部13に出力する。
なお、翻訳判定処理部16は、例えば図4に示す例に限られない。以下、この場合について図5を用いて説明する。図5は、実施の形態1における機械翻訳システム10の構成の別の態様を示すブロック図である。図3及び図4と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図5に示す機械翻訳システム10Aは、図3に示す機械翻訳システム10と比較して、翻訳判定処理部16Aの構成が異なる。翻訳判定処理部16Aは、図4に示す翻訳判定処理部16と比較して、取得部161と出力部164とがなく、ディスプレイ17が追加されており、判定部162Aの構成が異なる。
判定部162Aは、上述した判定部162の機能をすべて備え、さらに、取得部161と出力部164との機能が包含されている。つまり、判定部162Aは、音声認識部12が出力した翻訳前テキスト情報を取得し、取得した翻訳前テキスト情報に記憶部163において記憶されている第1特定テキスト情報が含まれるか否かを判定する。判定部162Aは、取得した翻訳前テキスト情報に含まれていない場合は、翻訳前テキスト情報を、翻訳部13へ出力する。
一方、判定部162Aは、取得した翻訳前テキスト情報に、記憶部163において記憶されている第1特定テキスト情報が含まれる場合には、翻訳部13には翻訳前テキスト情報を出力しない。判定部162Aは、翻訳前テキスト情報に含まれていると判定した第1特定テキスト情報に対応する第2特定テキスト情報を記憶部163から抽出して、音声合成部14に出力する。
ディスプレイ17は、例えば、音声合成部14に出力された第2特定テキスト情報を表示してもよい。
なお、記憶部163において、さらに、第2特定テキスト情報が第1言語に翻訳された第3特定テキスト情報を、第1特定テキスト情報及び第2特定テキスト情報のうち少なくとも第2特定テキスト情報に対応付けて記憶されているとしてもよい。
この場合、判定部162Aは、判定した第1特定テキスト情報または抽出した第2特定テキスト情報と対応する第3特定テキスト情報をディスプレイ17に出力し、出力された第3特定テキスト情報は、ディスプレイ17において表示されるとしてもよい。さらに、当該第2テキスト情報から生成された第2言語の音声データの出力の前後に、当該第2特定テキストと対応する第3特定テキスト情報から生成された第1言語の音声データが別途出力されるとしてもよい。
これらにより、発話者は、自身が発話した発話文に基づいてどのような内容の情報が聞き手に伝わっているかを視覚または聴覚で確認可能となる。
[機械翻訳システム10の動作]
以上のように構成された機械翻訳システム10の動作概要について説明する。
図6は、実施の形態1における機械翻訳システム10の動作概要を示すフローチャートである。
まず、機械翻訳システム10は、第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得処理を行う(S1)。
次に、機械翻訳システム10は、S1において取得した翻訳前テキスト情報に、記憶部163において記憶されている第1特定テキスト情報が含まれているか否かを判定する判定処理を行う(S2)。
次に、機械翻訳システム10は、S2において、翻訳前テキスト情報に、第1特定テキスト情報が含まれていることが判定された場合、記憶部163において記憶され、かつ、第1特定テキスト情報に対応付けられている第2特定テキスト情報を、出力する出力処理を行う(S3)。
次に、図7及び図8を用いて、機械翻訳システム10の動作の具体的態様について説明する。
図7は、実施の形態1における機械翻訳システム10の動作の具体的態様を示すフローチャートである。
図7に示すように、まず、機械翻訳システム10は、話し手の発話を認識、すなわち、音声入力部11に話し手が発話した音声が入力されると(S11でY)、音声入力部11に入力された音声を翻訳前音声データに変換して音声認識部12に出力する。
次に、音声認識部12は、取得した翻訳前音声データに対して音声認識処理を実行して(S12)、翻訳前音声データを第1言語の翻訳前テキスト情報に変換する。音声認識部12は、変換した翻訳前テキスト情報を翻訳判定処理部16に出力する。
次に、翻訳判定処理部16は、判定処理を行う。すなわち、翻訳判定処理部16は、取得した翻訳前テキスト情報の中に、記憶部163において、予め登録されている特定単語または特定文が含まれているか否かを判定する(S13)。
S13において、翻訳前テキスト情報に特定単語または特定文が含まれていることが判定された場合には(S13でY)、記憶部163において記憶され、かつ、第1特定テキスト情報に対応付けられている第2特定テキスト情報を抽出する(S14)。そして、翻訳判定処理部16は、抽出した第2特定テキスト情報を音声合成部14に出力する。なお、翻訳判定処理部16は、抽出した第2特定テキスト情報と対応する第3特定テキスト情報を機械翻訳システム10が有するディスプレイに出力してもよい。
一方、S13において、翻訳前テキスト情報に、特定単語または特定文が含まれていないことが判定された場合(S13でN)、翻訳部13に翻訳前テキスト情報が出力される。翻訳部13は、取得した翻訳前テキスト情報に対して、第2言語へ翻訳する翻訳処理を実行して(S15)、翻訳後テキストデータを生成する。翻訳部13は、生成した翻訳後テキスト情報を音声合成部14に出力する。
次に、音声合成部14は、取得した第2特定テキスト情報または翻訳後テキスト情報から、第2言語の翻訳後音声データを生成する音声合成処理を行う(S16)。音声合成部14は、生成した翻訳後音声データを、音声出力部15に出力する。
次に、音声出力部15は、取得した翻訳後音声データを、第2言語の音声として出力(発話)する音声出力処理を行う(S17)。
図8は、実施の形態1における記憶部163において対応付けて記憶される特定文と定型文の一例を示す図である。
図8には、日本語の特定文が第1特定テキスト情報の一例として示されており、英語の定型文が第2特定テキスト情報の一例として示されている。また、英語の定型文を日本語に翻訳した定型文翻訳文が第3特定テキスト情報の一例として示されている。
例えば、話し手が、機械翻訳システム10に対して日本語で「翻訳機の説明をします」と発話した場合、機械翻訳システム10では、話し手が発話した音声の音声データが音声認識処理によって日本語の翻訳前テキスト情報に変換される。次いで、機械翻訳システム10では、翻訳判定処理部16で判定処理が行われ、翻訳前テキスト情報に、記憶部163において記憶されている特定文である「翻訳機の説明」が含まれていることを判定する。この場合、機械翻訳システム10では、話し手が発話した日本語の文章「翻訳機の説明をします」を英語に翻訳する翻訳処理はされない。その代わりに、記憶部163において記憶され、かつ特定文である「翻訳機の説明」に対応した英語の定型文「Welcome. This is a translation machine. Please speak with a short English after the sound a beep. It translated into Japanese.」を第2特定テキスト情報として抽出し、音声合成処理及び音声出力処理を実行して、上記の英語の定型文の音声を出力する。
ここで、話し手が単語「翻訳機」を用いて上記と異なる発話を行って機械翻訳システム10により翻訳処理される場合の例を説明する。例えば、話し手が機械翻訳システム10に対して、日本語で「翻訳機はあちらで販売しております」と発話した場合、機械翻訳システム10では、話し手が発話した音声の音声データを音声認識処理によって日本語の翻訳前テキスト情報に変換する。次いで、機械翻訳システム10では、翻訳判定処理部16で判定処理を行い、翻訳前テキスト情報に、記憶部163において記憶されている特定文が含まれていないと判定する。この場合、機械翻訳システム10では、話し手が発話した日本語の文章「翻訳機はあちらで販売しております」を英語に翻訳する翻訳処理を行い、例えば、「We sell a translation machine over there.」と英語の文章に翻訳し、音声合成処理、及び音声出力処理を実行して、上記の英語の文章の音声を出力する。
なお、話し手が機械翻訳システム10に対して、単語「タバコ」を用いた発話をした場合も同様であるので、ここでの説明は省略する。
ただし、図8では、記憶部163において記憶されている、同一の単語「タバコ」を含み異なる特定文である「タバコの制約」及び「タバコの説明」に対して、同一の定型文が対応付けられている。このように、同一の定型文(第2特定テキスト情報)に対して、複数の異なる特定文(第1特定テキスト情報)が対応付けられているとしてもよい。また、同一の定型文(第2特定テキスト情報)に対して、複数の異なる特定単語(第1特定テキスト情報)が対応付けられているとしてもよい。これにより、ユーザが第2特定テキスト情報を出力したい場合に、複数の言い回しや複数のキーワードのいずれかによって第2特定テキスト情報を出力させることができる。
また、機械翻訳システム10は、上述したように、ディスプレイを備えていてもよい。この場合、機械翻訳システム10は、判定処理を行い、英語を母国語とする聞き手に対して、記憶部163において記憶され、かつ特定文に対応した英語の定型文を出力するとき、ディスプレイに、定型文に対応する定型文翻訳文(第3特定テキスト情報)を日本語を母国語とする話し手に対して表示させる。これにより、話し手が発話した第1言語の特定文とは異なるが対応付けられている第2言語の定型文(第2特定テキスト情報)の音声を出力する場合に、どのような内容の定型文の音声が出力されているかを話し手に知らせることができる。また、定型文の内容を話し手が暗記していないときでも、その場で第2言語の定型文の内容を定型文翻訳文(第1言語の定型文)で確認することができるため、聞き手との会話もスムーズに進めることができる。
[効果等]
以上のように、実施の形態1によれば、話し手(発話者)は、機械翻訳システム10に対して、第1言語の特定単語または特定文(第1特定テキスト情報)を含む発話をするだけで、利用用途毎の独自の会話、単語、言い回しなど頻繁に利用する第2言語の定型文(第2特定テキスト情報)を出力させることができる。これにより、発話者の発話負担が軽減される。
また、第2言語の定型文(第2特定テキスト情報)は、第2言語の定型文を第1言語で簡潔に言い表した単語などに対応付けされる。つまり、実施の形態1の第2特定テキスト情報は、意味を持たない数字などに対応付けされない。これにより、ユーザが対応付けを事前にまたは別途記憶しておかなければならない負担も軽減できる。
なお、実施の形態1における機械翻訳システム10は、上述したように、ディスプレイを備えていてもよい。図9は、ディスプレイを備える機械翻訳システム10の使用場面(ユースケース)の一例を示す図である。話し手50は、第1言語を発話する者であり、サービス提供者に該当する。聞き手51は、第2言語を発話する者であり、サービス受益者に該当する。図9には、話し手50が接客などで聞き手51に対して、複数の言語を利用する場面が示されている。
この場合、機械翻訳システム10は、判定処理を行い、第1言語を母国語とする聞き手51に対して、第1特定テキスト情報に対応した第2特定テキスト情報を音声出力するとき、ディスプレイに、第1特定テキスト情報の第1言語の翻訳文である第3特定テキスト情報を表示させてもよい。これにより、どのような内容の第2特定テキスト情報を出力されているかを話し手50に知らせることができる。また、第2特定テキスト情報の内容を話し手50が暗記していないときでも、その場で第2特定テキスト情報の内容を第1言語で翻訳された第3特定テキスト情報で確認することができるため、聞き手51との会話もスムーズに進めることができる。
なお、上述した実施の形態1では、機械翻訳システム10に話し手が第1言語で発話した音声が入力され、機械翻訳システム10が第2言語の音声を出力する場合について説明したが、これに限らない。機械翻訳システムと所定の通信手段により、接続される情報端末に話し手が第1言語で発話した音声が入力され、当該情報端末が第2言語の音声を出力してもよい。
(変形例)
実施の形態1で説明した、例えば図3に示す機械翻訳システム10の各構成が、情報端末及び複数のサーバに分散して存在するとしてもよい。以下、この場合の例を変形例として説明する。
[機械翻訳システム10Aの構成]
図10は、実施の形態1の変形例に係る機械翻訳システム10Aの構成の一例を示す図である。機械翻訳システム10Aは、所定の通信手段により、ディスプレイを有する情報端末20と接続されており、第2特定テキスト情報を、所定の通信手段により、情報端末20に出力する。機械翻訳システム10Aは、図10に示すように、情報端末20、サーバ41、サーバ42、サーバ43及びサーバ44を備える。情報端末20、サーバ41、サーバ42、サーバ43及びサーバ44はそれぞれ、通信手段30により接続されている。
<通信手段30>
通信手段30は、例えば、光回線、ADSLなどでインターネットに接続する有線もしくは無線ネットワークである。この場合、情報端末20は例えば専用端末で、サーバ41、サーバ42、サーバ43及びサーバ44は例えばクラウドサーバであってもよい。
なお、通信手段30は、これに限らず、3G、4G、5G回線等の携帯電話網であってもよい。この場合、情報端末20は例えば専用端末で、サーバ41、サーバ42、サーバ43及びサーバ44は例えばクラウドサーバであってもよい。
また、通信手段30は、Bluetooth(登録商標), Ibeacon, IrDA, Wi-Fi, TransferJet、特小無線などの近距離無線であってもよい。この場合、情報端末20は例えば端末で、サーバ41、サーバ42、サーバ43及びサーバ44は例えば専用ローカルサーバやオンプレミスの専用サーバであってもよい。
また、通信手段30は、1対N接続の専用回線でもよい。この場合、情報端末20は例えば端末で、サーバ41、サーバ42、サーバ43及びサーバ44は例えば専用ローカルサーバやオンプレミスの専用サーバであってもよい。
また、通信手段30は、DCM(Data Communication Module)などの高速無線ネットワークであってもよい。この場合、情報端末20は例えば車載端末で、サーバ41、サーバ42、サーバ43及びサーバ44は例えばクラウドサーバであってもよい。
<情報端末20>
図11は、実施の形態1の変形例に係る情報端末20の構成の一例を示す図である。図3と同様の要素には同一の符号を付しており、詳細な説明は省略する。
情報端末20は、話し手が第1言語にて発話した音声が入力され、聞き手に対して、入力された音声が示す発話文に基づく第2特定テキスト情報または当該発話文が第2言語へ翻訳された翻訳文の音声を出力する。このように、情報端末20は、機械翻訳システム10Aにおけるユーザインタフェースとしての役割を果たす。
情報端末20は、図11に示すように、音声入力部11と、音声出力部15と、通信部21と、記憶部22と、ディスプレイ23とを備える。なお、ディスプレイ23は必須構成ではない。通信部21は、CPU、メモリなどから構成されるコンピュータで実現され、サーバ41、サーバ42、サーバ43及びサーバ44と通信手段30によりデータの送受信を行う。記憶部22は、通信部21がサーバ41、サーバ42、サーバ43及びサーバ44と通信し、取得したまたは出力するデータ等を記憶する。ディスプレイ23は、例えば、通信部21が第2特定テキスト情報または第3特定テキスト情報を取得した場合、その第2特定テキスト情報または第3特定テキスト情報を表示する。
本変形例では、情報端末20は、話し手から第1言語の発話を示す音声が入力されたとき、入力された音声を翻訳前音声データに変換し、通信手段30を介してサーバ41に送信する。情報端末20は、サーバ41から、音声認識処理により変換された第1言語の翻訳前テキスト情報を受信する。
また、情報端末20は、サーバ41から受信した翻訳前テキスト情報をサーバ42へ送信する。そして、情報端末20は、サーバ42から、第2特定テキスト情報または翻訳前テキスト情報を受信する。
情報端末20は、サーバ42から翻訳前テキスト情報を受信した場合には、サーバ43へ送信する。そして、情報端末20は、サーバ43から、翻訳後テキスト情報を受信する。なお、翻訳前テキスト情報は、サーバ41により、情報端末20を経由せずに直接サーバ42へ送信されるとしてもよい。
また、情報端末20は、サーバ42から第2特定テキスト情報を受信した場合には、第2特定テキスト情報をサーバ44へ送信する。一方、情報端末20は、サーバ43から翻訳後テキスト情報を受信した場合には、翻訳後テキスト情報をサーバ44へ送信する。また、第2特定テキスト情報は、サーバ42により情報端末20を経由せずに、直接サーバ44に送信されるとしてもよい。そして、情報端末20は、サーバ44から、第2特定テキスト情報または翻訳前テキスト情報の翻訳後音声データを受信する。
情報端末20は、第2特定テキスト情報または翻訳前テキスト情報の翻訳後音声データを受信すると、音声出力部15で音声出力を行う。
なお、情報端末20は、音声合成処理部140を有しているとしてもよい。この場合、情報端末20は、サーバ42から第2特定テキスト情報を受信した場合、第2特定テキスト情報に、音声合成処理を行い第2音声データを生成し、生成した第2音声データが示す音声を出力するとしてのよい。
<サーバ41〜サーバ44>
サーバ41は、不図示の通信部と音声認識処理部110を備える。サーバ41は、情報端末20から送信された翻訳前音声データに対して、音声認識処理部110で音声認識処理を実行し、翻訳前音声データを第1言語の翻訳前テキスト情報へ変換する音声認識処理を実行する。また、サーバ41は、第1言語の翻訳前テキスト情報を情報端末20に送信する。
なお、サーバ41は、情報端末20を経由せずに、サーバ42へ直接翻訳前テキスト情報を送信してもよい。
サーバ42は、不図示の通信部と翻訳判定処理部16A(不図示)すなわち、不図示の通信部と判定部162と記憶部163とを備える。判定部162と記憶部163とについては、上述した通りであるので、ここでの詳細説明は、省略する。
サーバ42は、判定部162において、情報端末20から送信された翻訳前テキスト情報に、第1特定テキスト情報が含まれていることを判定した場合、記憶部163において記憶され、かつ、第1特定テキスト情報に対応付けられている第2特定テキスト情報を情報端末20に送信する。一方、サーバ42は、判定部162において、翻訳前テキスト情報に、第1特定テキスト情報が含まれていないことを判定した場合、翻訳前テキスト情報を情報端末20に送信する。
なお、サーバ42は、情報端末20を経由せずに、第2特定テキスト情報をサーバ44に直接送信、または翻訳前テキスト情報をサーバ43に直接送信してもよい。
サーバ43は、不図示の通信部と翻訳処理部130を備える。サーバ43は、情報端末20から送信された翻訳前テキスト情報に対して、翻訳処理部130で第2言語へ翻訳する翻訳処理を実行し、第2言語の翻訳後テキスト情報を生成する。サーバ43は、生成した翻訳後テキスト情報を情報端末20に送信する。
なお、サーバ43は、情報端末20を経由せずに、サーバ44へ直接翻訳後テキスト情報を送信してもよい。
サーバ44は、不図示の通信部と音声合成処理部140を備える。サーバ43は、情報端末20から翻訳後テキストデータが送信された場合、音声合成処理部140に翻訳後テキストデータから第2言語の翻訳後音声データを生成させる音声合成処理を行う。また、サーバ43は、情報端末20から第2特定テキスト情報が送信された場合、音声合成処理部140に第2特定テキスト情報から第2言語の翻訳後音声データを生成させる音声合成処理を行う。そして、サーバ43は、生成した第2特定テキスト情報または翻訳後テキスト情報の翻訳後音声データを、情報端末20に送信する。
なお、図10では、機械翻訳システム10Aの各構成が、情報端末及び複数のサーバに分散して存在している例を示したが、これに限らない。例えば、図10に示すサーバの数よりも少ないサーバに各構成が分散されていてもよいし、1つのサーバに各構成が集約されていてもよい。
[機械翻訳システム10Aの動作]
次に、以上のように構成された機械翻訳システム10の動作について説明する。以下では、図12を用いて、情報端末20と各サーバとの間のデータのやり取りについて説明する。
図12は、実施の形態1の変形例における機械翻訳システム10Aの動作の一例を示すシーケンス図である。
図12に示すように、まず、情報端末20は、話し手から第1言語の発話を示す音声が入力されると(S101)、その音声を変換した翻訳前音声データを、通信手段30を介して、サーバ41に送信する(S102)。
次に、サーバ41は、受信した翻訳前音声データに対する音声認識処理を実行し、翻訳前音声データを第1言語の翻訳前テキスト情報に変換する。そして、サーバ41は、変換した翻訳前テキスト情報を、情報端末20に送信する(S103)。
次に、情報端末20は、サーバ41から受信した翻訳前テキスト情報をサーバ42へ送信する(S104)。サーバ42は、判定処理を実行し、情報端末20から受信した翻訳前テキスト情報に、第1特定テキスト情報が含まれていることを判定した場合、第1特定テキスト情報に対応付けられている第2特定テキスト情報を情報端末20に送信する(S105)。なお、サーバ42は、情報端末20から受信した翻訳前テキスト情報に、第1特定テキスト情報が含まれていないことを判定した場合、該当なしとして翻訳前テキスト情報を情報端末20に送信する(S105)。なお、該当なしとだけ情報端末20に送信してもよい。
次に、情報端末20は、サーバ42から翻訳前テキスト情報または該当なしの旨を受信した場合には、翻訳前テキスト情報をサーバ43へ送信する(S106)。すると、サーバ43は、翻訳処理を実行し、情報端末20から受信した翻訳前テキスト情報から第2言語の翻訳後テキスト情報を生成する。そして、サーバ43は、生成した翻訳後テキスト情報を情報端末20に送信する(S107)。
次に、情報端末20は、サーバ43から翻訳後テキスト情報を受信した場合には、翻訳後テキスト情報をサーバ44へ送信する(S108)。
一方、S105において、情報端末20は、サーバ42から第2特定テキスト情報を受信した場合には、翻訳処理をスキップし、第2特定テキスト情報をサーバ44へ送信する(S108)。
次に、サーバ44は、音声合成処理を実行し、第2特定テキスト情報または翻訳後テキスト情報の翻訳後音声データを生成する。そして、サーバ44は、生成した第2特定テキスト情報または翻訳後テキスト情報の翻訳後音声データを情報端末20へ送信する(S109)。
最後に、情報端末20は、サーバ43から受信した第2特定テキスト情報または翻訳後テキスト情報の翻訳後音声データの音声出力を実行する(S110)。
[効果等]
以上のように、本変形例によれば、話し手(発話者)は、機械翻訳システム10に対して、第1言語の特定単語または特定文(第1特定テキスト情報)を含む発話をするだけで、利用用途毎の独自の会話、単語、言い回しなど頻繁に利用する第2言語の定型文(第2特定テキスト情報)を出力させることができる。これにより、発話者の発話負担が軽減される。
なお、サーバ42が有する記憶部163には、第1特定テキスト情報に対応付けられている第2特定テキスト情報が記憶されているとしたがこれに限らない。記憶部163において、第1特定テキスト情報に対応付けられている第2特定テキスト情報の翻訳後音声データが記憶されているとしてもよい。以下、この場合の、情報端末20と各サーバとの間のデータのやり取りについて説明する。
図13は、実施の形態1の変形例における機械翻訳システム10Aの動作の別の例を示すシーケンス図である。図12と同様の要素には同一の符号を付しており、詳細な説明は省略する。図13に示すシーケンス図は、図12に示すシーケンス図と比較して、S105a及びS108aの処理が異なるので、以下では異なる点についてのみ説明する。
すなわち、S105aにおいて、サーバ42は、判定処理を実行し、情報端末20から受信した翻訳前テキスト情報に、第1特定テキスト情報が含まれていることを判定した場合、第1特定テキスト情報に対応付けられている第2特定テキスト情報の翻訳後音声データを情報端末20に送信する。
また、S108aにおいて、情報端末20は、サーバ42から第2特定テキスト情報の翻訳後音声データを受信した場合には、サーバ44になにも送らない、つまり、音声合成処理をスキップする。
そのため、S110において、情報端末20は、サーバ42から受信した第2特定テキスト情報の翻訳後音声データの音声出力を実行する。
(実施の形態2)
実施の形態1に係る機械翻訳システム10では、翻訳前テキスト情報に、記憶部163において記憶されている第1特定テキスト情報が含まれているか否かを判定する判定処理を行うとして説明したが、それに限らない。翻訳前テキスト情報と、記憶部163において記憶されている第1特定テキスト情報とが完全に一致している否かを判定する判定処理を行うとしてもよい。この場合について、以下、実施の形態2として、実施の形態1と異なるところを中心に説明する。
[機械翻訳システム10の構成]
実施の形態2に係る機械翻訳システム10は、実施の形態1に係る機械翻訳システム10と比較して、翻訳判定処理部16が異なる。それ以外の構成は、実施の形態1に係る機械翻訳システム10と同様のため説明は省略する。
<翻訳判定処理部16>
実施の形態2に係る翻訳判定処理部16は、実施の形態1に係る翻訳判定処理部16と比較して、判定部162の動作が異なる。それ以外の構成は、実施の形態1に係る翻訳判定処理部16と同様のため説明は省略する。
本実施の形態において、判定部162は、取得部161が取得した翻訳前テキスト情報と、記憶部163において記憶されている第1特定テキスト情報とが一致するか否かを判定する。判定部162は、翻訳前テキスト情報と第1特定テキスト情報とが一致することを判定した場合、出力部164に、記憶部163において記憶され、かつ、第1特定テキスト情報に対応付けられている第2特定テキスト情報を、出力させる。その他の動作は、実施の形態1で説明した通りであるのでここでの説明は省略する。
[機械翻訳システム10の動作]
以上のように構成された実施の形態2における機械翻訳システム10の動作の具体的態様について説明する。
図14は、実施の形態2における機械翻訳システムの動作の具体的態様を示すフローチャートである。図7と同様の要素には同一の符号を付しており、詳細な説明は省略する。すなわち、図14に示すS11、S12、S14〜S17での処理は、実施の形態1で説明した通りであるので、説明を省略する。以下では、実施の形態1と異なるS23を含む判定処理について説明する。
S23では、翻訳判定処理部16は、判定処理を行う。すなわち、翻訳判定処理部16は、取得した翻訳前テキスト情報と、記憶部163において予め登録されている特定単語または特定文とが一致するか否かを判定する(S23)。そして、S23において、翻訳前テキスト情報と記憶部163において予め登録されている特定単語または特定文と一致する場合(S23でY)、記憶部163において記憶され、かつ、第1特定テキスト情報に対応付けられている第2特定テキスト情報を抽出する(S14)。
ここで、図8を用いてより具体的に説明する。
例えば、話し手が、実施の形態2における機械翻訳システム10に対して、日本語で「翻訳機の説明をします」と発話したとする。図8に示すように、記憶部163には、特定文「翻訳機の説明」が第1特定テキスト情報として記憶されているが、話し手の発話内容には、「翻訳機の説明」という文言以外にも、「をします」という文言が含まれている。この場合、S23において、実施の形態2における機械翻訳システム10は、話し手の発話内容と第1特定テキスト情報とは完全に一致しないと判定し(S23でN)、S15に進む。なお、実施の形態2における機械翻訳システム10は、S15において翻訳処理を実行し、結果として「I explain this translator machine.」という第2言語の翻訳後テキスト情報を音声合成部14に出力する。
一方、話し手が、実施の形態2における機械翻訳システム10に対して、日本語で「翻訳機の説明」と発話したとする。図8に示すように、記憶部163には、特定文「翻訳機の説明」が第1特定テキスト情報として記憶されている。この場合、S23において、実施の形態2における機械翻訳システム10は、話し手の発話内容と第1特定テキスト情報とが完全に一致すると判定し(S23でY)、S14に進む。
[効果等]
以上のように、実施の形態2における機械翻訳システム10は、翻訳前テキスト情報が第1特定テキスト情報に一致する場合に、第2特定テキスト情報を出力する。つまり、当該機械翻訳システム10は、発話者(話し手)が、第1特定テキスト情報のみを発話した場合は、第2特定テキスト情報を翻訳結果として出力し、発話者(話し手)が第1特定テキスト情報以外の文言を含む発話をした場合には、発話した内容そのままを翻訳した翻訳文を出力する。
これによって、当該機械翻訳システム10を利用する発話者は、第1特定テキスト情報が示す特定単語または特定文を会話に含めて利用できるという効果を奏する。
換言すると、相手(聞き手)に対して、話し手が、例えば「翻訳機の説明」など登録されている特定文についての定型文であって事前に登録しておいた利用頻度の高い定型文を用いたい場合があるとする。この場合、話し手は、登録されている特定単語(第1特定テキスト情報)のみを発話することで、当該機械翻訳システム10に定型文(第2特定テキスト情報)を出力させることができる。
一方、事前登録されている定型文(第2特定テキスト情報)の内容を相手が理解できなかった場合等に、話し手は、事前登録されている定型文とは異なる発話表現を用いて、聞き手に説明したいときがある。このとき、当該機械翻訳システム10が、発話内容(翻訳前テキスト情報)に例えば「翻訳機の説明」など登録されている特定文(第1特定テキスト情報)が含まれると、その特定文(第1特定テキスト情報)に対応する定型文が出力してしまう場合には、話し手は、第1特定テキスト情報を発話内容に含めることが出来ないという制約を受ける。そのため、実施の形態2では、翻訳前テキスト情報と第1特定テキスト情報とが一致するか否かという判定条件を用いる。これにより、話し手は、例えば「翻訳機の説明」など登録されている特定文(第1特定テキスト情報)を含んだ発話内容を自由に行い、当該機械翻訳システム10に翻訳処理させることができる。このように、話し手は、聞き手に対して定型文を出力して説明するか、自分の言葉を用いて説明するか、柔軟に説明方法を選択可能となる。
また、例えば、翻訳機についての説明を行なうケースにおいて、聞き手が以前に翻訳機を利用した経験を持っている場合、話し手は、聞き手に対して「翻訳機の説明は不要でしょうか?」という確認を行うことが想定される。このとき、当該機械翻訳システム10が、発話内容に例えば「翻訳機の説明」など登録されている特定文が含まれると、その特定文に対応する定型文が出力してしまう場合、当該確認ができない。一方、本実施の形態では、当該機械翻訳システム10により「翻訳機の説明は不要でしょうか?」という発話内容を翻訳した第2言語の翻訳文が出力され、当該確認を聞き手に行うことができる。このようにして、本実施の形態の機械翻訳システム10によれば、話し手は、翻訳機の説明の有無の確認も自然な会話で実現でき、翻訳機の説明が不要なお客様に対して、定型文である翻訳機の説明が出力されてしまうといった事態も防止できる。
さらに、本実施の形態の機械翻訳システム10によれば、翻訳前テキスト情報が、第1特定テキスト情報である特定単語または特定文と完全に一致した場合のみ、第2特定テキスト情報が出力される。そのため、話し手は、通常の会話において、特定単語または特定文が含まれないように、発話者が自身の発話内容に気を付けるといった不要な気遣いをなくす効果も奏する。
なお、機械翻訳システム10は、実施の形態1等と同様に、ディスプレイを備えていてもよい。この場合、機械翻訳システム10は、判定処理を行い、英語を母国語とする聞き手に対して、記憶部163において記憶され、かつ特定文に対応した英語の定型文を出力するとき、ディスプレイに、定型文に対応する定型文翻訳文(第3特定テキスト情報)を、日本語を母国語とする話し手に対して表示させる。これにより、話し手が発話した第1言語の特定文とは異なるが対応付けられている第2言語の定型文(第2特定テキスト情報)の音声を出力する場合に、どのような内容の定型文の音声が出力されているかを話し手に知らせることができる。また、定型文の内容を話し手が暗記していないときでも、その場で第2言語の定型文の内容を定型文翻訳文(第1言語の定型文)で確認することができるため、聞き手との会話もスムーズに進めることができる。
(変形例)
上記では、実施の形態1及び実施の形態2をそれぞれ別の実施の形態として説明したが、これらを組み合わせて実施することも可能である。この場合の一例について図8を用いて説明する。
図8には、「種別」項目が設けられている。例えばこの「種別」の示す値が「1」に設定されている特定文においては、話し手の発話内容(翻訳前テキスト情報)に当該特定文(第1特定テキスト情報)が含まれている場合、機械翻訳システム10に当該特定文に対応する定型文(第2特定テキスト情報)を出力させるとしてもよい。一方、「種別」の示す属性が「2」に設定されている特定文においては、話し手の発話内容(翻訳前テキスト情報)と当該特定文(第1特定テキスト情報)とが完全一致する場合にのみ、機械翻訳システム10に当該特定文に対応する定型文(第2特定テキスト情報)を出力させるとしてもよい。
これにより、めったに使用しない特定文に関しては、話し手の発話文中のどこかに含まれていれば、事前登録させた第2特定テキスト情報に置き換え、利用頻度の高い特定単語や特定文に関しては、完全一致した場合にのみ、事前登録させた第2特定テキスト情報に置き換える、といった個別のルールで判定処理を行うことができる。つまり、個々の特定文に対して個別のルールで判定処理を行わせることができる。このことは、登録する特定単語、特定文自体の通常会話における利用頻度に応じて、使い勝手の良いルールを個別に設定できることができることを意味する。つまり、話し手(ユーザ)の利便性を更に向上させることが可能となる。
(実施の形態3)
実施の形態3では、実施の形態1及び実施の形態2で説明した判定処理とは別の判定処理の例について説明する。
[機械翻訳システム10の構成]
実施の形態3に係る機械翻訳システム10は、実施の形態1に係る機械翻訳システム10と比較して、翻訳判定処理部16が異なる。それ以外の構成は、実施の形態1に係る機械翻訳システム10と同様のため説明は省略する。
<翻訳判定処理部16>
実施の形態2に係る翻訳判定処理部16は、実施の形態1に係る翻訳判定処理部16と比較して、記憶部163に記憶されているものと、判定部162との動作とが異なる。それ以外の構成は、実施の形態1に係る翻訳判定処理部16と同様のため説明は省略する。
本実施の形態では、記憶部163は、第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって特定単語または特定文と翻訳等価性のない第2特定テキスト情報とを対応付けて記憶する。
さらに、記憶部163は、第2特定テキスト情報のそれぞれにおいて、2以上の第1特定テキスト情報と、当該2以上の第1特定テキスト情報の各々が、文中において現れるべき順序を示す順序情報とを対応付けて記憶している。
判定部162は、翻訳前テキスト情報に、記憶部163において記憶されている当該2以上の第1特定テキスト情報が含まれ、かつ、当該2以上の第1特定テキスト情報が、順序情報の示す順序で含まれているか否かを判定する。
ここで、判定部162は、翻訳前テキスト情報に、記憶部163において記憶されている当該2以上の第1特定テキスト情報が含まれ、かつ、当該2以上の第1特定テキスト情報が当該順序情報の示す順序で含まれていると判断したとする。この場合、判定部162は、出力部164に、2以上の前記第1特定テキスト情報及び当該順序情報に対応する第2特定テキスト情報を出力させる。
なお、その他の構成については、実施の形態1で説明した通りであるのでここでの説明は省略する。
このように、実施の形態3における翻訳判定処理部16は、話し手の発話内容(翻訳前テキスト情報)の中に、予め登録されている特定単語または特定文(第1特定テキスト情報)が、予め登録された発話順にて含まれているか否かを判定する。そして、話し手の発話内容の中に、当該特定単語等が、予め登録された発話順にて含まれている場合には、翻訳処理することなく、当該特定単語等に対応し、予め登録されている定型文(第2特定テキスト情報)を出力する。
[機械翻訳システム10の動作]
以上のように構成された実施の形態3に係る機械翻訳システム10の動作の具体的態様について、図15及び図16を用いて説明する。
図15は、実施の形態3における機械翻訳システム10の動作の具体的態様を示すフローチャートである。図7と同様の要素には同一の符号を付しており、詳細な説明は省略する。すなわち、図15に示すS11、S12、S14〜S17での処理は、実施の形態1で説明した通りであるので、実施の形態1と異なるS33、S34を含む判定処理について以下説明する。
S33およびS34では、翻訳判定処理部16は、判定処理を行う。すなわち、翻訳判定処理部16は、取得した翻訳前テキスト情報に記憶部163において予め登録されている複数の特定単語または複数の特定文が含まれているか否かを判定する(S33)。
S33において、翻訳判定処理部16は、翻訳前テキスト情報に当該複数の特定単語または当該複数の特定文が含まれている場合(S33でY)、当該複数の特定単語または当該複数の特定文が、記憶部163において予め登録されている順序情報の示す順序で含まれているか否かを判定する(S34)。つまり、S34では、翻訳判定処理部16は、当該複数の特定単語または当該複数の特定文が、翻訳前テキスト情報の中でどのような順序で含まれているかを判定する。より具体的には、S34では、翻訳判定処理部16は、当該複数の特定単語または当該複数の特定文の順序が、記憶部163に予め記憶されている順序情報の示す順序と一致するか否かを判定する。
S34において、翻訳判定処理部16は、当該複数の特定単語または当該複数の特定文が、当該順序情報の示す順序で含まれていると判定した場合(S34でY)、記憶部163において記憶され、かつ、当該複数の特定単語または当該複数の特定文に対応付けられている第2特定テキスト情報を抽出する(S14)。なお、S33において翻訳前テキスト情報に当該複数の特定単語または当該複数の特定文が含まれていないと判定した場合、または、S34において、翻訳前テキスト情報に当該複数の特定単語または当該複数の特定文が当該順序情報の示す順序で含まれていないと判定した場合には、S15に進む。
図16は、実施の形態3における記憶部において対応付けて記憶される特定単語と発話順と対応する定型文の一例を示す図である。
図16には、第1特定テキスト情報の一例として、日本語の複数の特定単語が示されており、複数の特定単語が文中において現れるべき順序を示す順序情報の一例として、発話順が示されている。また、図16には、第2特定テキスト情報の一例として英語の定型文が示されている。さらに、図16には、英語の定型文を日本語に翻訳した定型文翻訳文が第3特定テキスト情報の一例として示されている。
より具体的には、図16には、例えば、「案内」という特定単語が、「(1)」という順序情報と対応付けられ、「東京駅」という特定単語が、「(2)」という順序情報と対応付けられて記憶部163に記憶されていることが示されている。
例えば、話し手が、機械翻訳システム10に対して日本語で「案内、東京駅」と発話すると、機械翻訳システム10では、話し手が発話した音声の音声データを音声認識処理によって日本語の翻訳前テキスト情報に変換する。次いで、機械翻訳システム10では、翻訳判定処理部16で判定処理が行い、翻訳前テキスト情報の中に、記憶部163において記憶されている複数の特定単語である「案内」及び「東京駅」が含まれていることを判定する。さらに、機械翻訳システム10では、当該複数の特定単語が、特定単語毎に対応付けられている順序情報に示される順序で翻訳前テキスト情報に含まれているか否かを判定する。すなわち、記憶部163において、「案内」という特定単語に対応付けられている順序情報が示す順序は「(1)」であり、「東京駅」という特定単語に対応付けられている順序情報が示す順序は「(2)」である。そして、機械翻訳システム10では、翻訳前テキスト情報において、「案内」及び「東京駅」という特定単語がこの順に含まれていることを判定する。つまり、機械翻訳システム10は、順序情報が示す順序と、判定された順序とが一致すると判定する。このため、機械翻訳システム10は、複数の特定単語である「案内」及び「東京駅」(第1テキスト情報)に対応する定型文(第2テキスト情報)である「We will guide you to Tokyo Station. First, please turn left out from this building and go as straight 100m. And then, you will find it on the right‐hand side.」を抽出して、音声合成処理及び音声出力処理を実行して、上記の英語の定型文の音声を出力する。
一方、話し手が、聞き手に東京駅への案内が必要か否かを確認するために、機械翻訳システム10に対して日本語で「東京駅へのご案内をいたしましょうか?」という発話を行なったとする。この場合、機械翻訳システム10では、話し手が発話した音声の音声データを音声認識処理によって日本語の翻訳前テキスト情報に変換する。次いで、機械翻訳システム10では、翻訳判定処理部16で判定処理を行い、翻訳前テキスト情報に、記憶部163において記憶されている複数の特定単語である「東京駅」及び「案内」が含まれていることを判定する。さらに、機械翻訳システム10では、当該複数の特定単語が、特定単語毎に対応付けられている順序情報に示される順序で翻訳前テキスト情報に含まれているか否かを判定する。すなわち、記憶部163において、「東京駅」という特定単語に対応付けられている順序情報が示す順序は「(1)」であり、「案内」という特定単語に対応付けられている順序情報が示す順序は「(2)」である。そして、機械翻訳システム10では、翻訳前テキスト情報において、「案内」及び「東京駅」という特定単語がこの順に含まれていることを判定する。つまり、機械翻訳システム10は、順序情報が示す順序と、判定された順序とが一致しないと判定する。このため、機械翻訳システム10は、話し手が発話した日本語の文章「東京へのご案内をいたしましょうか?」を英語に翻訳する翻訳処理を行い、例えば、「Would you wish a guide to Tokyo Station?」と英語の文章に翻訳し、音声合成処理、及び音声出力処理を実行して、上記の英語の文章の音声を出力する。
なお、話し手が機械翻訳システム10に対して、複数の特定単語「説明」と「チェックアウト」を用いた発話をした場合も同様であるので、ここでの説明は省略する。
また、機械翻訳システム10は、実施の形態1等と同様に、ディスプレイを備えていてもよい。この場合、機械翻訳システム10は、判定処理を行い、英語を母国語とする聞き手に対して、記憶部163において記憶され、かつ特定文に対応した英語の定型文を出力するとき、ディスプレイに、定型文に対応する定型文翻訳文(第3特定テキスト情報)を、日本語を母国語とする話し手に対して表示させる。これにより、話し手が発話した第1言語の特定文とは異なるが対応付けられている第2言語の定型文(第2特定テキスト情報)の音声を出力する場合に、どのような内容の定型文の音声が出力されているかを話し手に知らせることができる。また、定型文の内容を話し手が暗記していないときでも、その場で第2言語の定型文の内容を定型文翻訳文(第1言語の定型文)で確認することができるため、聞き手との会話もスムーズに進めることができる。
[効果等]
以上のように、実施の形態3によれば、話し手(発話者)は、機械翻訳システム10に対して、事前に登録された利用頻度の高い定型文である第2特定テキスト情報を使用するか否かを、複数の特定単語もしくは複数の特定文の発話順を意識して発話するか否かにより、容易に切り替えることができる。
また、例えば第1言語が日本語である場合、図16に示すように、日本語の通常会話では、動詞は文の最後に含まれる文法上の特徴を活かして、「動詞」を表わす特定単語または特定文に対しては順序情報「(1)」を設定し、それ以外の「主語」や「目的語」等を表わす特定単語または特定文に対しては順序情報「(2)」を設定すればよい。これにより、発話文において、第2特定テキスト情報を出力させる目的でなく特定単語または特定文が含まれてしまった際に、第2特定テキスト情報が出力されることを防止できる。また、発話者においては、第1特定テキスト情報を含む発話文に対して、翻訳結果として、第2特定テキスト情報を出力するのか、または発話した内容をそのまま翻訳した翻訳文を出力するのかを、発話の仕方により適宜選択可能となる。
すなわち、実施の形態3における機械翻訳システムによれば、意図的に、通常の文法とは異なるように発話することで話し手の通常会話の翻訳処理に影響を与えることなく、第2特定テキスト情報を出力できるという効果を容易に得られる。また、実施の形態3における機械翻訳システムによれば、記憶部163に記憶された第2特定テキスト情報の出力条件を知らない話し手であっても、通常の文法にそった発話をしている限り、意図せずに第2特定テキスト情報が出力されることも防止できる。
なお、「動詞」と「その他の品詞」のペアを複数の特定単語または複数の特定文として記憶部163に登録しておくとしてもよい。例えば、「動詞」に「案内」という特定単語を設定し、この特定単語に対する順序情報として「(1)」を対応付けて設定する。これに対して、ペアとなる「その他の品詞」の特定単語を、複数個設定できるようにする。例えば、「大阪駅」、「東京スカイツリー」、「トイレ」等である。このとき、「その他の品詞」に対する順序情報としては、すべて「(2)」が対応付けて設定してもよい。このように、複数の特定単語または複数の特定文のペアを1対nで対応付けて記憶部163に記憶しておくことで、第2特定テキスト情報を、機械的に追記でき、記憶部163の追加、更新、重複エントリー回避などのメンテナンス容易性も実現できる。
以上、本開示の一つまたは複数の態様に係る機械翻訳方法、及び機械翻訳システムについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
例えば、本開示の機械翻訳方法、及び機械翻訳システムでは、図10を用いて説明したように、音声認識処理、翻訳判定処理、翻訳処理、音声合成処理を、それぞれ異なる独立したサーバにて実行してもよい。もちろん、これら複数の処理の中の一部の処理を同一のサーバで実行させてもよく、また、すべての処理を同一サーバにて実行させるとしてもよい。いずれの形態であっても、同様の効果が得られる。
また、上記複数の処理は、必ずしもネットワーク等の通信手段を経由してサーバ上で実行される必要はなく、その中の一部が情報端末内で実行すなわち内部バスを経由して接続される情報端末内の機能構成において実行されてもよい。また、その中の一部が情報端末に直接的に接続された周辺機器にて実行されるとしてもよい。
また、本開示の機械翻訳方法及び機械翻訳システムでは、音声発話された内容を、多言語で翻訳して相手に伝える際に、上述したように、多言語の音声出力により相手に伝えるだけでなく、ディスプレイに多言語のテキスト表示により相手に伝えるとしてもよい。同様の効果が得られるからである。
なお、上記態様において説明された技術は、例えば、以下のクラウドサービスの類型において実現されうる。しかし、上記態様において説明された技術が実現されるクラウドサービスの類型はこれらに限られるものでない。
(サービスの類型1:自社データセンタ型クラウドサービス)
図17は、サービスの類型1(自社データセンタ型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。本類型では、サービスプロバイダ11200がグループ11000から情報を取得し、ユーザに対してサービスを提供する。本類型では、サービスプロバイダ11200が、データセンタ運営会社の機能を有している。すなわち、サービスプロバイダ11200が、ビッグデータを管理するクラウドサーバ11110を保有している。したがって、データセンタ運営会社は存在しない。
本類型では、サービスプロバイダ11200は、データセンタ(クラウドサーバ)12030を運営及び管理している。また、サービスプロバイダ11200は、オペレーティングシステム(OS)12020及びアプリケーション12010を管理する。サービスプロバイダ11200は、サービスプロバイダ11200が管理するOS12020及びアプリケーション12010を用いてサービスを提供する(矢印12040)。
(サービスの類型2:IaaS利用型クラウドサービス)
図18は、サービスの類型2(IaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、IaaSとは、インフラストラクチャー・アズ・ア・サービスの略であり、コンピュータシステムを構築及び稼動させるための基盤そのものを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社11100が、データセンタ(クラウドサーバ)12030を運営及び管理している。また、サービスプロバイダ11200は、OS12020及びアプリケーション12010を管理する。サービスプロバイダ11200は、サービスプロバイダ11200が管理するOS12020及びアプリケーション12010を用いてサービスを提供する(矢印12040)。
(サービスの類型3:PaaS利用型クラウドサービス)
図19は、サービスの類型3(PaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、PaaSとは、プラットフォーム・アズ・ア・サービスの略であり、ソフトウェアを構築及び稼動させるための土台となるプラットフォームを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社11100は、OS12020を管理し、データセンタ(クラウドサーバ)12030を運営及び管理している。また、サービスプロバイダ11200は、アプリケーション12010を管理する。サービスプロバイダ11200は、データセンタ運営会社11100が管理するOS12020及びサービスプロバイダ11200が管理するアプリケーション12010を用いてサービスを提供する(矢印12040)。
(サービスの類型4:SaaS利用型クラウドサービス)
図20は、サービスの類型4(SaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、SaaSとは、ソフトウェア・アズ・ア・サービスの略である。SaaS利用型クラウドサービスは、例えば、データセンタ(クラウドサーバ)を保有しているプラットフォーム提供者が提供するアプリケーションを、データセンタ(クラウドサーバ)を保有していない会社又は個人などの利用者がインターネットなどのネットワーク経由で使用できる機能を有するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社11100は、アプリケーション12010を管理し、OS12020を管理し、データセンタ(クラウドサーバ)12030を運営及び管理している。また、サービスプロバイダ11200は、データセンタ運営会社11100が管理するOS12020及びアプリケーション12010を用いてサービスを提供する(矢印12040)。
以上、いずれのクラウドサービスの類型においても、サービスプロバイダ11200がサービスを提供する。また、例えば、サービスプロバイダ又はデータセンタ運営会社は、OS、アプリケーション又はビッグデータのデータベース等を自ら開発してもよいし、また、第三者に外注させてもよい。
本開示は、機械翻訳方法、及び、機械翻訳システムに利用でき、特に、PCアプリ、Webアプリ、スマートフォンアプリ等、簡単に利用可能な機械翻訳システム及び機械翻訳システムにおける機械翻訳方法に利用することができる。
10、10A、90 機械翻訳システム
11、91 音声入力部
12、92 音声認識部
13、93 翻訳部
14、94 音声合成部
15、95 音声出力部
16、16A 翻訳判定処理部
17、23 ディスプレイ
20 情報端末
21 通信部
22、163 記憶部
30 通信手段
41、42、43、44 サーバ
50 話し手
51 聞き手
110 音声認識処理部
130 翻訳処理部
140 音声合成処理部
161 取得部
162、162A 判定部
164 出力部

Claims (12)

  1. 機械翻訳システムにおける機械翻訳方法であって、
    記憶部において、第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された前記第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって前記特定単語または前記特定文と翻訳等価性のない第2特定テキスト情報、及び、当該第2特定テキスト情報の第2音声データの少なくも一方が対応付けられて記憶されており、
    前記第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得ステップと、
    前記取得ステップにおいて取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれているか否かを判定する判定ステップと、
    前記判定ステップにおいて、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていることが判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する出力ステップとを含む、
    機械翻訳方法。
  2. 前記判定ステップでは、前記翻訳前テキスト情報と、前記記憶部において記憶されている前記第1特定テキスト情報とが一致するか否かを判定し、
    前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報と前記第1特定テキスト情報とが一致すると判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する、
    請求項1に記載の機械翻訳方法。
  3. 前記記憶部では、前記第2特定テキスト情報にはそれぞれ、2以上の前記第1特定テキスト情報と、前記2以上の前記第1特定テキスト情報の各々が、文中において現れるべき順序を示す順序情報とが対応付けられて記憶されており、
    前記判定ステップにおいて、前記取得ステップにおいて取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記2以上の第1特定テキスト情報が含まれ、かつ、前記2以上の第1特定テキスト情報が、前記順序情報の示す順序で含まれているか否かを判定し、
    前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記記憶部において記憶されている前記2以上の第1特定テキスト情報が含まれ、かつ、前記2以上の第1特定テキスト情報が前記順序情報の示す順序で含まれていると判定された場合、前記2以上の前記第1特定テキスト情報及び前記順序情報に対応する前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する、
    請求項1に記載の機械翻訳方法。
  4. 前記記憶部では、一の前記第2特定テキスト情報に、異なる一以上の前記第1特定テキスト情報であってそれぞれ同一の特定単語を含み異なる特定文を示す一以上の前記第1特定テキスト情報が対応付けて記憶されている、
    請求項1または2に記載の機械翻訳方法。
  5. 前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていないと判定された場合、前記翻訳前テキスト情報が前記第2言語に翻訳された翻訳後テキスト情報が出力される、
    請求項1〜4のいずれか1項に記載の機械翻訳方法。
  6. 前記出力ステップでは、前記判定ステップにおいて、前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれると判定された場合、前記翻訳後テキスト情報は出力されない、
    請求項5に記載の機械翻訳方法。
  7. 前記記憶部では、さらに、前記第2特定テキスト情報が前記第1言語に翻訳された第3特定テキスト情報を、前記第1特定テキスト情報及び前記第2特定テキスト情報のうち少なくとも前記第2特定テキスト情報に対応付けて記憶されており、
    前記出力ステップでは、前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を出力する場合、さらに、前記第3特定テキスト情報を出力する、
    請求項1〜6のいずれか1項に記載の機械翻訳方法。
  8. 前記出力ステップにおいて出力された前記第3特定テキスト情報は、ディスプレイにおいて表示される、
    請求項7に記載の機械翻訳方法。
  9. 前記機械翻訳システムは、所定の通信手段により、ディスプレイを有する情報端末と接続されており、
    前記出力ステップでは、前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、前記所定の通信手段により、前記情報端末に出力する、
    請求項1〜8のいずれか1項に記載の機械翻訳方法。
  10. 前記情報端末では、前記出力ステップにおいて前記第2特定テキスト情報が出力された場合、前記第2特定テキスト情報に音声合成処理を行い第2音声データを生成し、生成した前記第2音声データが示す音声を出力する、
    請求項9のいずれか1項に記載の機械翻訳方法。
  11. 前記機械翻訳方法は、前記第1言語を発話する者と前記第2言語を発話する者との間の所定の状況において用いられる、
    請求項1〜10のいずれか1項に記載の機械翻訳方法。
  12. 第1言語で表現された特定単語または特定文を示す第1特定テキスト情報と、予め用意された前記第1言語と異なる言語である第2言語で表現された単語または文である定型文を示す第2特定テキスト情報であって前記特定単語または前記特定文と翻訳等価性のない第2特定テキスト情報及び当該第2特定テキスト情報の第2音声データの少なくも一方を対応付けて記憶する記憶部と、
    前記第1言語で発話された入力音声を表す第1音声データがテキスト情報に変換されて生成された翻訳前テキスト情報を取得する取得部と、
    前記取得部において取得した前記翻訳前テキスト情報に、前記記憶部において記憶されている前記第1特定テキスト情報が含まれているか否かを判定する判定部と、
    前記判定部により、前記翻訳前テキスト情報に、前記第1特定テキスト情報が含まれていることが判定された場合、前記記憶部において記憶され、かつ、前記第1特定テキスト情報に対応付けられている前記第2特定テキスト情報及び当該第2特定テキスト情報の前記第2音声データの少なくも一方を、出力する出力部とを備える、
    機械翻訳システム。
JP2016145755A 2015-12-25 2016-07-25 機械翻訳方法、及び、機械翻訳システム Withdrawn JP2017120616A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610903217.2A CN106919559A (zh) 2015-12-25 2016-10-17 机器翻译方法以及机器翻译***
US15/371,258 US20170185587A1 (en) 2015-12-25 2016-12-07 Machine translation method and machine translation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015253935 2015-12-25
JP2015253935 2015-12-25

Publications (1)

Publication Number Publication Date
JP2017120616A true JP2017120616A (ja) 2017-07-06

Family

ID=59272110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016145755A Withdrawn JP2017120616A (ja) 2015-12-25 2016-07-25 機械翻訳方法、及び、機械翻訳システム

Country Status (2)

Country Link
JP (1) JP2017120616A (ja)
CN (1) CN106919559A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7197259B2 (ja) * 2017-08-25 2022-12-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置およびプログラム
CN110021290A (zh) * 2018-01-08 2019-07-16 上海西门子医疗器械有限公司 医疗***和用于医疗***的实时语言转换方法
US11182567B2 (en) * 2018-03-29 2021-11-23 Panasonic Corporation Speech translation apparatus, speech translation method, and recording medium storing the speech translation method
WO2019208860A1 (ko) * 2018-04-27 2019-10-31 주식회사 시스트란인터내셔널 음성 인식 기술을 이용한 다자간 대화 기록/출력 방법 및 이를 위한 장치
CN111785258B (zh) * 2020-07-13 2022-02-01 四川长虹电器股份有限公司 一种基于说话人特征的个性化语音翻译方法和装置
CN115278331B (zh) * 2022-06-23 2023-10-20 中译语通科技股份有限公司 基于机器翻译的多语言字幕展示方法、***、设备及介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197744A (ja) * 1992-01-17 1993-08-06 Nippon Hoso Kyokai <Nhk> 外国語ワードプロセッサ
AUPR956901A0 (en) * 2001-12-17 2002-01-24 Jayaratne, Neville Real time translator
US7353165B2 (en) * 2002-06-28 2008-04-01 Microsoft Corporation Example based machine translation system
US20040102201A1 (en) * 2002-11-22 2004-05-27 Levin Robert E. System and method for language translation via remote devices
CN101008942A (zh) * 2006-01-25 2007-08-01 北京金远见电脑技术有限公司 机器翻译装置和机器翻译方法
US20080133245A1 (en) * 2006-12-04 2008-06-05 Sehda, Inc. Methods for speech-to-speech translation
WO2009038209A1 (ja) * 2007-09-20 2009-03-26 Nec Corporation 機械翻訳システム、機械翻訳方法及び機械翻訳プログラム
US20110238407A1 (en) * 2009-08-31 2011-09-29 O3 Technologies, Llc Systems and methods for speech-to-speech translation
US8775156B2 (en) * 2010-08-05 2014-07-08 Google Inc. Translating languages in response to device motion

Also Published As

Publication number Publication date
CN106919559A (zh) 2017-07-04

Similar Documents

Publication Publication Date Title
JP2017120616A (ja) 機械翻訳方法、及び、機械翻訳システム
US11049493B2 (en) Spoken dialog device, spoken dialog method, and recording medium
US10229674B2 (en) Cross-language speech recognition and translation
US9646001B2 (en) Machine translation (MT) based spoken dialog systems customer/machine dialog
JP5598998B2 (ja) 音声翻訳システム、第一端末装置、音声認識サーバ装置、翻訳サーバ装置、および音声合成サーバ装置
JP6327848B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびプログラム
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
WO2015096564A1 (zh) 一种在线语音翻译方法和装置
JP2017107078A (ja) 音声対話方法、音声対話装置及び音声対話プログラム
WO2019111346A1 (ja) 双方向音声翻訳システム、双方向音声翻訳方法及びプログラム
KR20170033722A (ko) 사용자의 발화 처리 장치 및 방법과, 음성 대화 관리 장치
US20120136646A1 (en) Data Security System
KR102445519B1 (ko) 대화형 지능 서비스 제공 챗봇 제작 시스템 및 방법
JP2015176099A (ja) 対話システム構築支援装置、方法、及びプログラム
JP2016071439A (ja) 翻訳方法及び翻訳システム
JP2015055979A (ja) データを変換する装置及び方法
CN106713111B (zh) 一种添加好友的处理方法、终端及服务器
JP2018197924A (ja) 情報処理装置、対話処理方法、及び対話処理プログラム
JP2015170094A (ja) 翻訳装置及び翻訳方法
US20170185587A1 (en) Machine translation method and machine translation system
JP5998298B1 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP5300576B2 (ja) 検索装置、検索方法、および検索プログラム
WO2016136208A1 (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法
KR20200134573A (ko) 대화문맥 학습 기반 자동 번역 장치 및 방법
JP6475049B2 (ja) 相手方ユーザの対話文に対する支援情報を明示する端末、プログラム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190207

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20190603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614