JP7330066B2 - 音声認識装置、音声認識方法及びそのプログラム - Google Patents

音声認識装置、音声認識方法及びそのプログラム Download PDF

Info

Publication number
JP7330066B2
JP7330066B2 JP2019197289A JP2019197289A JP7330066B2 JP 7330066 B2 JP7330066 B2 JP 7330066B2 JP 2019197289 A JP2019197289 A JP 2019197289A JP 2019197289 A JP2019197289 A JP 2019197289A JP 7330066 B2 JP7330066 B2 JP 7330066B2
Authority
JP
Japan
Prior art keywords
speaker
unit
speech
speech recognition
speakers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019197289A
Other languages
English (en)
Other versions
JP2020160431A (ja
Inventor
剛樹 西川
博基 古川
敦 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to CN202010230365.9A priority Critical patent/CN111755000A/zh
Priority to US16/826,899 priority patent/US11315572B2/en
Publication of JP2020160431A publication Critical patent/JP2020160431A/ja
Application granted granted Critical
Publication of JP7330066B2 publication Critical patent/JP7330066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Machine Translation (AREA)

Description

本開示は、音声認識装置、音声認識方法及び音声認識方法を用いたプログラムに関する。
例えば特許文献1には、ユーザによる発話タイミングの指示を取得する発話タイミング指示取得手段と、入力される音声信号を保持し、発話タイミング指示取得手段により発話開始の指示が取得された場合、保持している音声信号及びそれ以降に入力される音声信号を出力する音声信号保持手段と、音声信号保持手段により出力された音声信号から発話区間を検出する発話区間検出手段と、発話区間の時刻情報と、発話タイミングの指示の有無及び時刻情報とを比較し、ユーザの誤操作として検知する誤操作検知手段とを備える音声認識装置が開示されている。
この音声認識装置では、ユーザの誤操作を検知することで、検知した誤操作をユーザに通知することができる。
特許第5375423号公報
しかしながら、特許文献1に開示される技術において、例えば第1話者が音声認識装置の保有者である場合、第1話者は、自身が所有している音声認識装置の使用方法を理解しているため、自身の発話を音声認識装置に認識させるために、正しい操作を行うことができる。このため、第1話者は、自身が発話する音声の話し始めから終わりまで、音声認識装置に認識させることができる。しかし、第1話者の会話相手の第2話者は音声認識装置の使用方法を知らず、第1話者は第2話者が発話するタイミングを認識することができない。このため、第1話者は、第2話者が発話する音声の話し始めから終わりまでを、音声認識装置に認識させることは困難である。これにより、第2話者が発話した音声の音声認識を十分に行うことができないため、第1話者は、再度、第2話者に対して発話をして貰うように促す必要がある。
そこで、本開示は、上述の事情を鑑みてなされたもので、確実に会話相手の音声を取得することで、会話相手の音声を音声認識することができる音声認識装置、音声認識方法及びプログラムを提供することを目的とする。
本開示の一態様に係る音声認識装置は、第1話者と、前記第1話者の会話相手である1以上の第2話者とが会話を行うための音声認識装置であって、前記第1話者及び前記1以上の第2話者の会話のそれぞれの音声を取得する取得部と、前記取得部が取得した前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声を記憶する記憶部と、少なくとも前記第1話者からの操作入力を受付ける入力部と、前記記憶部に記憶される前記それぞれの音声から発話を開始した開始位置を、前記入力部への操作入力に応じて音声ごとに検出する発話開始検出部と、音声ごとに設定される、前記入力部への操作入力を受付けた第1時点と前記発話開始検出部が前記それぞれの音声から検出した発話の開始位置を示す第2時点とに基づいて、前記第1話者及び前記1以上の第2話者のうちから、前記入力部への操作入力を行った前記第1話者か前記入力部への操作入力を行っていない前記1以上の第2話者かを区別する発話者区別部とを備え、前記発話者区別部によって前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声における開始位置以降の音声は、音声認識部によって音声認識される。
なお、これらのうちの一部の具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD-ROM等の記録媒体を用いて実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせを用いて実現されてもよい。
本開示の音声認識装置等によれば、確実に会話相手の音声を取得することで、会話相手の音声を音声認識することができる。
図1Aは、実施の形態1における音声認識装置を搭載した音声翻訳装置の外観と、第1話者と第2話者との音声翻訳装置の使用場面の一例を示す図である。 図1Bは、実施の形態1における別の音声翻訳装置の外観の一例を示す図である。 図2は、実施の形態1における音声翻訳装置を示すブロック図である。 図3は、第1話者が発話した場合の音声翻訳装置の動作を示すフローチャートである。 図4は、第1話者と第2話者とが会話する際の、第1時点と第2時点との時系列を例示した図である。 図5は、第2話者が発話した場合の音声翻訳装置の動作を示すフローチャートである。 図6は、実施の形態1における音声翻訳装置の発話者区別部における動作を示すフローチャートである。 図7は、実施の形態2における音声翻訳装置を示すブロック図である。
本開示の一態様に係る音声認識装置は、第1話者と、前記第1話者の会話相手である1以上の第2話者とが会話を行うための音声認識装置であって、前記第1話者及び前記1以上の第2話者の会話のそれぞれの音声を取得する取得部と、前記取得部が取得した前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声を記憶する記憶部と、少なくとも前記第1話者からの操作入力を受付ける入力部と、前記記憶部に記憶される前記それぞれの音声から発話を開始した開始位置を、前記入力部への操作入力に応じて音声ごとに検出する発話開始検出部と、音声ごとに設定される、前記入力部への操作入力を受付けた第1時点と前記発話開始検出部が前記それぞれの音声から検出した発話の開始位置を示す第2時点とに基づいて、前記第1話者及び前記1以上の第2話者のうちから、前記入力部への操作入力を行った前記第1話者か前記入力部への操作入力を行っていない前記1以上の第2話者かを区別する発話者区別部とを備え、前記発話者区別部によって前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声における開始位置以降の音声は、音声認識部によって音声認識される。
そこで、本開示では、第1話者及び1以上の第2話者の会話によるそれぞれ音声が記憶部に記憶されるため、記憶された音声から第1話者か第2話者かを区別することができる。これにより、音声認識部は、区別の処理が行われた第1話者及び第2話者のそれぞれの音声を、記憶部から読み出して音声認識することができる。つまり、第1話者が入力部への操作入力をした後に第1話者が発話すれば、音声認識部は、第1話者が発話した音声を音声認識することができる。また、通常は第1話者の発話が終了した後に第2話者が発話を開始するため、第2話者の発話に応じて第1話者が入力部への操作入力をすることで、音声認識部は、第2話者が発話した音声を音声認識することができる。
したがって、この音声認識装置では、確実に会話相手の音声を取得することで、会話相手の音声を音声認識することができる。
また、本開示の他の態様に係る音声認識方法は、第1話者と、前記第1話者の会話相手である1以上の第2話者とが会話を行うための音声認識方法であって、前記第1話者及び前記1以上の第2話者の会話のそれぞれの音声を取得することと、取得した前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声を記憶部に記憶することと、少なくとも前記第1話者からの入力部への操作入力を受付けることと、前記記憶部に記憶される前記それぞれの音声から発話を開始した開始位置を、前記入力部への操作入力に応じて音声ごとに検出することと、音声ごとに設定される、前記入力部への操作入力を受付けた第1時点と前記それぞれの音声から検出した発話の開始位置を示す第2時点とに基づいて、前記第1話者及び前記1以上の第2話者のうちから、前記入力部への操作入力を行った前記第1話者か前記入力部への操作入力を行っていない前記1以上の第2話者かを区別することと、前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声における開始位置以降の音声は、音声認識することとを含む。
この音声認識方法においても、上述の音声認識装置と同様の作用効果を奏する。
また、本開示の他の態様に係るプログラムは、音声認識方法をコンピュータに実行させるためのプログラムである。
このプログラムにおいても、上述の音声認識装置と同様の作用効果を奏する。
また、本開示の他の態様に係る音声認識装置において、前記発話者区別部は、前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声ごとに設定された前記第1時点と前記第2時点とを比較し、前記第1時点の方が前記第2時点よりも時間が早い時点の場合、前記第1話者及び前記1以上の第2話者のうちから前記第1話者を区別し、前記第2時点の方が前記第1時点よりも時間が早い時点の場合、前記第1話者及び前記1以上の第2話者のうちから前記第2話者を区別する。
これによれば、例えば第1話者が音声認識装置の保有者である場合、第1話者は、所有している音声認識装置の使用方法を理解しているものであるため、入力部に操作入力した後に発話を開始する。つまり、第1話者によって入力部への操作入力を受付けた第1時点は、第1話者が発話を開始した第2時点よりも時間が早くなるため、発話者区別部は、第1話者及び1以上の第2話者のうちから第1話者を区別することができる。また、第1話者は、第2話者が発話するタイミングを認識することができないため、第2話者が発話を開始してから、入力部に操作入力することとなる。つまり、第1話者によって入力部への操作入力を受付けた第1時点は、第1話者が発話を開始した第2時点よりも時間が遅くなるため、発話者区別部は、第1話者及び1以上の第2話者のうちから第2話者を区別することができる。
このように、発話者区別部は、第1時点に直近の発話した話者が第1話者か第2話者かを正確に区別することができる。このため、この音声認識装置では、より確実に第2話者の音声を取得することができるため、第2話者の音声を音声認識することができる。
また、本開示の他の態様に係る音声認識装置において、前記第1話者及び前記1以上の第2話者のうちから前記第1話者が区別された場合、前記音声認識部は、前記第1話者が発話した音声を音声認識し、前記第1話者及び前記1以上の第2話者のうちから第2話者が区別された場合、前記音声認識部は、前記第2話者が発話した音声を音声認識する。
これによれば、発話した話者が第1話者か第2話者かを発話者区別部が区別することで、音声認識部は、第1話者及び第2話者が発話したそれぞれの音声を、より確実に音声認識することができる。
また、本開示の他の態様に係る音声認識装置において、前記発話者区別部は、前記入力部が操作入力を受付けた前記第1時点から前後の期間である規定期間における前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声から、前記第1話者か前記第2話者かを区別する。
これによれば、第1話者か第2話者かを区別するために、第1時点を基点とする規定期間を設けることができる。このため、第1話者が操作入力した第1時点から第1時点よりも規定期間前までの間、又は、当該第1時点から規定期間が経過するまでの間に話者が発話した直近の音声が、第1話者か第2話者かを区別することができる。これにより、第1話者及び第2話者のそれぞれの音声を個別に認識することができる。このため、この音声認識装置では、第1話者か第2話者かを正確に区別することができる。
また、本開示の他の態様に係る音声認識装置において、前記入力部への操作入力を行った前記第1話者が発話した音声の音声認識をした後、前記記憶部は、前記第2話者の音声を記憶するために、前記取得部が取得した前記それぞれの音声の記憶を開始する。
通常、第1話者の発話が終了して第1話者の音声の内容を理解した後に、第2話者が発話を開始する。第1話者が発話した音声を音声認識した後、第2話者が発話する前に録音を開始するため、記憶部は、第2話者が発話した音声を確実に記憶することができる。また、少なくとも第1話者が発話を終了した時点から記憶部が録音を開始するまでの間、音声認識装置は、音声の記憶を中断することができる。このため、記憶部に記憶させるための音声認識装置の電力消費を抑制することができる。
また、本開示の他の態様に係る音声認識装置は、前記音声認識部を有するクラウドサーバと通信可能な通信部を備え、前記通信部は、前記発話者区別部によって前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声を前記クラウドサーバに送信し、前記クラウドサーバの前記音声認識部が前記それぞれの音声の開始位置以降の音声を音声認識した結果を受信する。
これによれば、第1話者及び1以上の第2話者が発話したそれぞれの音声を、クラウドサーバが音声認識するため、音声認識装置の処理負担を軽減することができる。
また、本開示の他の態様に係る音声認識装置は、前記発話者区別部によって前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声における開始位置以降の音声を音声認識する前記音声認識部を備える。
これによれば、音声認識装置が音声認識するため、外部のクラウドサーバに音声を送信する必要もないため、音声認識装置とクラウドサーバとの間の通信量の増加を抑制することができる。
また、本開示の他の態様に係る音声認識装置において、前記入力部は、前記音声認識装置に設けられた1つの操作ボタンである。
これによれば、第1話者は、音声認識装置の操作を簡易に行うことができる。
また、本開示の他の態様に係る音声認識装置において、前記入力部は、前記第1話者及び前記1以上の第2話者のそれぞれが発話する度に、前記第1話者からの操作入力を受付ける。
これによれば、第2話者に対して操作入力を委ねることを極力避け、第1話者が音声認識装置への操作入力を積極的に行うことで、第1話者及び第2話者のうちから一方の話者を確実に区別することができる。
なお、これらのうちの一部の具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD-ROM等の記録媒体を用いて実現されてもよく、システム、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせを用いて実現されてもよい。
以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
以下、本開示の一態様に係る音声認識装置、音声認識方法及びそのプログラムについて、図面を参照しながら具体的に説明する。
(実施の形態1)
<構成:音声翻訳装置1>
図1Aは、実施の形態1における音声認識装置10を搭載した音声翻訳装置1の外観と、第1話者と第2話者との音声翻訳装置1の使用場面の一例を示す図である。
図1Aに示すように、音声翻訳装置1は、第1言語で発話する第1話者と、第2言語で発話する1以上の第2話者との間の会話を認識し、認識した会話を双方向に翻訳する装置である。つまり、音声翻訳装置1は、第1話者と1以上の第2話者との異なる2つの言語間において、第1話者と1以上の第2話者とが発話したそれぞれの音声を認識し、認識した発話内容を相手の言語に翻訳する。第1言語は、第2言語と異なる言語である。第1言語及び第2言語は、日本語、英語、フランス語、ドイツ語、中国語等である。本実施の形態では、1名の第1話者と、1名の第2話者とが対面しながら会話する様子を例示する。
本実施の形態では、第1話者を音声翻訳装置1の所有者とし、音声翻訳装置1への操作入力は、主に第1話者によって行われる。つまり、第1話者は、音声翻訳装置1の操作方法を理解している、音声翻訳装置1の使用者である。
本実施の形態では、第1話者が発話する前に、第1話者が音声翻訳装置1に操作入力を行うことで、音声翻訳装置1は、第1話者が第1言語で発話した音声を認識する。音声翻訳装置1は、第1話者が第1言語で発話した音声を認識すると、認識した当該音声を第1言語である第1テキスト文(文字)で表示し、かつ、第1言語の当該音声を第2言語に翻訳した第2言語である第2テキスト文(文字)を表示するとともに、翻訳した第2言語である第2テキスト文を音声で出力する。このように、音声翻訳装置1は、音声認識された第1テキスト文と、翻訳された第2テキスト文と、翻訳された第2テキスト文の音声とを同時に出力する。
また、本実施の形態では、第2話者が発話した後に、第1話者が音声翻訳装置1に操作入力を行うことで、音声翻訳装置1は、第2話者が第2言語で発話した音声を認識する。音声翻訳装置1は、第2話者が第2言語で発話した音声を認識すると、認識した当該音声を第2言語である第2テキスト文で表示し、かつ、第2言語の当該音声を第1言語に翻訳した第1テキスト文を表示するとともに、翻訳された第1テキスト文を音声で出力する。このように、音声翻訳装置1は、音声認識された第2テキスト文と、翻訳された第1テキスト文と、翻訳された第1テキスト文の音声とを同時に出力する。
第1話者と第2話者は、音声翻訳装置1を用いて対面しながら会話したり、左右に並んで会話したりする。このため、音声翻訳装置1は、表示態様を変更してもよい。
音声翻訳装置1は、スマートホン及びタブレット端末等の、第1話者が携帯可能な携帯端末である。
次に、音声翻訳装置1の具体的な構成について説明する。
図2は、実施の形態1における音声翻訳装置1を示すブロック図である。
図2に示すように、音声翻訳装置1は、音声認識装置10と、翻訳処理部32と、表示部33と、音声出力部34と、電源部35とを有する。
[音声認識装置10]
音声認識装置10は、第1話者と、第1話者の会話相手である1以上の第2話者とが会話を行うための装置であり、第1言語で発話する第1話者と、第2言語で発話する第2話者との間の会話つまり音声を音声認識する装置である。
音声認識装置10は、入力部24と、取得部21と、記憶部22と、発話開始検出部23と、発話者区別部25と、音声認識部26とを備える。
入力部24は、少なくとも第1話者からの操作入力を受付ける操作入力部である。具体的には、入力部24は、第1話者が発話をする際に、発話直前に第1話者からの操作入力を受付けたり、第2話者が発話をする際に、発話直後に第1話者からの操作入力を受付けたりする。つまり、入力部24は、第1話者及び1以上の第2話者のそれぞれが発話する度に、第1話者からの操作入力を受付ける。入力部24への操作入力は、第1話者及び1以上の第2話者の会話のそれぞれの音声の音声認識をするかどうかのトリガーとなる。
また、入力部24は、第1話者からの操作入力によって、記憶部22への音声の録音を開始するトリガーとなってもよく、記憶部22への音声の録音を中止又は停止するトリガーとなってもよい。
入力部24は、操作入力に応じた入力信号を生成し、生成した入力信号を発話開始検出部23に出力する。また、入力部24は、第1話者からの操作入力を受付けた第1時点を含む入力信号を生成し、生成した入力信号を発話者区別部25に出力する。入力信号には、第1時点を示す情報(タイムスタンプ)が含まれる。
例えば、入力部24は、音声認識装置10に設けられた1つの操作ボタンである。入力部24は、音声認識装置10に2つ以上が設けられていてもよい。なお、本実施の形態では、入力部24は、音声翻訳装置1の表示部33と一体的に設けられるタッチセンサである。この場合、図1Bに示すように、音声翻訳装置1の表示部33には、第1話者による操作入力を受付ける操作ボタンである入力部24が複数表示されていてもよい。図1Bは、実施の形態1における別の音声翻訳装置の外観の一例を示す図である。
図1Aに示すように、取得部21は、第1話者及び1以上の第2話者の会話のそれぞれの音声を取得する。具体的に、取得部21は、第1話者及び1以上の第2話者の会話のそれぞれが発話した音声を取得し、取得した話者が発話した音声を含む音を音声信号に変換し、変換した音声信号を記憶部22に出力する。
取得部21は、音声を含む音声信号に変換することで、音声信号を取得するマイクロホン部である。なお、取得部21は、マイクロホンと電気的に接続される入力インターフェイスであってもよい。つまり、取得部21は、マイクロホンから、音声信号を取得してもよい。複数のマイクロホンから構成されるマイクロホンアレイ部であってもよい。取得部21は、音声認識装置10の周囲に存在する話者の音声を収音することができればよいため、話者認識装置1における取得部21の配置については特に限定されない。
記憶部22は、取得部21が取得した第1話者及び1以上の第2話者の会話のそれぞれの音声を記憶する。具体的には、記憶部22は、取得部21から取得した音声信号に含まれる音声の音声情報を記憶する。つまり、記憶部22には、第1話者及び1以上の第2話者の会話のそれぞれが発話した音声を含む音声情報が、自動的に記憶される。
記憶部22は、音声認識装置10が起動したとき、つまり音声翻訳装置1が起動したときに、録音を再開する。また、記憶部22は、音声翻訳装置1の起動後に、最初に第1話者が入力部24に操作入力をした時点から録音を開始してもよい。つまり、入力部24への操作入力によって、記憶部22は音声の録音を開始してもよい。また、記憶部22は、入力部24への操作入力によって、音声の録音を中止又は停止してもよい。
また、記憶部22は、例えば入力部24への操作入力を行った第1話者が発話した音声についての音声認識をした後に、第2話者の音声を記憶するために、取得部21が取得した音声の記憶を開始する。つまり、記憶部22は、少なくとも、第1話者が発話した音声の音声情報の記憶後から当該音声の音声認識後までの間、取得部21が取得した音を記憶しない。
なお、記憶部22に記憶される容量には限りがあるため、記憶部22に記憶された音声情報は、規定容量に達すると、自動的に古い音声データから削除してもよい。つまり、音声情報には、話者の音声と、日時を示す情報(タイムスタンプ)が付加されていてもよい。
また、記憶部22は、HDD(Hard Disk Drive)又は半導体メモリ等で構成される。
発話開始検出部23は、第1話者による入力部24への操作入力後、記憶部22に記憶されるそれぞれの音声から発話を開始した開始位置を、入力部への操作入力に応じて音声ごとに検出する検出装置である。具体的には、発話開始検出部23は、記憶部22に記憶されるそれぞれの音声において、第1話者による入力部24への操作入力をした第1時点から規定期間が経過するまでの間に第1話者が発話した音声であって、第1話者の発話によって記憶された音声情報に示される音声の開始位置を検出する。つまり、発話開始検出部23は、入力部24への操作入力完了時の第1時点から規定期間が経過するまでの間に、第1話者が発話した音声の発話開始の第2時点である開始位置を検出する。
また、発話開始検出部23は、記憶部22に記憶されるそれぞれの音声において、第1話者による入力部24への操作入力をした第1時点から第1時点よりも規定期間前までの間に第2話者が発話を開始した音声であって、第2話者の発話によって記憶された音声情報に示される音声の開始位置を検出する。つまり、発話開始検出部23は、入力部24への操作入力完了時の第1時点から第1時点よりも規定期間前までの間に、第2話者が発話した音声の発話開始の第2時点である開始位置を検出する。
発話開始検出部23は、音声の開始位置を示す開始位置情報を生成し、生成した開始位置情報を、発話者区別部25及び音声認識部26に出力する。開始位置情報は、第1話者が発話した音声の発話開始時点である開始位置を示す情報(タイムスタンプ)であり、第2話者が発話した音声の発話開始時点である開始位置を示す情報(タイムスタンプ)である。
発話者区別部25は、入力部24から入力信号を取得すると、音声ごとに設定される、第1話者による入力部24への操作入力を受付けた第1時点と発話開始検出部23がそれぞれの音声から検出した発話の開始位置の第2時点とに基づいて、入力部24への操作入力を行った第1話者か、入力部24への操作入力を行っていない第2話者かを区別する。
具体的には、発話者区別部25は、第1話者及び1以上の第2話者の会話のそれぞれの音声ごとに設定された第1時点と第2時点とを比較する。より具体的には、発話者区別部25は、入力部24から取得した入力信号に含まれる第1時点と、当該第1時点から前後の期間である規定期間内の音声の発話開始位置である第2時点とを比較する。これにより、発話者区別部25は、第1話者か第2話者かを区別する。
例を挙げれば、発話者区別部25は、第1時点の方が第2時点よりも時間が早い時点の場合、第1話者が発話した音声が音声認識装置10に入力(記憶部22に記憶)されたと判定し、第1話者及び第2話者のうちから第1話者を区別する。また、発話者区別部25は、第2時点の方が第1時点よりも時間が早い時点の場合、第2話者が発話した音声が音声認識装置10に入力(記憶部22に記憶)されたと判定し、第1話者及び第2話者のうちから第2話者を区別する。
また、発話者区別部25は、入力部24が第1話者からの操作入力を受付けた第1時点から前後の期間である規定期間における第1話者及び1以上の第2話者が発話したそれぞれの音声から、第1話者か第2話者かを区別する。具体的には、1以上の第1話者と1以上の第2話者とが会話する中で、発話者区別部25は、入力部24が操作入力を受付けた第1時点を基点として、第1時点から第1時点よりも規定期間前までの間、又は、当該第1時点から規定期間が経過するまでの間において、話者が発話した直近の音声を、記憶部22に記憶されているそれぞれの音声の中から選択する。発話者区別部25は、選択した音声によって、第1話者か第2話者かを区別する。ここで規定期間は、例えば、1秒、2秒等の数秒間であり、例えば10秒間であってもよい。これにより、発話者区別部25は、第1話者及び1以上の第2話者のそれぞれが直近に発話したそれぞれの音声ごとの第1時点と第2時点とに基づいて、第1話者か第2話者かを区別する。これは、古すぎる音声に基づいて、発話者区別部25が第1話者か第2話者かを区別しても、直近に発話した話者が第1話者か第2話者かを正確に区別することができなくなる不具合を避けるためである。
発話者区別部25は、話者を区別した結果を含む結果情報を、音声認識部26に出力する。結果情報は、第1話者の発話によって記憶された音声情報が、区別された第1話者であることを示す情報、又は、第2話者の発話によって記憶された音声情報が、区別された第2話者であることを示す情報を含む。
音声認識部26は、発話者区別部25から結果情報と、発話開始検出部23から開始位置情報とを取得すると、結果情報と開始位置情報とに基づいて、発話者区別部25によって区別の処理が行われた第1話者及び1以上の第2話者のそれぞれの音声における開始位置以降の音声を、音声認識する。具体的には、音声認識部26は、第1話者及び1以上の第2話者のうちから第1話者が区別された場合、区別された第1話者が直近に発話した音声の音声情報に示される当該音声を第1言語で音声認識する。また、音声認識部26は、第1話者及び1以上の第2話者のうちから第2話者が区別された場合、区別された第2話者が直近に発話した音声の音声情報に示される当該音声を第2言語で音声認識する。音声認識は音声認識部26が話者の発話した音声の内容を第1言語及び第2言語で認識することである。認識した当該音声の内容を示す第1テキスト文及び第2テキスト文は、音声認識部26によって生成される。音声認識部26は、生成した第1テキスト文及び第2テキスト文を翻訳処理部32に出力する。
[翻訳処理部32]
翻訳処理部32は、音声認識部26から取得したテキスト文に基づいて、テキスト文に示される認識された言語(認識言語)を別の言語に翻訳し、翻訳した別の言語である翻訳言語で示されたテキスト文を生成する。
具体的には、翻訳処理部32は、音声認識部26から第1テキスト文を取得すると、第1テキスト文に示される第1言語から第2言語に翻訳し、第2言語に翻訳された第2テキスト文を生成する。翻訳処理部32は、第2テキスト文の内容を認識し、認識した第2テキスト文の内容を示す第2言語の翻訳音声を生成する。翻訳処理部32は、生成した第1テキスト文及び第2テキスト文を表示部33に出力するとともに、生成した第2言語の翻訳音声を示す情報を音声出力部34に出力する。
また、翻訳処理部32は、音声認識部26から第2テキスト文を取得すると、第2テキスト文に示される第2言語から第1言語に翻訳し、第1言語に翻訳された第1テキスト文を生成する。翻訳処理部32は、第1テキスト文の内容を認識し、認識した第1テキスト文の内容を示す第1言語の翻訳音声を生成する。翻訳処理部32は、生成した第2テキスト文及び第1テキスト文を表示部33に出力するとともに、生成した第1言語の翻訳音声を示す情報を音声出力部34に出力する。
なお、音声翻訳装置1は翻訳処理部32を有していなくてもよく、クラウドサーバが翻訳処理部32を有していてもよい。この場合、音声翻訳装置1はネットワークを介してクラウドサーバと通信可能に接続され、音声認識装置10が音声認識した第1テキスト文又は第2テキスト文をクラウドサーバに送信してもよい。また、音声翻訳装置1は、翻訳された第2テキスト文又は第1テキスト文と、翻訳音声とを受信し、受信した第2テキスト文又は第1テキスト文を表示部33に出力し、受信した翻訳音声を音声出力部34に出力してもよい。
[表示部33]
表示部33は、例えば、液晶パネル、又は、有機ELパネル等のモニタである。表示部33は、翻訳処理部32から取得した第1テキスト文及び第2テキスト文を表示する。
表示部33は、音声認識装置10に対する第1話者と第2話者との位置関係に応じて、第1テキスト文及び第2テキスト文を表示する画面レイアウトを変更する。例えば、表示部33は、第1話者が発話すると、第1話者側に位置する表示部33の領域に音声認識された第1テキスト文を表示し、第2話者側に位置する表示部33の領域に翻訳された第2テキスト文を表示する。また、表示部33は、第2話者が発話すると、第2話者側に位置する表示部33の領域に音声認識された第2テキスト文を表示し、第1話者側に位置する表示部33の領域に翻訳された第1テキスト文を表示する。これらの場合、表示部33は、第1テキスト文と第2テキスト文との文字の向きが逆さまとなって表示する。なお、表示部33は、第1話者と第2話者とが左右に並んで会話する場合、第1テキスト文と第2テキスト文との文字の向きが同一となるように表示する。
[音声出力部34]
音声出力部34は、翻訳処理部32から取得した翻訳音声を示す情報に示される翻訳音声を出力するスピーカである。つまり、音声出力部34は、第1話者が発話した場合、表示部33に表示される第2テキスト文と同様の内容の翻訳音声を再生して出力する。また、音声出力部34は、第2話者が発話した場合、表示部33に表示される第1テキスト文と同様の内容の翻訳音声を再生して出力する。
[電源部35]
電源部35は、例えば一次電池又は二次電池等であり、配線を介して音声認識装置10、翻訳処理部32、表示部33及び音声出力部34等と電気的に接続される。電源部35は、音声認識装置10、翻訳処理部32、表示部33及び音声出力部34等に電力を供給する。なお、本実施の形態では、電源部35は、音声翻訳装置1に設けられているが、音声認識装置10に設けられていてもよい。
<動作>
以上のように構成される音声翻訳装置1が行う動作について説明する。
図3は、実施の形態1における音声翻訳装置1の動作を示すフローチャートである。図4は、第1話者と第2話者とが会話する際の、第1時点と第2時点との時系列を例示した図である。図3及び図4では、第1話者と第2話者とが一対一で会話する場合を想定する。また、音声翻訳装置1の所有者を第1話者とし、第1話者が主体的に音声翻訳装置1の操作を行う場合を想定する。また、音声翻訳装置1には、第1話者が第1言語による発話を行うことを予め設定し、第2話者が第2言語による発話を行うことを予め設定する。
図1A、図3及び図4に示すように、まず、第1話者と第2話者とが会話を行う際に、第1話者は、音声を発する前に、入力部24に対して操作入力する。つまり、入力部24は、第1話者からの操作入力を受付ける(S11)。具体的には、入力部24は、受付けた操作入力に応じた入力信号を生成し、生成した入力信号を発話開始検出部23に出力する。また、入力部24は、第1話者からの操作入力を受付けた第1時点を含む入力信号を生成し、生成した入力信号を発話者区別部25に出力する。
次に、第1話者は、音声認識装置10の所有者であり、自身が発話するタイミングを当然に理解しているものであるため、入力部24に対して操作入力した後に発話を開始する。音声認識装置10は、第1話者と第2話者とが会話を行う際に、一方の話者が発話した音声を取得する(S12)。つまり、一方の話者が発話すると、取得部21は、一方の話者が発話した音声を取得する。取得部21は、取得した一方の話者が発話した音声を含む音声信号に変換し、変換した音声信号を記憶部22に出力する。
次に、記憶部22は、ステップS12で取得部21から取得した音声信号に含まれる音声の音声情報を記憶する(S13)。つまり、記憶部22には、一方の話者が発話した直近の音声の音声情報が自動的に記憶される。
次に、発話開始検出部23は、入力部24から入力信号を取得すると、ステップS13で記憶部22に記憶された音声において、発話を開始した開始位置(第2時点)を検出する(S14)。具体的には、発話開始検出部23は、第1話者による入力部24への操作入力した直後に一方の話者が発話した音声であって、一方の話者の発話によって記憶された音声情報に示される音声の開始位置を検出する。
発話開始検出部23は、音声の開始位置を示す開始位置情報を生成し、生成した開始位置情報を発話者区別部25及び音声認識部26に出力する。
次に、発話者区別部25は、入力部24から入力信号を取得すると、音声ごとに設定される、第1時点と第2時点とに基づいて、一方の話者が、入力部24への操作入力を行った第1話者か、入力部24への操作入力を行っていない第2話者かを区別する(S15a)。具体的には、発話者区別部25は、第1時点と第2時点とを比較する。つまり、発話者区別部25は、第1時点が第2時点よりも時間が早い時点かどうかを判定する。
例えば、発話者区別部25は、第1時点の方が第2時点よりも時間が早い時点の場合、一方の話者である第1話者が発話した音声が音声認識装置10に入力(記憶部22に記憶)されたと判定し、第1話者及び第2話者のうちから第1話者を区別する。また、発話者区別部25は、第2時点の方が第1時点よりも時間が早い時点の場合、他方の話者である第2話者が発話した音声が音声認識装置10に入力(記憶部22に記憶)されたと判定し、第1話者及び第2話者のうちから第2話者を区別する。
ここでは、第1時点の方が第2時点よりも時間が早い時点であるため、発話者区別部25は、第1話者が発話した音声が音声認識装置10に入力(記憶部22に記憶)されたと判定し、第1話者及び第2話者のうちから第1話者を区別する。発話者区別部25は、話者を区別した結果を含む結果情報を、音声認識部26に出力する。結果情報は、ステップS12の音声情報が、区別された第1話者であることを示す情報を含む。
次に、音声認識部26は、発話者区別部25から結果情報と、発話開始検出部23から開始位置情報とを取得すると、結果情報と開始位置情報とに基づいて、発話者区別部25によって区別の処理が行われた第1話者の音声を音声認識する(S16)。
具体的には、音声認識部26は、第1話者が直近に発話したステップS12の音声の音声情報を、発話開始検出部23を介して記憶部22から取得する。音声認識部26は、発話開始検出部23を介して記憶部22から取得した音声情報に示される第1話者が発話した当該音声を、音声認識する。
より具体的には、音声認識部26は、第1話者が発話した音声の内容を第1言語で認識し、認識した当該音声の内容を示す第1テキスト文を生成する。つまり、この第1テキスト文の内容は、第1話者が発話した音声の内容と一致し、第1言語で示される。音声認識部26は、生成した第1テキスト文を翻訳処理部32に出力する。
翻訳処理部32は、音声認識部26から第1テキスト文を取得すると、第1言語から第2言語に翻訳し、第2言語に翻訳された第2テキスト文を生成する。つまり、第2言語で示された第2テキスト文の内容は、第1言語で示された第1テキスト文の内容と一致する。
翻訳処理部32は、第2テキスト文の内容を認識し、認識した第2テキスト文の内容を示す第2言語の翻訳音声を生成する。
翻訳処理部32は、生成した第1テキスト文及び第2テキスト文を表示部33に出力するとともに、生成した第2言語の翻訳音声を示す情報を音声出力部34に出力する。
表示部33は、翻訳処理部32から取得した第1テキスト文及び第2テキスト文を表示する。具体的には、表示部33は、第1話者側に位置する画面に第1テキスト文を表示し、第2話者側に位置する画面に第2テキスト文を表示する。表示部33は、第1話者が第1テキスト文を読めるように、第1話者に対して第1テキスト文の文字の向きを正向きで表示し、第2話者が第2テキスト文を読めるように、第2話者に対して第2テキスト文の文字の向きを正向きで表示する。つまり、第1テキスト文の文字の向きは、第2テキスト文の文字の向きに対して逆さまになっている。
また、音声出力部34は、翻訳処理部32から取得した、第2言語の翻訳音声を示す情報に示される第2言語の翻訳音声を出力する。つまり、音声出力部34は、第1言語から第2言語に翻訳された翻訳音声を出力する。これにより、第2言語の翻訳音声を聞いた第2話者は、第1話者が発話した音声を理解することができる。また、表示部33には、第2テキスト文で表示されるため、第2話者は、確実に第1話者が発話した音声を文字でも理解することができる。
次に、第2話者が発話する場合について、図5を用いて説明する。図5は、第2話者が発話した場合の音声翻訳装置の動作を示すフローチャートである。図3と同様の処理については適宜説明を省略する。
図1A、図4及び図5に示すように、まず、第1話者は、話者である第2話者が発話するタイミングを認識できないものであるため、第2話者が発話した後に、入力部24に対して操作入力する。
まず、音声認識装置10は、第1話者と第2話者とが会話を行う際に、他方の話者が発話した音声を取得する(S21)。つまり、他方の話者が発話すると、取得部21は、他方の話者が発話した音声を取得する。取得部21は、取得した他方の話者が発話した音声を含む音声信号に変換し、変換した音声信号を記憶部22に出力する。
次に、他方の話者は、第2言語による音声で発話する。第1話者は、第1話者と第2話者とが会話を行う際において、他方の話者が音声を発した後に、入力部24に対して操作入力する。つまり、入力部24は、第1話者からの操作入力を受付ける(S22)。具体的には、入力部24は、受付けた操作入力に応じた入力信号を発話開始検出部23に出力し、操作入力を受付けた時点(第1時点)を含む入力信号を発話者区別部25に出力する。
次に、記憶部22は、ステップS21で取得部21から取得した音声信号に含まれる音声の音声情報を記憶する(S13)。つまり、記憶部22には、他方の話者が発話した直近の音声の音声情報が自動的に記憶される。
次に、発話開始検出部23は、第1話者による入力部24への操作入力した直前に他方の話者が発話した音声であって、他方の話者の発話によって記憶された音声情報に示される音声の開始位置(第2時点)を検出する(S14)。
発話開始検出部23は、音声の開始位置を示す開始位置情報を生成し、生成した開始位置情報を発話者区別部25及び音声認識部26に出力する。
次に、発話者区別部25は、第1時点と第2時点とを比較し、第1時点が第2時点よりも時間が早い時点かどうかを判定することで、他方の話者が第1話者か第2話者かを区別する(S15b)。
ここでは、第2時点の方が第1時点よりも時間が早い時点であるため、発話者区別部25は、他方の話者である第2話者が発話した音声が音声認識装置10に入力(記憶部22に記憶)されたと判定し、第1話者及び第2話者のうちから第2話者を区別する。発話者区別部25は、話者を区別した結果を含む結果情報を、音声認識部26に出力する。結果情報は、ステップS21の音声情報が、区別された第2話者であることを示す情報を含む。
次に、音声認識部26は、発話者区別部25から結果情報と、発話開始検出部23から開始位置情報とを取得すると、結果情報と開始位置情報とに基づいて、発話者区別部25によって区別の処理が行われた第2話者の音声を音声認識する(S16)。
具体的には、音声認識部26は、第2話者が直近に発話したステップS21の音声の音声情報を、発話開始検出部23を介して記憶部22から取得する。音声認識部26は、発話開始検出部23を介して記憶部22から取得した音声情報に示される第2話者が発話した当該音声を、音声認識する。
より具体的には、音声認識部26は、第2話者が発話した音声の内容を第2言語で認識し、認識した当該音声の内容を示す第2テキスト文を生成する。つまり、この第2テキスト文の内容は、第2話者が発話した音声の内容と一致し、第2言語で示される。音声認識部26は、生成した第2テキスト文を翻訳処理部32に出力する。
翻訳処理部32は、音声認識部26から第2テキスト文を取得すると、第2言語から第1言語に翻訳し、第1言語に翻訳された第1テキスト文を生成する。つまり、第1言語で示された第1テキスト文の内容は、第2言語で示された第2テキスト文の内容と一致する。
翻訳処理部32は、第1テキスト文の内容を認識し、認識した第1テキスト文の内容を示す第1言語の翻訳音声を生成する。
翻訳処理部32は、生成した第2テキスト文及び第1テキスト文を表示部33に出力するとともに、生成した第1言語の翻訳音声を示す情報を音声出力部34に出力する。
表示部33は、翻訳処理部32から取得した第2テキスト文及び第1テキスト文を表示する(S17)。具体的には、表示部33は、第1話者側に位置する画面に第1テキスト文を表示し、第2話者側に位置する画面に第2テキスト文を表示する。表示部33には、第1話者が第1テキスト文を読めるように、第1話者に対して第1テキスト文の文字の向きを正向きで表示し、第2話者が第2テキスト文を読めるように、第2話者に対して第2テキスト文の文字の向きを正向きで表示する。つまり、第1テキスト文の文字の向きは、第2テキスト文の文字の向きに対して逆さまになっている。
また、音声出力部34は、翻訳処理部32から取得した、第1言語の翻訳音声を示す情報に示される、第1言語の翻訳音声を出力する(S18)。つまり、音声出力部34は、第2言語から第1言語に翻訳された翻訳音声を出力する。これにより、第1言語の翻訳音声を聞いた第1話者は、第2話者が発話した音声を理解することができる。また、表示部33には、第1テキスト文で表示されるため、第1話者は、確実に第2話者が発話した音声を文字でも理解することができる。
そして、音声翻訳装置1は、処理を終了する。
図6は、実施の形態1における音声翻訳装置1の発話者区別部25における動作を示すフローチャートである。図6は、図3のステップS15a及び図5のステップS15bの処理について、具体的に説明するためのフローチャートである。
図3、図5及び図6に示すように、まず、発話者区別部25は、入力部24が第1話者からの操作入力を受付けた第1時点を基点とし、第1時点から第1時点よりも規定期間前までの間、又は、当該第1時点から規定期間が経過するまでの間において、話者が発話した直近の音声を、記憶部22に記憶されているそれぞれの音声の中から選択する(S31)。
次に、発話者区別部25は、第1話者と第2話者とがそれぞれ発話する度に設定される、第1時点と第2時点とを比較し、第1時点が第2時点よりも時間が早い時点かどうかを判定する(S32)。
発話者区別部25は、第1時点の方が第2時点よりも時間が早い時点であると判定した場合(S32でYES)、第1話者及び第2話者のうちから第1話者を区別する(S33)。つまり、第1時点の方が第2時点よりも時間が早い時点の場合とは、第1話者は、自身が発話するタイミングを理解しているため、第1時点の方が第2時点よりも早い時点となる。これにより、発話者区別部25は、第1時点と第2時点とに基づいて、第1話者及び第2話者のうちから第1話者を区別できる。
発話者区別部25は、第1話者及び第2話者のうちから第1話者を区別した結果を含む結果情報を、音声認識部26に出力する。そして、発話者区別部25は、処理を終了する。
また、発話者区別部25は、第2時点の方が第1時点よりも時間が早い時点であると判定した場合(S32でNO)、第1話者及び第2話者のうちから第2話者を区別する(S34)。つまり、第2時点の方が第1時点よりも時間が早い時点の場合とは、第1話者は、第2話者が発話するタイミングを理解できないため、第2話者が発話した後に入力部24への操作入力を行うこととなるため、第2時点の方が第1時点よりも早い時点となる。これにより、発話者区別部25は、第1時点と第2時点とに基づいて、第1話者及び第2話者のうちから第2話者を区別できる。
発話者区別部25は、第1話者及び第2話者のうちから第2話者を区別した結果を含む結果情報を、音声認識部26に出力する。そして、発話者区別部25は、処理を終了する。
<作用効果>
次に、本実施の形態における音声認識装置10の作用効果について説明する。
以上のように、本実施の形態における音声認識装置10は、第1話者と、第1話者の会話相手である1以上の第2話者とが会話を行うための音声認識装置10であって、第1話者及び1以上の第2話者の会話のそれぞれの音声を取得する取得部21と、取得部21が取得した第1話者及び1以上の第2話者の会話のそれぞれの音声を記憶する記憶部22と、少なくとも第1話者からの操作入力を受付ける入力部24と、記憶部22に記憶されるそれぞれの音声から発話を開始した開始位置を、入力部24への操作入力に応じて音声ごとに検出する発話開始検出部23と、音声ごとに設定される、入力部24への操作入力を受付けた第1時点と発話開始検出部23がそれぞれの音声から検出した発話の開始位置を示す第2時点とに基づいて、第1話者及び1以上の第2話者のうちから、入力部24への操作入力を行った第1話者か入力部24への操作入力を行っていない1以上の第2話者かを区別する発話者区別部25とを備える。そして、発話者区別部25によって区別の処理が行われた第1話者及び1以上の第2話者のそれぞれの音声における開始位置以降の音声は、音声認識部26によって音声認識される。
そこで、本実施の形態では、第1話者及び1以上の第2話者の会話によるそれぞれの音声が記憶部22に記憶されるため、記憶された音声から第1話者か第2話者かを区別することができる。これにより、音声認識部26は、区別の処理が行われた第1話者及び第2話者の会話のそれぞれの音声を、記憶部22から読み出して音声認識することができる。つまり、第1話者が入力部24への操作入力をした後に第1話者が発話すれば、音声認識部26は、第1話者が発話した音声を音声認識することができる。また、通常は第1話者の発話が終了した後に第2話者が発話を開始するため、第2話者の発話に応じて第1話者が入力部24への操作入力をすることで、音声認識部26は、第2話者が発話した音声を音声認識することができる。
したがって、この音声認識装置10では、確実に第2話者(会話相手)の音声を取得することで、第2話者(会話相手)の音声を音声認識することができる。
また、本実施の形態における音声認識方法は、第1話者と、第1話者の会話相手である1以上の第2話者とが会話を行うための音声認識方法であって、第1話者及び1以上の第2話者の会話のそれぞれの音声を取得することと、取得した第1話者及び1以上の第2話者の会話のそれぞれの音声を記憶部22に記憶することと、少なくとも第1話者からの入力部24への操作入力を受付けることと、記憶部22に記憶されるそれぞれの音声から発話を開始した開始位置を、入力部24への操作入力に応じて音声ごとに検出することと、音声ごとに設定される、入力部24への操作入力を受付けた第1時点とそれぞれの音声から検出した発話の開始位置を示す第2時点とに基づいて、第1話者及び1以上の第2話者のうちから、入力部24への操作入力を行った第1話者か入力部24への操作入力を行っていない1以上の第2話者かを区別することと、区別の処理が行われた第1話者及び1以上の第2話者のそれぞれの音声における開始位置以降の音声は、音声認識することとを含む。
この音声認識方法においても、上述の音声認識装置10と同様の作用効果を奏する。
また、本実施の形態におけるプログラムは、音声認識方法をコンピュータに実行させるためのプログラムである。
このプログラムにおいても、上述の音声認識装置10と同様の作用効果を奏する。
また、本実施の形態における音声認識装置10において、発話者区別部25は、第1話者及び1以上の第2話者の会話のそれぞれの音声ごとに設定された第1時点と第2時点とを比較し、第1時点の方が第2時点よりも時間が早い時点の場合、第1話者及び1以上の第2話者のうちから第1話者を区別し、第2時点の方が第1時点よりも時間が早い時点の場合、第1話者及び1以上の第2話者のうちから第2話者を区別する。
これによれば、例えば第1話者が音声認識装置10の保有者である場合、第1話者は、所有している音声認識装置10の使用方法を理解しているものであるため、入力部24に操作入力した後に発話を開始する。つまり、第1話者によって入力部24への操作入力を受付けた第1時点は、第1話者が発話を開始した第2時点よりも時間が早くなるため、発話者区別部25は、第1話者及び1以上の第2話者のうちから第1話者を区別することができる。また、第1話者は、第2話者が発話するタイミングを認識することができないため、第2話者が発話を開始してから、入力部24に操作入力することとなる。つまり、第1話者によって入力部24への操作入力を受付けた第1時点は、第1話者が発話を開始した第2時点よりも時間が遅くなるため、発話者区別部25は、第1話者及び1以上の第2話者のうちから第2話者を区別することができる。
このように、発話者区別部25は、第1時点に直近の発話した話者が第1話者か第2話者かを正確に区別することができる。このため、この音声認識装置10では、より確実に第2話者の音声を取得することができるため、第2話者の音声を音声認識することができる。
また、本実施の形態における音声認識装置10において、第1話者及び1以上の第2話者のうちから第1話者が区別された場合、音声認識部26は、第1話者が発話した音声を音声認識し、第1話者及び1以上の第2話者のうちから第2話者が区別された場合、音声認識部26は、第2話者が発話した音声を音声認識する。
これによれば、発話した話者が第1話者か第2話者かを発話者区別部25が区別することで、音声認識部26は、第1話者及び第2話者が発話したそれぞれの音声を、より確実に音声認識することができる。
また、本実施の形態における音声認識装置10において、発話者区別部25は、入力部24が操作入力を受付けた第1時点から前後の期間である規定期間における第1話者及び1以上の第2話者の会話のそれぞれの音声から、第1話者か第2話者かを区別する。
これによれば、第1話者か第2話者かを区別するために、第1時点を基点とする規定期間を設けることができる。このため、第1話者が操作入力した第1時点から第1時点よりも規定期間前までの間、又は、当該第1時点から規定期間が経過するまでの間に話者が発話した直近の音声が、第1話者か第2話者かを区別することができる。これにより、第1話者及び第2話者のそれぞれの音声を個別に認識することができる。このため、この音声認識装置10では、第1話者か第2話者かを正確に区別することができる。
また、本実施の形態における音声認識装置10において、入力部24への操作入力を行った第1話者が発話した音声の音声認識をした後、記憶部22は、前記第2話者の音声を記憶するために、取得部21が取得したそれぞれの音声の記憶を開始する。
通常、第1話者の発話が終了して第1話者の音声の内容を理解した後に、第2話者が発話を開始する。第1話者が発話した音声を音声認識した後、第2話者が発話する前に録音を開始するため、記憶部22は、第2話者が発話した音声を確実に記憶することができる。また、少なくとも第1話者が発話を終了した時点から記憶部22が録音を開始するまでの間、音声認識装置10は、音声の記憶を中断することができる。このため、記憶部22に記憶させるための音声認識装置10の電力消費を抑制することができる。
また、本実施の形態における音声認識装置10は、発話者区別部25によって区別の処理が行われた第1話者及び1以上の第2話者のそれぞれの音声における開始位置以降の音声を音声認識する音声認識部26を備える。
これによれば、音声認識装置10が音声認識するため、外部のクラウドサーバに音声を送信する必要もないため、音声認識装置10とクラウドサーバとの間の通信量の増加を抑制することができる。
また、本実施の形態における音声認識装置10において、入力部24は、音声認識装置10に設けられた1つの操作ボタンである。
これによれば、第1話者は、音声認識装置10の操作を簡易に行うことができる。
また、本実施の形態における音声認識装置10において、入力部24は、第1話者及び1以上の第2話者のそれぞれが発話する度に、第1話者からの操作入力を受付ける。
これによれば、第2話者に対して操作入力を委ねることを極力避け、第1話者が音声認識装置10への操作入力を積極的に行うことで、第1話者及び第2話者のうちから一方の話者を確実に区別することができる。
(実施の形態2)
<構成>
本実施の形態の音声翻訳装置1の構成を、図7を用いて説明する。
図7は、実施の形態2における音声翻訳装置1を示すブロック図である。
実施の形態1では、音声認識装置10が音声認識部26を有するが、本実施の形態では、音声認識部51がクラウドサーバ50に設けられている点で、実施の形態1と相違する。
本実施の形態における他の構成は、特に明記しない場合は、実施の形態1と同様であり、同一の構成については同一の符号を付して構成に関する詳細な説明を省略する。
図7に示すように、音声認識装置10aは、入力部24、取得部21、記憶部22、発話開始検出部23及び発話者区別部25の他に、通信部29を備える。
発話者区別部25は、第1話者及び第2話者のうちから一方の話者を区別すると、話者を区別した結果を含む結果情報を、記憶部22に出力する。
記憶部22は、この結果情報を取得すると、区別された話者が直近に発話した音声の音声情報を通信部29に出力する。
通信部29は、音声認識部51を有するクラウドサーバ50と、ネットワークを介して無線又は有線通信可能な通信モジュールである。
通信部29は、発話者区別部25によって区別の処理が行われた第1話者及び1以上の第2話者のそれぞれの音声をクラウドサーバ50に送信する。具体的には、通信部29は、発話者区別部25が区別した話者が第1時点の直近に発話した音声の音声情報を、発話開始検出部23を介して記憶部22から取得し、取得した音声情報を、ネットワークを介してクラウドサーバ50に送信する。
また、通信部29は、クラウドサーバ50の音声認識部51がそれぞれの音声の開始位置以降の音声を音声認識した結果を受信する。具体的には、通信部29は、クラウドサーバ50から、第1話者及び1以上の第2話者のそれぞれの音声を音声認識した結果である、当該音声の内容を示す第1テキスト文及び第2テキスト文を受信し、受信した第1テキスト文及び第2テキスト文を翻訳処理部32に出力する。
なお、音声翻訳装置1は翻訳処理部32を有していなくてもよく、クラウドサーバ50がさらに翻訳処理部32を有していてもよい。この場合、音声翻訳装置1の音声認識装置10aは、ネットワークを介してクラウドサーバ50と通信可能に接続され、音声認識装置10aが第1話者及び1以上の第2話者のそれぞれの音声をクラウドサーバ50に送信してもよい。また、音声翻訳装置1は、当該音声の内容を示す第1テキスト文、第2テキスト文及び翻訳音声を受信し、受信した第1テキスト文及び第2テキスト文を表示部33に出力し、受信した翻訳音声を音声出力部34に出力してもよい。
<作用効果>
次に、本実施の形態における音声認識装置10aの作用効果について説明する。
以上のように、本実施の形態における音声認識装置10aは、音声認識部51を有するクラウドサーバ50と通信可能な通信部29を備え、通信部29は、発話者区別部25によって区別の処理が行われた第1話者及び1以上の第2話者のそれぞれの音声をクラウドサーバ50に送信し、クラウドサーバ50の音声認識部51がそれぞれの音声の開始位置以降の音声を音声認識した結果を受信する。
これによれば、第1話者及び1以上の第2話者が発話したそれぞれの音声を、クラウドサーバ50が音声認識するため、音声認識装置10aの処理負担を軽減することができる。
また、本実施の形態において、実施の形態1と同様の作用効果を奏する。
(その他変形例等)
以上、本開示について、実施の形態1、2に基づいて説明したが、本開示は、これら実施の形態1、2等に限定されるものではない。
例えば、上記各実施の形態1、2に係る音声認識装置、音声認識方法及びそのプログラムにおいて、音声認識装置は、翻訳開始時に入力部を1度の押下で、第1話者と第2話者との発話に応じた音声認識と、音声認識した言語の翻訳とを自動で行ってもよい。
また、上記各実施の形態1、2に係る音声認識装置、音声認識方法及びそのプログラムにおいて、取得部が取得した音声に基づいて、音声翻訳装置に対する第1話者及び1以上の第2話者の方向を推定してもよい。この場合、マイクロホンアレイ部の取得部を用いて、第1話者及び1以上の第2話者のそれぞれが発話した音声から、音声翻訳装置に対する音源方向を推定してもよい。具体的には、音声認識装置は、取得部におけるそれぞれのマイクロホンに到達した音声の時間差(位相差)を算出し、例えば遅延時間推定法等により音源方向を推定してもよい。
また、上記各実施の形態1、2に係る音声認識装置、音声認識方法及びそのプログラムにおいて、音声認識装置は、音声翻訳装置に搭載されていなくてもよい。例えば、音声認識装置と、音声翻訳装置とは別々の独立した装置であってもよい。この場合、音声認識装置は、電源部を有していてもよく、音声翻訳装置は、翻訳処理部、表示部、音声出力部及び電源部を有していてもよい。
また、上記各実施の形態1、2に係る音声認識装置、音声認識方法及びそのプログラムでは、記憶部が記憶した第1話者及び1以上の第2話者のそれぞれの音声を、ネットワークを介してクラウドサーバに送信することとで、クラウドサーバに保存してもよく、当該それぞれの音声を認識した第1テキスト文及び第2テキスト文だけをネットワークを介してクラウドサーバに送信することとで、クラウドサーバに保存してもよい。この場合、当該それぞれの音声、第1テキスト文及び第2テキスト文等を記憶部から削除してもよい。
また、上記各実施の形態1、2に係る音声認識装置、音声認識方法及びそのプログラムにおいて、音声認識装置は、取得部が取得する話者の音声の区間を検出することで、取得部が取得する話者の音声を取得できない期間が所定期間以上検出されれば、自動的に録音を中止又は停止してもよい。
また、上記各実施の形態1、2に係る音声認識方法は、コンピュータを用いたプログラムによって実現され、このようなプログラムは、記憶装置に記憶されてもよい。
また、上記各実施の形態1、2に係る音声認識装置、音声認識方法及びそのプログラムに含まれる各処理部は、典型的に集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
なお、上記各実施の形態1、2において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態1、2は例示された数字に制限されない。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
その他、実施の形態1、2に対して当業者が思いつく各種変形を施して得られる形態、本開示の趣旨を逸脱しない範囲で実施の形態1、2における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
本開示は、異なる言語を話す複数の話者が会話によって意思の疎通を図るために用いられる音声認識装置、音声認識方法及びそのプログラムに適用することができる。
10、10a 音声認識装置
21 取得部
22 記憶部
23 発話開始検出部
24 入力部
25 発話者区別部
26、51 音声認識部
29 通信部

Claims (11)

  1. 第1話者と、前記第1話者の会話相手である1以上の第2話者とが会話を行うための音声認識装置であって、
    前記第1話者及び前記1以上の第2話者の会話のそれぞれの音声を取得する取得部と、
    前記取得部が取得した前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声を記憶する記憶部と、
    少なくとも前記第1話者からの操作入力を受付ける入力部と、
    前記記憶部に記憶される前記それぞれの音声から発話を開始した開始位置を、前記入力部への操作入力に応じて音声ごとに検出する発話開始検出部と、
    音声ごとに設定される、前記入力部への操作入力を受付けた第1時点と前記発話開始検出部が前記それぞれの音声から検出した発話の開始位置を示す第2時点とに基づいて、前記第1話者及び前記1以上の第2話者のうちから、前記入力部への操作入力を行った前記第1話者か前記入力部への操作入力を行っていない前記1以上の第2話者かを区別する発話者区別部とを備え、
    前記発話者区別部によって前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声における開始位置以降の音声は、音声認識部によって音声認識される
    音声認識装置。
  2. 前記発話者区別部は、
    前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声ごとに設定された前記第1時点と前記第2時点とを比較し、
    前記第1時点の方が前記第2時点よりも時間が早い時点の場合、前記第1話者及び前記1以上の第2話者のうちから前記第1話者を区別し、
    前記第2時点の方が前記第1時点よりも時間が早い時点の場合、前記第1話者及び前記1以上の第2話者のうちから前記第2話者を区別する
    請求項1に記載の音声認識装置。
  3. 前記第1話者及び前記1以上の第2話者のうちから前記第1話者が区別された場合、前記音声認識部は、前記第1話者が発話した音声を音声認識し、
    前記第1話者及び前記1以上の第2話者のうちから第2話者が区別された場合、前記音声認識部は、前記第2話者が発話した音声を音声認識する
    請求項1又は2に記載の音声認識装置。
  4. 前記発話者区別部は、前記入力部が操作入力を受付けた前記第1時点から前後の期間である規定期間における前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声から、前記第1話者か前記第2話者かを区別する
    請求項1~3のいずれか1項に記載の音声認識装置。
  5. 前記入力部への操作入力を行った前記第1話者が発話した音声の音声認識をした後、前記記憶部は、前記第2話者の音声を記憶するために、前記取得部が取得した前記それぞれの音声の記憶を開始する
    請求項1~4のいずれか1項に記載の音声認識装置。
  6. 前記音声認識部を有するクラウドサーバと通信可能な通信部を備え、
    前記通信部は、前記発話者区別部によって前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声を前記クラウドサーバに送信し、前記クラウドサーバの前記音声認識部が前記それぞれの音声の開始位置以降の音声を音声認識した結果を受信する
    請求項1~5のいずれか1項に記載の音声認識装置。
  7. 前記発話者区別部によって前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声における開始位置以降の音声を音声認識する前記音声認識部を備える
    請求項1~5のいずれか1項に記載の音声認識装置。
  8. 前記入力部は、前記音声認識装置に設けられた1つの操作ボタンである
    請求項1~7のいずれか1項に記載の音声認識装置。
  9. 前記入力部は、前記第1話者及び前記1以上の第2話者のそれぞれが発話する度に、前記第1話者からの操作入力を受付ける
    請求項1~8のいずれか1項に記載の音声認識装置。
  10. 第1話者と、前記第1話者の会話相手である1以上の第2話者とが会話を行うための音声認識方法であって、
    前記第1話者及び前記1以上の第2話者の会話のそれぞれの音声を取得することと、
    取得した前記第1話者及び前記1以上の第2話者の会話の前記それぞれの音声を記憶部に記憶することと、
    少なくとも前記第1話者からの入力部への操作入力を受付けることと、
    前記記憶部に記憶される前記それぞれの音声から発話を開始した開始位置を、前記入力部への操作入力に応じて音声ごとに検出することと、
    音声ごとに設定される、前記入力部への操作入力を受付けた第1時点と前記それぞれの音声から検出した発話の開始位置を示す第2時点とに基づいて、前記第1話者及び前記1以上の第2話者のうちから、前記入力部への操作入力を行った前記第1話者か前記入力部への操作入力を行っていない前記1以上の第2話者かを区別することと、
    前記区別の処理が行われた前記第1話者及び前記1以上の第2話者の前記それぞれの音声における開始位置以降の音声は、音声認識することとを含む
    音声認識方法。
  11. 請求項10に記載の音声認識方法をコンピュータに実行させるための
    プログラム。
JP2019197289A 2019-03-27 2019-10-30 音声認識装置、音声認識方法及びそのプログラム Active JP7330066B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010230365.9A CN111755000A (zh) 2019-03-27 2020-03-23 语音识别装置、语音识别方法及记录介质
US16/826,899 US11315572B2 (en) 2019-03-27 2020-03-23 Speech recognition device, speech recognition method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962824641P 2019-03-27 2019-03-27
US62/824,641 2019-03-27

Publications (2)

Publication Number Publication Date
JP2020160431A JP2020160431A (ja) 2020-10-01
JP7330066B2 true JP7330066B2 (ja) 2023-08-21

Family

ID=72643271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197289A Active JP7330066B2 (ja) 2019-03-27 2019-10-30 音声認識装置、音声認識方法及びそのプログラム

Country Status (3)

Country Link
US (1) US11315572B2 (ja)
JP (1) JP7330066B2 (ja)
CN (1) CN111755000A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7392259B2 (ja) * 2018-12-04 2023-12-06 日本電気株式会社 学習支援装置、学習支援方法およびプログラム
US11908468B2 (en) 2020-09-21 2024-02-20 Amazon Technologies, Inc. Dialog management for multiple users
US11783804B2 (en) * 2020-10-26 2023-10-10 T-Mobile Usa, Inc. Voice communicator with voice changer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295892A (ja) 2002-04-01 2003-10-15 Nec Corp 通訳システム及びプログラム
JP2005043628A (ja) 2003-07-28 2005-02-17 Toshiba Corp 対話記録装置および対話記録方法
JP2007264473A (ja) 2006-03-29 2007-10-11 Toshiba Corp 音声処理装置、音声処理方法および音声処理プログラム
WO2018034059A1 (ja) 2016-08-17 2018-02-22 パナソニックIpマネジメント株式会社 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5375423B2 (ja) 2009-08-10 2013-12-25 日本電気株式会社 音声認識システム、音声認識方法および音声認識プログラム
US8588849B2 (en) * 2010-07-09 2013-11-19 Blackberry Limited System and method for resuming media
JP5708155B2 (ja) * 2011-03-31 2015-04-30 富士通株式会社 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム
JP6031761B2 (ja) * 2011-12-28 2016-11-24 富士ゼロックス株式会社 音声解析装置および音声解析システム
JP6148163B2 (ja) * 2013-11-29 2017-06-14 本田技研工業株式会社 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム
KR102214178B1 (ko) * 2013-12-13 2021-02-10 한국전자통신연구원 자동 통역 장치 및 방법
US9632748B2 (en) * 2014-06-24 2017-04-25 Google Inc. Device designation for audio input monitoring
US9996316B2 (en) * 2015-09-28 2018-06-12 Amazon Technologies, Inc. Mediation of wakeword response for multiple devices
US10079024B1 (en) * 2016-08-19 2018-09-18 Amazon Technologies, Inc. Detecting replay attacks in voice-based authentication
US10388120B2 (en) * 2017-02-24 2019-08-20 Masimo Corporation Localized projection of audible noises in medical settings
US20190013019A1 (en) * 2017-07-10 2019-01-10 Intel Corporation Speaker command and key phrase management for muli -virtual assistant systems
US10796687B2 (en) * 2017-09-06 2020-10-06 Amazon Technologies, Inc. Voice-activated selective memory for voice-capturing devices
JP2019186630A (ja) * 2018-04-03 2019-10-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP2020055348A (ja) * 2018-09-28 2020-04-09 本田技研工業株式会社 エージェント装置、エージェント制御方法、およびプログラム
US11183183B2 (en) * 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11164585B2 (en) * 2019-06-07 2021-11-02 Mitsubishi Electric Automotive America, Inc. Systems and methods for virtual assistant routing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295892A (ja) 2002-04-01 2003-10-15 Nec Corp 通訳システム及びプログラム
JP2005043628A (ja) 2003-07-28 2005-02-17 Toshiba Corp 対話記録装置および対話記録方法
JP2007264473A (ja) 2006-03-29 2007-10-11 Toshiba Corp 音声処理装置、音声処理方法および音声処理プログラム
WO2018034059A1 (ja) 2016-08-17 2018-02-22 パナソニックIpマネジメント株式会社 音声入力装置、翻訳装置、音声入力方法、及び音声入力プログラム

Also Published As

Publication number Publication date
JP2020160431A (ja) 2020-10-01
US11315572B2 (en) 2022-04-26
US20200312332A1 (en) 2020-10-01
CN111755000A (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
US10777193B2 (en) System and device for selecting speech recognition model
US10418027B2 (en) Electronic device and method for controlling the same
JP7330066B2 (ja) 音声認識装置、音声認識方法及びそのプログラム
KR102118209B1 (ko) 디지털 어시스턴트를 위한 음성 트리거
US10811005B2 (en) Adapting voice input processing based on voice input characteristics
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
US20180217985A1 (en) Control method of translation device, translation device, and non-transitory computer-readable recording medium storing a program
US11437022B2 (en) Performing speaker change detection and speaker recognition on a trigger phrase
JP6514475B2 (ja) 対話装置および対話方法
US11507759B2 (en) Speech translation device, speech translation method, and recording medium
JP2011248140A (ja) 音声認識装置
US20180350360A1 (en) Provide non-obtrusive output
JP7287006B2 (ja) 話者決定装置、話者決定方法、および話者決定装置の制御プログラム
US11244676B2 (en) Apparatus for processing user voice input
US20190114405A1 (en) Information acquisition device, information acquisition system, and information acquisition method
KR20200056754A (ko) 개인화 립 리딩 모델 생성 방법 및 장치
JP7449070B2 (ja) 音声入力装置、音声入力方法及びそのプログラム
JP7429107B2 (ja) 音声翻訳装置、音声翻訳方法及びそのプログラム
US11308966B2 (en) Speech input device, speech input method, and recording medium
JP3846500B2 (ja) 音声認識対話装置および音声認識対話処理方法
CN113380275B (zh) 语音处理方法、装置、智能设备及存储介质
CN116189718A (zh) 语音活性检测方法、装置、设备及存储介质
CN115691479A (zh) 语音检测方法、装置、电子设备及存储介质
JP2018205470A (ja) 対話装置、対話システム、対話方法及び対話プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220830

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230808

R151 Written notification of patent or utility model registration

Ref document number: 7330066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151