JP2014092627A - 音声認識装置、音声認識方法、及びそのためのプログラム - Google Patents

音声認識装置、音声認識方法、及びそのためのプログラム Download PDF

Info

Publication number
JP2014092627A
JP2014092627A JP2012242050A JP2012242050A JP2014092627A JP 2014092627 A JP2014092627 A JP 2014092627A JP 2012242050 A JP2012242050 A JP 2012242050A JP 2012242050 A JP2012242050 A JP 2012242050A JP 2014092627 A JP2014092627 A JP 2014092627A
Authority
JP
Japan
Prior art keywords
voice
response
unit
information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012242050A
Other languages
English (en)
Inventor
Kazuyoshi Katsuta
和義 割田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012242050A priority Critical patent/JP2014092627A/ja
Publication of JP2014092627A publication Critical patent/JP2014092627A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】音声認識装置へ発声していない人の発声の誤認識をより高い精度で抑止できる音声認識装置を提供する。
【解決手段】音声認識装置1は、音声認識装置1前方の音声を集音した音声情報を、文字に変換し送信する音声認識部131と、音声認識装置1前方に人物を検知し人物検知情報を出力する人物検知部110と、音声認識装置1前方を撮影した画像情報が、画像内に音声認識装置1を直視している人物の顔があれば、顔検知情報を出力する顔検出部121と、音声認識部1からの音声情報の受信と人物検知情報と顔検知情報に応じて、音声情報を送信する応答可否判定部100と、応答可否判定部100から受信した文字情報に対応した応答メッセージを、人物への応答メッセージをフレーズ単位で記憶する応答データベース141のフレーズを一つないし複数選択して決定する応答制御部101と、応答メッセージの音声を出力する応答出力部140とを含む。
【選択図】図1

Description

本発明は、装置への発声を正確に検知し応答する音声認識装置、音声認識方法、及びそのためのプログラムに関する。
ロボットの音声認識技術において、ロボットへの発声を正確に検知し応答する技術が知られている。この技術は、ロボットに向けられた発声であるか否かを区別する。
その技術の一例が特許文献1に記載されている。特許文献1に記載された技術は、カメラや接触センサ、人検知センサから出力される人物検知情報に基づいて、人が周囲に居ることを感知し、かつカメラの画像情報から顔情報を抽出し、顔が検知されている場合、ロボットに向けられた発声と認識し、応答する。
特開2007−155985号公報
しかしながら、上述した特許文献1に記載された技術は、ロボットの周囲360度全ての方向に対してセンサとカメラが備わっており、どの方向に人がいても反応してしまう。したがって、特許文献1に記載された技術は、ロボットへ発声していない人の発声を誤認識してしまうという問題点がある。
本発明の目的の一例は、上述した問題点を解決できる音声認識装置、音声認識方法およびプログラムを提供することにある。
本発明の一形態における第一の音声認識装置は、音声認識装置前方の音声を集音し音声情報として出力する音声入力部と、前記音声入力部から受信した前記音声情報を、文字情報に変換する音声認識部と、前記音声認識装置の前方の人物を検知し、人物検知情報を出力する人物検知部と、前記音声認識装置前方を撮影し、画像情報を出力する人物撮影部と、前記人物撮影部から受信した前記画像情報から、前記音声認識装置を直視している人物の顔を検知し、顔検知情報を出力する顔検出部と、前記音声認識部からの前記文字情報の受信と前記人物検知部からの前記人物検知情報及び前記顔検出部からの前記顔検知情報の受信とに応じて、前記文字情報を出力する応答可否判定部と、前記音声認識装置から人物への応答メッセージを、フレーズ単位でデータベース化し、記憶する応答データベースと、前記応答可否判定部から受信した前記文字情報に対応した応答メッセージを、前記応答データベースのフレーズを一つないし複数選択して決定する応答制御部と、前記応答制御部で決定した前記応答メッセージを音声として出力する応答出力部を備える。
本発明の一形態における第一の音声認識方法は、音声入力部が、音声認識装置前方の音声を集音し音声情報とし、音声認識部が、前記音声入力部から受信した前記音声情報を文字情報に変換し、応答可否判定部が、前記音声認識部からの前記音声情報の受信と人物検知部からの人物検知情報および顔検出部からの顔検知情報の受信とに応じて、前記文字情報を出力し、応答データベースが、前記音声認識装置から人物への応答メッセージを、フレーズ単位でデータベース化して記憶し、応答制御部が、前記応答可否判定部から受信した前記音声情報に対応した応答メッセージを、前記応答データベースのフレーズを一つないし複数選択して決定し、応答出力部が、前記応答メッセージの音声を出力する。
本発明の一形態における第一のプログラムは、音声入力部が、音声認識装置前方の音声を集音し音声情報とし、音声認識部が、前記音声入力部から受信した前記音声情報を文字情報に変換し、応答可否判定部が、前記音声認識部からの前記音声情報の受信と人物検知部からの人物検知情報および顔検出部からの顔検知情報の受信とに応じて、前記文字情報を出力し、応答データベースが、前記音声認識装置から人物への応答メッセージを、フレーズ単位でデータベース化して記憶し、応答制御部が、前記応答可否判定部から受信した前記音声情報に対応した応答メッセージを、前記応答データベースのフレーズを一つないし複数選択して決定し、応答出力部が、前記応答メッセージの音声を出力する処理をコンピュータに実行させる。
本発明によれば、音声認識装置へ発声していない人の発声の誤認識をより高い精度で防止できるという効果が得られる。
図1は、本発明の第一の実施形態の構成を示すブロック図である。 図2は、第一の実施の形態における音声認識装置1をコンピュータ装置とその周辺装置で実現したハードウェア構成を示す図である。 図3は、第一の実施の形態における音声認識装置1の外観の一例を示す図である。 図4は、第一の実施の形態における音声認識装置1の音声情報入力動作を示すフローチャートである。 図5は、第一の実施の形態における音声認識装置1の人物検知情報入力動作を示すフローチャートである。 図6は、第一の実施の形態における音声認識装置1の顔検知情報入力動作を示すフローチャートである。 図7は、第一の実施の形態における音声認識装置1の応答可否判定動作を示すフローチャートである。 図8は、第一の実施の形態における音声認識装置1の応答メッセージ出力動作を示すフローチャートである。
次に、本発明の実施形態について図面を参照して詳細に説明する。
[第1の実施の形態]
図1は、本発明の第一の実施の形態における音声認識装置1の構成を示すブロック図である。図1を参照すると、音声認識装置1は、応答可否判定部100と、応答制御部101と、人物検知部110と、人物撮影部120と、顔検出部121と、音声入力部130と、音声認識部131と、応答出力部140と、応答データベース141と、を備える。
次に、第一の実施の形態における音声認識装置1の構成について説明する。
音声入力部130は、音声認識装置1前方の音声を集音し、音声認識部131に送信する。
音声認識部131は、音声認識エンジンを含む。、具体的に、音声認識部131は、入力音声から人物の発声とは関係ない生活騒音などの雑音情報を弁別し排除する前処理回路と、その前処理回路で雑音情報が排除された音声情報を受信し、その音声情報から発声音に対応する文字を認識し、文字情報に変換し、応答可否判定部100にその文字情報を出力する音声認識変換回路とを含む。
人物検知部110は、音声認識装置1の前方で人物を検知し、人物検知情報を応答可否判定部100に出力する。人物を検知する方法は、赤外線センサまたは超音波センサによる検知方法、人物撮影部120の画像情報を処理して検知する方法などいずれの方法でも良い。また、人物検知情報とは、人物を検知した旨を示すあるいは通知する情報である。
人物撮影部120は、音声認識装置1前方をカメラなどによって撮影し、画像情報を顔検出部121へ送信する。
顔検出部121は、受信した画像情報から人物の顔を検知する処理を実行する。その結果、受信画像内に音声認識装置1を直視している人物の顔を抽出できると顔検出部121が判断する場合、顔検知情報を応答可否判定部100に出力する。また、顔検知情報とは、顔を検知した旨を示すあるいは通知する情報であり、顔の画像情報である必要がなく、あるいは顔の個人を識別する情報まで必要としない。
応答可否判定部100は、音声認識部131から、音声情報に対応する文字情報を受信した場合、同時に人物検知情報と顔検知情報を受信しているか確認する。受信している場合、応答可否判定部100は応答制御部101へ、音声情報に対応する文字情報を送信する。
応答データベース141は、音声認識装置1から人物検知情報と顔検知情報によって認知された人物が発声する音声に応答するための応答メッセージを、フレーズ単位でデータベース化し、記憶する。応答データベース141が記憶するフレーズのデータは、音声データでも文字情報でも構わない。
応答制御部101は、応答可否判定部100から受信した文字情報に対応した応答メッセージを、応答データベース141のフレーズを一つないし複数選択し、応答出力部140へ、音声信号として出力する。応答データベース141が記憶するフレーズのデータが文字情報の場合、応答制御部101は、選択したフレーズのメッセージの文字情報を、音声合成して音声信号に変換し、応答出力部140へその音声信号を出力する。
応答出力部140は、受信した応答メッセージの音声を出力する。
図3は、本発明の第一の実施の形態における音声認識装置1の外観の一例を示す図である。図3に示すように、音声認識装置1は、一例として、ロボットである。
図3に示すように、音声認識装置1の音声入力部130は、主にマイクロフォンで構成される。人物撮影部120は、主にカメラで構成される。応答出力部140は、主にスピーカで構成される。人物検知部110は、主にセンサで構成される。なお、人物の検知を人物撮影部120の画像情報を処理して検知する場合、人物検知部110を省略することができる。また、それぞれの構成要素はひとつないし複数あっても良く、また設置部位は問わないが、人物撮影部120と人物検知部110は音声認識装置1の前方を撮影および検知するものとする。
図2は、本発明の第一の実施の形態における音声認識装置1をコンピュータおよびその周辺装置で実現したハードウェア構成を示す図である。図2に示されるように、音声認識装置1は、CPU11、出力装置12、入力装置13、主記憶装置14、二次記憶装置15を含む。
CPU11は、オペレーティングシステムを動作させて本発明の第一の実施の形態に係る音声認識装置1の全体を制御する。また、CPU11は、例えば二次記憶装置15から主記憶装置14にプログラムやデータを読み出す。そして、CPU11は、第一の実施の形態における応答可否判断部100、応答制御部101、顔検出部121および音声認識部131として機能し、プログラム制御に基づいて各種の処理を実行する。
出力装置12は、例えばスピーカなどで実現され、第一の実施の形態における応答出力部140として機能する。
入力装置13は、例えばセンサ、カメラ、マイクロフォンなどで実現され、第一の実施の形態における人物検出部110、人物撮影部120、音声入力部130として機能する。
二次記憶装置15は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、または半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされてもよい。また、二次記憶装置15は、第一の実施の形態における応答データベース141として機能する。
なお、第一の実施の形態の説明において利用されるブロック図(図1)には、ハードウェア単位の構成ではなく、機能単位のブロックが示されている。これらの機能ブロックは図2に示されるハードウェア構成によって実現される。ただし、音声認識装置1が備える各部の実現手段は特に限定されない。すなわち、音声認識装置1は、物理的に結合した一つの装置により実現されてもよいし、物理的に分離した二つ以上の装置を有線または無線で接続し、これら複数の装置により実現されてもよい。
また、CPU11は、二次記憶装置15に記録されているコンピュータプログラムを読み込み、そのプログラムにしたがって、応答可否判断部100、応答制御部101、顔検出部121および音声認識部131として動作してもよい。
また、前述のプログラムのコードを記録した記録媒体(または記憶媒体)が、音声認識装置1に供給され、音声認識装置1が記録媒体に格納されたプログラムのコードを読み出し実行してもよい。すなわち、本発明は、第一の実施の形態における音声認識装置1が実行するためのソフトウェア(音声認識プログラム)を一時的に記憶するまたは非一時的に記憶する二次記憶装置15も含む。
以上のように構成された音声認識装置1の動作について、図4から図8のフローチャートを参照して説明する。
図4は、第一の実施の形態における音声認識装置1での音声情報入力の動作の概要を示すフローチャートである。尚、このフローチャートによる処理は、前述したCPUによるプログラム制御に基づいて、実行されても良い。
図4に示すように、まず、音声入力部130は、音声認識装置1前方の音声を集音し、音声認識部131に出力する(ステップS101)。
次に、音声認識部131は、受信した音声を処理する。具体的には、前処理回路が人物の発声とは関係ない生活騒音などを弁別し排除する(ステップS102)。
次に、音声認識部131は、前処理回路で処理した音声情報に人物の発声が入っているか確認する(ステップS103)。もし入っていれば(ステップS103でYES)、音声認識部131の音声認識変換回路は、音声情報を文字情報、例えば、テキストデータに変換し、応答可否判断部100に出力する(ステップS104)。
以上で、音声認識装置1は、音声情報入力の動作を終了する。
図5は、第一の実施の形態における音声認識装置1での人物検知情報入力の動作の概要を示すフローチャートである。尚、このフローチャートによる処理も、前述したCPUによるプログラム制御に基づいて、実行されても良い。
図5に示すように、まず、人物検知部110は、音声認識装置1前方に人物を検知した場合(ステップS201でYES)、人物検知情報を応答可否判定部100に出力する(ステップS202)。
以上で、音声認識装置1は、人物検知情報入力の動作を終了する。
図6は、第一の実施の形態における音声認識装置1での顔検知情報入力の動作の概要を示すフローチャートである。尚、このフローチャートによる処理も、前述したCPUによるプログラム制御に基づいて、実行されても良い。
図6に示すように、まず、人物撮影部120は、音声認識装置1前方を撮影し、画像情報を顔検出部121へ出力する(ステップS301)。
次に、顔検出部121は、受信した画像情報を画像処理する(ステップS302)。
次に、顔検出部121は、画像処理の結果、画像内に、音声認識装置1を直視している人物の顔を抽出できるか確認する(ステップS303)。抽出できた場合は(ステップS303でYES)、顔検知情報を応答可否判定部100に出力する(ステップS304)。
以上で、音声認識装置1は、顔検知情報入力の動作を終了する。
図7は、第一の実施の形態における音声認識装置1での応答可否判定の動作の概要を示すフローチャートである。尚、このフローチャートによる処理も、前述したCPUによるプログラム制御に基づいて、実行されても良い。
図7に示すように、まず、応答可否判定部100は、音声認識部131から、集音された音声情報に対応する文字情報を受信する(ステップS401)。
次に、応答可否判定部100は、同時に人物検知部110からの人物検知情報と顔検出部121からの顔検知情報を受信しているか確認する(ステップS402)。もし受信していれば(ステップS402でYES)、応答可と判定し、文字情報を応答制御部101へ送信する(ステップS403)。
以上で、音声認識装置1は、応答可否判定の動作を終了する。
図8は、第一の実施の形態における音声認識装置1での応答メッセージの出力動作の概要を示すフローチャートである。尚、このフローチャートによる処理も、前述したCPUによるプログラム制御に基づいて、実行されても良い。
図8に示すように、まず、応答制御部101は、受信した文字情報に対応した応答メッセージを、応答データベース141のフレーズを一つないし複数選択して決定する(ステップS501)。
次に、応答制御部101は、決定した応答メッセージを音声信号として応答出力部140へ送信する(ステップS502)。この場合、応答制御部101は、音声メッセージが文字情報の場合、その文字情報を音声合成して音声信号に変換して出力する。また、応答メッセージが音声データの場合、その音声データを音声信号に変換し、応答出力部140に出力する。
次に、応答出力部140は、受信した応答メッセージの音声を出力する(ステップS503)。
以上で、音声認識装置1は、応答メッセージ出力の動作を終了する。
次に、本発明の第1の実施の形態の効果について説明する。
上述した本実施形態における音声認識装置1は、音声認識装置1へ発声していない人の発声の誤認識をより高い精度で防止できる。
その理由は、以下のような構成を含むからである。即ち、第1に人物検知部110は、音声認識装置1の前方に人物を検知した場合、人物検知情報を応答可否判定部100に出力する。第2に、人物撮影部120は、音声認識装置1の前方を撮影する。その画像内に音声認識装置1を直視している人物の顔があれば、顔検出部121は、顔検知情報を応答可否判定部100に送信する。第3に、応答可否判定部100は、同時に人物検知情報と顔検知情報を受信している場合、応答可と判定する。これにより、音声認識装置1は、人物が音声認識装置1の前方に居て、かつ音声認識装置1を直視している場合に応答可とするので、音声認識装置1へ発声していない人の発声の誤認識をより高い精度で防止できるという効果が得られる。
以上説明した、本発明の各実施形態における各構成要素は、その機能をハードウェア的に実現することはもちろん、プログラム制御に基づくコンピュータ装置、ファームウェアで実現することができる。プログラムは、磁気ディスクや半導体メモリなどのコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られる。この読み取られたプログラムは、そのコンピュータの動作を制御することにより、そのコンピュータを前述した各実施の形態における構成要素として機能させる。
以上、各実施の形態を参照して本発明を説明したが、本発明は上記実施の形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しえる様々な変更をすることができる。
たとえば、以上の各実施形態で説明した各構成要素は、必ずしも個々に独立した存在である必要はない。例えば、各構成要素は、複数の構成要素が1個のモジュールとして実現されたり、一つの構成要素が複数のモジュールで実現されたりしてもよい。また、各構成要素は、ある構成要素が他の構成要素の一部であったり、ある構成要素の一部と他の構成要素の一部とが重複していたり、といったような構成であってもよい。
また、以上説明した各実施形態では、複数の動作をフローチャートの形式で順番に記載してあるが、その記載の順番は複数の動作を実行する順番を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の順番は内容的に支障しない範囲で変更することができる。
さらに、以上説明した各実施形態では、複数の動作は個々に相違するタイミングで実行されることに限定されない。例えば、ある動作の実行中に他の動作が発生したり、ある動作と他の動作との実行タイミングが部分的に乃至全部において重複していたりしていてもよい。
さらに、以上説明した各実施形態では、ある動作が他の動作の契機になるように記載しているが、その記載はある動作と他の動作の全ての関係を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の関係は内容的に支障のない範囲で変更することができる。また各構成要素の各動作の具体的な記載は、各構成要素の各動作を限定するものではない。このため、各構成要素の具体的な各動作は、各実施形態を実施する上で機能的、性能的、その他の特性に対して支障をきたさない範囲内で変更されて良い。
本発明は、音声認識装置へ発声していない人の発声の誤認識をより高い精度で抑止できる音声認識装置に適用できる。
1 音声認識装置
11 CPU
12 出力装置
13 入力装置
14 主記憶装置
15 二次記憶装置
100 応答可否判定部
101 応答制御部
110 人物検知部
120 人物撮影部
121 顔検出部
130 音声入力部
131 音声認識部
140 応答出力部
141 応答データベース

Claims (6)

  1. 音声認識装置前方の音声を集音し音声情報として出力する音声入力部と、
    前記音声入力部から受信した前記音声情報を、文字情報に変換する音声認識部と、
    前記音声認識装置の前方の人物を検知し、人物検知情報を出力する人物検知部と、
    前記音声認識装置前方を撮影し、画像情報を出力する人物撮影部と、
    前記人物撮影部から受信した前記画像情報から、前記音声認識装置を直視している人物の顔を検知し、顔検知情報を出力する顔検出部と、
    前記音声認識部からの前記文字情報の受信と、前記人物検知部からの前記人物検知情報および前記顔検出部からの前記顔検知情報の受信とに応じて、前記文字情報を出力する応答可否判定部と、
    前記音声認識装置から人物への応答メッセージを、フレーズ単位でデータベース化し、記憶する応答データベースと、
    前記応答可否判定部から受信した前記文字情報に対応した応答メッセージを、前記応答データベースのフレーズを一つないし複数選択して決定する応答制御部と、
    前記応答制御部で決定した前記応答メッセージを音声として出力する応答出力部と
    を含む音声認識装置。
  2. 前記音声認識部は、前記音声情報から、人物の発声とは関係ない生活騒音などを弁別し排除する前処理回路を含む請求項1記載の音声認識装置。
  3. 前記顔検出部は、顔検出のため、前記人物撮影部から受信した前記画像情報を画像処理する請求項1記載の音声認識装置。
  4. 前記応答データベースが記憶する前記応答メッセージは、音声データもしくは文字情報である請求項1記載の音声認識装置。
  5. 音声入力部が、音声認識装置前方の音声を集音し音声情報とし、
    音声認識部が、前記音声入力部から受信した前記音声情報を文字情報に変換し、
    応答可否判定部が、前記音声認識部からの前記音声情報の受信と、人物検知部からの人物検知情報および顔検出部からの顔検知情報の受信とに応じて、前記文字情報を出力し、
    応答データベースが、前記音声認識装置から人物への応答メッセージを、フレーズ単位でデータベース化して記憶し、
    応答制御部が、前記応答可否判定部から受信した前記音声情報に対応した応答メッセージを、前記応答データベースのフレーズを一つないし複数選択して決定し、
    応答出力部が、前記応答メッセージの音声を出力する
    音声認識方法。
  6. 音声入力部が、音声認識装置前方の音声を集音し音声情報とし、
    音声認識部が、前記音声入力部から受信した前記音声情報を文字情報に変換し、
    応答可否判定部が、前記音声認識部からの前記音声情報の受信と、人物検知部からの人物検知情報および顔検出部からの顔検知情報の受信とに応じて、前記文字情報を出力し、
    応答データベースが、前記音声認識装置から人物への応答メッセージを、フレーズ単位でデータベース化して記憶し、
    応答制御部が、前記応答可否判定部から受信した前記音声情報に対応した応答メッセージを、前記応答データベースのフレーズを一つないし複数選択して決定し、
    応答出力部が、前記応答メッセージの音声を出力する処理
    をコンピュータに実行させるプログラム。
JP2012242050A 2012-11-01 2012-11-01 音声認識装置、音声認識方法、及びそのためのプログラム Pending JP2014092627A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012242050A JP2014092627A (ja) 2012-11-01 2012-11-01 音声認識装置、音声認識方法、及びそのためのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012242050A JP2014092627A (ja) 2012-11-01 2012-11-01 音声認識装置、音声認識方法、及びそのためのプログラム

Publications (1)

Publication Number Publication Date
JP2014092627A true JP2014092627A (ja) 2014-05-19

Family

ID=50936747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012242050A Pending JP2014092627A (ja) 2012-11-01 2012-11-01 音声認識装置、音声認識方法、及びそのためのプログラム

Country Status (1)

Country Link
JP (1) JP2014092627A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200740A (ja) * 2018-05-18 2019-11-21 ヤフー株式会社 端末装置
JP2020106746A (ja) * 2018-12-28 2020-07-09 シャープ株式会社 制御装置、制御方法、制御プログラム、及び対話装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007088803A (ja) * 2005-09-22 2007-04-05 Hitachi Ltd 情報処理装置
JP2009509673A (ja) * 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007088803A (ja) * 2005-09-22 2007-04-05 Hitachi Ltd 情報処理装置
JP2009509673A (ja) * 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200740A (ja) * 2018-05-18 2019-11-21 ヤフー株式会社 端末装置
JP2020106746A (ja) * 2018-12-28 2020-07-09 シャープ株式会社 制御装置、制御方法、制御プログラム、及び対話装置

Similar Documents

Publication Publication Date Title
JP6520878B2 (ja) 音声取得システムおよび音声取得方法
US7587318B2 (en) Correlating video images of lip movements with audio signals to improve speech recognition
EP2663064B1 (en) Method and system for operating communication service
US10304452B2 (en) Voice interactive device and utterance control method
JP6551507B2 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム
RU2735363C1 (ru) Способ и устройство для обработки звука и носитель информации
US9437188B1 (en) Buffered reprocessing for multi-microphone automatic speech recognition assist
JPWO2007080886A1 (ja) 音声認識装置、音声認識方法、および音声認識プログラム、ならびに妨害軽減装置、妨害軽減方法、および妨害軽減プログラム
JP2009166184A (ja) ガイドロボット
WO2019198405A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP6514475B2 (ja) 対話装置および対話方法
US11315572B2 (en) Speech recognition device, speech recognition method, and recording medium
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
JP2014240856A (ja) 音声入力システム及びコンピュータプログラム
CN111512363B (zh) 语音辅助设备和方法
WO2019147034A1 (ko) 사운드를 제어하는 전자 장치 및 그 동작 방법
JP2014092627A (ja) 音声認識装置、音声認識方法、及びそのためのプログラム
KR102161554B1 (ko) 이어셋을 이용한 통역기능 제공 방법 및 장치
JP6934831B2 (ja) 対話装置及びプログラム
JP2010199741A (ja) 携帯電話端末装置
KR20230165061A (ko) 호출어를 검출하는 음성 인식 단말기, 음성 인식 서버, 음성 인식 시스템 및 그것의 제어 방법
KR20200112791A (ko) 이어셋을 이용한 통역기능 제공 방법 및 장치
JP2018055155A (ja) 音声対話装置および音声対話方法
KR20200081274A (ko) 음성을 인식하는 장치 및 방법
JP7172041B2 (ja) 音伝達装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170606