JPWO2017145929A1 - 姿勢制御装置、ロボット及び姿勢制御方法 - Google Patents
姿勢制御装置、ロボット及び姿勢制御方法 Download PDFInfo
- Publication number
- JPWO2017145929A1 JPWO2017145929A1 JP2018501632A JP2018501632A JPWO2017145929A1 JP WO2017145929 A1 JPWO2017145929 A1 JP WO2017145929A1 JP 2018501632 A JP2018501632 A JP 2018501632A JP 2018501632 A JP2018501632 A JP 2018501632A JP WO2017145929 A1 JPWO2017145929 A1 JP WO2017145929A1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- posture
- voice
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して示すこと。ユーザとの対話が可能なロボット(101)の姿勢を制御する姿勢制御装置(3)であって、ユーザとの対話開始時に特定された上記ロボット(101)の姿勢が、発話意図提示姿勢でない場合に、駆動系(1)を駆動させて当該ロボット(101)に上記発話意図提示姿勢をとらせる。
Description
本発明は、ユーザとの対話が可能なロボットの姿勢を制御する姿勢制御装置、姿勢制御装置を備えたロボット及び姿勢制御方法に関する。
近年、自分の発話に応じた動作を行うロボットが開発されている。そして、これらロボットに対して、自分の発話に応じた動作をより自然に行うことが要求されている。例えば、特許文献1には、実際の動作と同期した音声を合成することで、発話に応じた動作を自然に行わせるロボット装置が開示されている。また、特許文献2には、ロボットが音声を出力する間にロボットのジェスチャを生成することで、発話に応じた動作を自然に行わせる人間型ロボットが開示されている。
ところで、ユーザとロボットの対話を円滑に行うには、ユーザとの対話を開始する際に、当該ロボット自体が発話の意図があるか否かをユーザに対して明確に知らせる必要がある。しかし、上記の各特許文献に開示されたロボットは、ロボット自体が発話する際の動作が自然になるように工夫されているものの、ユーザとの対話を開始する際に、当該ロボット自体が発話の意図があるか否かをユーザに対して示すことは特に考慮されていない。
本発明は、前記の問題点に鑑みてなされたものであり、その目的は、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して明確に示すことができる姿勢制御装置及び姿勢制御方法を実現することにある。
上記の課題を解決するために、本発明の一態様に係る姿勢制御装置は、ユーザとの対話が可能であり、且つ複数の駆動部を駆動させて種々の姿勢をとることが可能なロボットに備えられ、当該ロボットの姿勢を制御する姿勢制御装置であって、上記ロボットの姿勢を、上記各駆動部の駆動状態から特定する姿勢特定部と、上記各駆動部の駆動制御を行う駆動制御部と、を備え、上記駆動制御部は、ユーザとの対話開始時に上記姿勢特定部によって特定された上記ロボットの姿勢が、当該ロボットに発話を行う意図があることを示す発話意図提示姿勢でない場合に、上記各駆動部を駆動させて当該ロボットに上記発話意図提示姿勢をとらせることを特徴としている。
本発明の一態様に係る姿勢制御方法は、ユーザとの対話が可能であり、且つ複数の駆動部を駆動させて種々の姿勢をとることが可能なロボットの姿勢を制御する姿勢制御方法であって、ユーザとの対話開始時に上記ロボットの姿勢を特定する姿勢特定ステップと、上記姿勢特定ステップにより特定されたロボットの姿勢が、当該ロボットに発話を行う意図があることを示す発話意図提示姿勢でない場合に、上記各駆動部を駆動させて当該ロボットに上記発話意図提示姿勢をとらせる駆動制御ステップとを含むことを特徴としている。
本発明の一態様によれば、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して明確に示すことができるという効果を奏する。
〔実施形態1〕
以下、本発明の実施の形態について、詳細に説明する。本実施形態では、少なくとも人もしくは動物、ないしはそれに類した外殻とそれを動作する複数の駆動部からなる駆動系を持ち、ユーザとの対話が可能なロボットについて説明する。
以下、本発明の実施の形態について、詳細に説明する。本実施形態では、少なくとも人もしくは動物、ないしはそれに類した外殻とそれを動作する複数の駆動部からなる駆動系を持ち、ユーザとの対話が可能なロボットについて説明する。
(ロボットの概要)
図1は、本実施形態に係るロボット101の概略構成図である。ロボット101は、少なくとも人もしくは動物、ないしはそれに類した外殻(図示せず)を備えている。ロボット101は、さらに、外殻を動作する複数の駆動部(マニピュレータ)からなる駆動系1、ユーザとの対話を実現するための音声系2、駆動系1を駆動させて種々の姿勢を取らせるための姿勢制御装置3を含んでいる。
図1は、本実施形態に係るロボット101の概略構成図である。ロボット101は、少なくとも人もしくは動物、ないしはそれに類した外殻(図示せず)を備えている。ロボット101は、さらに、外殻を動作する複数の駆動部(マニピュレータ)からなる駆動系1、ユーザとの対話を実現するための音声系2、駆動系1を駆動させて種々の姿勢を取らせるための姿勢制御装置3を含んでいる。
音声系2は、マイク21、入力装置22、音声認識装置23、対話装置24、音声合成装置25、再生装置26、スピーカ27、再生状況取得装置28を含んでいる。マイク21は、ユーザが発する声を集音し、集音した声を電子的な波のデータ(波形データ)に変換する装置である。マイク21は、変換した電子的な波形データを、後段の入力装置22に送る。
入力装置22は、上記電子的な波形データを記録する装置である。入力装置22は、波形データの記録中に、当該波形データが無音を示す波形データの状態が所定時間以上継続した場合、記録を終了し、記録が終了したこと、すなわち入力終了を示す信号を姿勢制御装置3に送る。入力装置22は、入力終了を示す信号を姿勢制御装置3に送るタイミングで、記録した波形データを後段の音声認識装置23に送る。音声認識装置23は、入力装置22から送られた電子的な波形データからテキストデータに変換する(ASR:Automatic Speech Recognition)装置である。音声認識装置23は、変換したテキストデータを、後段の対話装置24に送る。
対話装置24は、音声認識装置23から送られたテキストデータを解析してユーザの発話内容(解析結果)を特定し、特定した発話内容に対して会話が成り立つ応答内容を示す対話用データの取得を行う装置である。また、対話装置24は、取得した対話用データから、応答内容に対応する、テキストデータを抽出する。そして、対話装置24は、抽出したテキストデータを後段の音声合成装置25に送る。
音声合成装置25は、対話装置24から送られたテキストデータをPCMデータにするTTS(Text to Speech)装置である。音声合成装置25は、変換したPCMデータを後段の再生装置26に送る。再生装置26は、音声合成装置25から送られたPCMデータを音波としてスピーカ27に出力する装置である。ここで出力される音波は、人が認識できる音をいう。また、再生装置26から出力された音波は、ユーザの発話内容に対する応答内容となる。これにより、ユーザとロボット101との間で会話が成り立つことになる。また、再生装置26は、PCMデータをスピーカ27に出力すると同時に再生状況取得装置28に出力する。
再生状況取得装置28は、再生装置26からPCMデータが送られると、スピーカ27による音声の出力が開始されたことを示す信号、すなわちロボット101によるユーザへの音声の再生開始時(発話開始時)であることを示す信号を姿勢制御装置3に送る。
姿勢制御装置3は、ロボット101の姿勢を制御する装置であって、駆動制御装置31、筐体状態取得装置32、姿勢記録装置33、挙動パターン記録装置34を含んでいる。駆動制御装置31は、ロボット101の姿勢を、上記駆動系(駆動部)1の駆動状態から特定する姿勢特定部31aと、上記駆動系1の駆動制御を行う駆動制御部31bを含んでいる。
筐体状態取得装置32は、駆動系1の駆動状態を示す情報を取得する装置である。ここで、駆動系1の駆動状態を示す情報とは、ロボット101の姿勢を特定するための駆動系1がどのような駆動状態にあるかを示す情報である。例えば、ロボットの関節に取り付けられたロータリーエンコーダから得られる関節の角度情報やトルクのオン/オフ状態などが駆動状態を示す情報に相当する。この情報は、筐体状態取得装置32から駆動制御装置31の姿勢特定部31aに送られる。
姿勢記録装置33は、ロボット101がとる発話意図提示姿勢を記録する装置である。具体的には、姿勢記録装置33には、ロボット101が発話意図提示姿勢をとるように、駆動系1の駆動状態を示す情報が記録されている。発話意図提示姿勢とは、例えば、ロボットが口に手を当てるような姿勢や気を付け姿勢、ユーザの顔を向くといった姿勢のことであり、ロボットが発話を行う意図をユーザに示す姿勢のことである。
挙動パターン記録装置34は、ロボット101の発話内容に対応付けられた挙動パターンを記録する装置である。具体的には、挙動パターン記録装置34には、挙動パターンとして、発話内容毎に対応付けられた駆動系1の駆動状態を示す情報が記録されている。なお、挙動パターンとして、姿勢記録装置33の情報だけでなく、筐体状態取得装置32ならび、例えば転倒検知や重力加速度などの各種センサ、もしくはロボット101の内部状態、例えば音声認識結果の過去の行動パターンを追加しても構わない。さらに、ユーザの発話内容をカテゴリ分けしたもの。発話時のピッチに合わせたものであってもよい。また、発話意図提示姿勢は、ロボット101が物を持つなど、当該ロボット101の状況によるため一種類でなく、複数種類あってもよい。
姿勢特定部31aでは、ロボット201の駆動系1の駆動状態を示す情報を取得することで、当該ロボット201が現在どのような姿勢をしているかを特定するようになっている。特定した姿勢を示す情報は、姿勢特定部31aから駆動制御部31bに送られる。
駆動制御部31bでは、ユーザとの対話開始時に上記姿勢特定部31aによって特定された上記ロボット101の姿勢が、発話意図提示姿勢であるか否かを判定する。ここで、ユーザとの対話開始時は、当該ロボット101によるユーザへの音声の再生開始時である。つまり、駆動制御部31bは、再生状況取得装置28からのロボット101によるユーザへの音声の再生開始されたことを示す信号を受け取ったタイミングにより、姿勢特定部31aによって特定されたロボット101の姿勢を判定する。
駆動制御部31bは、ロボット101の姿勢を判定した結果、当該ロボット101の姿勢が発話意図提示姿勢でない場合、駆動系1を駆動させてロボット101に発話意図提示姿勢をとらせる。つまり、ユーザとの対話開始時に上記ロボット101の姿勢を特定し(姿勢特定ステップ)、特定されたロボットの姿勢が、当該ロボット101に発話を行う意図があることを示す発話意図提示姿勢であるか否かを判定する。そして、発話意図提示姿勢ではない場合に、駆動系1を駆動させて当該ロボット101に上記発話意図提示姿勢をとらせる(駆動制御ステップ)。このように、ロボット101は、ユーザとの対話開始時に発話意図提示姿勢でない場合に、当該発話意図提示姿勢に戻る動作を行っているため、ユーザはロボット101に発話の意図があることを容易に理解することができる。
また、駆動制御部31bは、ロボット101の姿勢を判定した結果、当該ロボット101の姿勢が発話意図提示姿勢である場合、ロボット101の発話開始前に、これから発話を行うことをユーザに知らせるための動作を行わせる。例えば、ロボット101の発話意図提示姿勢において頭が正面を向いていれば、一度頭をうなだれた状態にして頭を正面に戻す動作を発話開始前に行わせる。この動作を行った後、ロボット101は発話を行う。これにより、ユーザは、ロボット101に発話の意図があることを容易に理解することができる。
(姿勢制御処理)
図2は、図1に示すロボット101の姿勢制御処理の流れを示すシーケンス図である。以下のシーケンス図には、ロボット101による音声が再生されるまでの処理(1)、音声再生中にロボット101の挙動が終了したときの処理(2)、ロボット101の挙動中に音声再生が終了したときの処理(3)が含まれている。
図2は、図1に示すロボット101の姿勢制御処理の流れを示すシーケンス図である。以下のシーケンス図には、ロボット101による音声が再生されるまでの処理(1)、音声再生中にロボット101の挙動が終了したときの処理(2)、ロボット101の挙動中に音声再生が終了したときの処理(3)が含まれている。
処理(1)の概要:ロボット101において、音声系2では、基本的にユーザの発話がマイク21より取得され、入力装置22により録される。録された発話について、その後、音声認識装置23により音声認識をし、対話装置24より音声認識結果から対話文字列を取得し、音声合成装置25により対話文字列を音声合成し、再生装置26により音声合成内容をスピーカ27にて鳴動する。なお、ユーザの発話の取得から音声合成内容の鳴動までを一連の所作としている。
また、本実施形態では、上記音声系2においてユーザとの対話開始時は、ユーザの発話がマイク21より取得され、取得された発話に対応する応答用の発話を再生装置26により再生を開始するタイミングとする。
姿勢制御装置3では、上記対話開始時に、筐体状態取得装置32によって筐体(ロボット101の駆動系1)の情報(駆動情報)を取得する。そして、駆動制御装置31は必要であれば駆動系1をアクティブにした後に姿勢記録装置33の情報に従って発話意図提示姿勢に変更し、挙動パターン記録装置34から発話内容に応じて挙動パターンのいずれかを選ぶ。
駆動系1が挙動パターンに応じて駆動を開始すると、ロボット101の発話が開始される。具体的には、上記処理(1)は、図2に示すシーケンスのうち、(1.音声データ入力)〜(13.音データ鳴動)までの処理が対応している。すなわち、マイク21は、ユーザが発話することで入力された音声を波形データに変換し、音データとして入力装置22に出力する(1.音声データ入力)。入力装置22は、入力された音データを入力し、入力した音データを音声認識装置23に出力する(2.音声認識開始命令)。
音声認識装置23は、図示しない制御部からの音声認識開始命令を受けて、入力された音データをテキストデータに変換し、対話装置24に出力する(3.対話開始命令)。対話装置24は、図示しない制御部からの対話開始命令を受けて、入力されたテキストデータからユーザの発話内容を解析し、発話内容に対応する対話文のテキストデータをデータベース(図示せず)から取得する。そして、取得したテキストデータを音声合成装置25に出力する(4.対話文言合成命令)。
音声合成装置25は、図示しない制御部からの対話文言合成命令を受けて、入力されたテキストデータを出力用音波データ(PCMデータ)に変換し、再生装置26に出力する(5.音声データ再生命令)。再生装置26は、図示しない制御部からの音声データ再生命令を受けて、出力用音波データを再生する際に、再生状況取得装置28に対して発話開始状態変更情報を出力する(6.発話開始状態変更)。この発話開始状態変更情報は、ロボット101による発話が開始されたか否かを示す情報であり、この場合は、ロボット101による発話が開示されたことを示す情報である。
再生状況取得装置28は、入力された発話開始状態変更情報からロボット101が発話したことを駆動制御装置31に通知する(7.発話開始状況通知)。ここで通知するのは、ロボット101によるユーザへの音声の再生が開始されたことを示す信号である。
駆動制御装置31は、再生状況取得装置28からのロボット101によるユーザへの音声の再生開始されたことを示す信号を受け取ったタイミングにより、筐体状態取得装置32からロボット101の状態(筐体状態)を取得する(8.筐体情報取得)。また、駆動制御装置31は、さらに、姿勢記録装置33に記録されている発話意図提示姿勢も取得する(9.発話意図提示姿勢取得)。これにより、駆動制御装置31は、取得した筐体状態から、姿勢特定部31aによってロボット101の姿勢を特定し、特定したロボット101の姿勢が、取得した発話意図提示姿勢であるか否かを判定することができる。そして、駆動制御装置31は、判定結果に応じて駆動系1を駆動する(10.発話意図提示姿勢移行)。
ここで、駆動制御装置31は、特定したロボット101の姿勢が発話意図提示姿勢でない場合、発話意図提示姿勢になるように駆動系1を駆動させる。一方、駆動制御装置31は、特定したロボット101の姿勢が発話意図提示姿勢である場合、当該発話意図提示姿勢の頭が正面を向いている状態であれば、一旦、頭をうなだれた状態にしてから正面に戻す動作を行わせる。
駆動制御装置31は、ロボット101が発話を開始する際に、挙動パターン記録装置34から発話内容に応じた挙動パターンを取得し(11.挙動パターン取得)、取得した挙動パターンになるように駆動系1の駆動を開始させる(12.挙動開始命令)。駆動系1の駆動が開始されると、再生装置26は、図示しない制御部からの音声データ再生命令を受けて、入力された出力用音波データを音波としてスピーカ27によって鳴動させる(13.音声データ鳴動)。
処理(2)の概要:駆動制御装置31は、再生状況取得装置28から取得した情報が発話継続を示す情報である場合、すなわち発話(再生)が終わっていない場合には再度、挙動パターン記録装置34の中いずれかの挙動パターンを作動させる。なお、挙動パターンは、発話が終わったタイミングで選択してもよいし、事前に選択していても構わない。
具体的には、上記の処理(2)は、図2に示すシーケンスのうち、(14.挙動終了)〜(18.挙動開始命令)までの処理が対応している。すなわち、ロボット101の発話中(音声再生中)における駆動系1による挙動パターンの終了は、筐体状態取得装置32が取得した駆動系1の駆動状態(筐体状態)によって判定する(14.挙動終了)。筐体状態取得装置32は、挙動終了していることを示す情報を挙動通知として駆動制御装置31に出力する(15.挙動通知命令)。
駆動制御装置31は、筐体状態取得装置32から取得した筐体状態から挙動が終了したことが通知されると、再生状況取得装置28から再生状況を取得する(16.再生状況取得)。また、駆動制御装置31は、取得した再生状況から再生中であると判断すれば、再度、挙動パターン記録装置34から発話内容に応じた挙動パターンを取得(17.挙動パターン取得)する。そして、取得した挙動パターンになるように駆動系1の駆動を開始させる(18.挙動開始命令)。
処理(3)の概要:駆動制御装置31は、再生状況取得装置28から取得した情報が発話終了を示す情報である場合、発話終了と判定し、駆動系1をアイドル状態もしくは非アクティブとする。一方、発話が終わったタイミングを再生状況取得装置28が取得すると、駆動制御装置31は筐体状態取得装置32を確認し、作動が行われている最中の場合、駆動系1に中止命令を発行し、初期姿勢となる発話意図提示姿勢に戻るように、当該駆動系1を駆動させる。なお、作動が所定の時間(例えば400ms)以内であれば許容の範囲として中止命令を出さない。
具体的には、上記の処理(3)は、図2に示すシーケンスのうち、(19.再生終了)〜(22.再生終了命令)までの処理が対応している。すなわち、再生装置26は、再生を終了したとき(19.再生終了)、再生状況取得装置28に対して再生終了状態変更情報を出力する(20.再生終了状態変更)。
再生状況取得装置28は、入力された再生終了状態変更情報からロボット101が発話を終了したことを駆動制御装置31に通知する(21.再生終了通知)。ここで通知するのは、ロボット101によるユーザへの音声の再生が終了されたことを示す信号である。
駆動制御装置31は、再生状況取得装置28から取得した再生終了通知から再生終了命令(中止命令)を駆動系1に発する(22.再生終了命令)。これにより、駆動系1の動作を停止させる。
(効果)
以上のように、ロボット101は、ユーザとの対話開始時に、姿勢が発話の意図があることをユーザに知らしめるための発話意図提示姿勢となる。つまり、ロボット101は、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して示すことができる。これにより、ユーザとロボット101との対話を円滑に行うことができるので、ユーザとロボットとの間で自然なノンバーバルコミュニケーションを実現できる。
以上のように、ロボット101は、ユーザとの対話開始時に、姿勢が発話の意図があることをユーザに知らしめるための発話意図提示姿勢となる。つまり、ロボット101は、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して示すことができる。これにより、ユーザとロボット101との対話を円滑に行うことができるので、ユーザとロボットとの間で自然なノンバーバルコミュニケーションを実現できる。
なお、本実施形態では、ユーザとの対話開始時を、ロボットによるユーザへの音声の再生開始時としていたが、これに限定されるものではなく、ロボットによるユーザの音声の入力終了時であってもよい。この場合、図2に示すシーケンスでは、入力装置22による入力終了時に、駆動制御装置31に対して対話開始状況通知を行う。このタイミングで駆動制御装置31は、筐体状態取得装置32から筐体状態を取得する。以降の処理は、上述した処理と同じである。
また、入力装置22による入力終了時は、音声認識の開始時でもあるため、ユーザとの対話開始時を、ロボットによる音声認識の開始時であってもよい。さらに、ロボット101を構成する筐体にスイッチを設け、スイッチ押下をもってマイク21をONにし、スイッチ離しをもってOFFにする装置の場合、ユーザとの対話開始時を、スイッチ離しを開始時としてもよい。また、ロボット101を構成する筐体にカメラを用い、カメラにおいて人物検知をし、更に人物の唇の動作が終了したことを検知することをもって会話が開始されると想定されるタイミングを、ユーザとの対話開始時としてもよい。
なお、ロボット101が発話の開始をするのは、対話装置24から応答用の発話内容が形成できた場合であり、ユーザの意図が不十分である発話内容の場合や、くしゃみ等ユーザの発話に意味が無い場合では、発話内容が形成できない。このような場合には、ロボット101は発話をする代わりに、発話意図提示姿勢から、発話意図が無くなったことを示す発話意図解除挙動をとっても良い。この発話意図解除挙動としては、発話意図提示姿勢と異なる姿勢になるような挙動であれば、どのような挙動でもよく、ユーザが、ロボット101に発話の意図がなくなったことを認識させ易い挙動であることが好ましい。
また、上記構成の姿勢制御装置3では、姿勢記録装置33と、挙動パターン記録装置34とは独立して設けられている例を示しているが、これら2つの装置を一つの記録装置としてもよい。
〔実施形態2〕
本発明の他の実施形態について、説明すれば以下のとおりである。なお、説明の便宜上、前記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
本発明の他の実施形態について、説明すれば以下のとおりである。なお、説明の便宜上、前記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(ロボットの概要)
図3は、本実施形態に係るロボット201の概略構成図である。ロボット201は、音声認識装置23をネットワーク上のサーバ(図示せず)内に設け、当該音声認識装置23との通信を行うための通信装置29を追加した構成となっている点で前記実施形態1のロボット101と異なる。つまり、ロボット201では、マイク21を通して入力された音声を入力装置22で入力した後、入力した音声データを通信装置29によってネットワーク上のサーバに送り、当該サーバ内の音声認識装置23にて音声認識を行わせることができる。そして、サーバ内の音声認識装置23による認識結果は、通信装置29を介して対話装置24に送られる。それらの点で、ロボット201は、前記実施形態1のロボット101と異なる。通信装置29は、インターネット等の外部のネットワーク上に設けられた音声認識装置23と通信が行えるものであれば、どのような方式の通信装置であってもよい。
図3は、本実施形態に係るロボット201の概略構成図である。ロボット201は、音声認識装置23をネットワーク上のサーバ(図示せず)内に設け、当該音声認識装置23との通信を行うための通信装置29を追加した構成となっている点で前記実施形態1のロボット101と異なる。つまり、ロボット201では、マイク21を通して入力された音声を入力装置22で入力した後、入力した音声データを通信装置29によってネットワーク上のサーバに送り、当該サーバ内の音声認識装置23にて音声認識を行わせることができる。そして、サーバ内の音声認識装置23による認識結果は、通信装置29を介して対話装置24に送られる。それらの点で、ロボット201は、前記実施形態1のロボット101と異なる。通信装置29は、インターネット等の外部のネットワーク上に設けられた音声認識装置23と通信が行えるものであれば、どのような方式の通信装置であってもよい。
(姿勢制御処理)
図4は、図3に示すロボット201の姿勢制御処理の流れを示すシーケンス図である。以下のシーケンス図では、ロボット201による音声が再生されるまでの処理(11)、音声再生中にロボット201の挙動が終了したときの処理(12)、ロボット201の挙動中に音声再生が終了したときの処理(13)が含まれている。
図4は、図3に示すロボット201の姿勢制御処理の流れを示すシーケンス図である。以下のシーケンス図では、ロボット201による音声が再生されるまでの処理(11)、音声再生中にロボット201の挙動が終了したときの処理(12)、ロボット201の挙動中に音声再生が終了したときの処理(13)が含まれている。
処理(11)の概要:この処理(11)は、前記実施形態1で説明した処理(1)とほぼ同じ処理であるが、ユーザとの対話開始時が異なる。すなわち、ユーザの発話がマイク21より音声データとして取得され、取得された音声データを入力装置22により入力し、入力終了した時点を、ユーザと対話開始時としている点で前記実施形態1の処理(1)と異なる。
具体的には、上記処理(11)は、図4に示すシーケンスのうち、(1.音声データ入力)〜(15.音データ鳴動)までの処理が対応している。すなわち、マイク21は、ユーザが発話することで入力された音声を波形データに変換し、音データとして入力装置22に出力する(1.音声データ入力)。入力装置22は、入力された音データを入力し、入力が終了した場合に、駆動制御装置31に対して、対話開始状況通知を行う(2.対話開始状況通知)。この対話開始状況通知により、駆動制御装置31に対して、ユーザの音声の入力が終了したことを通知する。
駆動制御装置31は、再生状況取得装置28からのロボット101によるユーザへの音声の再生開始されたことを示す信号を受け取ったタイミングにより、筐体状態取得装置32からロボット201の状態(筐体状態)を取得する(3.筐体情報取得)。駆動制御装置31は、さらに、姿勢記録装置33に記録されている発話意図提示姿勢も取得する(4.発話意図提示姿勢取得)。これにより、駆動制御装置31は、取得した筐体状態から、姿勢特定部31aによってロボット201の姿勢を特定し、特定したロボット201の姿勢が、取得した発話意図提示姿勢であるか否かを判定することができる。そして、駆動制御装置31は、判定結果に応じて駆動系1を駆動する(5.発話意図提示姿勢移行)。
駆動制御装置31は、特定したロボット201の姿勢が発話意図提示姿勢でない場合、発話意図提示姿勢になるように駆動系1を駆動させる。一方、駆動制御装置31は、特定したロボット201の姿勢が発話意図提示姿勢である場合、当該発話意図提示姿勢の頭が正面を向いている状態であれば、一旦、頭をうなだれた状態にしてから正面に戻す動作を行わせる。
その後、入力装置22は、図示しない制御部による音声認識開始命令(1)を受付けて、通信装置29を介して、ネットワーク上のサーバに設けられた音声認識装置23に入力した音声データを送信する(6.音声認識開始命令(1))。音声認識装置23は、サーバ内の制御部からの音声認識開始命令(2)を受けて、入力された音データをテキストデータに変換し(7.音声認識開始命令(2))、対話装置24に出力する(8.対話開始命令)。
対話装置24は、図示しない制御部からの対話開始命令を受けて、入力されたテキストデータからユーザの発話内容を解析し、発話内容に対応する対話文のテキストデータをデータベース(図示せず)から取得する。さらに、取得したテキストデータを音声合成装置25に出力する(9.対話文言合成命令)。
音声合成装置25は、図示しない制御部からの対話文言合成命令を受けて、入力されたテキストデータを出力用音波データ(PCMデータ)に変換し、再生装置26に出力する(10.音声データ再生命令)。再生装置26は、図示しない制御部からの音声データ再生命令を受けて、出力用音波データを再生する際に、再生状況取得装置28に対して発話開始状態変更情報を出力する(11.発話開始状態変更)。この発話開始状態変更情報は、ロボット201による発話が開始されたか否かを示す情報であり、この場合は、ロボット201による発話が開始されたことを示す情報である。
再生状況取得装置28は、入力された発話開始状態変更情報からロボット201が発話したことを駆動制御装置31に通知する(12.発話開始状況通知)。ここで通知するのは、ロボット201によるユーザへの音声の再生が開始されたことを示す信号である。駆動制御装置31は、ロボット201が発話を開始する際に、挙動パターン記録装置34から発話内容に応じた挙動パターンを取得し(13.挙動パターン取得)、取得した挙動パターンになるように駆動系1の駆動を開始させる(14.挙動開始命令)。駆動系1の駆動が開始されると、再生装置26は、図示しない制御部からの音声データ再生命令を受けて、入力された出力用音波データを音波としてスピーカ27によって鳴動させる(15.音声データ鳴動)。
処理(11)は以上の通りであるが、処理(12)は、前記実施形態1の処理(2)と同じであり、処理(13)は、前記実施形態1の処理(3)と同じであるため、これらの処理についての説明は省略する。
(効果)
以上のように、ロボット201は、ユーザとの対話開始時に、姿勢が発話の意図があることをユーザに知らしめるための発話意図提示姿勢となる。つまり、ロボット201は、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して示すことができる。これにより、ユーザとロボット201との対話を円滑に行うことができる。しかも、本実施形態の場合、音声認識装置23をネットワーク上のサーバ内に設けているので、ロボット201内部での音声認識処理を行わずに済むため、ロボット201における処理負担を軽減することができる。
以上のように、ロボット201は、ユーザとの対話開始時に、姿勢が発話の意図があることをユーザに知らしめるための発話意図提示姿勢となる。つまり、ロボット201は、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して示すことができる。これにより、ユーザとロボット201との対話を円滑に行うことができる。しかも、本実施形態の場合、音声認識装置23をネットワーク上のサーバ内に設けているので、ロボット201内部での音声認識処理を行わずに済むため、ロボット201における処理負担を軽減することができる。
なお、本実施形態では、ユーザとの対話開始時を、ロボットによるユーザの音声の入力終了時としていたが、これに限定されるものではなく、ロボットによるユーザへの音声の再生開始時としてもよい。
また、本実施形態の場合、前記実施形態1と同様に、入力装置22による入力終了時は、音声認識の開始時でもあるため、ユーザとの対話開始時を、ロボットによる音声認識の開始時であってもよい。さらに、ロボット201を構成する筐体にスイッチを設け、スイッチ押下をもってマイク21をONにし、スイッチ離しをもってOFFにする装置の場合、ユーザとの対話開始時を、スイッチ離しを開始時としてもよい。また、ロボット201を構成する筐体にカメラを用い、カメラにおいて人物検知をし、更に人物の唇の動作が終了したことを検知することをもって会話が開始されると想定されるタイミングを、ユーザとの対話開始時としてもよい。
また、ロボット201が発話の開始をするのは、対話装置24から応答用の発話内容が形成できた場合であり、ユーザの意図が不十分である発話内容の場合や、くしゃみ等ユーザの発話に意味が無い場合では、発話内容が形成できない。このような場合には、ロボット201は発話をする代わりに、発話意図提示姿勢から、発話意図が無くなったことを示す発話意図解除挙動をとっても良い。
なお、上記構成の姿勢制御装置3では、姿勢記録装置33と、挙動パターン記録装置34とは独立して設けられている例を示しているが、これら2つの装置を一つの記録装置としてもよい。
また、前記実施形態1,2では、ロボット101、201の姿勢制御を、音声系2からの出力信号(入力装置22からの音声入力終了を示す信号、再生状況取得装置28からの音声再生開始を示す信号)に基づいて行っていた。これに対して、以下の実施形態3では、カメラで撮像したユーザの顔画像に基づいて行う例について説明する。
〔実施形態3〕
本発明のさらに他の実施形態について、説明すれば以下のとおりである。なお、説明の便宜上、前記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
本発明のさらに他の実施形態について、説明すれば以下のとおりである。なお、説明の便宜上、前記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(ロボットの概要)
図5は、本実施形態に係るロボット301の概略構成図である。ロボット301は、前記実施形態1のロボット101とほぼ同じ構成であり、画像系4が新たに設けられている点で異なる。画像系4は、ユーザの顔を撮像するカメラ41、およびカメラ41によって撮像した顔画像を取得する画像取得装置(画像取得部)42を含んでいる。画像系4は、さらに、画像取得装置42が取得した顔画像が、当該ユーザによる発話終了を示す画像であるか否かを判定する画像判定装置(画像判定部)43を含んでいる。
図5は、本実施形態に係るロボット301の概略構成図である。ロボット301は、前記実施形態1のロボット101とほぼ同じ構成であり、画像系4が新たに設けられている点で異なる。画像系4は、ユーザの顔を撮像するカメラ41、およびカメラ41によって撮像した顔画像を取得する画像取得装置(画像取得部)42を含んでいる。画像系4は、さらに、画像取得装置42が取得した顔画像が、当該ユーザによる発話終了を示す画像であるか否かを判定する画像判定装置(画像判定部)43を含んでいる。
カメラ41は、ロボット301の対話相手となるユーザを撮像するデジタルカメラであって、ロボット301の内部に搭載できるものであれば、どのような形式、方式のカメラであってもよい。画像取得装置42は、カメラ41が撮像したユーザの画像から当該ユーザの顔画像を取得する装置である。画像取得装置42は、取得したユーザの顔画像を画像判定装置43に送る。
画像判定装置43は、画像取得装置42から送られたユーザの顔画像から顔認証を行い、認証結果から、ユーザによる発話終了を示す画像であるか否かを判定する装置である。ここでは、ユーザの口が閉じたときの顔画像であるか否かを判定する。そして、ユーザの口が閉じたときの顔画像を判定した結果を、姿勢制御装置3に送る。つまり、姿勢制御装置3では、ユーザの口が閉じたときのタイミングでロボット301の姿勢制御を行う。すなわち、本実施形態では、姿勢制御装置3によるロボット301の姿勢判定のタイミング、すなわちユーザとの対話開始時を、上記画像判定装置43によりユーザの発話終了を示す画像であると判定された時とする。
(効果)
以上のように、ロボット301は、ユーザとの対話開始時(画像判定装置43によりユーザの発話終了を示す画像であると判定された時)に、姿勢が発話の意図があることをユーザに知らしめるための発話意図提示姿勢となる。つまり、ロボット301は、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して示すことができる。これにより、ユーザとロボット301との対話を円滑に行うことができる。
以上のように、ロボット301は、ユーザとの対話開始時(画像判定装置43によりユーザの発話終了を示す画像であると判定された時)に、姿勢が発話の意図があることをユーザに知らしめるための発話意図提示姿勢となる。つまり、ロボット301は、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して示すことができる。これにより、ユーザとロボット301との対話を円滑に行うことができる。
(変形例)
図6は、図5に示すロボット301の変形例のロボット401の概略構成ブロック図である。ロボット401は、前記実施形態2のロボット201とほぼ同じ構成であり、画像系4が新たに設けられている点で異なる。また、画像系4を用いた姿勢制御については、図5に示すロボット301と同じであるため、その説明は省略する。
図6は、図5に示すロボット301の変形例のロボット401の概略構成ブロック図である。ロボット401は、前記実施形態2のロボット201とほぼ同じ構成であり、画像系4が新たに設けられている点で異なる。また、画像系4を用いた姿勢制御については、図5に示すロボット301と同じであるため、その説明は省略する。
(効果)
ロボット401によれば、ロボット301とほぼ同じ効果を奏し、さらに、音声認識装置23をネットワーク上のサーバ内に設けているので、ロボット401内部での音声認識処理を行わずに済む。そのため、ロボット401における処理負担を軽減することができるという効果を奏する。
ロボット401によれば、ロボット301とほぼ同じ効果を奏し、さらに、音声認識装置23をネットワーク上のサーバ内に設けているので、ロボット401内部での音声認識処理を行わずに済む。そのため、ロボット401における処理負担を軽減することができるという効果を奏する。
なお、本実施形態のロボット301及び変形例のロボット401においては、何れも、ユーザとの対話開始時を、ユーザの発話終了を示す画像を判定した時としていたが、これに限定されなくてもよい。例えば、前記実施形態1のロボット101、前記実施形態2のロボット201と同様に、音声系2からの出力信号(入力装置22からの音声入力終了を示す信号、再生状況取得装置28からの音声再生開始を示す信号)の受信時であってもよい。
〔ソフトウェアによる実現例〕
駆動制御装置31の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
駆動制御装置31の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、駆動制御装置31は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る姿勢制御装置は、ユーザとの対話が可能であり、且つ複数の駆動部(駆動系1)を駆動させて種々の姿勢をとることが可能なロボット(101,201,301,401)に備えられ、当該ロボット(101,201,301,401)の姿勢を制御する姿勢制御装置(31)であって、上記ロボット(101,201,301,401)の姿勢を、上記各駆動部(駆動系1)の駆動状態から特定する姿勢特定部(31a)と、上記各駆動部(駆動系1)の駆動制御を行う駆動制御部(31b)と、を備え、上記駆動制御部(31b)は、ユーザとの対話開始時に上記姿勢特定部(31a)によって特定された上記ロボット(101,201,301,401)の姿勢が、当該ロボット(101,201,301,401)に発話を行う意図があることを示す発話意図提示姿勢でない場合に、上記各駆動部(駆動系1)を駆動させて当該ロボット(101,201,301,401)に上記発話意図提示姿勢をとらせることを特徴としている。
本発明の態様1に係る姿勢制御装置は、ユーザとの対話が可能であり、且つ複数の駆動部(駆動系1)を駆動させて種々の姿勢をとることが可能なロボット(101,201,301,401)に備えられ、当該ロボット(101,201,301,401)の姿勢を制御する姿勢制御装置(31)であって、上記ロボット(101,201,301,401)の姿勢を、上記各駆動部(駆動系1)の駆動状態から特定する姿勢特定部(31a)と、上記各駆動部(駆動系1)の駆動制御を行う駆動制御部(31b)と、を備え、上記駆動制御部(31b)は、ユーザとの対話開始時に上記姿勢特定部(31a)によって特定された上記ロボット(101,201,301,401)の姿勢が、当該ロボット(101,201,301,401)に発話を行う意図があることを示す発話意図提示姿勢でない場合に、上記各駆動部(駆動系1)を駆動させて当該ロボット(101,201,301,401)に上記発話意図提示姿勢をとらせることを特徴としている。
上記の構成によれば、ユーザとの対話開始時に、ロボット(101,201,301,401)の姿勢を常に発話意図提示姿勢にさせることができるので、ユーザはロボットに発話意図があることを当該ロボットの姿勢により視覚的に容易に認識できる。
これにより、ユーザとの対話開始時に、ロボット自体が発話の意図があるか否かをユーザに対して明確に示すことができるので、ユーザとロボットの対話を円滑に行うことが可能となり、その結果、ユーザとロボットとの間で自然なノンバーバルコミュニケーションを実現できる。
本発明の態様2に係る姿勢制御装置は、上記態様1において、上記ロボット(101,201,301,401)が、ユーザの音声を入力し、入力した音声に応じて当該ユーザに向かって音声を再生することでユーザとの対話を行うとき、上記ユーザとの対話開始時は、当該ロボット(101,201,301,401)によるユーザへの音声の再生開始時であってもよい。
上記の構成によれば、ユーザとの対話開始時は、ロボット(101,201,301,401)によるユーザへの音声の再生開始時であるので、ロボットが当に発話しようとするタイミングでユーザに発話意図提示姿勢をとることができる。これにより、ロボットに発話意図があることを当該ロボットの姿勢に加えて、ユーザに対して、音声により明確に認識させることができる。
本発明の態様3に係る姿勢制御装置は、上記態様1において、上記ロボット(101,201,301,401)が、上記ユーザの音声を入力し、入力した音声に応じて当該ユーザに向かって音声を再生することでユーザとの対話を行うとき、上記ユーザとの対話開始時は、当該ロボット(101,201,301,401)によるユーザの音声の入力終了時であってもよい。
上記の構成によれば、ユーザとの対話開始時は、ロボット(101,201,301,401)によるユーザの音声の入力終了時であるので、ユーザの発話終了のタイミングでユーザに発話意図提示姿勢をとることができる。これにより、ロボットは、ユーザに対して迅速に発話の意図があることを知らせることができる。
本発明の態様4に係る姿勢制御装置は、上記態様1において、ユーザの顔を撮像した顔画像を取得する画像取得部(画像取得装置42)と、上記画像取得部(画像取得装置42)が取得した顔画像が、当該ユーザによる発話終了を示す画像であるか否かを判定する画像判定部(画像判定装置43)と、を備え、上記ユーザとの対話開始時は、上記画像判定部(画像判定装置43)によりユーザの発話終了を示す画像であると判定された時であってもよい。
上記の構成によれば、ユーザとの対話開始時は、上記画像判定部(画像判定装置43)によりユーザの発話終了を示す画像であると判定された時であるので、ユーザの発話終了タイミングでユーザに発話意図提示姿勢をとることができる。これにより、ロボットは、ユーザに対して迅速に発話の意図があることを知らせることができる。
本発明の態様5に係るロボットは、上記態様1〜4の何れか1態様に係る姿勢制御装置(31)を備えたことを特徴としている。上記の構成によれば、ユーザに対して明確に発話の意図があることを知らせることができる。
本発明の態様6に係る姿勢制御方法は、ユーザとの対話が可能であり、且つ複数の駆動部(駆動系1)を駆動させて種々の姿勢をとることが可能なロボット(101,201,301,401)の姿勢を制御する姿勢制御方法であって、ユーザとの対話開始時に上記ロボット(101,201,301,401)の姿勢を特定する姿勢特定ステップと、上記姿勢特定ステップにより特定されたロボット(101,201,301,401)の姿勢が、当該ロボット(101,201,301,401)に発話を行う意図があることを示す発話意図提示姿勢でない場合に、上記各駆動部を駆動させて当該ロボット(101,201,301,401)に上記発話意図提示姿勢をとらせる駆動制御ステップと、を含むことを特徴としている。上記の構成によれば、上記態様1と同じ効果を奏する。
本発明の各態様に係る姿勢制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記姿勢制御装置が備える各部(ソフトウェア要素)として動作させることにより上記姿勢制御装置をコンピュータにて実現させる姿勢制御装置の姿勢制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 駆動系(駆動部)、2 音声系、3 姿勢制御装置、4 画像系、21 マイク、22 入力装置、23 音声認識装置、24 対話装置、25 音声合成装置、26 再生装置、27 スピーカ、28 再生状況取得装置、29 通信装置、31 駆動制御装置31a 姿勢特定部、31b 駆動制御部、32 筐体状態取得装置、33 姿勢記録装置、34 挙動パターン記録装置、41 カメラ、42 画像取得装置(画像取得部)、43 画像判定装置(画像判定部)、101,201,301,401 ロボット
Claims (6)
- ユーザとの対話が可能であり、且つ複数の駆動部を駆動させて種々の姿勢をとることが可能なロボットに備えられ、当該ロボットの姿勢を制御する姿勢制御装置であって、
上記ロボットの姿勢を、上記各駆動部の駆動状態から特定する姿勢特定部と、
上記各駆動部の駆動制御を行う駆動制御部と、
を備え、
上記駆動制御部は、
ユーザとの対話開始時に上記姿勢特定部によって特定された上記ロボットの姿勢が、当該ロボットに発話を行う意図があることを示す発話意図提示姿勢でない場合に、上記各駆動部を駆動させて当該ロボットに上記発話意図提示姿勢をとらせることを特徴とする姿勢制御装置。 - 上記ロボットが、ユーザの音声を入力し、入力した音声に応じて当該ユーザに向かって音声を再生することでユーザとの対話を行うとき、
上記ユーザとの対話開始時は、当該ロボットによるユーザへの音声の再生開始時であることを特徴とする請求項1に記載の姿勢制御装置。 - 上記ロボットが、上記ユーザの音声を入力し、入力した音声に応じて当該ユーザに向かって音声を再生することでユーザとの対話を行うとき、
上記ユーザとの対話開始時は、当該ロボットによるユーザの音声の入力終了時であることを特徴とする請求項1に記載の姿勢制御装置。 - ユーザの顔を撮像した顔画像を取得する画像取得部と、
上記画像取得部が取得した顔画像が、当該ユーザによる発話終了を示す画像であるか否かを判定する画像判定部と、
を備え、
上記ユーザとの対話開始時は、上記画像判定部によりユーザの発話終了を示す画像であると判定された時であることを特徴とする請求項1に記載の姿勢制御装置。 - ユーザとの対話が可能であり、且つ複数の駆動部を駆動させて種々の姿勢をとることが可能なロボットであって、
請求項1〜4の何れか1項に記載の姿勢制御装置を備えたことを特徴とするロボット。 - ユーザとの対話が可能であり、且つ複数の駆動部を駆動させて種々の姿勢をとることが可能なロボットの姿勢を制御する姿勢制御方法であって、
ユーザとの対話開始時に上記ロボットの姿勢を特定する姿勢特定ステップと、
上記姿勢特定ステップにより特定されたロボットの姿勢が、当該ロボットに発話を行う意図があることを示す発話意図提示姿勢でない場合に、上記各駆動部を駆動させて当該ロボットに上記発話意図提示姿勢をとらせる駆動制御ステップと、
を含むことを特徴とする姿勢制御方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016034712 | 2016-02-25 | ||
JP2016034712 | 2016-02-25 | ||
PCT/JP2017/005857 WO2017145929A1 (ja) | 2016-02-25 | 2017-02-17 | 姿勢制御装置、ロボット及び姿勢制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2017145929A1 true JPWO2017145929A1 (ja) | 2018-10-25 |
Family
ID=59686191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018501632A Pending JPWO2017145929A1 (ja) | 2016-02-25 | 2017-02-17 | 姿勢制御装置、ロボット及び姿勢制御方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPWO2017145929A1 (ja) |
CN (1) | CN108698231A (ja) |
WO (1) | WO2017145929A1 (ja) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004034274A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 会話ロボット及びその動作方法 |
JP2005288573A (ja) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | 移動ロボット |
JP2006181651A (ja) * | 2004-12-24 | 2006-07-13 | Toshiba Corp | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
JP2007155986A (ja) * | 2005-12-02 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | 音声認識装置および音声認識装置を備えたロボット |
JP2008254122A (ja) * | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | ロボット |
JP2009222969A (ja) * | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
JP2013154458A (ja) * | 2012-01-31 | 2013-08-15 | Fujitsu Ltd | 対話装置、対話プログラムおよび対話方法 |
JP2013237124A (ja) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | 端末装置、情報提供方法及びプログラム |
JP2015066621A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 |
US20150247962A1 (en) * | 2013-02-06 | 2015-09-03 | Steelcase Inc. | Polarized Enhanced Confidentiality |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103753578A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 穿戴服务机器人 |
CN104951077A (zh) * | 2015-06-24 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法、装置和终端设备 |
-
2017
- 2017-02-17 CN CN201780007508.6A patent/CN108698231A/zh active Pending
- 2017-02-17 WO PCT/JP2017/005857 patent/WO2017145929A1/ja active Application Filing
- 2017-02-17 JP JP2018501632A patent/JPWO2017145929A1/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004034274A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 会話ロボット及びその動作方法 |
JP2005288573A (ja) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | 移動ロボット |
JP2006181651A (ja) * | 2004-12-24 | 2006-07-13 | Toshiba Corp | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
JP2007155986A (ja) * | 2005-12-02 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | 音声認識装置および音声認識装置を備えたロボット |
JP2008254122A (ja) * | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | ロボット |
JP2009222969A (ja) * | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
JP2013154458A (ja) * | 2012-01-31 | 2013-08-15 | Fujitsu Ltd | 対話装置、対話プログラムおよび対話方法 |
JP2013237124A (ja) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | 端末装置、情報提供方法及びプログラム |
US20150247962A1 (en) * | 2013-02-06 | 2015-09-03 | Steelcase Inc. | Polarized Enhanced Confidentiality |
JP2015066621A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2017145929A1 (ja) | 2017-08-31 |
CN108698231A (zh) | 2018-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4086280B2 (ja) | 音声入力システム、音声入力方法及び音声入力プログラム | |
JP5533854B2 (ja) | 音声認識処理システム、および音声認識処理方法 | |
JP5750380B2 (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
JP4622384B2 (ja) | ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム | |
WO2018135276A1 (ja) | 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法 | |
JP6798258B2 (ja) | 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム | |
JP6448950B2 (ja) | 音声対話装置及び電子機器 | |
WO2017145929A1 (ja) | 姿勢制御装置、ロボット及び姿勢制御方法 | |
WO2020079918A1 (ja) | 情報処理装置及び情報処理方法 | |
JP2009104047A (ja) | 情報処理方法及び情報処理装置 | |
US8666549B2 (en) | Automatic machine and method for controlling the same | |
JP6908636B2 (ja) | ロボットおよびロボットの音声処理方法 | |
JP5495612B2 (ja) | カメラ制御装置及び方法 | |
JP2016186646A (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
JP4735965B2 (ja) | 遠隔地間対話システム | |
JP2005308950A (ja) | 音声処理装置および音声処理システム | |
JP2015187738A (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
JP2008051950A (ja) | 情報処理装置 | |
JP4143487B2 (ja) | 時系列情報制御システム及びその方法並びに時系列情報制御プログラム | |
JP7007616B2 (ja) | 学習データ生成装置、学習データ生成方法およびプログラム | |
WO2024135221A1 (ja) | 情報処理装置およびゲーム動画生成方法 | |
JP2019072787A (ja) | 制御装置、ロボット、制御方法、および制御プログラム | |
US20240221718A1 (en) | Systems and methods for providing low latency user feedback associated with a user speaking silently | |
WO2019187543A1 (ja) | 情報処理装置および情報処理方法 | |
JP2022061361A (ja) | イベント検出装置、イベント検出方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180628 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190625 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200128 |