JP4517086B2 - コミュニケーションロボットシステムおよびロボット制御装置 - Google Patents

コミュニケーションロボットシステムおよびロボット制御装置 Download PDF

Info

Publication number
JP4517086B2
JP4517086B2 JP2005023959A JP2005023959A JP4517086B2 JP 4517086 B2 JP4517086 B2 JP 4517086B2 JP 2005023959 A JP2005023959 A JP 2005023959A JP 2005023959 A JP2005023959 A JP 2005023959A JP 4517086 B2 JP4517086 B2 JP 4517086B2
Authority
JP
Japan
Prior art keywords
robot
information
communication
action
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005023959A
Other languages
English (en)
Other versions
JP2006205343A (ja
Inventor
喜久 本田
倫太 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005023959A priority Critical patent/JP4517086B2/ja
Publication of JP2006205343A publication Critical patent/JP2006205343A/ja
Application granted granted Critical
Publication of JP4517086B2 publication Critical patent/JP4517086B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Description

この発明はコミュニケーションロボットシステムおよびロボット制御装置に関し、特にたとえば、人間との間でコミュニケーション行動を行うコミュニケーションロットを制御する、コミュニケーションロボットシステムおよびロボット制御装置に関する。
本件出願人は、特許文献1に代表されるように、人間と相互作用するコミュニケーションロボットを提案してきた。
特開2002−355783号公報
背景技術のコミュニケーションロボットを用いて、コミュニケーション中の人間の身体動作と当該コミュニケーションロボットの身体動作とを互いに関連づけて記録しておき、人間の身体動作で、任意のコミュニケーションロボットの行動を呼び出し、実行させることが考えられる。
しかし、人間の身体動作とコミュニケーションロボットの行動とを単純に対応付けることはできない。なぜなら、人間の身体動作(行動)には2通りの可能性があるからである。1つは、コミュニケーションロボットの行動に対する行動(たとえば、コミュニケーションロボットが握手を求めてきたら、人間も握手し返す。)であり、もう1つは、コミュニケーションロボットの行動を検索する行動(人間がコミュニケーションロボットと握手するために、コミュニケーションロボットに手を差し出す。)である。したがって、人間の行動とコミュニケーションロボットの行動との対応関係を単純に記録すると、上記2つの行動が混ざってしまうのである。
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットシステムを提供することである。
この発明の他の目的は、人間の身体動作に応じたコミュニケーション行動を実行できる、コミュニケーションロボットシステムを提供することである。
請求項1の発明は、コミュニケーションロボットとこのコミュニケーションロボットを制御する制御装置とを備えるコミュニケーションロボットシステムであって、コミュニケーションロボットは、人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報に従ってコミュニケーション行動を実行するコミュニケーション行動実行手段、行動情報とコミュニケーション行動を実行したときの通常状態または割り込み状態を示す状態情報とを含むロボット情報を制御装置に送信する送信手段、および制御装置からの割り込み指示を受信する割り込み指示受信手段を備え、制御装置は、人間の身体動作についての動作情報を検出する動作情報検出手段、コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、同時刻における、動作情報とロボット情報とを対応づけて記憶する記憶手段動作情報検出手段によって検出された現在の動作情報と記憶手段に記憶された過去の動作情報とを比較する比較手段比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および状態判別手段によって通常状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、または、状態判別手段によって割り込み状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報の時間的に次の過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、コミュニケーションロボットシステムである。
請求項1の発明では、コミュニケーションロボットシステムは、コミュニケーションロボットと、このコミュニケーションロボットを制御する制御装置とを備える。コミュニケーションロボットは、コミュニケーション行動実行手段、送信手段および割り込み指示受信手段を備える。コミュニケーション行動実行手段は、人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報(行動モジュール)に従ってコミュニケーション行動を実行する。たとえば、人間の身体動作に拘わらずコミュニケーションロボットが人間に手を差し出す(握手する)行動(通常状態)と、人間が差し出した手を握るように、コミュニケーションロボットが人間に手を差し出す(握手する)行動(割り込み状態)とが区別される。送信手段は、行動情報とコミュニケーション行動を実行したときの通常状態または割り込み状態を示すコミュニケーションロボットの状態情報とを含むロボット情報を制御装置に送信する。また、割り込み指示受信手段は、制御装置からの割り込み指示を受信する。一方、制御装置は、動作情報検出手段、ロボット情報検出手段、記憶手段、比較手段、状態判別手段、および割り込み指示送信手段を備える。動作情報検出手段は、コミュニケーションロボットとコミュニケーションを行う人間の身体動作についての動作情報を検出する。ロボット情報検出手段は、コミュニケーションロボットから送信されるロボット情報を検出する。記憶手段は、同時刻における、動作情報とロボット情報とを対応づけて記憶する。つまり、人間の身体動作とロボットのコミュニケーション行動との対応関係が記憶される。比較手段は、現在の動作情報と記憶手段に記憶された過去の動作情報とを比較する。状態判別手段は、比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する。割り込み指示送信手段は、状態判別手段によって通常状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、または、状態判別手段によって割り込み状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報の時間的に次の過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する。
請求項1の発明によれば、人間の身体動作とコミュニケーションロボットのコミュニケーション動作との対応関係を記憶しておき、人間の現在の身体動作に基づいてコミュニケーションロボットにコミュニケーション動作を割り込みで実行させるので、人間の身体動作でコミュニケーションロボットの行動を引き出すことができる。すなわち、人間の身体動作に応じたコミュニケーション行動を、コミュニケーションロボットに実行させることができる。
請求項の発明は請求項1に従属し、割り込み指示送信手段は、コミュニケーションロボットが割り込みでコミュニケーション行動を行っているときには、新たな割り込み指示を送信しない。
請求項の発明では、割り込み指示送信手段は、コミュニケーションロボットが割り込みでコミュニケーション行動を行っているときには、新たな割り込み指示を送信しない。つまり、連続して割り込み指示を送信しない。
請求項の発明によれば、連続して割り込み指示を送信しないため、コミュニケーションロボットが同じコミュニケーション行動を繰り返し実行するような不都合を回避することができる。
請求項の発明は請求項1または2に従属し、割り込み指示送信手段は、読み出した行動情報が前回割り込みで実行を指示した行動情報と一致するときには、新たな割り込み指示を送信しない
請求項の発明では、割り込み指示送信手段は、読み出した行動情報が前回割り込みで実行を指示した行動情報と一致するときには、新たな割り込み指示を送信しない。つまり、前回の行動情報と同じ行動情報についての割り込み指示は行われない。
請求項の発明においても請求項2の発明と同様に、コミュニケーションロボットが同じコミュニケーション行動を繰り返し実行するような不都合を回避することができる
請求項の発明は、人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報に従って当該コミュニケーション行動を実行するコミュニケーションロボットを制御するロボット制御装置であって、人間の身体動作についての動作情報を検出する動作情報検出手段、コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、同時刻における、動作情報とロボット情報とを対応づけて記憶する記憶手段動作情報検出手段によって検出された現在の動作情報と記憶手段に記憶された過去の動作情報とを比較する比較手段比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および状態判別手段によって通常状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、または、状態判別手段によって割り込み状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報の時間的に次の過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、ロボット制御装置である。
このロボット制御装置の発明によれば、コミュニケーションロボットシステムの発明と同様に、人間の身体動作に応じたコミュニケーション行動をコミュニケーションロボットに実行させることができる。
この発明によれば、人間の身体動作とコミュンケーションロボットのコミュニケーション行動との対応関係を記憶しておき、現在の身体動作に基づいてコミュニケーション行動を実行させるので、人間の身体動作に応じたコミュニケーション行動をコミュニケーションロボットに実行させることができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボットシステム(以下、単に「システム」という。)10は、コミュニケーションロボット(以下、単に「ロボット」という。)12を含む。このロボット12は、人間14との間で、身振り手振りのような身体動作ないし行動(以下、「コミュニケーション行動」ということがある。)を取ることができる。ただし、コミュニケーション行動としては、ロボット12と人間14との間における会話が含まれる場合もある。
ロボット12は、人間のような身体を有し、その身体を用いてコミュニケーションのために必要な複雑な身体動作を生成する。具体的には、図2を参照して、ロボット12は台車32を含み、この台車32の下面には、このロボット12を自律移動させる車輪34が設けられる。この車輪34は、車輪モータ(ロボット12の内部構成を示す図3において参照番号「36」で示す。)によって駆動され、台車32すなわちロボット12を前後左右任意の方向に動かすことができる。
なお、図2では示さないが、この台車32の前面には、衝突センサ(図3において参照番号「38」で示す。)が取り付けられ、この衝突センサ38は、台車32への人や他の障害物の接触を検知する。そして、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪34の駆動を停止してロボット12の移動を急停止させる。
また、ロボット12の背の高さは、この実施例では、人、特に子供に威圧感を与えることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
台車32の上には、多角形柱のセンサ取付パネル40が設けられ、このセンサ取付パネル40の各面には、超音波距離センサ42が取り付けられる。この超音波距離センサ42は、取付パネル40すなわちロボット12の周囲の主として人との間の距離を計測するものである。
台車32の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル40に囲まれて、直立するように取り付けられる。この胴体は下部胴体44と上部胴体46とから構成され、これら下部胴体44および上部胴体46は、連結部48によって連結される。連結部48には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体46の高さすなわちロボット12の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「50」で示す。)によって駆動される。上で述べたロボット12の身長100cmは、上部胴体46をそれの最下位置にしたときの値である。したがって、ロボット12の身長は100cm以上にすることができる。
上部胴体46のほぼ中央には、1つの全方位カメラ52と、1つのマイク16とが設けられる。全方位カメラ52は、ロボット12の周囲を撮影するもので、後述の眼カメラ54と区別される。マイク16は、周囲の音、とりわけ人の声を取り込む。
上部胴体46の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。
なお、上腕58Rおよび58Lならびに前腕62Rおよび62L(いずれも図3)の変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。
また、図3では示さないが、上部胴体46の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図3において参照番号64で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。
前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体46の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。
また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ54Rおよび54Lを含む。なお、右の眼球部74Rおよび左の眼球部74Lをまとめて眼球部74といい、右の眼カメラ54Rおよび左の眼カメラ54Lをまとめて眼カメラ54ということもある。眼カメラ54は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
なお、上述の全方位カメラ52および眼カメラ54のいずれも、たとえばCCDやCMOSのような固体撮像素子を用いるカメラであってよい。
たとえば、眼カメラ54は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ54の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ54の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図3に示すように、眼カメラ54のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
図3には、ロボット12の内部構成を示すブロック図が示される。この図3に示すように、ロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。
メモリ80は、図示しないが、ROMやHDD、RAM等を含み、ROMまたはHDDにはこのロボット12の制御プログラムおよびデータ等が予め格納されている。CPU76は、このプログラムに従って処理を実行する。具体的には、ロボット12の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)が記憶される。たとえば、行動モジュールが示す身体動作としては、「握手」、「抱っこ」、「万歳」…などがある。行動モジュールが示す身体動作が「握手」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、右手を前に差し出す。また、行動モジュールが示す身体動作が「抱っこ」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を前に差し出す。さらに、行動モジュールが示す身体動作が「万歳」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を数回(たとえば、2回)上下させる。また、RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図4ではまとめて、「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ50、および車輪34を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)36を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「左眼球モータ」として示す。)96の回転角度を調節する。
なお、この実施例の上述のモータは、車輪モータ36を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ36と同様に、直流モータであってよい。
センサ入力/出力ボード84も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ42の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ52からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ54からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。
スピーカ72には音声入力/出力ボード86を介して、CPU76から、合成音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク24からの音声入力が、音声入力/出力ボード86を介してCPU76に取り込まれる。
また、CPU76には、バス78を通して、通信LANボード98が接続される。この通信LANボード98も、同様に、DSPで構成され、CPU76から与えられた送信データを無線通信装置100に与え、無線通信装置100から送信データを送信させる。また、通信LANボード98は無線通信装置100を介してデータを受信し、受信データをCPU76に与える。
図1に戻って、システム10はまた、制御装置(ロボット制御装置)としてのコンピュータ20を含み、このコンピュータ20としては、パーソナルコンピュータ(PC)或いはワークステーション(WS)を用いることができる。周知のとおり、コンピュータ20は、CPU、ROM、RAMおよびHDD等を備えている。また、コンピュータ20には、モーションキャプチャシステム22およびデータベース24が接続される。さらに、上述したロボット12は、たとえば、HUB(図示せず)に接続されたアクセスポイント(図示せず)を介して無線LANによってコンピュータ20に接続される。
モーションキャプチャシステム(3次元動作計測装置)22としては、公知のモーションキャプチャシステムが適用される。たとえば、VICON社(http://www.vicon.com/)の光学式のモーションキャプチャシステムを用いることができる。図示は省略するが、モーションキャプチャシステム22は、PC或いはWSのようなコンピュータを含み、このコンピュータとコンピュータ20とが、たとえばHUBを介して有線または無線LANによって互いに接続される。このモーションキャプチャシステム22は、人間14の身体動作に関する数値データ(動作情報)を検出して、コンピュータ20に送信する。コンピュータ20は、モーションキャプチャシステム22から送信される数値データを後述するデータベース24に記憶(蓄積)する。
図4を用いて具体的に説明すると、モーションキャプチャシステム22においては、複数(少なくとも3つ)の赤外線照射機能を有するカメラ22aが、人間14に対して異なる方向に配置される。人間14には、複数(この実施例では、10個)の赤外線反射マーカ30が取り付けられる。具体的には、図4からも分かるように、赤外線反射マーカ30は、人間14の頭頂、眼の上(額)、胸、肩、肘、手先(手首)のように、人間14の身体動作を特徴づける特徴点すなわち人間14の身体動作を特定可能な部分(部位)に取り付けられる。
モーションキャプチャシステム22のコンピュータは、カメラ22aから画像データをたとえば60Hz(1秒間に60フレーム)で取得し、画像データの画像処理によって、その計測時の全ての画像データにおける各マーカ30の2次元位置を抽出する。そして、コンピュータは、画像データにおける各マーカ30の2次元位置に基づいて、実空間における各マーカ30の3次元位置を算出し、算出した3次元位置の座標データ(数値データ)を3次元動作データとして、コンピュータ20に送信する。
コンピュータ20は、モーションキャプチャシステム22から1フレーム(1/60秒)毎に送信される3次元動作データを取得(検出)し、データベース(3次元動作DB)24に入力(記憶)する。また、コンピュータ20は、ロボット12から送信されるロボット情報(後述する、コミュニケーション行動についての情報および行動ステータス)を検出し、3次元動作データに対応づけて3次元動作DB24に記憶する。ただし、ロボット12は、ロボット情報を、当該ロボット情報に含まれるコミュニケーション行動についての情報(行動情報:この実施例では、行動モジュール)が示すコミュニケーション行動を実行したときに、一度だけコンピュータ20に送信する。このため、コンピュータ20は、ロボット情報を受信すると、次のロボット情報を受信するまで、今回受信したロボット情報を、1フレーム毎に検出される3次元動作データに対応づけるようにしてある。
たとえば、ロボット12は、自身のコンピュータ(CPU76)の指示に従う行動モジュールが示す行動すなわち身体動作を行う(通常状態の動作)。このとき、CPU76は、メモリ80に記憶された行動モジュールをランダムまたは所定のルールに従って読み出して、実行する。また、ロボット12は、コンピュータ20から行動モジュールの名称ないし識別子を指示されると、当該行動モジュールが示す身体動作を行う(割り込み状態の動作)。ただし、通常状態の動作(通常動作)では、ロボット12は人間14の身体動作等に拘わらず、自発的に行う。一方、割り込み状態の動作(割り込み行動)では、ロボット12は人間14の身体動作に起因した動作を行う。
上述したように、ロボット12のロボット情報(後述する、行動モジュールおよび行動ステータス)と人間14の3次元動作データとを対応づけて記憶しておくので、人間14の過去の身体動作と人間14の現在の身体動作とを比較し、類似または一致する過去の身体動作に対応づけられたロボット12の身体動作(ロボット情報に含まれる行動情報が示す動作)を引き出すことができる。ただし、同じ人間14が同じ身体動作を行った場合であっても3次元動作データが完全に一致することはほとんど有り得ないため、実際には、類似する過去の身体動作に対応づけられたロボット12の身体動作を引き出すようにしてある。
ただし、人間14の身体動作(行動)には、2通りの可能性があるため、ロボット12の行動と人間14の行動との対応関係を記録しておき、現在の人間14の行動に類似する過去の行動に対応づけられた行動を単にロボット12に実行させた場合には、2通りの行動が混ざってしまうのである。1つは、ロボット12の行動に対する行動(たとえば、ロボット14が握手を求めてきたら、人間12も握手し返す。)であり、もう1つは、ロボット12の行動を検索する行動(人間14がロボット12と握手するために、ロボット12に手を差し出す。)である。
そこで、この実施例では、ロボット12が行動するときの状態(行動ステータス)もロボット情報に含めて記憶しておき、人間14の現在の身体動作に類似する過去の身体動作を検索する場合に、行動ステータスを考慮することにより、上述したような2つの行動を分別して、適切なコミュニケーション行動を実行できるようにしてある。
具体的には、コンピュータ20は、ロボット12が自ら行動を取る状態(通常状態)または人間14の行動に対する行動を取る状態(割り込み状態)を示すフラグをメモリ80(RAM)に設けておき、当該フラグのオン/オフを考慮して現在の身体動作に類似する身体動作を検索し、ロボット12に割り込みによるコミュニケーション行動(割り込み行動)を実行させるようにしてある。
図5(A)、(B)、(C)は、それぞれ、ロボット12のコミュニケーション行動と人間14の身体動作との例を示す図解図である。図5(A)は、ロボット12と人間14とが握手している様子を示している。図5(B)では、ロボット12は、人間14に対して抱っこ(ハグ)しようとしている。一方、人間14は、両手を上に上げている。図5(C)では、ロボット12は万歳をしようとしている。一方、人間14は、図面では分かり難いが、左手を振っている。
このように、コミュニケーションを行っているロボット12のロボット情報と人間14の3次元動作データとを対応づけて3次元動作DB24に記憶しておき、人間14がロボット12に対して何らかの身体動作を行ったときに、当該身体動作を過去の身体動作と比較して、もっとも近似(類似)する身体動作に対応して記録されたロボット12のコミュニケーション行動を実行するようにしてある。したがって、ロボット12が人間14に対して何らかのコミュニケーション行動を取るだけでなく、人間14がロボット12に対して行動(身体動作)を取ることができる。
ただし、コンピュータ20は、DB24にデータが或る程度蓄積されるまでは、人間14との間でコミュニケーションを行う場合であっても、ロボット12に割り込み実行させるコミュニケーション行動の検索を実行しない。言うまでもなく、コミュニケーションを開始した当初では、3次元動作データおよびロボット情報がDB24に十分蓄積されておらず、人間14の身体動作に対する正しいコミュニケーション行動をロボット12に実行させることができないためである。この実施例では、ロボット12と人間14との間で、一定時間(たとえば、10分)コミュニケーションを行うまでは、コンピュータ20は検索を実行しない。したがって、この一定時間においては、ロボット12は、通常状態でのみコミュニケーション行動を行うことになる。
図6に示すように、コンピュータ20は、同時刻における、3次元動作データと、行動モジュールおよび行動ステータスとを対応付けて3次元動作DB24に記憶する。図6の(1)で示す期間においては、行動モジュールが「握手」であり、そのときの行動ステータスが「通常」であり、それらに対応して、当該期間における3次元動作データが記憶される。また、図6の(2)に示す期間においては、行動モジュールが「抱っこ」であり、そのときの行動ステータスが「通常」であり、それらに対応して、当該期間における3次元動作データが記憶される。さらに、図6の(3)に示す期間においては、行動モジュールが「万歳」であり、そのときの行動ステータスが「通常」であり、それらに対応して、当該期間における3次元動作データが記憶される。
ただし、上述したように、人間14には複数のマーカ30が取り付けられるため、3次元動作データは多次元となるが、つまり波形は複数現れるが、分かり易く示すために、図6では、或る1つのマーカ30を観測した場合に得られる1の波形のみを示してある。以下、同様である。
また、図示は省略するが、後述するように、検索によるコミュニケーション行動が実行される場合には、つまり割り込み行動が実行される場合には、行動ステータスとして「割り込み(インタラプト)」が記憶されることになる。
したがって、図7に示すように、3次元動作DB24には、時系列に従って、3次元動作データとこれに対応する行動モジュールおよび行動ステータスとが順次記憶される。ただし、3次元動作データは、上述したように、時系列に従う数値データの集合である。
このように、DB24には、データが蓄積されるが、上述したように、一定時間が経過すると、コンピュータ20は検索行動処理を実行し、人間14の現在の身体動作に類似する過去の身体動作を検出し、検出した身体動作に対応して記憶された行動モジュールに従う行動をロボット12に割り込みで実行させる。
なお、後述するように、コンピュータ20はデータを蓄積する処理(ログ保存処理)と検索行動処理とを並列的に実行する。
具体的には、検索処理では、現在取得した3次元動作データ(以下、「現3次元動作データ」という。)をクエリとして、DB24に蓄積された3次元動作データ(以下、「前3次元動作データ」という。)と順次比較する。図8に示すように、この実施例では、クエリは、現在時刻を含む過去Lフレーム分の3次元動作データである。また、前3次元動作データと現3次元動作データすなわちクエリとを比較する場合には、図8に示すように、Lフレーム単位で1フレームずつずらすようにして、DB24に記憶されたすべての3次元動作データと比較される。比較する手法としては、文字列比較によく用いられる手法(LCSS:Longest Common Subsequence)が適用される。たとえば、ユークリッド距離による方法も考えられるが、時間的な伸縮を許さないため、同一人物が同じ行動を行ったとしても時間的な長さや速さが異なる人間14の身体動作を比較するのには適していない。また、DTW(Dynamic Time Warping)による方法も考えられるが、現3次元動作データに含まれるすべての点を前3次元動作データのいずれかの点に必ず対応づけるようにするため、3次元動作データの一部が欠落している場合であってもいずれかのデータに対応づけようとするため、比較結果の信頼性に欠けてしまう。
そこで、この実施例では、LCSSを適用して、各マーカ30についての前3次元動作データと現3次元動作データとを比較して、つまり、3次元座標同士を比較して、類似度が求められる。各マーカ30の類似度の総和が人間14の身体動作同士の類似度に決定される。ただし、類似するか否かを判断するための閾値(条件)は、予め試験等により経験的に得られた値に設定される。
ここで、図9(A)に示すように、たとえば、クエリ(現3次元動作データ)とa1の期間における前3次元動作データとを比較した結果、互いに類似していると判断されたと仮定する。このとき、図9(A)のa1およびa2で示す期間におけるロボット12の行動ステータスは「通常」であるため、コンピュータ20は、類似するa1に示す期間における前3次元動作データが示す身体動作とロボット12の「握手」の動作とが対応していると判断し、「握手」についてのカウント値を1加算する。
しかし、図9(B)に示すように、b2で示す期間におけるロボット12の行動ステータスが「割り込み」である場合には、コンピュータ20は、b1で示す期間における3次元動作データが示す身体動作はb2で示す期間におけるロボット12の「抱っこ」の動作と対応していると判断し、「抱っこ」についてのカウント値を1加算する。
なお、図9(B)においても、クエリ(現3次元動作データ)とb1の期間における前3次元動作データとが類似していると判断されたことを前提としてある。
このように、行動ステータスが「割り込み」である場合には、人間14の身体動作と同時刻におけるロボット12のコミュニケーション行動の次のコミュニケーション行動とが対応していると判断するようにしてある。これは、割り込みでコミュニケーション行動を実行している場合の人間14の身体動作をクエリとしないためである。たとえば、人間14が過去にロボット12に握手してもらい、もう一度握手してもいたくて、過去と同じ身体動作をしたとする。このとき、検索結果が握手するというコミュニケーション行動になり、人間14はロボット12にしてもらいたい行動が出たので、ロボット12と握手する。すると、このときの人間14の握手するという身体動作がクエリになってしまうと、再度ロボット12に握手するという割り込みが入ってしまい、延々と握手が続いてしまうことになるのを防止するためである。
このようにして、コンピュータ20は、クエリとすべての前3次元動作データとを比較し、クエリと類似している3次元動作データに対応すると考えられるロボット12の行動情報をカウントし、最もカウント値が大きい行動情報が示す行動をロボット12に割り込み実行させる。つまり、コンピュータ20は、カウント値が最も大きい行動情報(行動モジュール)が示す行動の割り込み実行の指示をロボット12に送信する。ただし、現在、ロボット12が割り込みでコミュニケーション行動を実行中である場合には、コンピュータ20は、割り込み実行の指示を送信しない。また、カウント値が最も大きい行動情報(行動モジュール)が前回割り込み実行を指示した行動情報と同じである場合にも、コンピュータ20は、割り込み実行の指示を送信しない。これは、同じコミュニケーション行動が繰り返し実行されるのを回避するためである。
図10はコンピュータ20のログ保存処理を示すフロー図である。この図10を参照して、コンピュータ20はログ保存処理を開始すると、ステップS1で、モーションキャプチャシステム22からのキャプチャデータすなわち3次元動作データをメモリ(たとえば、HDDに設けられる仮想メモリ。以下同じ。)に保存(一時保存)する。続く、ステップS3では、ロボット12から送信されたロボット情報すなわち行動モジュール(行動情報)および実行ステータスをメモリに保存(一時保存)する。そして、ステップS5で、同時刻における、キャプチャデータ(3次元動作データ)と、行動モジュールおよび行動ステータスとを対応付けてDB24に保存して、ログ保存処理を終了する。
このログ保存処理は、一定時間毎に実行され、ロボット12のコミュニケーション行動と人間14の身体動作とがDB24に記録される。ただし、DB24が一杯になると、最も古いデータに上書きするように、DB24は更新される。
図11〜図13は、コンピュータ20の検索行動処理を示すフロー図である。この検索行動処理は、上述したように、一定時間が経過した後に、ログ保存処理と並列的に実行される。図11を参照して、コンピュータ20は検索行動処理を開始すると、ステップS11で、モーションキャプチャシステム22からのキャプチャデータすなわち3次元動作データをメモリ80に保存(一時保存)する。次に、ステップS13では、現在時刻Cを保存(記憶)し、ステップS15で、変数(時刻)Tに0を代入する。続くステップS17では、時刻T(フレーム)からLフレーム分のキャプチャデータ(3次元動作データ)をDB24から取得し、メモリ80にコピーする。そして、ステップS19で、入力されたキャプチャデータすなわち現3次元動作データ(クエリ)とDB24からコピーしたキャプチャデータすなわち前3次元動作データとが類似するかどうかを判断する。
ステップS19で“NO”であれば、つまり2つのキャプチャデータが類似していなければ、そのまま図13に示すステップS37に進む。しかし、ステップS19で“YES”であれば、つまり2つのキャプチャデータが類似していれば、図12に示すステップS21で、時刻T+L+1のロボット12のコミュニケーション行動が存在するかどうかを判断する。ステップS21で“NO”であれば、つまり時刻T+L+1のロボット12のコミュニケーション行動が存在しなければ、そのままステップS25に進む。一方、ステップS21で“YES”であれば、つまり時刻T+L+1のロボット12のコミュニケーション行動が存在すれば、ステップS23で、時刻T+L+1のロボット12の行動ステータスが「割り込み」であるかどうかを判断する。
ステップS23で“NO”であれば、つまり時刻T+L+1のロボット12の行動ステータスが「通常」であれば、ステップS25で、時刻Tのロボットの行動(行動モジュール)をメモリ80に読込み、ステップS29に進む。しかし、ステップS23で“YES”であれば、つまり時刻T+L+1のロボット12の行動ステータスが「割り込み」であれば、ステップS27で、時刻T+L+1のロボット12の行動モジュールをメモリ80に読込み、ステップS29に進む。
ステップS29では、メモリ80に作成された表(図示せず)に当該行動(行動モジュール)が記述されているかどうかを判断する。ステップS29で“YES”であれば、つまりステップS25またはS27で読み込まれた行動がメモリ80の表に存在すれば、ステップS31で、当該行動の行動カウンタを1加算(インクリメント)して、図13に示すステップS37に進む。一方、ステップS29で“NO”であれば、つまりステップS25またはS27で読み込まれた行動がメモリ80の表に存在しなければ、ステップS33で、メモリ80の表に当該行動の欄を設け、ステップS35で、当該行動に対応する行動カウンタを0に設定し、ステップS31に進む。ただし、検索行動処理を開始した当初では、表自体が作成されていないため、ステップS33では、表が作成されるとともに、該当する行動の欄が設けられる。
図13に示すように、ステップS37では、現在時刻C−Lと時刻T+Lとが一致する(C−L=T+L)かどうかを判断する。つまり、クエリとDB24に保存されているすべての3次元動作データとの類似度を判定し、ロボット12に割り込み実行させるコミュニケーション行動の検索を終了したかどうかを判断している。ステップS37で“NO”であれば、つまり現在時刻C−Lと時刻T+Lとが一致しなければ、ステップS39で、時刻Tに1フレーム加算する。一方、ステップS37で“YES”であれば、つまり現在時刻C−Lと時刻T+Lとが一致すれば、ステップS41で、現在ロボット12が割り込み実行中かどうかを判断する。図示は省略したが、コンピュータ20はロボット12が割り込み実行中か否かを示すフラグ(割り込み中フラグ)を記憶しており、当該フラグのオン/オフに基づいて、ロボット12が割り込み実行中であるかどうかを判断する。ただし、割り込み中フラグは、コンピュータ20から割り込みによるコミュニケーション行動の実行を指示したときにオンされ、ロボット12から送信される行動ステータスが通常状態に変化するとオフされる。
ステップS41で“YES”であれば、つまり現在ロボット12が割り込み実行中であれば、そのまま検索行動処理を終了する。一方、ステップS41で“NO”であれば、つまり現在ロボット12が通常実行中であれば、ステップS43で、カウント値が最大の行動カウンタに対応する行動(行動モジュール)を特定し、ステップS45で、特定した行動が前回実行した行動と同じであるかどうかを判断する。ステップS45で“YES”であれば、つまり特定した行動が前回実行した行動と同じであれば、同じ行動が繰り返し実行されるのを回避すべく、そのまま検索行動処理を終了する。一方、ステップS45で“NO”であれば、つまり特定した行動が前回実行した行動と異なれば、ステップS47で、特定した行動(行動モジュール)の実行をロボット12に命令(指示)して、検索行動処理を終了する。
この実施例によれば、コミュニケーションを行う人間の行動を記録するとともに、ロボットの行動およびそのときのステータスを記憶するので、ロボットに通常行動および検索行動を実行させることができる。つまり、人間の行動からロボットの行動を引き出すことができる。
また、この実施例では、コミュニケーション行動を行う人間の動作を記憶しておき、それを用いて当該人間に対する行動をロボットに実行させるので、各人間に応じたコミュニケーションを取ることができる。したがって、たとえば、ロボット12が人物Aとコミュニケーション行動を終了した後に、人物Bとのコミュニケーション行動を実行する場合には、コンピュータ20は、たとえば、3次元動作DB24を消去するようにすればよい。
なお、この実施例では、ロボットが特定の1人の人間との間でコミュニケーションを取る場合について説明したが、時間帯が異なれば、2人以上の人間との間でコミュニケーションを取ることも可能である。かかる場合には、各人間14を識別可能にしておき、人間14毎の3次元動作DBを設け、ロボット12とコミュニケーションを行っている人間14を特定し、特定した人間14の身体動作に応じて、特定した人間14についての3次元動作DBを検索して、ロボット12の行動を引き出すようにすればよい。各人間14は、映像や識別情報により、識別可能である。映像での識別は、たとえば、各人間14に異なる色や異なるマークの付された服を着させておき、これをCCDカメラ等のカメラで撮影して得られる画像データを解析することにより実現可能である。識別情報での識別は、各人間14に識別情報の異なるタグを所持または装着しておき、タグが発信する識別情報を解析することにより実現可能である。
図1はこの発明のコミュニケーションロボットシステムの一例を示す図解図である。 図2は図1実施例に示すロボットの外観を説明するための図解図である。 図3は図1および図2に示すロボットの電気的な構成を示す図解図である。 図4はモーションキャプチャシステムで検出するマーカの人間への装着状態を示す図解図である。 図5はロボットと人間とのコミュニケーション行動の例を示す図解図である。 図6は図5に示すようなコミュニケーション行動によりデータベースに記憶されるデータの例を示す図解図である。 図7はデータベースの内容を示す図解図である。 図8は人間の現在の身体動作と人間の過去の身体動作とを比較する比較方法を示す図解図である。 図9は人間の現在の身体動作と人間の過去の身体動作とを比較する比較方法を示す図解図である。 図10は図1に示すコンピュータのログ保存処理を示すフロー図である。 図11は図1に示すコンピュータの検索行動処理の一部を示すフロー図である。 図12は図11に後続する検索行動処理の他の一部を示すフロー図である。 図13は図11および図12に後続する検索行動処理のその他の一部を示すフロー図である。
符号の説明
10 …コミュニケーションロボットシステム
12 …コミュニケーションロボット
16 …マイク
20 …コンピュータ
22 …モーションキャプチャシステム
24 …データベース
38 …衝突センサ
42 …超音波距離センサ
52 …全方位カメラ
54 …眼カメラ
64 …タッチセンサ
76 …CPU
80 …メモリ
82 …モータ制御ボード
84 …センサ入力/出力ボード
86 …音声入力/出力ボード
88−96 …モータ
98 …通信LANボード
100 …無線通信装置

Claims (4)

  1. コミュニケーションロボットとこのコミュニケーションロボットを制御する制御装置とを備えるコミュニケーションロボットシステムであって、
    コミュニケーションロボットは、
    人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報に従ってコミュニケーション行動を実行するコミュニケーション行動実行手段、
    前記行動情報と前記コミュニケーション行動を実行したときの前記通常状態または前記割り込み状態を示す状態情報とを含むロボット情報を前記制御装置に送信する送信手段、および
    前記制御装置からの割り込み指示を受信する割り込み指示受信手段を備え、
    前記制御装置は、
    前記人間の前記身体動作についての動作情報を検出する動作情報検出手段、
    前記コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、
    同時刻における、前記動作情報と前記ロボット情報とを対応づけて記憶する記憶手段
    前記動作情報検出手段によって検出された現在の動作情報と前記記憶手段に記憶された過去の動作情報とを比較する比較手段
    前記比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および
    前記状態判別手段によって前記通常状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、または、前記状態判別手段によって前記割り込み状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報の時間的に次の前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、前記コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、コミュニケーションロボットシステム。
  2. 前記割り込み指示送信手段は、前記コミュニケーションロボットが割り込みでコミュニケーション行動を行っているときには、新たな割り込み指示を送信しない、請求項記載のコミュニケーションロボットシステム。
  3. 前記割り込み指示送信手段は、読み出した前記行動情報が前回割り込みで実行を指示した前記行動情報と一致するときには、新たな割り込み指示を送信しない、請求項1または2記載のコミュニケーションロボット。
  4. 人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報に従って当該コミュニケーション行動を実行するコミュニケーションロボットを制御するロボット制御装置であって、
    前記人間の前記身体動作についての動作情報を検出する動作情報検出手段、
    前記コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、
    同時刻における、前記動作情報と前記ロボット情報とを対応づけて記憶する記憶手段
    前記動作情報検出手段によって検出された現在の動作情報と前記記憶手段に記憶された過去の動作情報とを比較する比較手段
    前記比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および
    前記状態判別手段によって前記通常状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、または、前記状態判別手段によって前記割り込み状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報の時間的に次の前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、前記コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、ロボット制御装置。
JP2005023959A 2005-01-31 2005-01-31 コミュニケーションロボットシステムおよびロボット制御装置 Expired - Fee Related JP4517086B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005023959A JP4517086B2 (ja) 2005-01-31 2005-01-31 コミュニケーションロボットシステムおよびロボット制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005023959A JP4517086B2 (ja) 2005-01-31 2005-01-31 コミュニケーションロボットシステムおよびロボット制御装置

Publications (2)

Publication Number Publication Date
JP2006205343A JP2006205343A (ja) 2006-08-10
JP4517086B2 true JP4517086B2 (ja) 2010-08-04

Family

ID=36962706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005023959A Expired - Fee Related JP4517086B2 (ja) 2005-01-31 2005-01-31 コミュニケーションロボットシステムおよびロボット制御装置

Country Status (1)

Country Link
JP (1) JP4517086B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
JP6393991B2 (ja) * 2014-01-24 2018-09-26 トヨタ自動車株式会社 ロボット、及びその制御方法
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
JP6419585B2 (ja) 2015-01-13 2018-11-07 株式会社小松製作所 掘削機械、掘削機械の制御方法及び掘削システム
US11220008B2 (en) * 2017-07-18 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Apparatus, method, non-transitory computer-readable recording medium storing program, and robot
JP2020082246A (ja) * 2018-11-20 2020-06-04 大日本印刷株式会社 姿勢データ生成装置、学習器、コンピュータプログラム、学習データ、姿勢データ生成方法及び学習モデルの生成方法
CN109693251B (zh) * 2018-12-18 2020-12-08 航天时代电子技术股份有限公司 一种基于动作捕捉的机器人控制***及方法
KR102315362B1 (ko) * 2020-08-21 2021-10-20 네이버랩스 주식회사 로봇 평가 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105605A (ja) * 1998-09-28 2000-04-11 Toyoda Mach Works Ltd ロボット制御装置
JP2001246580A (ja) * 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2003181784A (ja) * 2001-12-19 2003-07-02 Sanyo Electric Co Ltd 自動応答ロボット
JP2004227276A (ja) * 2003-01-23 2004-08-12 Advanced Telecommunication Research Institute International 人間のコミュニケーション行動記録システムおよび方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105605A (ja) * 1998-09-28 2000-04-11 Toyoda Mach Works Ltd ロボット制御装置
JP2001246580A (ja) * 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2003181784A (ja) * 2001-12-19 2003-07-02 Sanyo Electric Co Ltd 自動応答ロボット
JP2004227276A (ja) * 2003-01-23 2004-08-12 Advanced Telecommunication Research Institute International 人間のコミュニケーション行動記録システムおよび方法

Also Published As

Publication number Publication date
JP2006205343A (ja) 2006-08-10

Similar Documents

Publication Publication Date Title
JP4517086B2 (ja) コミュニケーションロボットシステムおよびロボット制御装置
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5120745B2 (ja) コミュニケーションロボット
JP5429462B2 (ja) コミュニケーションロボット
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
JP4599522B2 (ja) コミュニケーションロボット
JP4014044B2 (ja) コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP2007190641A (ja) コミュニケーションロボット
JP5145569B2 (ja) 対象物特定方法および装置
CN105930775B (zh) 基于灵敏度参数的人脸朝向识别方法
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2007213190A (ja) コミュニケーションロボット改良システム
JP4399603B2 (ja) コミュニケーションロボット
JP2005131713A (ja) コミュニケーションロボット
JP2006185109A (ja) 画像計測装置及び画像計測方法
JP2007160427A (ja) ロボット制御システム
JP2005131748A (ja) 関係検知システム
KR20140009900A (ko) 로봇 제어 시스템 및 그 동작 방법
JP4798581B2 (ja) ロボットシステム
JP4617428B2 (ja) 動作生成システム
JP2007130691A (ja) コミュニケーションロボット
JP2004042151A (ja) コミュニケーションロボット
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP4613284B2 (ja) コミュニケーションロボットおよびそれを用いた動作識別システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140528

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees