JP2004160630A - ロボット装置及びその制御方法 - Google Patents
ロボット装置及びその制御方法 Download PDFInfo
- Publication number
- JP2004160630A JP2004160630A JP2002339853A JP2002339853A JP2004160630A JP 2004160630 A JP2004160630 A JP 2004160630A JP 2002339853 A JP2002339853 A JP 2002339853A JP 2002339853 A JP2002339853 A JP 2002339853A JP 2004160630 A JP2004160630 A JP 2004160630A
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- unit
- robot
- wireless tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Credit Cards Or The Like (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
【課題】マイク、カメラや種々のセンサで検出することが困難であった外部に存在する対象の情報の正確な確認や識別を可能とするロボット装置を提供する。
【解決手段】自律的に行動を出現させると共に、外部からの入力情報に応じて行動が制御されるロボット装置は、外部に存在する対象に設けられた無線タグ、いわゆるRFID(Radio Frequency Identification)タグから、該RFIDタグに記憶されているデータを読み取る無線タグ読取手段であるRFIDリーダ部19と、RFIDリーダ部19により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて行動を制御するコントローラ10とを有する。
【選択図】 図2
【解決手段】自律的に行動を出現させると共に、外部からの入力情報に応じて行動が制御されるロボット装置は、外部に存在する対象に設けられた無線タグ、いわゆるRFID(Radio Frequency Identification)タグから、該RFIDタグに記憶されているデータを読み取る無線タグ読取手段であるRFIDリーダ部19と、RFIDリーダ部19により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて行動を制御するコントローラ10とを有する。
【選択図】 図2
Description
【0001】
【発明の属する技術分野】
本発明は、ロボット装置及びその制御方法に関するものであり、例えば、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置及びそのようなロボット装置の制御方法に関するものである。
【0002】
【従来の技術】
人間や動物等の動作に似せた運動を例えば電気的や磁気的な作用を用いて行う機械装置のことを「ロボット」という。わが国においてロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
【0003】
アーム式ロボットのように、ある特定の場所に設置して用いるような据置きタイプのロボットは、部品の組立・選別作業など固定的・局所的な作業空間でのみ活動する。これに対し、移動式のロボットは、作業空間は非限定的であり、所定の経路上又は無経路上を自在に移動して、所定の若しくは任意の人的作業を代行したり、ヒトやイヌあるいはその他の生命体に置き換わる種々の幅広いサービスを提供することができる。なかでも脚式の移動ロボットは、クローラ式やタイヤ式の移動ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段や梯子の昇降や障害物の乗り越えや、整地・不整地の区別を間わない柔軟な歩行・走行動作を実現できるという点で優れている。
【0004】
最近では、イヌやネコのように4足歩行の動物の身体メカニズムやその動作を模したいわゆるペット型ロボット、あるいは、ヒトのような2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」のロボット(humanoid robot)など、脚式移動ロボットに関する研究開発が進展し、実用化への期待もますます高まってきている。
【0005】
例えば、動物を模した形状とされたロボット装置であるペット型ロボットは、一般家庭において飼育される犬や猫に似た形状を有し、ユーザ(飼い主)からの「叩く」や「撫でる」といった働きかけや、周囲の環境等に応じて自律的に行動する。例えば、自律的な行動として、実際の動物と同様に、「吠える」、「寝る」等といった行動をする。
【0006】
ところで、ロボット装置が実際の動物のような行動に、より近づくことができれば、ロボット装置の生物感が一層増し、ユーザ(飼い主)は、ロボット装置に一層の親近感や満足感を感じる。これにより、ロボット装置のアミューズメント性が向上する。
【0007】
このようなロボット装置は、所定の自由度を持つアクチュエータと所定の物理量を検出するセンサ等を所定の位置に配置された機構部とを有し、マイクロコンピュータを用いた制御部によって、外部からの情報に対して所定の動作を行なうように構成されている(例えば、特許文献1参照。)。
【0008】
【特許文献1】
特開2001−154679
【0009】
【発明が解決しようとする課題】
ところで、上述のロボット装置において、外部から与えられる情報を検出する方法としては、
(1)マイク等から得られる音声データを検出し、その音声データの音声認識結果を使用する方法、
(2)CCDカメラ等から得られる画像データを検出し、その画像データの画像認識結果を使用する方法、
(3)タッチセンサ等による物理的な働きかけにより受けた圧力を検出し、その選出結果を使用する方法、
(4)温度センサ、湿度センサや匂いセンサ等によるロボット装置周辺の環境状況を検出し、その検出結果を使用する方法
等が知られている。
【0010】
しかしながら、このような音声、画像、圧力、環境状況による情報検出方法において、表面の状態や形状が似ていて異なる物体が、ロボット装置の周囲に複数存在する場合に、その物体の識別は困難である。また、一般に物体の認識には、画像データを検出し、その画像認識結果を用いる方法が最も有力な方法であるが、画像データを検出するためには明るさが必要であり、外部環境が暗いと有効な認識が行えない。
【0011】
例えば、夜など暗い環境下では、CCDカメラから得られる画像データの情報量が不足し、正確で詳細な画像認識結果を得られないという欠点があった。その結果、暗い環境では、例えば壁や階段がある場合、ロボット装置は壁に衝突したり、階段から転落したりする可能性があった。
【0012】
また、従来のロボット装置においては、周囲の生物や物体を正確に識別することができないため、生物が周囲の生物(人間や動物等)や物体(他のロボット装置等)との間の高度な関係(家族関係、血縁関係、主従関係など)を構築しているように演じることが困難であった。
【0013】
例えば、飼育される犬や猫等のペットであれば、ペットは自分の飼い主とそれ以外の人間の識別が可能であり、飼い主とペットは、互いの主従関係を認識し、その主従関係に応じて行動することが可能である。しかし、従来のロボット装置では、飼い主と似た人物が複数存在する場合、飼い主とそれ以外の人間の識別が難しく、飼い主との主従関係を構築するように行動し、動作することは困難である。
【0014】
そこで、本発明は、このような実情に鑑みて提案されたものであり、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が行え、また、外部環境が暗くとも物体認識や外部状態認識が有効に行えるようなロボット装置及びその制御方法を提供することを目的とする。また、本発明は、ロボット装置が周囲の生物や物体等を正確に識別する方法を提供することにより、生物が構築するような高度な関係を、ロボット装置が周囲の生物や物体等の対象との間に構築するようにロボット装置が動作することを可能とするようなロボット装置及びその制御システムを提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明に係るロボット装置は、上述の課題を解決するために、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、外部に存在する対象(人間や動物等を含む生物や、ボール、机、壁、段差部等の物体、あるいは他のロボット装置等)に設けられた無線タグ、いわゆるRFID(Radio Frequency Identification)タグから、該無線タグに記憶されているデータを読み取る無線タグ読取手段(RFIDリーダ)と、上記無線タグ読取手段により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて上記行動を制御する制御手段とを有することを特徴とする。
【0016】
ここで、上記無線タグ読取手段により読み取られたデータと上記外部の対象に関する情報である上記対象関連情報とを関連付けたテーブルが記録された記憶手段を有し、上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に対応する状態認識情報に基づいて、上記行動を制御することが好ましい。
【0017】
あるいは、上記無線タグには上記外部の対象に関する情報である上記状態認識情報が記録されており、上記無線タグ読取手段は、上記無線タグに記憶されているデータから上記対象関連情報を読み取り、上記制御手段は、上記無線タグ読取手段により読み取られた上記対象関連情報に応じた状態認識情報に基づいて、上記行動を制御することが好ましい。
【0018】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作の方法に関する行動情報を含み、上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記行動情報に基づいて、上記行動を制御することが挙げられる。
【0019】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含み、上記環境情報は、階段、床、壁、段差、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング、部屋の位置情報、の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記環境情報に基づいて、上記行動を制御することが挙げられる。
【0020】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置が上記外部の対象と構築する関係に関する関係情報を含み、上記関係情報は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記関係情報に基づいて、当該ロボット装置が、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動を制御することが挙げられる。
【0021】
また、本発明に係るロボット装置は、上記行動で感情を表現する表出手段と、上記表出手段を駆動する駆動手段と、上記無線タグ読取手段により読み取られたデータと上記対象に関する情報(対象関連情報)を関連付けたテーブルを記録する記憶手段とを有し、上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に応じた状態認識情報に基づいて、上記駆動手段を制御することを特徴とする。
【0022】
無線タグ読取手段(RFIDリーダ)が読み取った上記データは、上記制御手段へ伝達され、制御手段は無線タグ読取手段からの上記データにより上記テーブルを参照して、上記データに関連づけられた対象関連情報を記憶手段から読み出す。制御手段は記憶手段から読み出した対象関連情報に応じた状態認識情報に基づいて、駆動手段を制御して、表出手段を駆動する。
【0023】
表出手段の例としては、動物の手足等に模した可動なパーツ、スピーカー等による音響出力、又は発光ダイオード等による発光手段がある。また表出手段は複数種類の表出部の組み合わせであってもよく、制御手段は記憶手段から読み出した対象関連情報に基づいて、複数種類の表出部の駆動を制御することが可能である。
【0024】
上記対象関連情報に応じた状態認識情報に基づいて、出現するロボットの行動は、少なくとも本能的要素又は情動的要素からなるもので構成されていることが挙げられる。
【0025】
ここで、上記本能的要素が、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)のうちの少なくとも1つであり、上記情動的要素が、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)の内の少なくとも1つであることが挙げられる。
【0026】
上記ロボット装置の外観は動物に模した外観形状をしていて、無線タグ読取手段は、例えば、動物の顔部分に備え付けられている。
【0027】
ロボット装置は、タッチセンサ等の接触を検出する接触検出手段を備えて、上記接触検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記検出結果により接触を検出した場合に、一定時間、無線タグ読取手段の動作を実行させることも可能である。また、例えばカメラによる画像認識や赤外線センサ等による、物体の有無や状態を光学的に検出する光学的検出手段を備えて、上記光学的検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記光学的検出結果により物体の有無や状態を検出した場合に、一定時間、上記無線タグ読取手段の動作を実行させることも可能である。
【0028】
また、本発明に係るロボット装置の制御方法は、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置の制御方法であって、外部に存在する対象に設けられた無線タグから該無線タグに記憶されているデータを読み取る無線タグ読取工程と、上記無線タグ読取工程により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて上記行動を制御する制御工程とを有することを特徴とする。
【0029】
【発明の実施の形態】
以下、本発明を適用した実施の形態について、図面を参照しながら説明する。
【0030】
図1は、本発明の実施の形態となるロボット装置の外観構成例を示す斜視図であり、図2は、その電気的構成例を示すブロック図である。
【0031】
この実施の形態は、周囲の環境(外的要因)や内部の状態(内的要因)に応じて自律的に行動をする自律型のロボット装置であり、具体例として、「犬」を模した形状のいわゆるペットロボットを示しているが、他の動物形や、人間等を模した2足歩行ロボット等にも本発明を適用可能であることは勿論である。
【0032】
図1において、ロボット装置1は、胴体部ユニット2の前後左右に、それぞれ脚部ユニット3A,3B,3C,3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されて構成されている。尻尾部ユニット5は、胴体部ユニット2の上面に設けられたベース部から、尻尾5Aが2自由度をもって湾曲または揺動自在に引き出されている。
【0033】
胴体部ユニット2には、図2に示すように、ロボット全体の制御を行うコントローラ10、ロボットの動力源となるバッテリ11、並びにバッテリセンサ12および熱センサ13からなる内部センサ部14などが収納されている。
【0034】
頭部ユニット4には、外部音を集音するための「耳」に相当するマイク(マイクロフォン)15、外部の状況を視覚的に検出する「目」に相当するCCD(Charge Coupled Device)カメラ16、外部からの圧力等を検出する触覚に相当するタッチセンサ17、音声等を出力する「口」に相当するスピーカ18、外部の物体に設けられたRFIDタグ(無線タグ)の情報(IDデータ等)を読み取るRFIDリーダ部(無線タグ読取手段)19などが、それぞれ所定位置に配設されている。
【0035】
ここで、RFID(Radio Frequency Identification)とは、非接触型の自動認識技術のことであり、例えばICと小型アンテナが組み込まれたタグ等の媒体から、電波等を介して情報を読み取る。媒体となるタグ(付け札)は、RFIDタグ、無線タグ、ICタグ等と称され、カード状やラベル状、マイクロチップ状等、種々の形状がある。RFID識別技術は、バーコードに代わる技術として、RFIDタグをあらゆる製品に埋め込んで製品の情報を管理することが期待されているのみならず、ゲートやドアの開閉、通過管理や、小包や荷物の配送管理等の種々の利用形態が提案されている。RFIDリーダ部19は、このようなRFIDタグ(無線タグ)に記憶されているデータ(IDデータ等)を読み取るためのものである。なお、RFIDシステムの情報伝送方式には、電磁誘導方式、電磁結合方式、マイクロ波方式、静電結合方式、光方式等が挙げられるが、上記RFIDリーダ部19としては、いずれの方式に対応する情報読取手段を用いてもよく、また、複数の方式に対応させてもよく、さらに、書込機能を有するリーダ/ライタであってもよいことは勿論である。
【0036】
脚部ユニット3A乃至3Dそれぞれの関節部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユニット2の連結部分、頭部ユニット4と胴体部ユニット2の連結部分、並びに尻尾部ユニット5と胴体部ユニット2の連結部分などには、図2に示すように、それぞれアクチュエータ3AA1乃至3AAK、3BA1乃至3BAK、3CA1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL、5A1および5A2が配設されており、これにより、各連結部分は、所定の自由度をもって回転することができるようになっている。
【0037】
頭部ユニット4におけるマイク15は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号を、コントローラ10に送出する。CCDカメラ16は、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。RFIDリーダ部19は、周囲の物体に備え付けられたRFIDタグから、そのRFIDタグに記録された情報(IDデータ等)を非接触又は接触により読み取り、その読み取った信号をRFID信号として、コントローラ10に送出する。
【0038】
タッチセンサ17は、例えば、頭部ユニット4の上部に設けられており、ユーザからの「なでる」や「たたく」といった物理的な働きかけにより受けた圧力を検出し、その検出結果を圧力検出信号としてコントローラ10に送出する。
【0039】
胴体部ユニット2におけるバッテリセンサ12は、バッテリ11の残量を検出し、その検出結果を、バッテリ残量検出信号としてコントローラ10に送出する。熱センサ13は、ロボット内部の熱を検出し、その検出結果を、熱検出信号としてコントローラ10に送出する。
【0040】
コントローラ10は、CPU(Central Processing Unit)10Aやメモリ10B等を内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
【0041】
すなわち、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリーダ部19、バッテリセンサ12、熱センサ13から与えられる音声信号、画像信号、圧力検出信号、RFID信号、バッテリ残量検出信号、熱検出信号に基づいて、周囲の状況や、ユーザからの指令、ユーザからの働きかけなどの有無を判断する。
【0042】
また、コントローラ10は、この判断結果等に基づいて、続く行動を決定し、その決定結果に基づいて、アクチュエータ3AA1乃至3AAK、3BA1乃至3BAK、3CA1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL、5A1および5A2のうちの必要なものを駆動させ、これにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5を動かせたり、各脚部ユニット3A乃至3Dを駆動して、ロボットを歩行させるなどの行動を行わせる。
【0043】
また、コントローラ10は、必要に応じて、合成音を生成し、スピーカ18に供給して出力させたり、ロボットの「目」の位置に設けられた図示しないLED(Light Emitting Diode)を点灯、消灯または点滅させる。
【0044】
さらに、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17等からの音声信号、画像信号、圧力検出信号等に基づいて、上記RFIDリーダ部19の読取動作を制御するようにしてもよい。例えば、コントローラ10は、タッチセンサ17等の接触を検出する接触検出手段からの検出結果により接触を検出した場合に、一定時間の間、RFIDリーダ部19の動作を実行する。また、コントローラ10は、CCDカメラ16や赤外線センサ等のような物体の有無や状態を光学的に検出する光学的検出手段からの光学的検出結果により物体の有無や状態を検出した場合に、一定時間の間、RFIDリーダ部19の動作を実行する。
【0045】
以上のようにして、ロボットは、周囲の状況等に基づいて自律的に行動をとることができるようになっている。
【0046】
次に、図3は、図2のコントローラ10の機能的構成例を示している。なお、図3に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することで実現されるようになっている。
【0047】
コントローラ10は、特定の外部状態を認識するセンサ入力処理部50、センサ入力処理部50の認識結果等を累積して、感情および本能の状態を表現する感情/本能モデル部51、センサ入力処理部50の認識結果等に基づいて、続く行動を決定する行動決定機構部52、行動決定機構部52の決定結果に基づいて、実際にロボットに行動を起こさせる姿勢遷移機構部53、各アクチュエータ3AA1乃至5A1および5A2を駆動制御する制御機構部54、合成音を生成する音声合成部55、並びに音声合成部55の出力を制御する音響処理部56から構成されている。
【0048】
センサ入力処理部50は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリーダ部19等から与えられる音声信号、画像信号、圧力検出信号やRFID信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を、感情/本能モデル部51および行動決定機構部52に通知する。
【0049】
すなわち、センサ入力処理部50は、音声認識部50Aを有しており、音声認識部50Aは、行動決定機構部52からの制御にしたがい、マイク15から与えられる音声信号を用いて、音声認識を行う。そして、音声認識部50Aは、その音声認識結果としての、例えば、「歩け」、「伏せ」、「ボールを追いかけろ」等の指令その他を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0050】
また、センサ入力処理部50は、画像認識部50Bを有しており、画像認識部50Bは、CCDカメラ16から与えられる画像信号を用いて、画像認識処理を行う。そして、画像認識部50Bは、その処理の結果、例えば、「赤い丸いもの」や、「地面に対して垂直なかつ所定高さ以上の平面」等を検出したときには、「ボールがある」や、「壁がある」等の画像認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0051】
さらに、センサ入力処理部50は、圧力処理部50Cを有しており、圧力処理部50Cは、タッチセンサ17から与えられる圧力検出信号を処理する。そして、圧力処理部50Cは、その処理の結果、所定の閾値以上で、かつ短時間の圧力を検出したときには、「たたかれた(しかられた)」と認識し、所定の閾値未満で、かつ長時間の圧力を検出したときには、「なでられた(ほめられた)」と認識して、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0052】
また、センサ入力処理部50は、環境認識部50Dを有しており、環境認識部50Dは、マイク15から与えられる音声信号や、CCDカメラ16から与えられる画像信号を用いて、ロボットが使用される環境としての、例えば、ロボットからユーザまでの距離等を認識し、その認識結果を、状態認識情報として、音響処理部56に出力する。
【0053】
また、センサ入力処理部50は、ID認識部50Eを有しており、ID認識部50Eは、RFIDリーダ部19から与えられるRFID信号を用いて、RFIDに記録された信号の認識処理を行う。そして、ID認識部50Eは、その処理の結果、例えば、「ボール」や、「花瓶」等を認識し、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。このID認識部50Eの構成例については、図7を参照しながら後述する。
【0054】
ここで、コントローラ10は、センサ入力処理部50の音声認識部50A、画像認識部50B、圧力認識部50C等からの認識結果に応じて、RFIDリーダ部19やID認識部50Eの動作を制御するようにしてもよい。例えば、CCDカメラ16からの画像信号を画像認識部50Bで画像認識することによりボールらしき丸いものの認識結果が得られた場合に、RFIDリーダ部19を動作させて該ボールらしき物体に設けられたRFIDタグを読み取り、RFIDリーダ部19から得られたRFID信号をID認識部50Eに送って認識処理を行わせ、「ボール」であることを認識させる。この場合、後述するように、さらに詳細な物体の情報、例えば「サッカーボール」であることの認識を行うようにすることも容易に実現できる。
【0055】
感情/本能モデル部51は、図4に示すような、ロボットの感情と本能の状態を表現する感情モデルと本能モデルをそれぞれ管理している。
【0056】
感情モデルは、例えば、3つの感情ユニット60A,60B,60Cで構成され、これらの感情ユニット60A乃至60Cは、「うれしさ」、「悲しさ」、「怒り」の感情の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0057】
なお、感情モデルには、「うれしさ」、「悲しさ」、「怒り」の他、「楽しさ」に対応する感情ユニットを設けることも可能である。
【0058】
本能モデルは、例えば、3つの本能ユニット61A,61B,61Cで構成され、これらの本能ユニット61A乃至61Cは、「食欲」、「睡眠欲」、「運動欲」という本能による欲求の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0059】
感情/本能モデル部51は、上述のようにして変化する感情ユニット60A乃至60Cの値で表される感情の状態、および本能ニット61A乃至61Cの値で表される本能の状態を、感情/本能状態情報として、センサ入力処理部50、行動決定機構部52、および音声合成部55に送出する。
【0060】
行動決定機構部52は、センサ入力処理部50からの状態認識情報や、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53に送出する。
【0061】
すなわち、行動決定機構部52は、図5の状態遷移図に示すように、ロボットがとり得る行動をステート(状態:state)に対応させた有限オートマトンを、ロボットの行動を規定する行動モデルとして管理しており、この行動モデルとしての有限オートマトンにおけるステートを、センサ入力処理部50からの状態認識情報や、感情/本能モデル部51における感情モデルおよび本能モデルの値、時間経過等に基づいて遷移させ、遷移後のステートに対応する行動を、次にとるべき行動として決定する。
【0062】
具体的には、例えば、図5において、ステートST3が「立っている」という行動を、ステートST4が「寝ている」という行動を、ステートST5が「ボールを追いかけている」という行動を、それぞれ表しているとする。いま、例えば、「ボールを追いかけている」というステートST5において、「ボールが見えなくなった」という状態認識情報が供給されると、ステートST5からST3に遷移し、その結果、ステートST3に対応する「立っている」という行動を、次にとることが決定される。また、例えば、「寝ている」というステートST4において、「起きろ」という状態認識情報が供給されると、ステートST4からST3に遷移し、その結果、やはり、ステートST3に対応する「立っている」という行動を、次にとることが決定される。
【0063】
ここで、行動決定機構部52は、所定のトリガ(trigger)があったことを検出すると、ステートを遷移させる。即ち、行動決定機構部52は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したときや、特定の状態認識情報を受信したとき、感情/本能モデル部51から供給される感情/本能状態情報が示す感情の状態の値(感情ユニット60A乃至60Cの値)、あるいは本能の状態の値(本能ユニット61A乃至61Cの値)が所定の閾値以下または以上となったとき等に、ステートを遷移させる。
【0064】
なお、行動決定機構部52は、上述したように、センサ入力処理部50からの状態認識情報だけでなく、感情/本能モデル部51における感情モデルおよび本能モデルの値等にも基づいて、図5の有限オートマトンにおけるステートを遷移させることから、同一の状態認識情報が入力されても、感情モデルや本能モデルの値(感情/本能状態情報)によっては、ステートの遷移先は異なるものとなる。
【0065】
その結果、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っていない」こと、および「お腹がすいていない」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに応じて、「お手」という行動をとらせる行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0066】
また、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っていない」こと、および「お腹がすいている」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに応じて、「手のひらをぺろぺろなめる」ような行動を行わせるための行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0067】
また、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っている」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、感情/本能状態情報が、「お腹がすいている」ことを表していても、また、「お腹がすいていない」ことを表していても、「ぷいと横を向く」ような行動を行わせるための行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0068】
さらに、行動決定機構部52では、上述したような、ロボットの頭部や手足等を動作させる行動指令情報の他、ロボットに発話を行わせる行動指令情報も生成される。ロボットに発話を行わせる行動指令情報は、音声合成部55に供給されるようになっており、音声合成部55に供給される行動指令情報には、音声合成部55に生成させる合成音に対応するテキスト等が含まれる。そして、音声合成部55は、行動決定部52から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、感情/本能モデル部51で管理されている感情の状態や本能の状態を加味しながら、例えば、規則音声合成等を行うことで、合成音を生成し、音響処理部56に供給する。
【0069】
姿勢遷移機構部53は、行動決定機構部52から供給される行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54に送出する。
【0070】
ここで、現在の姿勢から次に遷移可能な姿勢は、例えば、胴体や手や足の形状、重さ、各部の結合状態のようなロボットの物理的形状と、関節が曲がる方向や角度のようなアクチュエータ3AA1乃至5A1および5A2の機構とによって決定される。
【0071】
また、次の姿勢としては、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できない姿勢とがある。例えば、4本足のロボットは、手足を大きく投げ出して寝転んでいる状態から、伏せた状態へ直接遷移することはできるが、立った状態へ直接遷移することはできず、一旦、手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ち上がるという2段階の動作が必要である。また、安全に実行できない姿勢も存在する。例えば、4本足のロボットは、その4本足で立っている姿勢から、両前足を挙げてバンザイをしようとすると、簡単に転倒してしまう。
【0072】
このため、姿勢遷移機構部53は、直接遷移可能な姿勢をあらかじめ登録しておき、行動決定機構部52から供給される行動指令情報が、直接遷移可能な姿勢を示す場合には、その行動指令情報を、そのまま姿勢遷移情報として、制御機構部54に送出する。一方、行動指令情報が、直接遷移不可能な姿勢を示す場合には、姿勢遷移機構部53は、遷移可能な他の姿勢に一旦遷移した後に、目的の姿勢まで遷移させるような姿勢遷移情報を生成し、制御機構部54に送出する。これによりロボットが、遷移不可能な姿勢を無理に実行しようとする事態や、転倒するような事態を回避することができるようになっている。
【0073】
すなわち、姿勢遷移機構部53は、例えば、図6に示すように、ロボットがとり得る姿勢をノードNODE1乃至NODE5として表現するとともに、遷移可能な2つの姿勢に対応するノードどうしの間を、有向アークARC1乃至ARC10で結合した有向グラフを記憶しており、この有向グラフに基づいて、上述したような姿勢遷移情報を生成する。
【0074】
具体的には、姿勢遷移機構部53は、行動決定機構部52から行動指令情報が供給されると、現在の姿勢に対応したノードNODEと、行動指令情報が示す次に取るべき姿勢に対応するノードNODEとを結ぶように、有向アークARCの向きに従いながら、現在のノードNODEから次のノードNODEに至る経路を探索し、探索した経路上にあるノードNODEに対応する姿勢を順番にとっていくように指示する姿勢遷移情報を生成する。
【0075】
その結果、姿勢遷移機構部53は、例えば、現在の姿勢が「ふせる」という姿勢を示すノードNODE2にある場合において、「すわれ」という行動指令情報が供給されると、有向グラフにおいて、「ふせる」という姿勢を示すノードNODE2から、「すわる」という姿勢を示すノードNODE5へは、直接遷移可能であることから、「すわる」に対応する姿勢遷移情報を生成して、制御機構部54に与える。
【0076】
また、姿勢遷移機構部53は、現在の姿勢が「ふせる」という姿勢を示すノードNODE2にある場合において、「歩け」という行動指令情報が供給されると、有向グラフにおいて、「ふせる」というノードNODE2から、「あるく」というノードNODE4に至る経路を探索する。この場合、「ふせる」に対応するノードNODE2、「たつ」に対応するNODE3、「あるく」に対応するNODE4の経路が得られるから、姿勢遷移機構部53は、「たつ」、「あるく」という順番の姿勢遷移情報を生成し、制御機構部54に送出する。
【0077】
制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボットは、自律的に行動を起こす。
【0078】
一方、音響処理部56は、センサ入力処理部50を構成する環境認識部50Dが出力する状態認識情報を受信し、その状態認識情報に基づいて、音声合成部55から供給される合成音の出力を制御する。即ち、音響処理部56は、状態認識情報としての、ロボットが使用される環境における雑音や、ロボットからユーザまでの距離等に対して、スピーカ18から出力される合成音が、ユーザに明確に聞こえるように、かつ耳障りとならないように、その大きさ(パワー)や高さ(周波数)等を調整して、スピーカ18に供給する。これにより、スピーカ18からは、適切な大きさおよび高さ等を有する合成音が出力される。
【0079】
次に、図7は、図3のID認識部50Eの構成例を示している。ID照合部41には、RFIDリーダ部19から出力されるRFID信号が供給されるようになっている。IDテーブル記憶部42は、予め登録されたRFIDタグ(無線タグ)のID番号及びそのID番号に対応した対象関連情報のテーブル(以下IDテーブルと呼ぶ)が記録されている。図8に、IDテーブルの例を示す。この図8の例では、対象関連情報として、「机」、「ボール」、「花瓶」等のような比較的大きなカテゴリの対象関連情報Aと、机の「足」、「サッカー用」のボール、「生け花用」の花瓶等のようなより詳細な対象関連情報Bとを例示している。
【0080】
図7のID照合部41は、RFIDリーダ部19から出力されたRFID信号が、IDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。そして、RFIDリーダ部19から出力されたRFID信号がIDパターン記憶部42に記録されたものであると判定した場合、IDパターン記憶部42に記録されたIDテーブルからRFID信号のID番号に対応する対象関連情報を読み出し、この対象関連情報に応じた上記状態認識情報を、感情/本能モデル部51および行動決定機構部52へ通知する。従って、対象関連情報に基づく状態認識情報に応じてロボット装置の行動が制御される。なお、上記状態認識情報は上記対象関連情報をそのまま用いてもよい。また、ID番号に対応する対象関連情報は複数存在してもよい。
【0081】
RFID信号のフォーマットとしては、例えば、ヘッダ部、識別子部、データ部を有し、全体として128ビットで構成されているものが挙げられ、この他、種々のフォーマットを使用可能である。一般にRFIDタグは、バーコードに比べて情報量が多く、物体の識別能力が高く、物体の詳細なデータ等を盛り込むこともできる。また、RFIDシステムは、非接触で情報通信が可能であるため、耐久性に優れ、汚れやほこり等の影響を受けず、移動しながらの読み取りが可能であり、また、カメラ等の光学検出手段に対して、暗闇でも物体認識が行える等の利点を有している。
【0082】
また、RFIDタグは、バーコード等に比べて情報量が多いことから、アスキーコード、音声や画像のサンプリングデータや圧縮符号化データのように、それ自体で既に意味を持つようなデータをRFIDタグのメモリに記憶するようにしてもよい。この場合、上述したようなIDテーブルの情報の一部あるいは全部を省略することができ、さらに、IDテーブル自体を省略して、RFID信号から対象関連情報等を直接読み取るようにすることも可能である。
【0083】
上述した本発明の実施の形態によれば、RFIDリーダ部19をロボット装置に設けることにより、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が可能となり、また、外部環境が暗くとも物体認識が有効かつ確実に行える。そして、認識した結果に応じて、それぞれ独自の行動をとらせることができる。
【0084】
このようなRFIDリーダ部19を有するロボット装置を用いて、ゲーム(スポーツ)、行動範囲の制約、周囲との関係構築、自動装着等への応用が可能である。
【0085】
例えば、ゲーム(スポーツ)への適用例として、サッカーゲーム等の球技の場合には、メンバー(選手)となるロボット装置、ボール、グランド(地面)等にタグを付けることにより、相手とボールとコート内での位置等を動きながら容易に認識するすることができ、球技を円滑に行うことができる。障害物レースの場合には、グランド(地面)と障害物にタグを付けて、現在位置と障害物とを移動しながら認識でき、円滑に競技を進めることができる。さらに、スケートボード(スケボー)にタグを付けて、スケートボードの位置を認識し、スケートボード上に乗って走らせることができる。
【0086】
また、行動範囲の制約としては、壁や段差部分等にタグをつけて認識させることにより、壁にぶつかったり段差部分から落下すること等を未然に防ぐような行動範囲の制約を実現できる。
【0087】
また、自動装着の例としては、充電器にタグを付けて、独力で充電させたり、ロボットの構成部品(パーツ)にタグを付けて、ロボット本体にパーツを認識させ、独力でパーツの着脱を行わせたり、スケートボード等の乗り物にタグを付けて独力で乗らせたりすることも可能である。
【0088】
この他、スケートボードと地面にタグを付けて、位置情報を認識し、対象物を運搬したり、猫じゃらしや枕等の小物にタグをつけて認識させ、認識された小物に応じて快適/不愉快、危険/安全等の感情表現を行わせたりする等の、種々の応用が可能である。
【0089】
さらに、上記RFIDタグの情報を認識した場合のロボット装置の行動としては、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動を出現させるようにしてもよい。
【0090】
ここで、具体例として、上記壁や段差部分等にタグをつけて認識させることにより、壁にぶつかったり段差部分から落下すること等を未然に防ぐような例について説明する。
【0091】
この場合の壁や段差部等を識別するためのID番号と対象関連情報との関係を示すIDテーブルの一例を図9に示す。この図9の例では、上記RFIDタグのID番号に対して、壁、段差、斜面等をそれぞれ識別するための対象関連情報Cと、具体的な行動としての停止、後ずさり、右折、左折等を識別するための対象関連情報Dとが設定されている。このIDテーブルは、例えば上記図7と共に説明したようなIDテーブル記憶部42に記憶されており、ID照合部41は、上記RFIDリーダ部19から送られるRFID信号のID番号がIDテーブル記憶部42の上記図9のIDテーブルに記憶された情報に属するか否かを判定し、属すると判定されたとき、該IDテーブルからRFID信号のID番号に対応する対象関連情報C、Dを読み出し、これらの対象関連情報に応じた上記状態認識情報を(あるいは対象関連情報をそのまま状態認識情報として)、上記図3に示したような感情/本能モデル部51及び行動決定機構部52へ通知する。ID番号と対象関連情報とは、図9の具体例に限定されないことは勿論である。
【0092】
図10〜図12は、上述したようなロボット装置1が段差のある場所に近づいた場合の動作の例を示すものである。ロボット装置1としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置1のIDテーブル記憶部には、図9に示すIDテーブルが記録され、また、ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されているものとする。
【0093】
RFIDタグ100〜112は、例えばテープ118の内部に所定距離d(例えば10cm程)の間隔をあけて固定されている。RFIDタグ100〜112には、ID番号として例えば12000001が記録されている。テープ118は、段の側面(側壁)113、115に沿って、床114の上に固定されている。具体的には、テープ基体の内部に所定距離dの間隔でRFIDタグが予め配設されたタグ付き粘着テープを、段差部の近傍等の所望の位置に貼り付けること等により、RFIDタグを容易に設置できる。
【0094】
図10は、ロボット装置1が床114を歩いて、段差部(側壁113)近傍のRFID107に近付いていく様子を示す。図11は、ロボット装置1が図10の状態から推移して、上記RFIDリーダ部19がRFIDタグ107に記録された情報をリード可能な距離に到達している様子を示す。図11では、RFIDリーダ部19が、電波116によって、RFIDタグ107に記録された情報117(ID番号12000001)をリードする。RFIDリーダ部19は、リードした情報117(ID番号12000001)をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報117(ID番号12000001)が、IDテーブル記憶部42に記憶された上記図9のIDテーブルの情報に属するかどうかを判定する。ID番号12000001は、IDテーブル記憶部42に記録された情報に属すると判定されるので、IDテーブルに基づいて、RFID信号のID番号12000001に対応する対象関連情報C(段差)、対象関連情報D(後ずさり)を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報C(段差)及び対象関連情報D(後ずさり)に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を「後ずさり」と決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後ずさり」の行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の後ずさりの姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置1は、「後ずさり」の行動を起こす。図12に、図11の状態から後ずさりした様子を示す。
【0095】
図13〜図15には、ロボット装置1が壁のある場所に近づいた場合の動作の例を示す。ロボット装置1は、図1〜図7と共に説明したタイプのロボット装置であり、IDテーブルの情報は上記図9に示すものとする。ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されている。
【0096】
図13〜図15に示す例でも、上記図10〜図12に示す例と同様に、例えばテープ118の内部に所定距離d(例えば10cm程)の間隔をあけてRFIDタグ120〜122が配設されており、これらのRFIDタグ120〜122には、ID番号として11000001が記録されている。テープ118は、壁124の表面に固定され(貼り付けられ)ている。
【0097】
図13は、ロボット装置1が床123を歩いて、RFIDタグ121に近づいていく様子を示す。図14は、ロボット装置1が図13の状態から推移して、上記RFIDリーダ部19がRFIDタグ121に記録された情報をリード可能な距離に到達している様子を示す。この図14では、RFIDリーダ部19が、電波116によって、RFIDタグ121に記録された情報119(ID番号11000001)をリードしている状態を示す。RFIDリーダ部19は、リードした情報119(ID番号11000001)をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報119(ID番号11000001)が、IDテーブル記憶部42のIDテーブル(図9)に記録された情報に属するかどうかを判定する。ID番号11000001は、IDテーブル記憶部42に記録されたものであると判定されるので、IDテーブルからRFID信号のID番号11000001に対応する対象関連情報C(壁)、対象関連情報D(後ずさり)を読み出し、これらの対象関連情報に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報C(段差)及び対象関連情報D(後ずさり)に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を「後ずさり」と決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後ずさり」の行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の後ずさりの姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボットは、「後ずさり」の行動を起こす。図15に、図14の状態から後ずさりした様子を示す。
【0098】
図10〜図12及び図13〜図15と共に説明したロボット装置1の行動は、「後ずさり」であったが、環境に合わせて、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化等の様々な単純な行動や、また疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動を生成するようにしてもよい。
【0099】
また、図10〜図12及び図13〜図15のRFIDタグに記録された情報に関連付けられた対象関連情報は、「壁」や「段差」であったが、階段、床、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング等の環境に応じて、様々な情報であってもよい。
【0100】
また、図10〜図12及び図13〜図15に記載のRFIDタグは、テープ118の内部に固定されているが、紙やビニールなどのシート、テープ、シール、ひも、ケーブル、カード、ペン、カーテン、絨毯、布、縫ぐるみ等の部材の表面や内部に固定されていたり、階段、床、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング等を構成する部材の表面や内部に固定されていてもよい。
【0101】
次に、上述したようなRFIDリーダ部19を有するロボット装置と、ロボット装置の周囲の人間や動物等も含む対象との関係を構築するためのシステムについて説明する。
【0102】
これは、動物の犬や猫等のペットの場合には、自分の飼い主とそれ以外の人間の識別や、また自分の親、子、兄弟等とそれ以外との識別が可能であり、このような主従関係や家族関係等の高度な関係に応じて行動することが可能であるが、従来のペットロボット装置では、飼い主と似た人物が複数存在する場合や、類似したペットロボット装置が複数存在する場合等に、飼い主とそれ以外の人間との識別や家族とそれ以外との識別等が難しいことを考慮したものであり、ロボット装置が、上述したような高度な関係を、周囲の生物(人間や動物等)や物体(他のロボット装置等)との間に構築し得るようにしたものである。
【0103】
ここで、図16は、周囲の生物(人間や動物等)や物体(他のロボット装置等)との間の高度な関係(家族関係、血縁関係、主従関係等)を識別するためのID番号と対象関連情報との関係を表すIDテーブルの一例を示している。この図16の例では、上記RFIDタグのID番号に対して、飼い主等の関係を示す対象関連情報Eと、誕生日を示す対象関連情報Fと、性別を示す対象関連情報Gとが設定されている。このIDテーブルは、例えば上記図7と共に説明したようなIDテーブル記憶部42に記憶されており、ID照合部41は、上記RFIDリーダ部19から送られるRFID信号のID番号がIDテーブル記憶部42の上記図16のIDテーブルに記憶された情報に属するか否かを判定し、属すると判定されたとき、該IDテーブルからRFID信号のID番号に対応する対象関連情報E、F、Gを読み出し、これらの対象関連情報に応じた状態認識情報を、上記図3に示したような感情/本能モデル部51及び行動決定機構部52へ通知する。ID番号と対象関連情報とは、図16の具体例に限定されないことは勿論である。
【0104】
図17〜図20は、上述したようなロボット装置1がRFIDタグを有する人間に近づいた場合の動作の例を示すものである。ロボット装置1としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置1のIDテーブル記憶部には、図16に示すIDテーブルが記録され、また、ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードするRFIDリーダ部19が、所定位置に配設されているものとする。
【0105】
ここで、図17〜図19に示す人間130は飼い主であり、例えば指輪141を嵌めており、この指輪141には、図21に示すようなRFIDタグ142が設けられている。このRFIDタグ142には、上記図16のIDテーブルの飼い主を示すID番号21000000が記録されている。
【0106】
図17は、ロボット1装置が、上記CCDカメラ16により人間130の画像データ131を取得し、その画像認識結果から、人間130に近付いている様子を示している。図18は、ロボット装置1が図17の状態から推移して、上記RFIDリーダ部19が指輪141の上記RFIDタグ142に記録された情報をリード可能な距離に到達している様子を示す。この図18では、RFIDリーダ部19が、電波145によって、指輪141のRFIDタグ142に記録された情報146をリードしている状態を示す。RFIDリーダ部19は、リードした情報146をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報146(ID番号21000000)が、IDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。情報146のID番号は21000000であり、IDパターン記憶部42に記録されたものであると判定されるので、図16のIDテーブルに基づいて、RFID信号のID番号21000000に対応する対象関連情報E「飼い主」、対象関連情報F「1948/12/26」、対象関連情報G「man」を読み出し、これらの対象関連情報に応じた上記状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E、F、Gに応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、RFIDタブ142を内蔵する指輪141を装着した人間130を飼い主と認識し、人間130との間に主従関係を構築するように今後振舞うことを決定する。飼い主への主従関係を表現するため、次の行動として例えば「立つ」を決定し、決定された行動の内容「立つ」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「立つ」の行動指令情報に基づいて、ロボット装置1の姿勢を、現在の姿勢から次の立つ為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置1は、「立つ」の行動を起こす。図19に、図18の状態から立ったロボット装置1の様子を示す。
【0107】
次に、RFIDタグに、ID番号として21000000でなく、22000003が記録されている場合の例を以下に説明する。
【0108】
図20に示す人間133は、ID番号として22000003が記録されたRFIDタグが設けられた指輪143を嵌めているものとする。このとき、ロボット装置1は、RFID信号のID番号22000003に対応する対象関連情報E「他人」、対象関連情報F「1950/9/1」、対象関連情報G「man」に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E、F、Gに応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、22000003が記録されたRFIDタグが設けられた指輪143を嵌めている人間133を赤の他人と認識し、人間133と無関係であるように今後振舞うことを決定する。人間133と無関係であることを表現するため、次の行動として「後退」を決定し、決定された行動の内容「後退」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後退」の行動指令情報に基づいて、ロボット1の姿勢を、現在の姿勢から次の後退する為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置1は、「後退」の行動を起こす。図20に、後退したロボット装置1の様子を示す。
【0109】
次に、図22〜図24は、ロボット装置151がロボット装置152に近付いた場合の動作の例を示すものである。これらのロボット装置151、152としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置151、152のIDテーブル記憶部には、図16に示すようなIDテーブルが記録され、ロボット装置151、152の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されているものとする。また、ロボット装置151の所定位置、例えば鼻部の表面には、RFIDタグ153が取り付けられ、ロボット装置152の所定位置、例えば鼻部の表面には、RFIDタグ154が取り付けられている。さらに、RFIDタグ153には、ID番号として21000005が記録され、RFIDタグ154には、ID番号として21000004が記録されている。
【0110】
図22では、ロボット装置151が、上記CCDカメラ16により、ロボット装置152の画像データ155を取得し、その画像認識結果から、ロボット装置152に近付いている様子を示している。図23は、ロボット装置151が図22の状態から推移して、RFIDリーダ部19がRFIDタグ154に記録された情報156をリード可能な距離に到達している様子を示す。この図23では、RFIDリーダ部19が、電波157によって、RFIDタグ154に記録された情報156をリードしている状態を示す。RFIDリーダ部19は、リードした情報156をロボット装置151の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報156(ID番号21000004)が、IDテーブル記憶部42のIDテーブル(図16)に記録された情報に属するか否かを判定する。情報156のID番号は21000004であり、IDパターン記憶部42に記録されたものであると判定されるので、IDテーブルに基づいて、RFID信号のID番号21000004に対応する対象関連情報E「母」、対象関連情報F「1993/9/1」、対象関連情報G「woman」を読み出し、これらの対象関連情報に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E「母」/F「1993/9/1」/G「woman」に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、ロボット装置152を母と認識し、ロボット装置152との間に家族関係を構築するように今後振舞うことを決定する。ロボット装置152との家族関係を表現するため、次の行動として「ロボット装置152の行動を後追いする」を決定し、決定された行動の内容「ロボット装置152の行動を後追いする」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「ロボット装置152の行動を後追いする」の行動指令情報に基づいて、ロボット装置151の姿勢を、現在の姿勢から次のロボット装置151の行動を後追いする為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置151は、「ロボット装置152の行動を後追いする」の行動を起こす。図24に、図23の状態から、ロボット装置151がロボット装置152の行動を後追いしている様子を示す。
【0111】
図19ではロボット装置1が“主従関係”を、図24ではロボット装置151が“家族関係”を構築するような行動をしたが、ロボット装置と上記RFIDタグを付けた周囲の生物や物体との関係は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係など様々な関係であってよい。また、このような関係に基づき、ロボット装置は、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動制御されることが挙げられる。
【0112】
また図19のロボット装置1の行動は「立つ」であり、図24のロボット装置151の行動は「ロボット装置152の行動を後追いする」であったが、上記RFIDタグを付けた周囲の生物や物体との間に構築された関係に応じて、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化等の様々な単純な行動や、また疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動であってもよい。
【0113】
さらに、上述した実施の形態では、RFIDタグにはID番号を書き込んでおき、ロボット装置の内部にIDテーブルを設けて、RFIDタグに記憶されたID番号から対応する対象関連情報を参照するようにしているが、RFIDタグ自体に、対象関連情報等の既に意味を持っているデータを記憶させるようにしてもよい。この場合には、ロボット装置内にIDテーブルを記憶しておく必要がなく、RFID信号を読み取ることで直接的に対象関連情報等を得ることができる。
【0114】
上述した本発明の実施の形態においては、上述した一連の処理を、CPU10Aにプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウェアによって行うことも可能である。
【0115】
なお、プログラムは、あらかじめメモリ10B(図2)に記憶させておく他、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウエアとして提供し、ロボット(メモリ10B)にインストールするようにすることができる。
【0116】
また、プログラムは、リムーバブル記録媒体からインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。
【0117】
この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。
【0118】
ここで、本明細書において、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0119】
また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
【0120】
以上、本発明を、エンターテイメント用のロボット(疑似ペットとしてのロボット)に適用した場合について説明したが、本発明は、これに限定されるものではなく、例えば、産業用のロボットや人間型ロボット等の各種のロボットに広く適用することが可能である。
【0121】
ここで、本発明を適用可能な人間型ロボット装置について、図面を参照しながら説明する。
【0122】
図25及び図26には、人間型ロボット装置200を前方及び後方の各々から眺望した様子を示している。更に、図27には、この人間型ロボット装置200が具備する関節自由度構成を模式的に示している。
【0123】
図25及び図26に示すように、人間型ロボット装置200は、脚式移動を行う左右2足の下肢201R,201Lと、体幹部202と、左右の上肢203R,203Lと、頭部204とで構成される。
【0124】
左右各々の下肢201R,201Lは、大腿部205R,205Lと、膝関節206R,206Lと、脛部207R,207Lと、足首208R,208Lと、足平209R,209Lとで構成され、股関節210R,210Lによって体幹部202の略最下端にて連結されている。また、左右各々の上肢203R,203Lは、上腕211R,211Lと、肘関節212R,212Lと、前腕213R,213Lとで構成され、肩関節214R,214Lによって体幹部202上方の左右各側縁にて連結されている。また、頭部204は、首関節255によって体幹部202の略最上端中央に連結されている。
【0125】
図27に示すように、頭部204を支持する首関節ヨー軸302と、首関節ピッチ軸303と、首関節ロール軸304という3自由度を有している。
【0126】
また、腕の関節は、肩関節ピッチ軸308と、肩関節ロール軸309と、上腕ヨー軸310と、肘関節ピッチ軸311と、前腕ヨー軸312と、手首関節ピッチ軸313と、手首関節ロール軸314と、手部315とで構成される。手部315は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部315の動作は人間型ロボット装置200の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0127】
また、体幹部は、体幹ピッチ軸305と、体幹ロール軸306と、体幹ヨー軸307という3自由度を有する。
【0128】
また、下肢を構成する各々の脚部は、股関節ヨー軸316と、股関節ピッチ軸317と、股関節ロール軸318と、膝関節ピッチ軸319と、足首関節ピッチ軸320と、足首関節ロール軸321と、足部322とで構成される。本明細書中では、股関節ピッチ軸317と股関節ロール軸318の交点は、人間型ロボット装置200の股関節位置を定義する。人体の足部322は、実際には多関節・多自由度の足底を含んだ構造体であるが、人間型ロボット装置200の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0129】
以上を総括すれば、人間型ロボット装置200全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けの人間型ロボット装置200が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0130】
上述したような人間型ロボット装置200がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定な構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0131】
図28には、人間型ロボット装置200の制御システム構成を模式的に示している。同図に示すように、人間型ロボット装置200は、ヒトの四肢を表現した各機構ユニット330,340,350R/L,360R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行う制御ユニット380とで構成される(ただし、R及びLの各々は、右及び左の各々を示す接尾辞である。以下同様)。
【0132】
人間型ロボット装置200全体の動作は、制御ユニット380によって統括的に制御される。制御ユニット380は、CPU(Central Processing Unit)やメモリ等の主要回路コンポーネント(図示しない)で構成される主制御部381と、電源回路や人間型ロボット装置200の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示しない)などを含んだ周辺回路382とで構成される。この制御ユニット380の設置場所は、特に限定されない。図28では体幹部ユニット340に搭載されているが、頭部ユニット330に搭載してもよい。或いは、人間型ロボット装置200外に制御ユニット380を配備して、人間型ロボット装置200の機体とは有線若しくは無線で交信するようにしてもよい。
【0133】
図28に示した人間型ロボット装置200内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット330には、首関節ヨー軸302、首関節ピッチ303、首関節ロール軸304の各々を表現する首関節ヨー軸アクチュエータA2、首関節ピッチ軸アクチュエータA3、首関節ロール軸アクチュエータA4が配設されている。
【0134】
また、頭部ユニット330には、外部の状況を撮像するためのCCD(ChargeCoupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。さらに、上述したようなRFIDタグ(無線タグ)からの情報を読み取るためのRFIDリーダ部(図示せず)が頭部ユニット330に設けられている。このRFIDリーダ部は、頭部ユニット330以外の部位に設けられていてもよい。
【0135】
また、体幹部ユニット340には、体幹ピッチ軸305、体幹ロール軸306、体幹ヨー軸307の各々を表現する体幹ピッチ軸アクチュエータA5、体幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエータA7が配設されている。また、体幹部ユニット340には、この人間型ロボット装置200の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0136】
また、腕部ユニット350R/Lは、上腕ユニット351R/Lと、肘関節ユニット352R/Lと、前腕ユニット353R/Lに細分化されるが、肩関節ピッチ軸308、肩関節ロール軸309、上腕ヨー軸310、肘関節ピッチ軸311、前腕ヨー軸312、手首関節ピッチ軸313、手首関節ロール軸314の各々表現する肩関節ピッチ軸アクチュエータA8、肩関節ロール軸アクチュエータA9、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0137】
また、脚部ユニット360R/Lは、大腿部ユニット361R/Lと、膝ユニット362R/Lと、脛部ユニット363R/Lに細分化されるが、股関節ヨー軸316、股関節ピッチ軸317、股関節ロール軸318、膝関節ピッチ軸319、足首関節ピッチ軸320、足首関節ロール軸321の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA2,A3・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0138】
頭部ユニット330、体幹部ユニット340、腕部ユニット350、各脚部ユニット360などの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部335,345,355R/L,365R/Lが配備されている。更に、各脚部360R,Lの足底が着床したか否かを検出する接地確認センサ391及び392を装着するとともに、体幹部ユニット340内には、姿勢を計測する姿勢センサ393を装備している。
【0139】
接地確認センサ391及び392は、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ393は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0140】
接地確認センサ391及び392の出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ393の出力により、体幹部分の傾きや姿勢を検出することができる。
【0141】
主制御部381は、各センサ391〜393の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部335,345,355R/L,365R/Lの各々に対して適応的な制御を行い、人間型ロボット装置200の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。
【0142】
以上のように、人間型ロボット装置200は、各々の副制御部335,345,・・・等が、主制御部381からの受信コマンドを解釈して、各アクチュエータA2,A3・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、人間型ロボット装置200は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0143】
また、人間型ロボット装置200における制御ユニット380では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット380では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部381と接続されている。また、図示しないが上記RFIDリーダ部も主制御部381と接続されている。
【0144】
主制御部381は、上述の各センサから供給されるセンサデータや画像データ及び音声データ、あるいは上記RFIDリーダ部からのRFID情報を順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部381は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部381がこの人間型ロボット装置200の動作制御を行う際に利用される。
【0145】
主制御部381は、人間型ロボット装置200の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部381は、上述のように主制御部381よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。更に、主制御部381は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることにより人間型ロボット装置200に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0146】
したがって、人間型ロボット装置200は、制御プログラムに基づいて自己及び周囲の状況を判断し、使用者からの指示及び働きかけに応じて自律的に行動できる。
【0147】
【発明の効果】
本発明によれば、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、外部に存在する対象に設けられた無線タグ(いわゆるRFIDタグ)から該無線タグに記憶されているデータを読み取る無線タグ読取手段(RFIDリーダ)と、上記無線タグ読取手段により読み取られたデータに基づいて上記行動を制御するようにしており、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が、無線タグ読取手段にて無線タグ(RFIDタグ)に記憶されたデータに応じた上記対象に関連する情報である対象関連情報を読み取ることにより行え、また、外部環境が暗くとも物体認識等が有効に行える。
【0148】
ここで、上記対象関連情報として、ロボット装置の行動、動作の方法に関する行動情報や、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含むようにすることにより、段差部や壁等に接近した時点で段差部や壁等を認識させることができ、停止や後ずさり等のような段差部や壁等を回避する行動をとらせることができる。
【0149】
また、上記対象関連情報として、ロボット装置が外部の対象(人間、動物、他のロボット装置等)と構築する関係に関する関係情報(家族関係、主従関係等)を含むようにすることにより、ロボット装置に対して親子関係や主従関係等の高度な関係を構築するような行動をとらせることが容易に実現できる。
【0150】
この場合、無線タグ読取手段により読み取られたデータと対象関連情報とを関連付けたテーブルが記録された記憶手段を設けることにより、制御手段は、無線タグ読取手段により読み取られたデータに関連付けられて得られた対象関連情報に基づいて、上記行動を制御することができる。
【0151】
また、無線タグ自体に直接的に対象関連情報を記憶させることにより、無線タグからのデータから直接的に読み取られた対象関連情報に基づく状態認識情報に応じて、上記行動を制御することができる。
【0152】
従って、本発明のロボット装置によれば、ロボットの従来のセンサであるマイク、CCDカメラやタッチセンサで検出することが困難であった外部の対象の情報を認識することが、容易に可能である。
【図面の簡単な説明】
【図1】本発明を適用したロボット装置の一実施の形態の外観構成例を示す斜視図である。
【図2】図1に示すロボット装置の内部構成例を示すブロック図である。
【図3】図2の構成の内のコントローラ10の機能的構成例を示すブロック図である。
【図4】感情/本能モデル部によるデータ処理を説明するための図である。
【図5】行動モデルを示す図である。
【図6】姿勢遷移機構部54の処理を説明するための図である。
【図7】ID認識部50Eの構成例を示すブロック図である。
【図8】RFIDタグのID番号とそのID番号に対応した対象関連情報のテーブルの具体例を示す図である。
【図9】壁や段差部等を識別するためのID番号と対象関連情報との関係を表すIDテーブルの具体例を示す図である。
【図10】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付く場合の動作の具体例を説明するための図である。
【図11】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付いてRFIDタグの情報をリードする動作を示す図である。
【図12】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付いてRFIDタグの情報をリードした後の後ずさりする状態を示す図である。
【図13】図9に示すIDテーブルを有するロボット装置が壁に近付く場合の動作の具体例を説明するための図である。
【図14】図9に示すIDテーブルを有するロボット装置が壁に近付いてRFIDタグの情報をリードする動作を示す図である。
【図15】図9に示すIDテーブルを有するロボット装置が壁に近付いてRFIDタグの情報をリードした後の後ずさりの動作を示す図である。
【図16】主従関係や親子関係等を識別するためのID番号と対象関連情報との関係を表すIDテーブルの具体例を示す図である。
【図17】図16に示すIDテーブルを有するロボット装置が飼い主に近付く場合の動作の具体例を説明するための図である。
【図18】図16に示すIDテーブルを有するロボット装置が飼い主に近付いてRFIDタグの情報をリードする動作を示す図である。
【図19】図16に示すIDテーブルを有するロボット装置が飼い主に近付いてRFIDタグの情報をリードした後の「立つ」動作を示す図である。
【図20】図16に示すIDテーブルを有するロボット装置が飼い主ではない他人に近付いて後退する動作を示す図である。
【図21】RFIDタグが設けられた指輪の一例を示す図である。
【図22】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付く場合の動作の具体例を説明するための図である。
【図23】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付いてRFIDタグの情報をリードする動作を示す図である。
【図24】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付いてRFIDタグの情報をリードした後の「後追い」動作を示す図である。
【図25】本発明が適用されるロボット装置の他の実施の形態の一構成例として示す人間型ロボット装置の前方からみた外観を説明する外観図である。
【図26】図25に示す人間型ロボット装置の後方からみた外観を説明する外観図である。
【図27】図25に示す人間型ロボット装置の自由度構成モデルを模式的に示す図である。
【図28】図25に示す示す人間型ロボット装置の制御システム構成を説明する図である。
【符号の説明】
10 コントローラ、 10A CPU、 10B メモリ、 15 マイク、 16CCDカメラ、 17 タッチセンサ、 18 スピーカ、19 RFIDリーダ部 41 照合部 42 IDテーブル記憶部 50 センサ入力処理部、 50A 音声認識部、 50B 画像認識部、 50C 圧力処理部、 50D 環境認識部、 51 感情/本能モデル部、 52 行動決定機構部、 53 姿勢遷移機構部、 54 制御機構部、 55 音声合成部、 56 音響処理部
【発明の属する技術分野】
本発明は、ロボット装置及びその制御方法に関するものであり、例えば、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置及びそのようなロボット装置の制御方法に関するものである。
【0002】
【従来の技術】
人間や動物等の動作に似せた運動を例えば電気的や磁気的な作用を用いて行う機械装置のことを「ロボット」という。わが国においてロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
【0003】
アーム式ロボットのように、ある特定の場所に設置して用いるような据置きタイプのロボットは、部品の組立・選別作業など固定的・局所的な作業空間でのみ活動する。これに対し、移動式のロボットは、作業空間は非限定的であり、所定の経路上又は無経路上を自在に移動して、所定の若しくは任意の人的作業を代行したり、ヒトやイヌあるいはその他の生命体に置き換わる種々の幅広いサービスを提供することができる。なかでも脚式の移動ロボットは、クローラ式やタイヤ式の移動ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段や梯子の昇降や障害物の乗り越えや、整地・不整地の区別を間わない柔軟な歩行・走行動作を実現できるという点で優れている。
【0004】
最近では、イヌやネコのように4足歩行の動物の身体メカニズムやその動作を模したいわゆるペット型ロボット、あるいは、ヒトのような2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」のロボット(humanoid robot)など、脚式移動ロボットに関する研究開発が進展し、実用化への期待もますます高まってきている。
【0005】
例えば、動物を模した形状とされたロボット装置であるペット型ロボットは、一般家庭において飼育される犬や猫に似た形状を有し、ユーザ(飼い主)からの「叩く」や「撫でる」といった働きかけや、周囲の環境等に応じて自律的に行動する。例えば、自律的な行動として、実際の動物と同様に、「吠える」、「寝る」等といった行動をする。
【0006】
ところで、ロボット装置が実際の動物のような行動に、より近づくことができれば、ロボット装置の生物感が一層増し、ユーザ(飼い主)は、ロボット装置に一層の親近感や満足感を感じる。これにより、ロボット装置のアミューズメント性が向上する。
【0007】
このようなロボット装置は、所定の自由度を持つアクチュエータと所定の物理量を検出するセンサ等を所定の位置に配置された機構部とを有し、マイクロコンピュータを用いた制御部によって、外部からの情報に対して所定の動作を行なうように構成されている(例えば、特許文献1参照。)。
【0008】
【特許文献1】
特開2001−154679
【0009】
【発明が解決しようとする課題】
ところで、上述のロボット装置において、外部から与えられる情報を検出する方法としては、
(1)マイク等から得られる音声データを検出し、その音声データの音声認識結果を使用する方法、
(2)CCDカメラ等から得られる画像データを検出し、その画像データの画像認識結果を使用する方法、
(3)タッチセンサ等による物理的な働きかけにより受けた圧力を検出し、その選出結果を使用する方法、
(4)温度センサ、湿度センサや匂いセンサ等によるロボット装置周辺の環境状況を検出し、その検出結果を使用する方法
等が知られている。
【0010】
しかしながら、このような音声、画像、圧力、環境状況による情報検出方法において、表面の状態や形状が似ていて異なる物体が、ロボット装置の周囲に複数存在する場合に、その物体の識別は困難である。また、一般に物体の認識には、画像データを検出し、その画像認識結果を用いる方法が最も有力な方法であるが、画像データを検出するためには明るさが必要であり、外部環境が暗いと有効な認識が行えない。
【0011】
例えば、夜など暗い環境下では、CCDカメラから得られる画像データの情報量が不足し、正確で詳細な画像認識結果を得られないという欠点があった。その結果、暗い環境では、例えば壁や階段がある場合、ロボット装置は壁に衝突したり、階段から転落したりする可能性があった。
【0012】
また、従来のロボット装置においては、周囲の生物や物体を正確に識別することができないため、生物が周囲の生物(人間や動物等)や物体(他のロボット装置等)との間の高度な関係(家族関係、血縁関係、主従関係など)を構築しているように演じることが困難であった。
【0013】
例えば、飼育される犬や猫等のペットであれば、ペットは自分の飼い主とそれ以外の人間の識別が可能であり、飼い主とペットは、互いの主従関係を認識し、その主従関係に応じて行動することが可能である。しかし、従来のロボット装置では、飼い主と似た人物が複数存在する場合、飼い主とそれ以外の人間の識別が難しく、飼い主との主従関係を構築するように行動し、動作することは困難である。
【0014】
そこで、本発明は、このような実情に鑑みて提案されたものであり、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が行え、また、外部環境が暗くとも物体認識や外部状態認識が有効に行えるようなロボット装置及びその制御方法を提供することを目的とする。また、本発明は、ロボット装置が周囲の生物や物体等を正確に識別する方法を提供することにより、生物が構築するような高度な関係を、ロボット装置が周囲の生物や物体等の対象との間に構築するようにロボット装置が動作することを可能とするようなロボット装置及びその制御システムを提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明に係るロボット装置は、上述の課題を解決するために、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、外部に存在する対象(人間や動物等を含む生物や、ボール、机、壁、段差部等の物体、あるいは他のロボット装置等)に設けられた無線タグ、いわゆるRFID(Radio Frequency Identification)タグから、該無線タグに記憶されているデータを読み取る無線タグ読取手段(RFIDリーダ)と、上記無線タグ読取手段により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて上記行動を制御する制御手段とを有することを特徴とする。
【0016】
ここで、上記無線タグ読取手段により読み取られたデータと上記外部の対象に関する情報である上記対象関連情報とを関連付けたテーブルが記録された記憶手段を有し、上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に対応する状態認識情報に基づいて、上記行動を制御することが好ましい。
【0017】
あるいは、上記無線タグには上記外部の対象に関する情報である上記状態認識情報が記録されており、上記無線タグ読取手段は、上記無線タグに記憶されているデータから上記対象関連情報を読み取り、上記制御手段は、上記無線タグ読取手段により読み取られた上記対象関連情報に応じた状態認識情報に基づいて、上記行動を制御することが好ましい。
【0018】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作の方法に関する行動情報を含み、上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記行動情報に基づいて、上記行動を制御することが挙げられる。
【0019】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含み、上記環境情報は、階段、床、壁、段差、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング、部屋の位置情報、の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記環境情報に基づいて、上記行動を制御することが挙げられる。
【0020】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置が上記外部の対象と構築する関係に関する関係情報を含み、上記関係情報は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記関係情報に基づいて、当該ロボット装置が、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動を制御することが挙げられる。
【0021】
また、本発明に係るロボット装置は、上記行動で感情を表現する表出手段と、上記表出手段を駆動する駆動手段と、上記無線タグ読取手段により読み取られたデータと上記対象に関する情報(対象関連情報)を関連付けたテーブルを記録する記憶手段とを有し、上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に応じた状態認識情報に基づいて、上記駆動手段を制御することを特徴とする。
【0022】
無線タグ読取手段(RFIDリーダ)が読み取った上記データは、上記制御手段へ伝達され、制御手段は無線タグ読取手段からの上記データにより上記テーブルを参照して、上記データに関連づけられた対象関連情報を記憶手段から読み出す。制御手段は記憶手段から読み出した対象関連情報に応じた状態認識情報に基づいて、駆動手段を制御して、表出手段を駆動する。
【0023】
表出手段の例としては、動物の手足等に模した可動なパーツ、スピーカー等による音響出力、又は発光ダイオード等による発光手段がある。また表出手段は複数種類の表出部の組み合わせであってもよく、制御手段は記憶手段から読み出した対象関連情報に基づいて、複数種類の表出部の駆動を制御することが可能である。
【0024】
上記対象関連情報に応じた状態認識情報に基づいて、出現するロボットの行動は、少なくとも本能的要素又は情動的要素からなるもので構成されていることが挙げられる。
【0025】
ここで、上記本能的要素が、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)のうちの少なくとも1つであり、上記情動的要素が、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)の内の少なくとも1つであることが挙げられる。
【0026】
上記ロボット装置の外観は動物に模した外観形状をしていて、無線タグ読取手段は、例えば、動物の顔部分に備え付けられている。
【0027】
ロボット装置は、タッチセンサ等の接触を検出する接触検出手段を備えて、上記接触検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記検出結果により接触を検出した場合に、一定時間、無線タグ読取手段の動作を実行させることも可能である。また、例えばカメラによる画像認識や赤外線センサ等による、物体の有無や状態を光学的に検出する光学的検出手段を備えて、上記光学的検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記光学的検出結果により物体の有無や状態を検出した場合に、一定時間、上記無線タグ読取手段の動作を実行させることも可能である。
【0028】
また、本発明に係るロボット装置の制御方法は、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置の制御方法であって、外部に存在する対象に設けられた無線タグから該無線タグに記憶されているデータを読み取る無線タグ読取工程と、上記無線タグ読取工程により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて上記行動を制御する制御工程とを有することを特徴とする。
【0029】
【発明の実施の形態】
以下、本発明を適用した実施の形態について、図面を参照しながら説明する。
【0030】
図1は、本発明の実施の形態となるロボット装置の外観構成例を示す斜視図であり、図2は、その電気的構成例を示すブロック図である。
【0031】
この実施の形態は、周囲の環境(外的要因)や内部の状態(内的要因)に応じて自律的に行動をする自律型のロボット装置であり、具体例として、「犬」を模した形状のいわゆるペットロボットを示しているが、他の動物形や、人間等を模した2足歩行ロボット等にも本発明を適用可能であることは勿論である。
【0032】
図1において、ロボット装置1は、胴体部ユニット2の前後左右に、それぞれ脚部ユニット3A,3B,3C,3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されて構成されている。尻尾部ユニット5は、胴体部ユニット2の上面に設けられたベース部から、尻尾5Aが2自由度をもって湾曲または揺動自在に引き出されている。
【0033】
胴体部ユニット2には、図2に示すように、ロボット全体の制御を行うコントローラ10、ロボットの動力源となるバッテリ11、並びにバッテリセンサ12および熱センサ13からなる内部センサ部14などが収納されている。
【0034】
頭部ユニット4には、外部音を集音するための「耳」に相当するマイク(マイクロフォン)15、外部の状況を視覚的に検出する「目」に相当するCCD(Charge Coupled Device)カメラ16、外部からの圧力等を検出する触覚に相当するタッチセンサ17、音声等を出力する「口」に相当するスピーカ18、外部の物体に設けられたRFIDタグ(無線タグ)の情報(IDデータ等)を読み取るRFIDリーダ部(無線タグ読取手段)19などが、それぞれ所定位置に配設されている。
【0035】
ここで、RFID(Radio Frequency Identification)とは、非接触型の自動認識技術のことであり、例えばICと小型アンテナが組み込まれたタグ等の媒体から、電波等を介して情報を読み取る。媒体となるタグ(付け札)は、RFIDタグ、無線タグ、ICタグ等と称され、カード状やラベル状、マイクロチップ状等、種々の形状がある。RFID識別技術は、バーコードに代わる技術として、RFIDタグをあらゆる製品に埋め込んで製品の情報を管理することが期待されているのみならず、ゲートやドアの開閉、通過管理や、小包や荷物の配送管理等の種々の利用形態が提案されている。RFIDリーダ部19は、このようなRFIDタグ(無線タグ)に記憶されているデータ(IDデータ等)を読み取るためのものである。なお、RFIDシステムの情報伝送方式には、電磁誘導方式、電磁結合方式、マイクロ波方式、静電結合方式、光方式等が挙げられるが、上記RFIDリーダ部19としては、いずれの方式に対応する情報読取手段を用いてもよく、また、複数の方式に対応させてもよく、さらに、書込機能を有するリーダ/ライタであってもよいことは勿論である。
【0036】
脚部ユニット3A乃至3Dそれぞれの関節部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユニット2の連結部分、頭部ユニット4と胴体部ユニット2の連結部分、並びに尻尾部ユニット5と胴体部ユニット2の連結部分などには、図2に示すように、それぞれアクチュエータ3AA1乃至3AAK、3BA1乃至3BAK、3CA1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL、5A1および5A2が配設されており、これにより、各連結部分は、所定の自由度をもって回転することができるようになっている。
【0037】
頭部ユニット4におけるマイク15は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号を、コントローラ10に送出する。CCDカメラ16は、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。RFIDリーダ部19は、周囲の物体に備え付けられたRFIDタグから、そのRFIDタグに記録された情報(IDデータ等)を非接触又は接触により読み取り、その読み取った信号をRFID信号として、コントローラ10に送出する。
【0038】
タッチセンサ17は、例えば、頭部ユニット4の上部に設けられており、ユーザからの「なでる」や「たたく」といった物理的な働きかけにより受けた圧力を検出し、その検出結果を圧力検出信号としてコントローラ10に送出する。
【0039】
胴体部ユニット2におけるバッテリセンサ12は、バッテリ11の残量を検出し、その検出結果を、バッテリ残量検出信号としてコントローラ10に送出する。熱センサ13は、ロボット内部の熱を検出し、その検出結果を、熱検出信号としてコントローラ10に送出する。
【0040】
コントローラ10は、CPU(Central Processing Unit)10Aやメモリ10B等を内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
【0041】
すなわち、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリーダ部19、バッテリセンサ12、熱センサ13から与えられる音声信号、画像信号、圧力検出信号、RFID信号、バッテリ残量検出信号、熱検出信号に基づいて、周囲の状況や、ユーザからの指令、ユーザからの働きかけなどの有無を判断する。
【0042】
また、コントローラ10は、この判断結果等に基づいて、続く行動を決定し、その決定結果に基づいて、アクチュエータ3AA1乃至3AAK、3BA1乃至3BAK、3CA1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL、5A1および5A2のうちの必要なものを駆動させ、これにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5を動かせたり、各脚部ユニット3A乃至3Dを駆動して、ロボットを歩行させるなどの行動を行わせる。
【0043】
また、コントローラ10は、必要に応じて、合成音を生成し、スピーカ18に供給して出力させたり、ロボットの「目」の位置に設けられた図示しないLED(Light Emitting Diode)を点灯、消灯または点滅させる。
【0044】
さらに、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17等からの音声信号、画像信号、圧力検出信号等に基づいて、上記RFIDリーダ部19の読取動作を制御するようにしてもよい。例えば、コントローラ10は、タッチセンサ17等の接触を検出する接触検出手段からの検出結果により接触を検出した場合に、一定時間の間、RFIDリーダ部19の動作を実行する。また、コントローラ10は、CCDカメラ16や赤外線センサ等のような物体の有無や状態を光学的に検出する光学的検出手段からの光学的検出結果により物体の有無や状態を検出した場合に、一定時間の間、RFIDリーダ部19の動作を実行する。
【0045】
以上のようにして、ロボットは、周囲の状況等に基づいて自律的に行動をとることができるようになっている。
【0046】
次に、図3は、図2のコントローラ10の機能的構成例を示している。なお、図3に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することで実現されるようになっている。
【0047】
コントローラ10は、特定の外部状態を認識するセンサ入力処理部50、センサ入力処理部50の認識結果等を累積して、感情および本能の状態を表現する感情/本能モデル部51、センサ入力処理部50の認識結果等に基づいて、続く行動を決定する行動決定機構部52、行動決定機構部52の決定結果に基づいて、実際にロボットに行動を起こさせる姿勢遷移機構部53、各アクチュエータ3AA1乃至5A1および5A2を駆動制御する制御機構部54、合成音を生成する音声合成部55、並びに音声合成部55の出力を制御する音響処理部56から構成されている。
【0048】
センサ入力処理部50は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリーダ部19等から与えられる音声信号、画像信号、圧力検出信号やRFID信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を、感情/本能モデル部51および行動決定機構部52に通知する。
【0049】
すなわち、センサ入力処理部50は、音声認識部50Aを有しており、音声認識部50Aは、行動決定機構部52からの制御にしたがい、マイク15から与えられる音声信号を用いて、音声認識を行う。そして、音声認識部50Aは、その音声認識結果としての、例えば、「歩け」、「伏せ」、「ボールを追いかけろ」等の指令その他を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0050】
また、センサ入力処理部50は、画像認識部50Bを有しており、画像認識部50Bは、CCDカメラ16から与えられる画像信号を用いて、画像認識処理を行う。そして、画像認識部50Bは、その処理の結果、例えば、「赤い丸いもの」や、「地面に対して垂直なかつ所定高さ以上の平面」等を検出したときには、「ボールがある」や、「壁がある」等の画像認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0051】
さらに、センサ入力処理部50は、圧力処理部50Cを有しており、圧力処理部50Cは、タッチセンサ17から与えられる圧力検出信号を処理する。そして、圧力処理部50Cは、その処理の結果、所定の閾値以上で、かつ短時間の圧力を検出したときには、「たたかれた(しかられた)」と認識し、所定の閾値未満で、かつ長時間の圧力を検出したときには、「なでられた(ほめられた)」と認識して、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0052】
また、センサ入力処理部50は、環境認識部50Dを有しており、環境認識部50Dは、マイク15から与えられる音声信号や、CCDカメラ16から与えられる画像信号を用いて、ロボットが使用される環境としての、例えば、ロボットからユーザまでの距離等を認識し、その認識結果を、状態認識情報として、音響処理部56に出力する。
【0053】
また、センサ入力処理部50は、ID認識部50Eを有しており、ID認識部50Eは、RFIDリーダ部19から与えられるRFID信号を用いて、RFIDに記録された信号の認識処理を行う。そして、ID認識部50Eは、その処理の結果、例えば、「ボール」や、「花瓶」等を認識し、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。このID認識部50Eの構成例については、図7を参照しながら後述する。
【0054】
ここで、コントローラ10は、センサ入力処理部50の音声認識部50A、画像認識部50B、圧力認識部50C等からの認識結果に応じて、RFIDリーダ部19やID認識部50Eの動作を制御するようにしてもよい。例えば、CCDカメラ16からの画像信号を画像認識部50Bで画像認識することによりボールらしき丸いものの認識結果が得られた場合に、RFIDリーダ部19を動作させて該ボールらしき物体に設けられたRFIDタグを読み取り、RFIDリーダ部19から得られたRFID信号をID認識部50Eに送って認識処理を行わせ、「ボール」であることを認識させる。この場合、後述するように、さらに詳細な物体の情報、例えば「サッカーボール」であることの認識を行うようにすることも容易に実現できる。
【0055】
感情/本能モデル部51は、図4に示すような、ロボットの感情と本能の状態を表現する感情モデルと本能モデルをそれぞれ管理している。
【0056】
感情モデルは、例えば、3つの感情ユニット60A,60B,60Cで構成され、これらの感情ユニット60A乃至60Cは、「うれしさ」、「悲しさ」、「怒り」の感情の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0057】
なお、感情モデルには、「うれしさ」、「悲しさ」、「怒り」の他、「楽しさ」に対応する感情ユニットを設けることも可能である。
【0058】
本能モデルは、例えば、3つの本能ユニット61A,61B,61Cで構成され、これらの本能ユニット61A乃至61Cは、「食欲」、「睡眠欲」、「運動欲」という本能による欲求の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0059】
感情/本能モデル部51は、上述のようにして変化する感情ユニット60A乃至60Cの値で表される感情の状態、および本能ニット61A乃至61Cの値で表される本能の状態を、感情/本能状態情報として、センサ入力処理部50、行動決定機構部52、および音声合成部55に送出する。
【0060】
行動決定機構部52は、センサ入力処理部50からの状態認識情報や、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53に送出する。
【0061】
すなわち、行動決定機構部52は、図5の状態遷移図に示すように、ロボットがとり得る行動をステート(状態:state)に対応させた有限オートマトンを、ロボットの行動を規定する行動モデルとして管理しており、この行動モデルとしての有限オートマトンにおけるステートを、センサ入力処理部50からの状態認識情報や、感情/本能モデル部51における感情モデルおよび本能モデルの値、時間経過等に基づいて遷移させ、遷移後のステートに対応する行動を、次にとるべき行動として決定する。
【0062】
具体的には、例えば、図5において、ステートST3が「立っている」という行動を、ステートST4が「寝ている」という行動を、ステートST5が「ボールを追いかけている」という行動を、それぞれ表しているとする。いま、例えば、「ボールを追いかけている」というステートST5において、「ボールが見えなくなった」という状態認識情報が供給されると、ステートST5からST3に遷移し、その結果、ステートST3に対応する「立っている」という行動を、次にとることが決定される。また、例えば、「寝ている」というステートST4において、「起きろ」という状態認識情報が供給されると、ステートST4からST3に遷移し、その結果、やはり、ステートST3に対応する「立っている」という行動を、次にとることが決定される。
【0063】
ここで、行動決定機構部52は、所定のトリガ(trigger)があったことを検出すると、ステートを遷移させる。即ち、行動決定機構部52は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したときや、特定の状態認識情報を受信したとき、感情/本能モデル部51から供給される感情/本能状態情報が示す感情の状態の値(感情ユニット60A乃至60Cの値)、あるいは本能の状態の値(本能ユニット61A乃至61Cの値)が所定の閾値以下または以上となったとき等に、ステートを遷移させる。
【0064】
なお、行動決定機構部52は、上述したように、センサ入力処理部50からの状態認識情報だけでなく、感情/本能モデル部51における感情モデルおよび本能モデルの値等にも基づいて、図5の有限オートマトンにおけるステートを遷移させることから、同一の状態認識情報が入力されても、感情モデルや本能モデルの値(感情/本能状態情報)によっては、ステートの遷移先は異なるものとなる。
【0065】
その結果、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っていない」こと、および「お腹がすいていない」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに応じて、「お手」という行動をとらせる行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0066】
また、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っていない」こと、および「お腹がすいている」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに応じて、「手のひらをぺろぺろなめる」ような行動を行わせるための行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0067】
また、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っている」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、感情/本能状態情報が、「お腹がすいている」ことを表していても、また、「お腹がすいていない」ことを表していても、「ぷいと横を向く」ような行動を行わせるための行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0068】
さらに、行動決定機構部52では、上述したような、ロボットの頭部や手足等を動作させる行動指令情報の他、ロボットに発話を行わせる行動指令情報も生成される。ロボットに発話を行わせる行動指令情報は、音声合成部55に供給されるようになっており、音声合成部55に供給される行動指令情報には、音声合成部55に生成させる合成音に対応するテキスト等が含まれる。そして、音声合成部55は、行動決定部52から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、感情/本能モデル部51で管理されている感情の状態や本能の状態を加味しながら、例えば、規則音声合成等を行うことで、合成音を生成し、音響処理部56に供給する。
【0069】
姿勢遷移機構部53は、行動決定機構部52から供給される行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54に送出する。
【0070】
ここで、現在の姿勢から次に遷移可能な姿勢は、例えば、胴体や手や足の形状、重さ、各部の結合状態のようなロボットの物理的形状と、関節が曲がる方向や角度のようなアクチュエータ3AA1乃至5A1および5A2の機構とによって決定される。
【0071】
また、次の姿勢としては、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できない姿勢とがある。例えば、4本足のロボットは、手足を大きく投げ出して寝転んでいる状態から、伏せた状態へ直接遷移することはできるが、立った状態へ直接遷移することはできず、一旦、手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ち上がるという2段階の動作が必要である。また、安全に実行できない姿勢も存在する。例えば、4本足のロボットは、その4本足で立っている姿勢から、両前足を挙げてバンザイをしようとすると、簡単に転倒してしまう。
【0072】
このため、姿勢遷移機構部53は、直接遷移可能な姿勢をあらかじめ登録しておき、行動決定機構部52から供給される行動指令情報が、直接遷移可能な姿勢を示す場合には、その行動指令情報を、そのまま姿勢遷移情報として、制御機構部54に送出する。一方、行動指令情報が、直接遷移不可能な姿勢を示す場合には、姿勢遷移機構部53は、遷移可能な他の姿勢に一旦遷移した後に、目的の姿勢まで遷移させるような姿勢遷移情報を生成し、制御機構部54に送出する。これによりロボットが、遷移不可能な姿勢を無理に実行しようとする事態や、転倒するような事態を回避することができるようになっている。
【0073】
すなわち、姿勢遷移機構部53は、例えば、図6に示すように、ロボットがとり得る姿勢をノードNODE1乃至NODE5として表現するとともに、遷移可能な2つの姿勢に対応するノードどうしの間を、有向アークARC1乃至ARC10で結合した有向グラフを記憶しており、この有向グラフに基づいて、上述したような姿勢遷移情報を生成する。
【0074】
具体的には、姿勢遷移機構部53は、行動決定機構部52から行動指令情報が供給されると、現在の姿勢に対応したノードNODEと、行動指令情報が示す次に取るべき姿勢に対応するノードNODEとを結ぶように、有向アークARCの向きに従いながら、現在のノードNODEから次のノードNODEに至る経路を探索し、探索した経路上にあるノードNODEに対応する姿勢を順番にとっていくように指示する姿勢遷移情報を生成する。
【0075】
その結果、姿勢遷移機構部53は、例えば、現在の姿勢が「ふせる」という姿勢を示すノードNODE2にある場合において、「すわれ」という行動指令情報が供給されると、有向グラフにおいて、「ふせる」という姿勢を示すノードNODE2から、「すわる」という姿勢を示すノードNODE5へは、直接遷移可能であることから、「すわる」に対応する姿勢遷移情報を生成して、制御機構部54に与える。
【0076】
また、姿勢遷移機構部53は、現在の姿勢が「ふせる」という姿勢を示すノードNODE2にある場合において、「歩け」という行動指令情報が供給されると、有向グラフにおいて、「ふせる」というノードNODE2から、「あるく」というノードNODE4に至る経路を探索する。この場合、「ふせる」に対応するノードNODE2、「たつ」に対応するNODE3、「あるく」に対応するNODE4の経路が得られるから、姿勢遷移機構部53は、「たつ」、「あるく」という順番の姿勢遷移情報を生成し、制御機構部54に送出する。
【0077】
制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボットは、自律的に行動を起こす。
【0078】
一方、音響処理部56は、センサ入力処理部50を構成する環境認識部50Dが出力する状態認識情報を受信し、その状態認識情報に基づいて、音声合成部55から供給される合成音の出力を制御する。即ち、音響処理部56は、状態認識情報としての、ロボットが使用される環境における雑音や、ロボットからユーザまでの距離等に対して、スピーカ18から出力される合成音が、ユーザに明確に聞こえるように、かつ耳障りとならないように、その大きさ(パワー)や高さ(周波数)等を調整して、スピーカ18に供給する。これにより、スピーカ18からは、適切な大きさおよび高さ等を有する合成音が出力される。
【0079】
次に、図7は、図3のID認識部50Eの構成例を示している。ID照合部41には、RFIDリーダ部19から出力されるRFID信号が供給されるようになっている。IDテーブル記憶部42は、予め登録されたRFIDタグ(無線タグ)のID番号及びそのID番号に対応した対象関連情報のテーブル(以下IDテーブルと呼ぶ)が記録されている。図8に、IDテーブルの例を示す。この図8の例では、対象関連情報として、「机」、「ボール」、「花瓶」等のような比較的大きなカテゴリの対象関連情報Aと、机の「足」、「サッカー用」のボール、「生け花用」の花瓶等のようなより詳細な対象関連情報Bとを例示している。
【0080】
図7のID照合部41は、RFIDリーダ部19から出力されたRFID信号が、IDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。そして、RFIDリーダ部19から出力されたRFID信号がIDパターン記憶部42に記録されたものであると判定した場合、IDパターン記憶部42に記録されたIDテーブルからRFID信号のID番号に対応する対象関連情報を読み出し、この対象関連情報に応じた上記状態認識情報を、感情/本能モデル部51および行動決定機構部52へ通知する。従って、対象関連情報に基づく状態認識情報に応じてロボット装置の行動が制御される。なお、上記状態認識情報は上記対象関連情報をそのまま用いてもよい。また、ID番号に対応する対象関連情報は複数存在してもよい。
【0081】
RFID信号のフォーマットとしては、例えば、ヘッダ部、識別子部、データ部を有し、全体として128ビットで構成されているものが挙げられ、この他、種々のフォーマットを使用可能である。一般にRFIDタグは、バーコードに比べて情報量が多く、物体の識別能力が高く、物体の詳細なデータ等を盛り込むこともできる。また、RFIDシステムは、非接触で情報通信が可能であるため、耐久性に優れ、汚れやほこり等の影響を受けず、移動しながらの読み取りが可能であり、また、カメラ等の光学検出手段に対して、暗闇でも物体認識が行える等の利点を有している。
【0082】
また、RFIDタグは、バーコード等に比べて情報量が多いことから、アスキーコード、音声や画像のサンプリングデータや圧縮符号化データのように、それ自体で既に意味を持つようなデータをRFIDタグのメモリに記憶するようにしてもよい。この場合、上述したようなIDテーブルの情報の一部あるいは全部を省略することができ、さらに、IDテーブル自体を省略して、RFID信号から対象関連情報等を直接読み取るようにすることも可能である。
【0083】
上述した本発明の実施の形態によれば、RFIDリーダ部19をロボット装置に設けることにより、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が可能となり、また、外部環境が暗くとも物体認識が有効かつ確実に行える。そして、認識した結果に応じて、それぞれ独自の行動をとらせることができる。
【0084】
このようなRFIDリーダ部19を有するロボット装置を用いて、ゲーム(スポーツ)、行動範囲の制約、周囲との関係構築、自動装着等への応用が可能である。
【0085】
例えば、ゲーム(スポーツ)への適用例として、サッカーゲーム等の球技の場合には、メンバー(選手)となるロボット装置、ボール、グランド(地面)等にタグを付けることにより、相手とボールとコート内での位置等を動きながら容易に認識するすることができ、球技を円滑に行うことができる。障害物レースの場合には、グランド(地面)と障害物にタグを付けて、現在位置と障害物とを移動しながら認識でき、円滑に競技を進めることができる。さらに、スケートボード(スケボー)にタグを付けて、スケートボードの位置を認識し、スケートボード上に乗って走らせることができる。
【0086】
また、行動範囲の制約としては、壁や段差部分等にタグをつけて認識させることにより、壁にぶつかったり段差部分から落下すること等を未然に防ぐような行動範囲の制約を実現できる。
【0087】
また、自動装着の例としては、充電器にタグを付けて、独力で充電させたり、ロボットの構成部品(パーツ)にタグを付けて、ロボット本体にパーツを認識させ、独力でパーツの着脱を行わせたり、スケートボード等の乗り物にタグを付けて独力で乗らせたりすることも可能である。
【0088】
この他、スケートボードと地面にタグを付けて、位置情報を認識し、対象物を運搬したり、猫じゃらしや枕等の小物にタグをつけて認識させ、認識された小物に応じて快適/不愉快、危険/安全等の感情表現を行わせたりする等の、種々の応用が可能である。
【0089】
さらに、上記RFIDタグの情報を認識した場合のロボット装置の行動としては、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動を出現させるようにしてもよい。
【0090】
ここで、具体例として、上記壁や段差部分等にタグをつけて認識させることにより、壁にぶつかったり段差部分から落下すること等を未然に防ぐような例について説明する。
【0091】
この場合の壁や段差部等を識別するためのID番号と対象関連情報との関係を示すIDテーブルの一例を図9に示す。この図9の例では、上記RFIDタグのID番号に対して、壁、段差、斜面等をそれぞれ識別するための対象関連情報Cと、具体的な行動としての停止、後ずさり、右折、左折等を識別するための対象関連情報Dとが設定されている。このIDテーブルは、例えば上記図7と共に説明したようなIDテーブル記憶部42に記憶されており、ID照合部41は、上記RFIDリーダ部19から送られるRFID信号のID番号がIDテーブル記憶部42の上記図9のIDテーブルに記憶された情報に属するか否かを判定し、属すると判定されたとき、該IDテーブルからRFID信号のID番号に対応する対象関連情報C、Dを読み出し、これらの対象関連情報に応じた上記状態認識情報を(あるいは対象関連情報をそのまま状態認識情報として)、上記図3に示したような感情/本能モデル部51及び行動決定機構部52へ通知する。ID番号と対象関連情報とは、図9の具体例に限定されないことは勿論である。
【0092】
図10〜図12は、上述したようなロボット装置1が段差のある場所に近づいた場合の動作の例を示すものである。ロボット装置1としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置1のIDテーブル記憶部には、図9に示すIDテーブルが記録され、また、ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されているものとする。
【0093】
RFIDタグ100〜112は、例えばテープ118の内部に所定距離d(例えば10cm程)の間隔をあけて固定されている。RFIDタグ100〜112には、ID番号として例えば12000001が記録されている。テープ118は、段の側面(側壁)113、115に沿って、床114の上に固定されている。具体的には、テープ基体の内部に所定距離dの間隔でRFIDタグが予め配設されたタグ付き粘着テープを、段差部の近傍等の所望の位置に貼り付けること等により、RFIDタグを容易に設置できる。
【0094】
図10は、ロボット装置1が床114を歩いて、段差部(側壁113)近傍のRFID107に近付いていく様子を示す。図11は、ロボット装置1が図10の状態から推移して、上記RFIDリーダ部19がRFIDタグ107に記録された情報をリード可能な距離に到達している様子を示す。図11では、RFIDリーダ部19が、電波116によって、RFIDタグ107に記録された情報117(ID番号12000001)をリードする。RFIDリーダ部19は、リードした情報117(ID番号12000001)をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報117(ID番号12000001)が、IDテーブル記憶部42に記憶された上記図9のIDテーブルの情報に属するかどうかを判定する。ID番号12000001は、IDテーブル記憶部42に記録された情報に属すると判定されるので、IDテーブルに基づいて、RFID信号のID番号12000001に対応する対象関連情報C(段差)、対象関連情報D(後ずさり)を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報C(段差)及び対象関連情報D(後ずさり)に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を「後ずさり」と決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後ずさり」の行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の後ずさりの姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置1は、「後ずさり」の行動を起こす。図12に、図11の状態から後ずさりした様子を示す。
【0095】
図13〜図15には、ロボット装置1が壁のある場所に近づいた場合の動作の例を示す。ロボット装置1は、図1〜図7と共に説明したタイプのロボット装置であり、IDテーブルの情報は上記図9に示すものとする。ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されている。
【0096】
図13〜図15に示す例でも、上記図10〜図12に示す例と同様に、例えばテープ118の内部に所定距離d(例えば10cm程)の間隔をあけてRFIDタグ120〜122が配設されており、これらのRFIDタグ120〜122には、ID番号として11000001が記録されている。テープ118は、壁124の表面に固定され(貼り付けられ)ている。
【0097】
図13は、ロボット装置1が床123を歩いて、RFIDタグ121に近づいていく様子を示す。図14は、ロボット装置1が図13の状態から推移して、上記RFIDリーダ部19がRFIDタグ121に記録された情報をリード可能な距離に到達している様子を示す。この図14では、RFIDリーダ部19が、電波116によって、RFIDタグ121に記録された情報119(ID番号11000001)をリードしている状態を示す。RFIDリーダ部19は、リードした情報119(ID番号11000001)をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報119(ID番号11000001)が、IDテーブル記憶部42のIDテーブル(図9)に記録された情報に属するかどうかを判定する。ID番号11000001は、IDテーブル記憶部42に記録されたものであると判定されるので、IDテーブルからRFID信号のID番号11000001に対応する対象関連情報C(壁)、対象関連情報D(後ずさり)を読み出し、これらの対象関連情報に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報C(段差)及び対象関連情報D(後ずさり)に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を「後ずさり」と決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後ずさり」の行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の後ずさりの姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボットは、「後ずさり」の行動を起こす。図15に、図14の状態から後ずさりした様子を示す。
【0098】
図10〜図12及び図13〜図15と共に説明したロボット装置1の行動は、「後ずさり」であったが、環境に合わせて、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化等の様々な単純な行動や、また疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動を生成するようにしてもよい。
【0099】
また、図10〜図12及び図13〜図15のRFIDタグに記録された情報に関連付けられた対象関連情報は、「壁」や「段差」であったが、階段、床、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング等の環境に応じて、様々な情報であってもよい。
【0100】
また、図10〜図12及び図13〜図15に記載のRFIDタグは、テープ118の内部に固定されているが、紙やビニールなどのシート、テープ、シール、ひも、ケーブル、カード、ペン、カーテン、絨毯、布、縫ぐるみ等の部材の表面や内部に固定されていたり、階段、床、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング等を構成する部材の表面や内部に固定されていてもよい。
【0101】
次に、上述したようなRFIDリーダ部19を有するロボット装置と、ロボット装置の周囲の人間や動物等も含む対象との関係を構築するためのシステムについて説明する。
【0102】
これは、動物の犬や猫等のペットの場合には、自分の飼い主とそれ以外の人間の識別や、また自分の親、子、兄弟等とそれ以外との識別が可能であり、このような主従関係や家族関係等の高度な関係に応じて行動することが可能であるが、従来のペットロボット装置では、飼い主と似た人物が複数存在する場合や、類似したペットロボット装置が複数存在する場合等に、飼い主とそれ以外の人間との識別や家族とそれ以外との識別等が難しいことを考慮したものであり、ロボット装置が、上述したような高度な関係を、周囲の生物(人間や動物等)や物体(他のロボット装置等)との間に構築し得るようにしたものである。
【0103】
ここで、図16は、周囲の生物(人間や動物等)や物体(他のロボット装置等)との間の高度な関係(家族関係、血縁関係、主従関係等)を識別するためのID番号と対象関連情報との関係を表すIDテーブルの一例を示している。この図16の例では、上記RFIDタグのID番号に対して、飼い主等の関係を示す対象関連情報Eと、誕生日を示す対象関連情報Fと、性別を示す対象関連情報Gとが設定されている。このIDテーブルは、例えば上記図7と共に説明したようなIDテーブル記憶部42に記憶されており、ID照合部41は、上記RFIDリーダ部19から送られるRFID信号のID番号がIDテーブル記憶部42の上記図16のIDテーブルに記憶された情報に属するか否かを判定し、属すると判定されたとき、該IDテーブルからRFID信号のID番号に対応する対象関連情報E、F、Gを読み出し、これらの対象関連情報に応じた状態認識情報を、上記図3に示したような感情/本能モデル部51及び行動決定機構部52へ通知する。ID番号と対象関連情報とは、図16の具体例に限定されないことは勿論である。
【0104】
図17〜図20は、上述したようなロボット装置1がRFIDタグを有する人間に近づいた場合の動作の例を示すものである。ロボット装置1としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置1のIDテーブル記憶部には、図16に示すIDテーブルが記録され、また、ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードするRFIDリーダ部19が、所定位置に配設されているものとする。
【0105】
ここで、図17〜図19に示す人間130は飼い主であり、例えば指輪141を嵌めており、この指輪141には、図21に示すようなRFIDタグ142が設けられている。このRFIDタグ142には、上記図16のIDテーブルの飼い主を示すID番号21000000が記録されている。
【0106】
図17は、ロボット1装置が、上記CCDカメラ16により人間130の画像データ131を取得し、その画像認識結果から、人間130に近付いている様子を示している。図18は、ロボット装置1が図17の状態から推移して、上記RFIDリーダ部19が指輪141の上記RFIDタグ142に記録された情報をリード可能な距離に到達している様子を示す。この図18では、RFIDリーダ部19が、電波145によって、指輪141のRFIDタグ142に記録された情報146をリードしている状態を示す。RFIDリーダ部19は、リードした情報146をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報146(ID番号21000000)が、IDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。情報146のID番号は21000000であり、IDパターン記憶部42に記録されたものであると判定されるので、図16のIDテーブルに基づいて、RFID信号のID番号21000000に対応する対象関連情報E「飼い主」、対象関連情報F「1948/12/26」、対象関連情報G「man」を読み出し、これらの対象関連情報に応じた上記状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E、F、Gに応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、RFIDタブ142を内蔵する指輪141を装着した人間130を飼い主と認識し、人間130との間に主従関係を構築するように今後振舞うことを決定する。飼い主への主従関係を表現するため、次の行動として例えば「立つ」を決定し、決定された行動の内容「立つ」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「立つ」の行動指令情報に基づいて、ロボット装置1の姿勢を、現在の姿勢から次の立つ為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置1は、「立つ」の行動を起こす。図19に、図18の状態から立ったロボット装置1の様子を示す。
【0107】
次に、RFIDタグに、ID番号として21000000でなく、22000003が記録されている場合の例を以下に説明する。
【0108】
図20に示す人間133は、ID番号として22000003が記録されたRFIDタグが設けられた指輪143を嵌めているものとする。このとき、ロボット装置1は、RFID信号のID番号22000003に対応する対象関連情報E「他人」、対象関連情報F「1950/9/1」、対象関連情報G「man」に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E、F、Gに応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、22000003が記録されたRFIDタグが設けられた指輪143を嵌めている人間133を赤の他人と認識し、人間133と無関係であるように今後振舞うことを決定する。人間133と無関係であることを表現するため、次の行動として「後退」を決定し、決定された行動の内容「後退」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後退」の行動指令情報に基づいて、ロボット1の姿勢を、現在の姿勢から次の後退する為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置1は、「後退」の行動を起こす。図20に、後退したロボット装置1の様子を示す。
【0109】
次に、図22〜図24は、ロボット装置151がロボット装置152に近付いた場合の動作の例を示すものである。これらのロボット装置151、152としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置151、152のIDテーブル記憶部には、図16に示すようなIDテーブルが記録され、ロボット装置151、152の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されているものとする。また、ロボット装置151の所定位置、例えば鼻部の表面には、RFIDタグ153が取り付けられ、ロボット装置152の所定位置、例えば鼻部の表面には、RFIDタグ154が取り付けられている。さらに、RFIDタグ153には、ID番号として21000005が記録され、RFIDタグ154には、ID番号として21000004が記録されている。
【0110】
図22では、ロボット装置151が、上記CCDカメラ16により、ロボット装置152の画像データ155を取得し、その画像認識結果から、ロボット装置152に近付いている様子を示している。図23は、ロボット装置151が図22の状態から推移して、RFIDリーダ部19がRFIDタグ154に記録された情報156をリード可能な距離に到達している様子を示す。この図23では、RFIDリーダ部19が、電波157によって、RFIDタグ154に記録された情報156をリードしている状態を示す。RFIDリーダ部19は、リードした情報156をロボット装置151の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報156(ID番号21000004)が、IDテーブル記憶部42のIDテーブル(図16)に記録された情報に属するか否かを判定する。情報156のID番号は21000004であり、IDパターン記憶部42に記録されたものであると判定されるので、IDテーブルに基づいて、RFID信号のID番号21000004に対応する対象関連情報E「母」、対象関連情報F「1993/9/1」、対象関連情報G「woman」を読み出し、これらの対象関連情報に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E「母」/F「1993/9/1」/G「woman」に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、ロボット装置152を母と認識し、ロボット装置152との間に家族関係を構築するように今後振舞うことを決定する。ロボット装置152との家族関係を表現するため、次の行動として「ロボット装置152の行動を後追いする」を決定し、決定された行動の内容「ロボット装置152の行動を後追いする」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「ロボット装置152の行動を後追いする」の行動指令情報に基づいて、ロボット装置151の姿勢を、現在の姿勢から次のロボット装置151の行動を後追いする為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA1乃至5A1及び5A2を駆動するための制御信号を生成し、これを、アクチュエータ3AA1乃至5A1及び5A2に送出する。これにより、アクチュエータ3AA1乃至5A1及び5A2は、制御信号に従って駆動され、ロボット装置151は、「ロボット装置152の行動を後追いする」の行動を起こす。図24に、図23の状態から、ロボット装置151がロボット装置152の行動を後追いしている様子を示す。
【0111】
図19ではロボット装置1が“主従関係”を、図24ではロボット装置151が“家族関係”を構築するような行動をしたが、ロボット装置と上記RFIDタグを付けた周囲の生物や物体との関係は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係など様々な関係であってよい。また、このような関係に基づき、ロボット装置は、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動制御されることが挙げられる。
【0112】
また図19のロボット装置1の行動は「立つ」であり、図24のロボット装置151の行動は「ロボット装置152の行動を後追いする」であったが、上記RFIDタグを付けた周囲の生物や物体との間に構築された関係に応じて、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化等の様々な単純な行動や、また疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動であってもよい。
【0113】
さらに、上述した実施の形態では、RFIDタグにはID番号を書き込んでおき、ロボット装置の内部にIDテーブルを設けて、RFIDタグに記憶されたID番号から対応する対象関連情報を参照するようにしているが、RFIDタグ自体に、対象関連情報等の既に意味を持っているデータを記憶させるようにしてもよい。この場合には、ロボット装置内にIDテーブルを記憶しておく必要がなく、RFID信号を読み取ることで直接的に対象関連情報等を得ることができる。
【0114】
上述した本発明の実施の形態においては、上述した一連の処理を、CPU10Aにプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウェアによって行うことも可能である。
【0115】
なお、プログラムは、あらかじめメモリ10B(図2)に記憶させておく他、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウエアとして提供し、ロボット(メモリ10B)にインストールするようにすることができる。
【0116】
また、プログラムは、リムーバブル記録媒体からインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。
【0117】
この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。
【0118】
ここで、本明細書において、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0119】
また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
【0120】
以上、本発明を、エンターテイメント用のロボット(疑似ペットとしてのロボット)に適用した場合について説明したが、本発明は、これに限定されるものではなく、例えば、産業用のロボットや人間型ロボット等の各種のロボットに広く適用することが可能である。
【0121】
ここで、本発明を適用可能な人間型ロボット装置について、図面を参照しながら説明する。
【0122】
図25及び図26には、人間型ロボット装置200を前方及び後方の各々から眺望した様子を示している。更に、図27には、この人間型ロボット装置200が具備する関節自由度構成を模式的に示している。
【0123】
図25及び図26に示すように、人間型ロボット装置200は、脚式移動を行う左右2足の下肢201R,201Lと、体幹部202と、左右の上肢203R,203Lと、頭部204とで構成される。
【0124】
左右各々の下肢201R,201Lは、大腿部205R,205Lと、膝関節206R,206Lと、脛部207R,207Lと、足首208R,208Lと、足平209R,209Lとで構成され、股関節210R,210Lによって体幹部202の略最下端にて連結されている。また、左右各々の上肢203R,203Lは、上腕211R,211Lと、肘関節212R,212Lと、前腕213R,213Lとで構成され、肩関節214R,214Lによって体幹部202上方の左右各側縁にて連結されている。また、頭部204は、首関節255によって体幹部202の略最上端中央に連結されている。
【0125】
図27に示すように、頭部204を支持する首関節ヨー軸302と、首関節ピッチ軸303と、首関節ロール軸304という3自由度を有している。
【0126】
また、腕の関節は、肩関節ピッチ軸308と、肩関節ロール軸309と、上腕ヨー軸310と、肘関節ピッチ軸311と、前腕ヨー軸312と、手首関節ピッチ軸313と、手首関節ロール軸314と、手部315とで構成される。手部315は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部315の動作は人間型ロボット装置200の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0127】
また、体幹部は、体幹ピッチ軸305と、体幹ロール軸306と、体幹ヨー軸307という3自由度を有する。
【0128】
また、下肢を構成する各々の脚部は、股関節ヨー軸316と、股関節ピッチ軸317と、股関節ロール軸318と、膝関節ピッチ軸319と、足首関節ピッチ軸320と、足首関節ロール軸321と、足部322とで構成される。本明細書中では、股関節ピッチ軸317と股関節ロール軸318の交点は、人間型ロボット装置200の股関節位置を定義する。人体の足部322は、実際には多関節・多自由度の足底を含んだ構造体であるが、人間型ロボット装置200の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0129】
以上を総括すれば、人間型ロボット装置200全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けの人間型ロボット装置200が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0130】
上述したような人間型ロボット装置200がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定な構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0131】
図28には、人間型ロボット装置200の制御システム構成を模式的に示している。同図に示すように、人間型ロボット装置200は、ヒトの四肢を表現した各機構ユニット330,340,350R/L,360R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行う制御ユニット380とで構成される(ただし、R及びLの各々は、右及び左の各々を示す接尾辞である。以下同様)。
【0132】
人間型ロボット装置200全体の動作は、制御ユニット380によって統括的に制御される。制御ユニット380は、CPU(Central Processing Unit)やメモリ等の主要回路コンポーネント(図示しない)で構成される主制御部381と、電源回路や人間型ロボット装置200の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示しない)などを含んだ周辺回路382とで構成される。この制御ユニット380の設置場所は、特に限定されない。図28では体幹部ユニット340に搭載されているが、頭部ユニット330に搭載してもよい。或いは、人間型ロボット装置200外に制御ユニット380を配備して、人間型ロボット装置200の機体とは有線若しくは無線で交信するようにしてもよい。
【0133】
図28に示した人間型ロボット装置200内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット330には、首関節ヨー軸302、首関節ピッチ303、首関節ロール軸304の各々を表現する首関節ヨー軸アクチュエータA2、首関節ピッチ軸アクチュエータA3、首関節ロール軸アクチュエータA4が配設されている。
【0134】
また、頭部ユニット330には、外部の状況を撮像するためのCCD(ChargeCoupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。さらに、上述したようなRFIDタグ(無線タグ)からの情報を読み取るためのRFIDリーダ部(図示せず)が頭部ユニット330に設けられている。このRFIDリーダ部は、頭部ユニット330以外の部位に設けられていてもよい。
【0135】
また、体幹部ユニット340には、体幹ピッチ軸305、体幹ロール軸306、体幹ヨー軸307の各々を表現する体幹ピッチ軸アクチュエータA5、体幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエータA7が配設されている。また、体幹部ユニット340には、この人間型ロボット装置200の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0136】
また、腕部ユニット350R/Lは、上腕ユニット351R/Lと、肘関節ユニット352R/Lと、前腕ユニット353R/Lに細分化されるが、肩関節ピッチ軸308、肩関節ロール軸309、上腕ヨー軸310、肘関節ピッチ軸311、前腕ヨー軸312、手首関節ピッチ軸313、手首関節ロール軸314の各々表現する肩関節ピッチ軸アクチュエータA8、肩関節ロール軸アクチュエータA9、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0137】
また、脚部ユニット360R/Lは、大腿部ユニット361R/Lと、膝ユニット362R/Lと、脛部ユニット363R/Lに細分化されるが、股関節ヨー軸316、股関節ピッチ軸317、股関節ロール軸318、膝関節ピッチ軸319、足首関節ピッチ軸320、足首関節ロール軸321の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA2,A3・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0138】
頭部ユニット330、体幹部ユニット340、腕部ユニット350、各脚部ユニット360などの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部335,345,355R/L,365R/Lが配備されている。更に、各脚部360R,Lの足底が着床したか否かを検出する接地確認センサ391及び392を装着するとともに、体幹部ユニット340内には、姿勢を計測する姿勢センサ393を装備している。
【0139】
接地確認センサ391及び392は、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ393は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0140】
接地確認センサ391及び392の出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ393の出力により、体幹部分の傾きや姿勢を検出することができる。
【0141】
主制御部381は、各センサ391〜393の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部335,345,355R/L,365R/Lの各々に対して適応的な制御を行い、人間型ロボット装置200の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。
【0142】
以上のように、人間型ロボット装置200は、各々の副制御部335,345,・・・等が、主制御部381からの受信コマンドを解釈して、各アクチュエータA2,A3・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、人間型ロボット装置200は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0143】
また、人間型ロボット装置200における制御ユニット380では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット380では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部381と接続されている。また、図示しないが上記RFIDリーダ部も主制御部381と接続されている。
【0144】
主制御部381は、上述の各センサから供給されるセンサデータや画像データ及び音声データ、あるいは上記RFIDリーダ部からのRFID情報を順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部381は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部381がこの人間型ロボット装置200の動作制御を行う際に利用される。
【0145】
主制御部381は、人間型ロボット装置200の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部381は、上述のように主制御部381よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。更に、主制御部381は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることにより人間型ロボット装置200に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0146】
したがって、人間型ロボット装置200は、制御プログラムに基づいて自己及び周囲の状況を判断し、使用者からの指示及び働きかけに応じて自律的に行動できる。
【0147】
【発明の効果】
本発明によれば、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、外部に存在する対象に設けられた無線タグ(いわゆるRFIDタグ)から該無線タグに記憶されているデータを読み取る無線タグ読取手段(RFIDリーダ)と、上記無線タグ読取手段により読み取られたデータに基づいて上記行動を制御するようにしており、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が、無線タグ読取手段にて無線タグ(RFIDタグ)に記憶されたデータに応じた上記対象に関連する情報である対象関連情報を読み取ることにより行え、また、外部環境が暗くとも物体認識等が有効に行える。
【0148】
ここで、上記対象関連情報として、ロボット装置の行動、動作の方法に関する行動情報や、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含むようにすることにより、段差部や壁等に接近した時点で段差部や壁等を認識させることができ、停止や後ずさり等のような段差部や壁等を回避する行動をとらせることができる。
【0149】
また、上記対象関連情報として、ロボット装置が外部の対象(人間、動物、他のロボット装置等)と構築する関係に関する関係情報(家族関係、主従関係等)を含むようにすることにより、ロボット装置に対して親子関係や主従関係等の高度な関係を構築するような行動をとらせることが容易に実現できる。
【0150】
この場合、無線タグ読取手段により読み取られたデータと対象関連情報とを関連付けたテーブルが記録された記憶手段を設けることにより、制御手段は、無線タグ読取手段により読み取られたデータに関連付けられて得られた対象関連情報に基づいて、上記行動を制御することができる。
【0151】
また、無線タグ自体に直接的に対象関連情報を記憶させることにより、無線タグからのデータから直接的に読み取られた対象関連情報に基づく状態認識情報に応じて、上記行動を制御することができる。
【0152】
従って、本発明のロボット装置によれば、ロボットの従来のセンサであるマイク、CCDカメラやタッチセンサで検出することが困難であった外部の対象の情報を認識することが、容易に可能である。
【図面の簡単な説明】
【図1】本発明を適用したロボット装置の一実施の形態の外観構成例を示す斜視図である。
【図2】図1に示すロボット装置の内部構成例を示すブロック図である。
【図3】図2の構成の内のコントローラ10の機能的構成例を示すブロック図である。
【図4】感情/本能モデル部によるデータ処理を説明するための図である。
【図5】行動モデルを示す図である。
【図6】姿勢遷移機構部54の処理を説明するための図である。
【図7】ID認識部50Eの構成例を示すブロック図である。
【図8】RFIDタグのID番号とそのID番号に対応した対象関連情報のテーブルの具体例を示す図である。
【図9】壁や段差部等を識別するためのID番号と対象関連情報との関係を表すIDテーブルの具体例を示す図である。
【図10】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付く場合の動作の具体例を説明するための図である。
【図11】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付いてRFIDタグの情報をリードする動作を示す図である。
【図12】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付いてRFIDタグの情報をリードした後の後ずさりする状態を示す図である。
【図13】図9に示すIDテーブルを有するロボット装置が壁に近付く場合の動作の具体例を説明するための図である。
【図14】図9に示すIDテーブルを有するロボット装置が壁に近付いてRFIDタグの情報をリードする動作を示す図である。
【図15】図9に示すIDテーブルを有するロボット装置が壁に近付いてRFIDタグの情報をリードした後の後ずさりの動作を示す図である。
【図16】主従関係や親子関係等を識別するためのID番号と対象関連情報との関係を表すIDテーブルの具体例を示す図である。
【図17】図16に示すIDテーブルを有するロボット装置が飼い主に近付く場合の動作の具体例を説明するための図である。
【図18】図16に示すIDテーブルを有するロボット装置が飼い主に近付いてRFIDタグの情報をリードする動作を示す図である。
【図19】図16に示すIDテーブルを有するロボット装置が飼い主に近付いてRFIDタグの情報をリードした後の「立つ」動作を示す図である。
【図20】図16に示すIDテーブルを有するロボット装置が飼い主ではない他人に近付いて後退する動作を示す図である。
【図21】RFIDタグが設けられた指輪の一例を示す図である。
【図22】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付く場合の動作の具体例を説明するための図である。
【図23】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付いてRFIDタグの情報をリードする動作を示す図である。
【図24】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付いてRFIDタグの情報をリードした後の「後追い」動作を示す図である。
【図25】本発明が適用されるロボット装置の他の実施の形態の一構成例として示す人間型ロボット装置の前方からみた外観を説明する外観図である。
【図26】図25に示す人間型ロボット装置の後方からみた外観を説明する外観図である。
【図27】図25に示す人間型ロボット装置の自由度構成モデルを模式的に示す図である。
【図28】図25に示す示す人間型ロボット装置の制御システム構成を説明する図である。
【符号の説明】
10 コントローラ、 10A CPU、 10B メモリ、 15 マイク、 16CCDカメラ、 17 タッチセンサ、 18 スピーカ、19 RFIDリーダ部 41 照合部 42 IDテーブル記憶部 50 センサ入力処理部、 50A 音声認識部、 50B 画像認識部、 50C 圧力処理部、 50D 環境認識部、 51 感情/本能モデル部、 52 行動決定機構部、 53 姿勢遷移機構部、 54 制御機構部、 55 音声合成部、 56 音響処理部
Claims (30)
- 自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、
外部に存在する対象に設けられた無線タグから該無線タグに記憶されているデータを読み取る無線タグ読取手段と、
上記無線タグ読取手段により読み取られた上記無線タグのデータに応じた上記対象に関連する情報である対象関連情報に基づいて上記行動を制御する制御手段と
を有することを特徴とするロボット装置。 - 上記無線タグ読取手段により読み取られたデータと上記外部の対象に関する情報である上記対象関連情報とを関連付けたテーブルが記録された記憶手段を有し、
上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。 - 上記無線タグには上記外部の対象に関する情報である上記対象関連情報が記録されており、
上記無線タグ読取手段は、上記無線タグに記憶されているデータから上記対象関連情報を読み取り、
上記制御手段は、上記無線タグ読取手段により読み取られた上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。 - 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作の方法に関する行動情報を含み、
上記制御手段は、上記対象関連情報に含まれる上記行動情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。 - 上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであることを特徴とする請求項4記載のロボット装置。
- 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含み、
上記制御手段は、上記対象関連情報に含まれる上記環境情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。 - 上記環境情報は、階段、床、壁、段差、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング、部屋の位置情報、の内の少なくとも1つであることを特徴とする請求項6記載のロボット装置。
- 上記外部の対象に関する情報である上記対象関連情報は、上記環境情報と、ロボット装置の行動、動作の方法に関する行動情報とを含み、
上記制御手段は、上記対象関連情報に含まれる上記環境情報及び上記行動情報に基づいて、上記行動を制御することを特徴とする請求項6記載のロボット装置。 - 上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであることを特徴とする請求項8記載のロボット装置。
- 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置が上記外部の対象と構築する関係に関する関係情報を含み、
上記制御手段は、上記対象関連情報に含まれる上記関係情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。 - 上記関係情報は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係の内の少なくとも1つであり、
上記制御手段は、上記関係情報に基づいて、当該ロボット装置が、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動を制御することを特徴とする請求項10記載のロボット装置。 - 上記行動で感情を表現する表出手段と、
上記表出手段を駆動する駆動手段とを有し、
上記制御手段は、上記無線タグ読取手段により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に基づいて、上記駆動手段を制御することを特徴とする請求項1記載のロボット装置。 - 上記表出手段は、可動部、音響出力手段又は発光手段の内の少なくとも1つであることを特徴とする請求項12記載のロボット装置。
- 上記表出手段は複数種類の表出部であって、上記制御手段は上記記憶手段から読み出した上記動作情報に基づいて、上記複数種類の表出部の駆動を制御することを特徴とする請求項12記載のロボット装置。
- 上記対象関連情報に基づいて、出現するロボットの行動は、少なくとも本能的要素又は情動的要素からなるもので構成されていることを特徴とする請求項1記載のロボット装置。
- 上記本能的要素が、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、***(elimination)又は***(sexual)のうちの少なくとも1つであり、上記情動的要素が、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)の内の少なくとも1つであることを特徴とする請求項15記載のロボット装置。
- 上記ロボット装置の外観が動物に模した外観形状をなしており、上記無線タグ読取手段が上記動物の顔部分に備えられていることを特徴とする請求項1記載のロボット装置。
- 接触を検出する接触検出手段を備え、上記接触検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記検出結果により接触を検出した場合に、一定時間の間、上記無線タグ読取手段の動作を実行することを特徴とする請求項1記載のロボット装置。
- 物体の有無や状態を光学的に検出する光学的検出手段を備え、上記光学的検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記光学的検出結果により物体の有無や状態を検出した場合に、一定時間の間、上記無線タグ読取手段の動作を実行することを特徴とする請求項1記載のロボット装置。
- 自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置の制御方法であって、
外部に存在する対象に設けられた無線タグから該無線タグに記憶されているデータを読み取る無線タグ読取工程と、
上記無線タグ読取工程により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に基づいて上記行動を制御する制御工程と
を有することを特徴とするロボット装置の制御方法。 - 上記ロボット装置は、上記無線タグ読取手段により読み取られたデータと上記外部の対象に関する情報である上記対象関連情報とを関連付けたテーブルが記録された記憶手段を有し、
上記制御工程では、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項20記載のロボット装置の制御方法。 - 上記無線タグには上記外部の対象に関する情報である上記対象関連情報が記録されており、
上記無線タグ読取工程では、上記無線タグに記憶されているデータから上記対象関連情報を読み取り、
上記制御工程では、上記無線タグ読取手段により読み取られた上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置の制御方法。 - 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作の方法に関する行動情報を含み、
上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであり、
上記制御工程では、上記対象関連情報に含まれる上記行動情報に基づいて、上記行動を制御することを特徴とする請求項20記載のロボット装置の制御方法。 - 上記ロボット装置の行動や動作の方法に関連した上記行動情報が記録された上記無線タグが、所定の部材の表面や、内部又は裏面に取り付けられ、上記部材を外部に存在する対象に設置することにより、上記ロボット装置の上記行動を制御することを特徴とする請求項23記載のロボット装置の制御方法。
- 上記無線タグが取り付けられる上記部材は、紙やビニールなどのシート、テープ、シール、ひも、ケーブル、カード、ペン、カーテン、絨毯、布、縫ぐるみ、の少なくとも1つであることを特徴とする請求項24記載のロボット装置の制御方法。
- 上記部材に取り付けられた上記無線タグが複数であり、その複数の上記無線タグが上記部材の表面や、内部又は裏面で間隔を空けて設置されていることを特徴とする請求項24記載のロボット装置の制御方法。
- 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置が上記外部の対象と構築する関係に関する関係情報を含み、
上記制御工程では、上記対象関連情報に含まれる上記関係情報に基づいて、上記行動を制御することを特徴とする請求項20記載のロボット装置の制御方法。 - 上記ロボット装置が上記無線タグから上記関係情報をリードした場合に、上記ロボット装置は、上記関係情報に基づいて、上記無線タグを付けた外部の対象との間に、生物が周囲の対象と構築する関係と同じような擬似関係を構築するように行動や動作することを特徴とする請求項27記載のロボット装置の制御方法。
- 上記関係情報は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係の内の少なくとも1つであり、
上記制御工程では、上記関係情報に基づいて、当該ロボット装置が、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動を制御することを特徴とする請求項27記載のロボット装置の制御方法。 - 上記無線タグは、上記外部の対象が装着する小物に設けられており、上記小物は、指輪、首輪、ネックレス、時計、ベルト、カード、ペン、ボタン、ビニールなどのシート、テープ、シール、コイン、ひも、ケーブル、布、金属、プラスチック、木材、石、ガラス、紙、の少なくとも1つで構成されていることを特徴とする請求項27記載のロボット装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002339853A JP2004160630A (ja) | 2002-09-27 | 2002-11-22 | ロボット装置及びその制御方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002284178 | 2002-09-27 | ||
JP2002339853A JP2004160630A (ja) | 2002-09-27 | 2002-11-22 | ロボット装置及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004160630A true JP2004160630A (ja) | 2004-06-10 |
Family
ID=32827850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002339853A Withdrawn JP2004160630A (ja) | 2002-09-27 | 2002-11-22 | ロボット装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004160630A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1672456A2 (en) | 2004-12-14 | 2006-06-21 | Honda Motor Co., Ltd. | Target object detection apparatus and robot provided with the same |
JP2006212732A (ja) * | 2005-02-02 | 2006-08-17 | Fujitsu Ltd | ロボットによる案内・説明方法、システム、サーバ、およびロボット |
KR100666487B1 (ko) * | 2006-02-17 | 2007-01-11 | (주) 이니투스 | Rfid 태그 인식 기능을 이용한 교육용 완구 |
KR100698943B1 (ko) * | 2006-07-25 | 2007-03-22 | 주식회사 지팡이 | 이야기이력을 활용하는 이야기지원 완구 및 그 동작방법 |
CN100377162C (zh) * | 2004-09-21 | 2008-03-26 | 富士施乐株式会社 | 控制***、装置和方法、无线标签及无线标签信息管理方法 |
JP2009034806A (ja) * | 2007-07-31 | 2009-02-19 | Ind Technol Res Inst | 無線識別技術を電子ロボットの動作系列制御に応用する構造 |
KR100913817B1 (ko) | 2008-11-27 | 2009-08-26 | 주식회사 지팡이 | 대화형 완구에 있어서의 메시지전달 장치 및 방법 |
KR100914309B1 (ko) | 2007-08-03 | 2009-08-27 | 한양대학교 산학협력단 | 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성방법 |
US8121728B2 (en) | 2007-06-08 | 2012-02-21 | Hong Fu Jin Precision Industry (Shen Zhen) Co., Ltd. | Robot apparatus and output control method thereof |
KR20140100353A (ko) * | 2013-02-06 | 2014-08-14 | 한국전자통신연구원 | 휴먼 정보 인식 방법 및 장치 |
KR20170022717A (ko) * | 2015-08-21 | 2017-03-02 | 최성 | 노인 분들에게 약을 먹는 시간에 맞춰 가져다주는 애견로봇 |
WO2017095077A1 (ko) * | 2015-11-30 | 2017-06-08 | 얄리 주식회사 | 스마트 마네킹 및 이를 이용한 매장 관리 장치 및 방법 |
KR101778843B1 (ko) * | 2015-01-23 | 2017-09-26 | 김형철 | 계단 통행이 가능한 장치 |
WO2017187620A1 (ja) * | 2016-04-28 | 2017-11-02 | 富士通株式会社 | ロボット |
JP2018511125A (ja) * | 2015-03-17 | 2018-04-19 | アマゾン テクノロジーズ インコーポレイテッド | 人間/ロボット相互作用を促進するためのシステム及び方法 |
CN108970142A (zh) * | 2017-06-05 | 2018-12-11 | 奥飞娱乐股份有限公司 | 感应玩具 |
JP2019003283A (ja) * | 2017-06-12 | 2019-01-10 | シャープ株式会社 | 情報処理装置、情報処理装置の制御方法、および、情報処理装置としてコンピュータを機能させるためのプログラム |
RU2718513C1 (ru) * | 2019-07-12 | 2020-04-08 | федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) | Образовательно-исследовательский комплекс робот малый антропоморфный |
JP2021131699A (ja) * | 2020-02-19 | 2021-09-09 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および行動モード設定方法 |
CN113794250A (zh) * | 2021-08-25 | 2021-12-14 | 山东建筑大学 | 一种巡检机器人室内充电***及方法 |
-
2002
- 2002-11-22 JP JP2002339853A patent/JP2004160630A/ja not_active Withdrawn
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100377162C (zh) * | 2004-09-21 | 2008-03-26 | 富士施乐株式会社 | 控制***、装置和方法、无线标签及无线标签信息管理方法 |
EP1672456A2 (en) | 2004-12-14 | 2006-06-21 | Honda Motor Co., Ltd. | Target object detection apparatus and robot provided with the same |
US7769203B2 (en) | 2004-12-14 | 2010-08-03 | Honda Motor Co., Ltd. | Target object detection apparatus and robot provided with the same |
JP2006212732A (ja) * | 2005-02-02 | 2006-08-17 | Fujitsu Ltd | ロボットによる案内・説明方法、システム、サーバ、およびロボット |
JP4701731B2 (ja) * | 2005-02-02 | 2011-06-15 | 富士通株式会社 | ロボットによる案内方法 |
KR100666487B1 (ko) * | 2006-02-17 | 2007-01-11 | (주) 이니투스 | Rfid 태그 인식 기능을 이용한 교육용 완구 |
KR100698943B1 (ko) * | 2006-07-25 | 2007-03-22 | 주식회사 지팡이 | 이야기이력을 활용하는 이야기지원 완구 및 그 동작방법 |
WO2008013356A1 (en) * | 2006-07-25 | 2008-01-31 | Gfunny Inc. | Story teller toy using story statement and the method for operating the same |
US8121728B2 (en) | 2007-06-08 | 2012-02-21 | Hong Fu Jin Precision Industry (Shen Zhen) Co., Ltd. | Robot apparatus and output control method thereof |
JP2009034806A (ja) * | 2007-07-31 | 2009-02-19 | Ind Technol Res Inst | 無線識別技術を電子ロボットの動作系列制御に応用する構造 |
KR100914309B1 (ko) | 2007-08-03 | 2009-08-27 | 한양대학교 산학협력단 | 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성방법 |
KR100913817B1 (ko) | 2008-11-27 | 2009-08-26 | 주식회사 지팡이 | 대화형 완구에 있어서의 메시지전달 장치 및 방법 |
KR101993243B1 (ko) | 2013-02-06 | 2019-09-30 | 한국전자통신연구원 | 휴먼 정보 인식 방법 및 장치 |
KR20140100353A (ko) * | 2013-02-06 | 2014-08-14 | 한국전자통신연구원 | 휴먼 정보 인식 방법 및 장치 |
KR101778843B1 (ko) * | 2015-01-23 | 2017-09-26 | 김형철 | 계단 통행이 가능한 장치 |
JP2018511125A (ja) * | 2015-03-17 | 2018-04-19 | アマゾン テクノロジーズ インコーポレイテッド | 人間/ロボット相互作用を促進するためのシステム及び方法 |
KR20170022717A (ko) * | 2015-08-21 | 2017-03-02 | 최성 | 노인 분들에게 약을 먹는 시간에 맞춰 가져다주는 애견로봇 |
WO2017095077A1 (ko) * | 2015-11-30 | 2017-06-08 | 얄리 주식회사 | 스마트 마네킹 및 이를 이용한 매장 관리 장치 및 방법 |
JPWO2017187620A1 (ja) * | 2016-04-28 | 2018-11-22 | 富士通株式会社 | ロボット |
WO2017187620A1 (ja) * | 2016-04-28 | 2017-11-02 | 富士通株式会社 | ロボット |
US11331808B2 (en) | 2016-04-28 | 2022-05-17 | Fujitsu Limited | Robot |
CN108970142A (zh) * | 2017-06-05 | 2018-12-11 | 奥飞娱乐股份有限公司 | 感应玩具 |
CN108970142B (zh) * | 2017-06-05 | 2023-10-27 | 奥飞娱乐股份有限公司 | 感应玩具 |
JP2019003283A (ja) * | 2017-06-12 | 2019-01-10 | シャープ株式会社 | 情報処理装置、情報処理装置の制御方法、および、情報処理装置としてコンピュータを機能させるためのプログラム |
RU2718513C1 (ru) * | 2019-07-12 | 2020-04-08 | федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) | Образовательно-исследовательский комплекс робот малый антропоморфный |
JP2021131699A (ja) * | 2020-02-19 | 2021-09-09 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および行動モード設定方法 |
JP7323475B2 (ja) | 2020-02-19 | 2023-08-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および行動モード設定方法 |
CN113794250A (zh) * | 2021-08-25 | 2021-12-14 | 山东建筑大学 | 一种巡检机器人室内充电***及方法 |
CN113794250B (zh) * | 2021-08-25 | 2024-05-07 | 山东建筑大学 | 一种巡检机器人室内充电***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004160630A (ja) | ロボット装置及びその制御方法 | |
US8483873B2 (en) | Autonomous robotic life form | |
Hersh | Overcoming barriers and increasing independence–service robots for elderly and disabled people | |
JP2019063543A (ja) | 自律行動型ロボット | |
CN109108961A (zh) | 机器人、机器人的控制方法以及存储介质 | |
US20190160683A1 (en) | Autonomously acting robot that wears clothes | |
JP2004148439A (ja) | 球形ロボット及び球形ロボットの制御方法 | |
CN107596698A (zh) | 一种智能仿生机器狗的控制***及实现方法 | |
US10953542B2 (en) | Autonomously acting robot having emergency stop function | |
Shibata et al. | Human interactive robot for psychological enrichment and therapy | |
JP2003071763A (ja) | 脚式移動ロボット | |
GB2570405A (en) | Autonomous-action type robot, server, and action control program | |
AU2015230802B2 (en) | Interactive intelligent toy | |
Lumoindong et al. | A prototype of an IOT-based pet robot with customizable functions (CoFiBot V2) | |
JP2004255529A (ja) | ロボット装置およびロボット装置の制御方法、並びにロボット装置移動制御システム | |
US11833441B2 (en) | Robot | |
WO2022113771A1 (ja) | 自律移動体、情報処理装置、情報処理方法、及び、プログラム | |
Spyridon et al. | Classification of domestic robots | |
Henig | The real transformers | |
Kopacek | Automation in sports and entertainment | |
JP2001283019A (ja) | 情報伝達システム、情報伝達方法、ロボット、情報記録媒体、オンライン販売システム、オンライン販売方法及び販売サーバ | |
JP2004255528A (ja) | ロボット装置及びロボット装置の制御方法 | |
JP2003071765A (ja) | ロボット装置及びロボット装置の入力方法 | |
JP2003266364A (ja) | ロボット装置 | |
Cooney | Recognizing behavior and strategy for enjoyment and affection in touch-based play with a humanoid robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060207 |