JP4223426B2 - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP4223426B2
JP4223426B2 JP2004096076A JP2004096076A JP4223426B2 JP 4223426 B2 JP4223426 B2 JP 4223426B2 JP 2004096076 A JP2004096076 A JP 2004096076A JP 2004096076 A JP2004096076 A JP 2004096076A JP 4223426 B2 JP4223426 B2 JP 4223426B2
Authority
JP
Japan
Prior art keywords
data
robot
map
communication
opponent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004096076A
Other languages
English (en)
Other versions
JP2005279834A (ja
Inventor
敬宏 宮下
崇行 神田
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004096076A priority Critical patent/JP4223426B2/ja
Publication of JP2005279834A publication Critical patent/JP2005279834A/ja
Application granted granted Critical
Publication of JP4223426B2 publication Critical patent/JP4223426B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明はコミュニケーションロボットおよびマップ作成方法に関し、特にたとえば、コミュニケーションの相手の触行動を認識するコミュニケーションロボット、およびそのようなコミュニケーションロボットのための皮膚センサ出力と相手の位置・姿勢とを対応付けたマップを作成するマップ作成方法に関する。
日常環境の中で活動するロボットにとって表面の柔らかさと敏感さは、コミュニケーションの相手となる人間への安全性という面において重要である。さらに、スキンシップという言葉の通り、体の表面は最初に触れるインタフェースであることから、コミュニケーションの相手がどのようにどの場所に触れているかを知ることは、相手の状態を知ることに繋がる。たとえば強く握ったり、やさしくなでたりするという触行動は自分の意思や気持ちを相手に伝えるための行動であり、根本的なコミュニケーション行動の1つである。したがって、ロボットの全身の柔らかさと触覚は、日常環境の中で活動するコミュニケーションロボットにとって非常に重要である。
従来、部分的な触覚を持ったロボットは数多く存在するが、全身の触覚イメージを獲得できるロボットは少ない。たとえば、非特許文献1では、導電性ファブリークを用いたロボット用の全身触覚スーツが提案される。しかし、この非特許文献1のロボット用センサスーツは、柔らかさを持った皮膚ではなく服であること、センサ出力は触られたか触られていないかの2値であることなどから、相手がどのように触れているのかを知ることは難しい。
また、非特許文献2では、3.75mmピッチの分布型圧力センサを巻き付けて全身の圧覚を取得するぬいぐるみが提案される。この非特許文献2のぬいぐるみでは、代表的な触行動が全身の圧覚によって分類できることが明らかにされている。しかし、触行動の対象があくまで静止したぬいぐるみに過ぎず、能動的なロボットへの触行動の解析はなされていない。また、ロボットが動くと、ロボット自体の体表の圧力が変化するという新たな問題も生じる。
そこで、本件出願人は、平成15年3月24日付で出願された特願2003−80106号において、柔らかい皮膚を持ち、触覚情報を出力する圧力センサを全身に配置したコミュニケーションロボットを提案している。
稲葉雅幸,星野由紀子,井上博允、"導電性ファブリックを用いた全身被服型触覚センサスーツ"、日本ロボット学会誌,Vol.16, No.1,pp.80−86,1998 納谷太,篠沢一彦,大和淳司,小暮潔、"圧力分布センサによる人の触行動の実時間識別とその個人適応手法"、電子情報通信学会論文誌D−II,Vol.J85−D−II,No.4,pp.613−621,2002
上述の本件出願人による特願2003−80106号のコミュニケーションロボットでは、圧力センサの出力情報から圧力の強弱、持続時間、または変化の周波数などに着目することで、コミュニケーション相手である人間の触り方を区別することができ、その認識に基づく触覚コミュニケーションに対応することができた。しかしながら、そのときの相手の位置や姿勢などは把握することができなかった。人間はたとえば後ろから抱き付かれてもその皮膚感覚ないし触覚で相手がどのような抱き付き方をしているのか分かるが、従来のロボットではそのような抱き付き方などを認識することができなかった。触覚コミュニケーションにおいて、触り方だけでなく、相手の位置や姿勢などを含めて触行動を認識することは、ロボットのコミュニケーション能力を向上させる。
それゆえに、この発明の主たる目的は、触覚で相手の位置や姿勢を把握することができるコミュニケーションロボット、およびそのようなコミュニケーションロボットのためのマップ作成方法を提供することである。
請求項1の発明は、コミュニケーションの相手の触行動を認識するコミュニケーションロボットであって、複数の圧力センサ、複数の圧力センサの出力パターンと、触行動をしている相手の少なくとも位置または姿勢に関する情報とを対応付けたマップを記憶するマップ記憶手段、複数の圧力センサの出力データを計測する計測手段、および計測手段によって計測された出力データとマップ記憶手段に記憶されたマップとに基づいて、相手の位置または姿勢を把握する把握手段を備える、コミュニケーションロボットである。
請求項1の発明では、コミュニケーションロボットは、コミュニケーションの相手の触行動を認識するものであり、複数の圧力センサを含む。マップ記憶手段は、複数の圧力センサの出力パターンと、触行動をしている相手の少なくとも位置または姿勢に関する情報とを対応付けたマップを記憶している。このコミュニケーションロボットと相手とが触行動を伴ったコミュニケーションを行っているとき、計測手段は、複数の圧力センサの出力データを計測する。そして、把握手段は、計測された出力データとマップとに基づいて、相手の位置または姿勢を把握する。したがって、請求項1の発明によれば、圧力センサの出力と触行動をしている相手の位置・姿勢とを対応付けたマップを備えているので、コミュニケーション時における圧力センサ出力データに基づいてマップを使用することで、触行動をしている相手の位置・姿勢を把握することができる。
請求項2の発明は、請求項1の発明に従属し、把握手段によって把握された相手の位置または姿勢に合わせて動作を制御する動作制御手段をさらに備える。
請求項2の発明では、動作制御手段は、把握された相手の位置または姿勢に合わせて動作を制御する。したがって、請求項2の発明によれば、コミュニケーション時に、たとえば、相手にぶつからないように危険回避を行ったり、あるいは相手の方を向いたりするなど、安全で適切な行動を選択することができる。
請求項3の発明は、請求項1または2の発明に従属し、マップ記憶手段は、複数の圧力センサの出力パターンを複数のクラスタで記憶するとともに、複数のクラスタと相手の位置または姿勢に関する情報とを対応付けたマップを記憶していて、把握手段は、計測手段によって計測された出力データに最も近いクラスタを求めて、当該クラスタに対応付けられた相手の位置または姿勢を求める。
請求項3の発明では、マップ記憶手段は、複数の圧力センサの出力パターンを複数のクラスタで記憶し、マップでは、複数のクラスタと相手の位置または姿勢に関する情報とが対応付けられる。そして、把握手段は、たとえば計測された出力データと複数のクラスタとの距離を算出して、出力データに最も近いクラスタを求めて、その最も近いクラスタに対応付けられている相手の位置または姿勢を求める。請求項3の発明によれば、圧力センサの出力パターンをクラスタで記憶するので、コミュニケーション時の出力データに最も近いクラスタを求めることで、相手の位置または姿勢を把握することができる。
請求項4の発明は、請求項1ないし3のいずれかの発明に従属し、マップ記憶手段は、相手の位置または姿勢に関する情報として、コミュニケーションロボットの位置を基準とした、少なくとも指先および腰の位置を示すデータを記憶する。
請求項4の発明では、マップ記憶手段は、複数の圧力センサの出力パターンに対応付けて、コミュニケーションロボットのたとえば重心などの位置を基準とした相手の少なくとも指先および腰の位置を示すデータを記憶している。したがって、請求項4の発明によれば、検出された圧力センサの出力データに基づいて、ロボットからの相手の指先および腰の位置を把握することができるので、相手がロボットに対してどのような位置・姿勢で触行動を行っているのかを把握することができる。
請求項5の発明は、請求項1ないし4のいずれかの発明に従属し、ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、複数の圧力センサは皮膚中に分散配置される複数のピエゾセンサシートを含む。
請求項5の発明では、たとえば筐体などを含むロボット本体上には柔軟素材からなる皮膚が被せられ、この皮膚中に、複数の圧力センサとして複数のピエゾセンサシートが分散配置される。したがって、請求項5の発明によれば、たとえば全身分布型皮膚センサを有するコミュニケーションロボットを実現することができ、また、柔らかい皮膚を介して触行動が行われるので、人間に対して安心感を与えて親和性と安全性を向上できる。
請求項6の発明は、複数の圧力センサを備えるコミュニケーションロボットのための、複数の圧力センサの出力パターンと触行動をしている相手の位置または姿勢に関する情報とを対応付けたマップを作成する方法であって、(a) コミュニケーションロボットと相手との触行動を伴ったコミュニケーションにおけるそれぞれの3次元動作データを計測して該相手の3次元位置データを蓄積するとともに、複数の圧力センサの出力データを計測して蓄積し、(b) 蓄積した出力データのうちいずれかの圧力センサの出力値が所定の第1閾値以上であるデータを選別し、(c) 選別した出力データについてクラスタリングによって複数のクラスタにまとめて、(d) 各クラスタにおける出力データと対になった3次元位置データについて空間密度分布を求め、(e) 密度ピーク値が所定の第2閾値を超えたクラスタを有効なクラスタとしてマップに取り入れる、マップ作成方法である。
請求項6の発明では、まずステップ(a) で、コミュニケーションロボットと相手との触行動を伴ったコミュニケーションを計測する。つまり、ロボットと相手の3次元動作データをたとえば3次元モーションキャプチャシステムによって計測して相手の3次元位置データを蓄積するとともに、ロボットの複数の圧力センサの出力データを計測して蓄積する。相手の3次元位置は相手の位置または姿勢を明らかにすべく、たとえば相手の2つの指先と腰の位置データが蓄積される。次にステップ(b) で、蓄積した出力データのうちいずれかの圧力センサの出力値が所定の第1閾値以上であるデータを選別する。つまり、圧力センサの1つでもその所定の閾値を越える出力があったときには、触行動によって反応があったものと判断して、その計測時の出力データを選んでいる。続いて、ステップ(c) では、選別した出力データについてクラスタリングによって複数のクラスタにまとめる。つまり、たとえばISODATA法によってクラスタリングを行って、圧力出力データのパターンを複数のクラスタにまとめる。ステップ(d) では、各クラスタにおける出力データと対になった3次元位置データについて空間密度分布を求める。そして、ステップ(e) では、密度ピーク値が所定の第2閾値を超えたクラスタを有効なクラスタとしてマップに取り入れる。このようにして、位置または姿勢が安定していて推定可能なものをクラスタとして採用し、有効なクラスタにおける圧力センサの出力データと対になった相手の3次元位置データの確率分布が該有効なクラスタに対応付けてマップに取り入れられる。
この発明によれば、圧力センサの出力とコミュニケーション相手の位置・姿勢とを対応付けたマップを備えるので、コミュニケーション時の圧力センサ出力データから触行動をしている相手の位置・姿勢を把握することができる。したがって、相手を見なくても、相手がどこにいて、どんな格好をしているのか、その触行動を人間のように触覚ないし皮膚感覚でより細かに認識することができる。したがって、コミュニケーション時に安全で適切な行動を選択することが可能になるので、安全性を向上できるとともに自然で円滑なコミュニケーションを実現できる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「16」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。
台車12の上には、多角形柱状のセンサ取付パネル18が設けられ、このセンサ取付パネル18の各面には、超音波距離センサ20が取り付けられる。この実施例ではたとえば24個の超音波距離センサ20が周囲360度にわたるように設けられる。この超音波距離センサ20は、センサ取付パネル18すなわちロボット10の周囲の主として人間との距離を計測するものである。具体的には、超音波距離センサ20は超音波を発射し、その超音波が人から反射されて超音波距離センサ20に入射されたタイミングを測定して、人との間の距離情報を出力する。
台車12の上には、人体状部22が直立するように取り付けられる。このロボット本体としての人体状部22の全身は、後に詳しく説明するように、柔軟素材からなる皮膚24によって覆われる。人体状部22は、たとえば鉄板のような筐体(図示せず)を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚24は、その筐体上に被せられる。皮膚24の下の筐体の上部ほぼ中央にはマイク26が設けられる。このマイク26は、周囲の音声、特に人間の声を収集するためものである。
人体状部22は、右腕28Rおよび左腕28Lを含み、右腕28Rおよび左腕28Lすなわち上腕30Rおよび30Lは、それぞれ、肩関節32Rおよび32Lによって、胴体部分に変位自在に取り付けられる。この肩関節32Rおよび32Lは、3軸の自由度を有する。上腕30Rおよび30Lには、1軸の肘関節34Rおよび34Lによって、前腕36Rおよび36Lが取り付けられ、この前腕36Rおよび36Lには、手38Rおよび38Lが取り付けられる。これら右腕28Rおよび左腕28Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕28Rおよび左腕28Lのそれぞれ4個のモータが、図4において、それぞれ右腕モータ40および左腕モータ42として表される。
人体状部18の上部には首関節44を介して頭部46が、人間の頭と同様に俯仰・回転可能に取付けられる。この3軸の首関節44は、図4に示す頭部モータ48によって制御される。頭部46の前面の「目」に相当する位置には2つの眼カメラ50が設けられ、この眼カメラ50は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部46の前面の目カメラ50の下方にはスピーカ52が設けられる。このスピーカ52は、ロボット10がそれの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。
上で説明した人体状部22の胴体や頭部46および腕は上記したようにすべて柔軟な素材からなる皮膚24に覆われる。この皮膚24は、図2に示すように、下層のウレタンフォーム54と、その上に積層される比較的肉厚のシリコンゴム層56aおよび比較的肉薄のシリコンゴム層56bとを含む。そして、2つのシリコンゴム層56aおよび56bの間に、ピエゾセンサシート(皮膚センサ)58が埋め込まれる。このピエゾセンサシート58は、たとえば米国MSI社製、株式会社東京センサ販売のピエゾフィルムを用いる(http://www.t-sensor.co.jp/PIEZO/TOP/index.html)。実施例のロボットに使用したのはA4サイズ(型番:200×140×28)のピエゾフィルムを1/2、1/3、1/4、1/6の大きさにはさみでカットしたピエゾセンサシートである。このピエゾフィルムは、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する。圧力等で変形すると両面金属薄膜間にピエゾ電気を発生し、すなわち、電荷があらわれて電位差が生じる。
実施例では、上述のように、発泡ウレタンとシリコンゴムとを使って皮膚24の柔らかさを得た。シリコンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなる。そこで、発明者等は、実験を重ねた結果、大まかな形と厚みはウレタンフォームで作り、その表面を約20mmのシリコンゴムで覆う形を採用することとした。そして、シリコンゴム層を2つにし、それらのシリコンゴム層56aおよび56bの間に、上述のピエゾセンサシート58を埋め込んだ。このとき、内側のシリコンゴム層56aを厚く(約15mm)し、表面側のシリコンゴム層56bを薄く(約5mm)した。このようにすると、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、人に対して安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人の怪我を防止して安全性も高めることができる。
なお、皮膚24の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾフィルムシートの表面金属薄膜が腐食しない材質である必要がある。また、皮膚24の厚み(各層の厚み)は、素材によって適宜変更され得る。
上述のピエゾセンサシートすなわち皮膚センサ(触覚センサ)58は人体状部22の全身にわたって埋め込まれ、それによって、人間等が接触することによって皮膚24に加えられた圧力を圧覚(触覚)情報として検知する。この実施例では、図3に示すように、ロボット10の全身にわたって48枚のピエゾセンサシート501−548を埋め込んだ。つまり、ロボット10は全身分布型皮膚センサを有するといえる。埋め込み状況(場所)に関しては、人間に触られやすい部位、たとえば頭頂や肩それに腕(手を含む)には、圧力を正確かつ確実に検知できるように、隙間なくピエゾセンサシートを埋め込み、あまり触られることを想定していない部位たとえば足あるいは脇腹には許容できる隙間を持ってピエゾセンサシートを埋め込んだ。それによって、検出精度と製造コストとのトレードオフを解決した。なお、これら48枚のピエゾセンサシート501−548は、場合によっては、参照番号58で区別なしに示されることがあることに留意されたい。
図1に示すロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU60を含み、このCPU60には、バス62を通して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68およびサウンド入力/出力ボード70が接続される。
メモリ64は、図示しないが、ROMやHDD、RAMを含む。ROMやHDDにはこのロボット10の制御プログラムが予め書き込まれている。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ64にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ52から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための各関節軸の角度制御データ等を含む。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用される。
モータ制御ボード66は、たとえばDSP(Digital Signal Processor) で構成され、各腕や頭部などの各軸モータを制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節32Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの1軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)40の回転角度を調節する。また、モータ制御ボード66は、左肩関節32Lの3軸と左肘関節34Lの1軸、計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)42の回転角度を調節する。モータ制御ボード66は、また、頭部46の3軸のモータ(図4ではまとめて、「頭部モータ」として示す。)48の回転角度を調節する。そして、モータ制御ボード66は、車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)16を制御する。
なお、この実施例の上述のモータは、車輪モータ16を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ16と同様に、直流モータであってよい。
センサ入力/出力ボード68も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU60に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード68を通して、CPU60に入力される。また、眼カメラ50からの映像信号が、必要に応じてこのセンサ入力/出力ボード68で所定の処理が施された後、CPU60に入力される。
このセンサ入力/出力ボード68は、さらに、図5に示すように、複数(実施例では12枚)の基板72,72…を含み、各基板72には、それぞれ1つのPICマイコン74が設けられる。PICマイコン74はたとえばASICで構成され、同じく基板72に設けられたA/D変換器76からの電圧データ(たとえば10ビット)をビット直列信号として出力する。
皮膚センサ58は、図5に示すようにピエゾフィルム78を電極ないし導体80aおよび80bで挟んだものであり、圧力が加えられるとそのピエゾフィルム78が電圧を発生し、その電圧が2つの導体80aおよび80b間に現れる。ただし、このとき発生される電圧は電位は高いが電流が微弱なため、この発生電圧をそのまま長いケーブルでコンピュータ60(図4)に取り込むことは、ノイズが多く乗ってしまうので難しい。そこで、この実施例では、図5に示す基板72を皮膚センサ58に近い位置に配置し、その中に高インピーダンスの読み取り装置、すなわちA/D変換器76を配置し、このA/D変換器76で変換した電圧値をPICマイコン74で読み取ってシリアル信号として出力し、それをCPU60へ送るようにした。なお、ピエゾフィルムシートの電極の配置の一例として、導体80aは皮膚24の表面側に配置され、導体80bは筐体側に配置される。
A/D変換器76は、実施例では4チャネル10ビットのものを用いた。したがって、1つの基板72が4つの皮膚センサ58を受け持つことができる。基板72には、4つのピエゾセンサシートのために4対の端子82aおよび82bが設けられ、それぞれに電極80aおよび80bが接続される。端子82aおよび82b間にはノイズ除去用コンデンサ84が接続されている。したがって、端子82aおよび82b間に与えられた皮膚センサ58からの電圧は、ノイズ除去された後、オペアンプ86によって電流増幅され、上述のA/D変換器76の1つのチャネルに入力される。図5では1つの皮膚センサ58が示されるだけであるが、他の皮膚センサ58およびそれに関連する回路も同様に構成されるものである。
上述のように人体状部22の皮膚24中には48個のピエゾセンサシート501−548が全身にわたって埋め込まれているが、それらをすべてロボット制御用のCPUないしコンピュータ60で読み取ろうとすると、ノイズを拾い易いだけでなく、コンピュータのA/Dポートを非常に多く必要としてしまい、現実的ではない。そこで、上述のように読み取り装置(基板72、A/D変換器76)を皮膚センサ58の近傍に分散配置し、それぞれの出力を1本のシリアルケーブル、たとえばRS232C(商品名)で繋いだ、いわゆるデイジーチェーンを形成した。したがって、図5に示す1つの基板72のPICマイコン74から出力されたビットシリアル信号は、次段の基板72のPICマイコン74のシリアル入力ポートに与えられる。当該次段のPICマイコン74は、前段のPICマイコン74から送られてきたデータに自分が担当するA/D変換器76から読み込んだデータを加えて、ビット直列信号として出力する。したがって、コンピュータ60は、1つのシリアルポートで全身の皮膚センサ58からの検知情報を取り込めるようになっている。
なお、各PICマイコン74から出力される検知データは、図3に示す48個のピエゾセンサシート501−548のいずれであるかを示す識別子と、圧力値に関する情報とを含むので、コンピュータ60は、どの(部位の)ピエゾセンサシートがどの程度の圧力を受けているかを容易に特定できる。
ただし、この実施例では、左右の手先に設けられるそれぞれ5つのピエゾセンサシート535−539と544−548については、A/D変換器76の入力が4つであることから、便宜上、先端の1個(右手:539、左手:548)と外側の1個(右手:536、左手:545)の出力を並列にしている。したがって、この実施例では、左右の手先の皮膚センサ58は実質的にそれぞれ4個となるので、皮膚センサ58の出力データは46次元データとなる。
出力を読み取る場合、具体的には、コンピュータ60は、たとえば50msecの周期で、ビットシリアルデータを出力する最終段のPICマイコン74にポーリングをかけ、50msec周期ですべてのピエゾセンサシート501−548の検知データを読み取ることができる。検知データは、A/D変換器76(図5)からはたとえば正負32段階、合計64段階で出力される。つまり、10ビットのうち下位4ビットはノイズ成分として捨て、上位6ビットのデータだけが各PICマイコン74(図5)から出力される。
そして、コンピュータ60は、皮膚センサ58で検知した64段階のデータを用いて、たとえば触られ方の強弱、押された状態の持続時間または電圧変化の波形の周波数(圧力変化の周波数)などの接触状態を計測することができる。触られ方の強弱によってたとえば「ひどく叩かれたか」、「軽く叩かれたか」、「やさしく手を置かれたか」、「軽く触られたか」などを判断することができ、持続時間によってたとえば「叩かれたか」、「押されたか」などの継続状態を判断することができ、圧力変化の周波数によってたとえば「叩かれているのか」、「なでられているのか」、「くすぐられているのか」という触られ方の種類を判断することができる。そして、ロボット10は、触り方(接触状態)に応じて動作を制御することができる。このような動作制御は、本件出願人が平成15年3月24日付けで出願した特願2003−80106号にも詳細に開示されるので参照されたい。
図4に戻って、スピーカ52にはサウンド入力/出力ボード70を介して、CPU60から、合成音声データが与えられ、それに応じて、スピーカ52からはそのデータに従った音声または声が出力される。また、マイク26からの音声入力が、サウンド入力/出力ボード70を介して、CPU60に取り込まれる。
また、CPU60には、バス62を介して通信LANボード88および無線通信装置90が接続される。通信LANボード88は、DSPで構成され、CPU60から送られる送信データを無線通信装置90に与え、無線通信装置90から送信データを、図示は省略するが、たとえば無線LANまたはインタネットのようなネットワークを介して外部のコンピュータに送信させる。また、通信LANボード88は、無線通信装置90を介してデータを受信し、受信したデータをCPU60に与える。つまり、この通信LANボード88および無線通信装置90によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。
さらに、CPU60は、バス62を介してマップデータベース(DB)92に接続される。ただし、このデータベースは、外部のコンピュータまたは外部のネットワーク上にアクセス可能に設けるようにしてもよい。
マップDB92には、触覚センサすなわち皮膚センサ58の出力と、触覚コミュニケーション時におけるコミュニケーション相手の位置・姿勢とを対応付けたマップが記憶される。ロボット10は、コミュニケーション時に皮膚センサ58の出力データを計測してこのマップデータを用いることで、触行動をしている相手がどのような位置に居てどのような姿勢であるかを把握することができる。人間は日常のインタラクションやスキンシップコミュニケーションにおいて皮膚感覚を通して様々な情報を得ており、たとえば後ろから抱き付かれてもどのような抱き付き方をされたのか把握することができる。ロボット10は、このマップデータによって、人間と同じように、目で見なくても触覚によって相手がどういった触行動をとっているのかを認識することが可能になる。
ここで、マップDB92に格納される触覚と位置・姿勢との対応付けマップの作成方法について説明する。コミュニケーションを目的とした触行動としては握手や抱擁などが挙げられるが、代表的な行動は誰が見てもその行動の意味が伝わることから、定型的な行動が多いと考えられる。そこで、ロボット10の皮膚センサ58と3次元動作計測システムとを組み合わせることで、ロボット10と人間とのコミュニケーション時の皮膚センサ58の出力と、3次元動作計測システムで計測した人間の位置・姿勢とのマッピングを行う。
たとえば、図6に示すようなマップ作成システム94が用いられる。このマップ作成システム94はマップ作成用コンピュータ96を含み、マップ作成用コンピュータ96には複数のカメラ98が接続される。また、マップ作成用コンピュータ96には、その内部または外部に3次元動作計測データDB102、皮膚センサデータDB104およびマップDB92が設けられる。
マップ作成システム94はモーションキャプチャシステムとしての機能を備えるものであり、この実施例ではたとえばVICON社(http://www.vicon.com/)の光学式のモーションキャプチャシステムが適用される。なお、モーションキャプチャシステムは光学式のものに限られず、種々の公知のものが適用され得る。
ロボット10と人間100には、たとえば赤外線反射マーカが複数取り付けられ、カメラ98は赤外線ストロボ付きカメラが適用される。複数のカメラ98はロボット10および人間100に対して互いに異なる方向となるように設置され、原理的には少なくとも3台設けられればよい。
赤外線反射マーカは、図7に示すように、ロボット10および人間100共に、頭部に4箇所、腕部に6箇所×2(左右)、人差し指の指先に1箇所×2(左右)、胴体前部に2箇所、胴体後部に3箇所の合計23箇所に取り付けられる。コミュニケーション時の相手の位置をロボット10を基準とした座標系で得たいので、ロボット10の原点と向きを決めるためにロボット10にもマーカが取り付けられる。ロボット10の原点は任意に設定されてよいがたとえば中心(重心)位置に設定される。座標軸方向も任意であるがたとえば両肩方向がY軸、奥行き方向がX軸、上下方向がZ軸に設定される。
この実施例では、人間100がどこを触っているか、どういった姿勢であるかを把握するために、指先と腰部(胴体後部)の合計3箇所のマーカをマップ作成に使用した。指先の位置によって、人間100がどこを触っているのかが把握される。また、上半身のいずれかの位置と指先との相対位置関係から姿勢が決まる。そのうち腰の位置は、カメラ98から見えなくなり難いこと、腰から足が出ているため相手が立っているかしゃがんでいるかなどが分かること等によって、姿勢が分かり易いという利点があるので、腰の位置を対応付けに採用した。なお、その他頭や肩などの位置も対応付けマップに使用すれば、さらに詳しく相手の位置や姿勢を把握することが可能になる。
そして、データ収集のために、カメラ98の環境中でロボット10と被験者である人間100との間でコミュニケーションをとる実験を行ってもらう。具体的には握手や抱擁といった触行動を伴うコミュニケーションを行わせる。ロボット10の動作はそのメモリ64に登録されている制御プログラムおよびデータによって実行される。
図8に、このマップ作成システム94におけるマップ作成の動作が示される。まず、ステップS1で、マップ作成用コンピュータ96は実験によりコミュニケーション時のデータを蓄積する。取得されるデータは、皮膚センサ58の出力データと、3次元動作計測による相手の指先および腰の位置データである。具体的には、コミュニケーション時の3次元動作データはたとえば60Hz(1秒間に60フレーム)で計測し、皮膚センサデータは20Hz(1秒間に20フレーム)で計測する。皮膚センサデータと位置データとの同期をとるために、実験の開始時に人間100によってロボット10の頭頂部などを叩いてもらい、そのときのデータを計測して両データの時間軸を合わせるようにする。
コミュニケーション時の動作は複数のカメラ98によって撮像され、マップ作成用コンピュータ96はそれぞれのカメラ98からの時系列画像データを取得する。取得したフレームごとの画像データの画像処理によって、各画像データにおける各マーカ(指先と腰を含む)の2次元座標データが抽出される。そして、その2次元座標データから各マーカの時系列の3次元座標データが三角測量の原理によって算出される。指先のマーカの座標は、ロボット10の胴体に原点を固定した直交座標系である胴体座標系と、ロボット10の頭部に原点を固定した直交座標系である頭部座標系の2種類で表現される。腰のマーカの座標は胴体座標系で表現される。こうして算出された各マーカの時系列の3次元座標データが3次元動作計側データDB102に格納される。動作計測データをフレームごとに見た場合には、フレームごとの指先と腰の3次元位置がわかるので、相手がどういった姿勢であるか把握できる。また、動作計測データを時系列で見た場合には、指先と腰の位置の変化がわかるので、相手がどのような触行動を行っているのか把握できる。
また、皮膚センサ58の時系列の出力データはロボット10からたとえば無線LANを介してマップ作成コンピュータ96に逐次または実験完了後にまとめて取り込まれ、皮膚センサデータDB104に格納される。皮膚センサデータは、上述のように48個の皮膚センサ501−548からの出力を含む46次元データであり、各要素が0〜32(−31〜32の絶対値)の値を有する。
続いて、ステップS3で、皮膚センサ出力が閾値以上のフレームを選別する。閾値は48個の皮膚センサ501−548ごとに実験的に求められて予め設定されている。48個の皮膚センサ501−548のうちどれか1つでもその閾値を超えているものがあるかどうかを判断し、閾値を超えているものがある場合にはそのフレームをマップ作成のために採用する。
そして、ステップS5では、選別したフレームのデータを用いて、皮膚センサデータを元にISODATA法によってクラスタリングする。つまり、46次元の皮膚センサデータ空間において、パターンの分布が密になっている部分(クラスタ)を見つけ、または各パターンの中でよく似ているものどうしをまとめる。ISODATA法はクラスタリングの一手法であり、前段において生成したクラスタを一定基準に従って分割したり併合したりして最終的なクラスタを導く(参考文献:鳥脇純一郎、テレビジョン学会教科書シリーズ9「認識工学―パターン認識とその応用―」、コロナ社、1993)。導き出されたクラスタは、コミュニケーション時の代表的な触られ方を表している。
続いて、ステップS7で、指先データの処理を実行する。この指先データの処理は図9に詳細に示される。図9の最初のステップS21では、各クラスタにおける皮膚センサデータと対になった指先の座標(頭部・胴体座標系)について、各座標系での空間密度分布を求める。つまり、各クラスタにおける皮膚センサデータに対応する計測時刻ないしフレームの指先座標データについて処理する。たとえば座標系内を50×50×50[mm]のボクセルで分割し、各ボクセルに指先の座標が何個入っているかを数える。最後にクラスタ内の要素数でボクセル内要素数を割ることで密度を求める。
次に、ステップS23では、密度分布の最大値を座標系間で比較し、大きい方の座標系を採用する。つまり、頭と胴体のどちらが触られているのかを判別する。たとえばコミュニケーション時にはロボット10は首の関節を動作させ、頷く、傾げるなどの身体表現を行うが、その際に人間100の指先がロボット10の頭部に触れる場合、指先の位置は頭部の動きに合わせて変化する。その指先の位置は頭部座標系で表せば変化しないが、胴体座標系で表すと、ロボット10の同じ場所を触っているにもかかわらず変化してしまう。したがって、指先の座標が座標系内の広い範囲に拡がっている場合にはその座標系は不適切であり、指先の座標が座標系内のある範囲にかたまっている場合にはその座標系は適切である。密度分布の最大値について、頭部座標系の方が大きい場合には頭が触られており、胴体座標系の方が大きい場合には胴体が触られていることがわかる。
そして、ステップS25で、採用した座標系での密度ピーク値が閾値を超えたクラスタを有効なクラスタとしてマップに取り入れる。密度ピーク値は上記ボクセルの26近傍をまとめた際の密度であり、密度の26近傍和である。ピーク値の閾値は実験的に求められ、たとえば0.6に設定される。この閾値での選別によって、位置ないし姿勢が安定していて推定可能なものをクラスタとして採用する。たとえば片手でコミュニケーションをしているときに他方の手がぶらぶらしているものなどは姿勢が推定できないので切り捨てられる。このステップS25によって、有効なクラスタにおける皮膚センサ出力データと対になった指先の座標の確率分布を該有効なクラスタに対応付けてマップとして記憶する。ステップS25を終了すると図8のステップS9へ戻る。
図8に戻って、ステップS9では、腰データの処理を実行する。この腰データの処理は図10に詳細に示される。図10の最初のステップS31では、各クラスタにおける皮膚センサデータと対になった腰の座標(胴体座標系)について、空間密度分布を求める。上述の指先データ処理と同様に、各クラスタにおける皮膚センサデータに対応するフレームの腰座標データについて、各ボクセル内に腰の座標が何個入っているかを数えてから、クラスタ内の要素数でボクセル内要素数を割る。そして、ステップS33で、密度ピーク値が閾値を超えたクラスタを有効なクラスタとしてマップに取り入れる。このステップS33によって、有効なクラスタにおける皮膚センサ出力データと対になった腰の座標の確率分布を該有効なクラスタに対応付けてマップとして記憶する。ステップS33を終了すると腰データ処理を終了し、マップ作成処理を終了する。
なお、指先と腰以外のたとえば肩や頭などの部位のマーカ位置をマップ作成に採用する場合には、同様にして各位置のデータの処理を実行すればよい。
発明者等の行った実験では、図8のステップS1で、247622フレームの実験データを取得した。次に、ステップS3で閾値により選別した皮膚センサデータは28220フレームであった。そして、ステップS5では、まず、各フレームにつき、閾値を超えたセンサを「1」、そうでないセンサを「0」とした46次元ベクトルを作る。選別した皮膚センサ出力データすべてについて上記ベクトルを計算すると1343パターンのベクトルが得られた。これらのベクトルのうち、同じパターンを持つフレームの数が5に満たないものはノイズとして切り捨てて、最終的には245パターンが残った。この245パターンの各要素について、値が「1」のときはそのセンサの閾値の1.5倍の値を使い、値が「0」のときはセンサの閾値の0.5倍の値を使ったベクトルを初期クラスタ核とした。この初期クラスタ数を245個としたISODATA法の結果、最終クラスタ数は252個となった。そして、ステップS7の指先データの処理およびステップS9の腰データの処理の結果、有効クラスタ数は、指先と腰を合わせて86個となった。つまり、この実験では、コミュニケーション時の代表的な触り方(触行動)が86パターンあったことが分かる。
このようにして、皮膚センサ出力とコミュニケーション相手の位置・姿勢とを対応付けたマップデータが作成され、図6のマップDB92に格納される。マップの概要は図11に示される。たとえば、クラスタ代表値が46次元の皮膚センサベクトルAであるクラスタと、コミュニケーション相手の指先および/または腰の3次元位置に関する確率分布Aとが対応付けられている。つまり、ロボット10が皮膚センサベクトルAの触り方をされているとき、確率分布Aがその触り方に対応した相手の代表的な指先位置と姿勢(腰の位置)を表している。なお、クラスタ代表値は中心値であり、分散がそのクラスタの広がりを示す。
図12にはクラスタ代表値の一例が示される。つまり、46次元の皮膚センサベクトルであり、1つの触り方を表している。この図12のクラスタに対応する相手の指先位置106と腰の位置108の3次元位置(分布の平均)の一例が図13に示される。この図13では同じ位置分布を異なる2つの視点で表示している。相手の指先がロボット10の両肩に触れており、腰はロボット10の正面上方にあることが把握できる。つまり、相手はロボット10の前に立っていて、その両手がロボット10の両肩に触っていることがわかる。
このようにして作成された、皮膚センサ出力パターンと触行動をしている相手の位置または姿勢とを対応付けたマップが格納されたマップDB92を、図4に示すように、ロボット10は備えている。したがって、ロボット10は、コミュニケーション時に皮膚センサデータを検出し、マップデータを使用することによって、コミュニケーション相手の位置や姿勢を把握することができる。したがって、相手がどこにいて、どんな格好なのかなどがわかるので、触行動の分類をより細かく行うことができる。たとえば、相手が横から肩を叩いているのか、あるいは前に立って肩を叩いているのかなどを把握することも可能になる。そして、ロボット10は、把握した相手の位置や姿勢に応じた行動を実行することができる。
図14にはマップを備えたロボット10のコミュニケーション時の動作の一例が示される。図14の最初のステップS41で、ロボット10のCPU60はコミュニケーション行動を開始する。このコミュニケーション行動は、たとえば抱っこ行動や握手行動などのような相手との接触が予期されるものが選択される。そして、ステップS43で、皮膚センサ出力ベクトルを計測する。つまり、すべての皮膚センサ58で検知した圧力をセンサ入力/出力ボード68を介して圧力値データとして検出して、46次元の皮膚センサ出力ベクトルを作る。
続いて、ステップS45では、マップのクラスタ代表値およびクラスタ内要素の分散から、現在の皮膚センサ出力ベクトルと各クラスタとの距離を計算する。そして、ステップS47で、最も近いクラスタによって表された触られ方で相手に触られていると判断して、現在の皮膚センサ出力ベクトルに最も近いクラスタを選択する。
ステップS49では、選択したクラスタに対応付けられている相手の位置・姿勢をマップから求める。この実施例では、対応する指先の位置と腰の位置の分布によって、現在の相手の位置・姿勢を把握することができる。
そして、ステップS51で、相手の位置・姿勢に合わせた行動を実行する。触覚コミュニケーション行動中には、ロボット10と人は、基本的に近距離でコミュニケーションを図ることとなり、ロボット10と人とがぶつかる危険性が高い。しかし、この実施例では、相手の位置や姿勢を把握することができるので、たとえば、握手動作や抱っこ動作等の場合には、相手の手に当たらないようにロボット10の手を差し出すことが可能になる。また、たとえば相手と近い距離にいる場合には眼カメラ50によるイメージデータでは、近過ぎるために相手の顔の向きや体姿勢などを把握するのが困難であるが、この実施例のようにマップを用いる場合には、相手と接触しているときでも、相手の位置・姿勢がわかるので、相手の頭の位置を推定することができ、したがって、相手の頭ないし顔の方向を向くことができる。
このように、相手の位置・姿勢を推定して、その推定に基づいた行動をとることができるので、危険回避が可能であり安全性を向上することができる。さらに、相手の位置・姿勢に合わせて、どちらの手を出せばよいか、どの高さに手を出せばよいか、あるいはどちらを向けばよいか等を判別して、適切な行動を実行することができるので、自然で円滑なコミュニケーションを実現することができる。
この発明の一実施例のコミュニケーションロボットを示す図解図である。 図1実施例のコミュニケーションロボットに用いる皮膚とその中に埋め込まれるピエゾセンサシートとを示す図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 図1実施例のコミュニケーションロボットの電気的構成を示すブロック図である。 図1実施例のコミュニケーションロボットにおけるピエゾセンサシートから検知信号を入力するセンサ入力/出力ボードを部分的に示す図解図である。 図1実施例のコミュニケーションロボットに備えられるマップを作成するためのマップ作成システムの概要を示す図解図である。 マップ作成時の赤外線反射マーカの取付位置を示す図解図である。 図6のマップ作成用コンピュータの動作を示すフロー図である。 図8の指先データの処理の動作を示すフロー図である。 図8の腰データの処理の動作を示すフロー図である。 マップデータの概要を示す図解図である。 クラスタ代表値の一例を示す図解図である。 図12のクラスタ代表値に対応する相手の指先と腰の位置の分布の概要を示す図解図である。 図1実施例のコミュニケーションロボットの動作を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
22 …人体状部
24 …皮膚
58,501−548 …皮膚センサ(ピエゾセンサシート)
60 …CPU
64 …メモリ
66 …モータ制御ボード
68 …センサ入力/出力ボード
70 …サウンド入力/出力ボード
92 …マップDB
94 …マップ作成システム
96 …マップ作成用コンピュータ

Claims (6)

  1. コミュニケーションの相手の触行動を認識するコミュニケーションロボットであって、
    複数の圧力センサ、
    複数の圧力センサの出力パターンと、触行動をしている相手の少なくとも位置または姿勢に関する情報とを対応付けたマップを記憶するマップ記憶手段、
    前記複数の圧力センサの出力データを計測する計測手段、および
    前記計測手段によって計測された出力データと前記マップ記憶手段に記憶されたマップとに基づいて、相手の位置または姿勢を把握する把握手段を備える、コミュニケーションロボット。
  2. 前記把握手段によって把握された相手の位置または姿勢に合わせて動作を制御する動作制御手段をさらに備える、請求項1記載のコミュニケーションロボット。
  3. 前記マップ記憶手段は、前記複数の圧力センサの出力パターンを複数のクラスタで記憶するとともに、前記複数のクラスタと前記相手の位置または姿勢に関する情報とを対応付けたマップを記憶していて、
    前記把握手段は、前記計測手段によって計測された出力データに最も近いクラスタを求めて、当該クラスタに対応付けられた相手の位置または姿勢を求める、請求項1または2記載のコミュニケーションロボット。
  4. 前記マップ記憶手段は、相手の位置または姿勢に関する情報として、前記コミュニケーションロボットの位置を基準とした、少なくとも指先および腰の位置を示すデータを記憶する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
  5. ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、
    前記複数の圧力センサは前記皮膚中に分散配置される複数のピエゾセンサシートを含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
  6. 複数の圧力センサを備えるコミュニケーションロボットのための、前記複数の圧力センサの出力パターンと触行動をしている相手の位置または姿勢に関する情報とを対応付けたマップを作成する方法であって、
    (a) コミュニケーションロボットと相手との触行動を伴ったコミュニケーションにおけるそれぞれの3次元動作データを計測して該相手の3次元位置データを蓄積するとともに、前記複数の圧力センサの出力データを計測して蓄積し、
    (b) 蓄積した前記出力データのうちいずれかの圧力センサの出力値が所定の第1閾値以上であるデータを選別し、
    (c) 選別した前記出力データについてクラスタリングによって複数のクラスタにまとめて、
    (d) 各クラスタにおける出力データと対になった前記3次元位置データについて空間密度分布を求め、
    (e) 密度ピーク値が所定の第2閾値を超えたクラスタを有効なクラスタとしてマップに取り入れる、マップ作成方法。
JP2004096076A 2004-03-29 2004-03-29 コミュニケーションロボット Expired - Lifetime JP4223426B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004096076A JP4223426B2 (ja) 2004-03-29 2004-03-29 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004096076A JP4223426B2 (ja) 2004-03-29 2004-03-29 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2005279834A JP2005279834A (ja) 2005-10-13
JP4223426B2 true JP4223426B2 (ja) 2009-02-12

Family

ID=35178757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004096076A Expired - Lifetime JP4223426B2 (ja) 2004-03-29 2004-03-29 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP4223426B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102536129B1 (ko) * 2018-07-24 2023-05-24 캐논 가부시끼가이샤 처리장치, 및 처리부의 처리방법
US11789437B2 (en) 2018-07-24 2023-10-17 Canon Kabushiki Kaisha Processing apparatus and processing method for processing portion

Also Published As

Publication number Publication date
JP2005279834A (ja) 2005-10-13

Similar Documents

Publication Publication Date Title
Dakopoulos et al. Wearable obstacle avoidance electronic travel aids for blind: a survey
CN109141620B (zh) 声源分离信息检测装置、机器人、声源分离信息检测方法和存储介质
JP3706113B2 (ja) コミュニケーションロボット
JP6822408B2 (ja) 情報処理装置、方法およびコンピュータプログラム
JP3688489B2 (ja) 画像認識方法および画像認識装置
JP4677585B2 (ja) コミュニケーションロボット
US10576633B2 (en) Communication device
JP2008149399A (ja) 移動ロボットおよび移動速度推定方法
JP4524435B2 (ja) コミュニケーションロボット
JP5007404B2 (ja) 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
JP3942586B2 (ja) コミュニケーションロボット
JP2006281348A (ja) コミュニケーションロボット
JP4271070B2 (ja) コミュニケーションロボット
JP4223426B2 (ja) コミュニケーションロボット
JP5076107B2 (ja) 触覚センサを有するロボット
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
Patsadu et al. Survey of smart technologies for fall motion detection: Techniques, algorithms and tools
WO2022194029A1 (zh) 一种机器人的反馈方法及机器人
JP4753410B2 (ja) コミュニケーションロボット
JP4873607B2 (ja) 皮膚センサを有する電子機器
JP4878462B2 (ja) コミュニケーションロボット
JP5103589B2 (ja) コミュニケーションロボット
JP5229701B2 (ja) 触覚センサを有するロボット
Trivedi et al. A wearable device for assisting persons with vision impairment
Lakshmanan et al. Depth map based reactive planning to aid in navigation for visually challenged

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081119

R150 Certificate of patent or registration of utility model

Ref document number: 4223426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131128

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250