JP2005288602A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2005288602A
JP2005288602A JP2004105663A JP2004105663A JP2005288602A JP 2005288602 A JP2005288602 A JP 2005288602A JP 2004105663 A JP2004105663 A JP 2004105663A JP 2004105663 A JP2004105663 A JP 2004105663A JP 2005288602 A JP2005288602 A JP 2005288602A
Authority
JP
Japan
Prior art keywords
robot
communication
data
human
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004105663A
Other languages
English (en)
Other versions
JP4271070B2 (ja
Inventor
Keiko Miyashita
敬宏 宮下
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004105663A priority Critical patent/JP4271070B2/ja
Publication of JP2005288602A publication Critical patent/JP2005288602A/ja
Application granted granted Critical
Publication of JP4271070B2 publication Critical patent/JP4271070B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【構成】 コミュニケーションロボット10は、外乱の力を受けたとき、全身に分散配置された複数の皮膚センサ40で検出した力の総和を求め、それが所定の閾値以上のときには、皮膚センサの検知情報のパターンとコミュニケーション相手の位置および姿勢に関する情報とを対応付けたマップを記憶するマップDB70を用いて、相手(人間)の触行動の意義を判別し、それに応じて、倒立振子制御のための制御ゲインを変更して、モータ制御ボード48を通して車輪モータ58を制御する。
【効果】 人間がロボットに対してコミュニケーションを行っている際の動作に対しては人間によって加えられる力に抗うのではなく、人間の力に従う動きをし、また人間がロボットに気付いてほしいときに行うコミュニケーション動作に関しては、転倒回避のために、加えられる力に抗う動きを行うことができるので、安全でしかも自然で円滑なコミュニケーションが実現できる。
【選択図】 図10

Description

この発明はコミュニケーションロボットに関し、特にたとえば、同軸2輪倒立振子型の移動機構を有するコミュニケーションに関する。
本件出願人は、この種のコミュニケーションを、たとえば特許文献1におい提案した。この背景技術のコミュニケーションロボットでは、タイヤ(駆動輪)の回転速度に基づいて倒立振子の制御を行っており、ロボットに加わるさまざまな外乱(床面から加わる外乱、体の動きから生じる外乱、コミュニケーション相手から加わる外乱など)はタイヤの速度に反映されるため、この制御によって外乱を抑制することが可能であった。したがって、転倒の可能性を排除でき、人間とコミュニケーションをとるコミュニケーションロボットとして適したものでる。
特開2003−271243号
しかしながら、コミュニケーション時には相手のコミュニケーションの仕方によって外乱抑制の方法を変化させる必要がある。たとえば、相手がロボットに対して「握手する」、「抱擁する」などのコミュニケーションを行っているときには、相手によって加えられる力に抗うのではなく、相手の力に従う動きを行う必要があり、また「肩をたたく」、「体を押す」などの相手がロボットに気づいてほしいときに行うコミュニケーション動作に関しては、転倒回避のために、加えられる力に抗う動きを行う必要がある。
それゆえに、この発明の主たる目的は、外乱に抗うかどうかによって、それに応じた倒立振子制御ができる、コミュニケーションロボットを提供することである。
請求項1の発明は、同軸2輪の駆動輪とその駆動輪を駆動する車輪モータとを有し、駆動輪を同軸2輪倒立振子として制御するコミュニケーションロボットにおいて、相手の触行動によって力が加わったとき、その力に抗うかどうかに応じて車輪モータを制御するときの制御ゲインを変化させるようにしたことを特徴とする、コミュニケーションロボットである。
請求項1の発明では、コミュニケーションロボット(10:実施例で相当する部分を示す参照符号。以下同様。)は、同軸2輪の駆動輪(22)およびそれを駆動する制御する車輪モータ(58)を有し、たとえばコンピュータ(42)やモータ制御ボード(48)で構成されるモータ制御手段は、先の特許文献1の(18)式で示すフィードバック系に適当なゲイン行列(K)を設定することによって、状態ベクトルを零ベクトルに収束させる等して、倒立振子型制御で車輪モータを制御する。このとき、コンピュータは、そのとき力に抗うべきか従うべきかを判断し、前者のときには高いゲイン(KH)を設定し、後者の場合には、低いゲイン(GL)を設定して、それぞれ、倒立振子制御を行う。したがって、相手(人間)の触行動がたとえばロボットに気づいてほしいときのコミュニケーション動作であるときには、転倒回避のために加えられた外乱に抗う。人間の行動がたとえば握手や抱擁のようなロボットとのコミュニケーション動作であるときには、人間が加えた外乱に抗うことなく、それに従った倒立振子制御を行う。
請求項2の発明は、複数の圧力センサ、複数の圧力センサの出力パターンと、触行動をしている相手の少なくとも位置または姿勢に関する情報とを対応付けたマップを記憶するマップ記憶手段、複数の圧力センサの出力データを検出する検出手段、検出手段によって検出された出力データとマップ記憶手段に記憶されたマップとに基づいて、そのときの触行動が外乱かどうか判断する第1判断手段、第1判断手段によって外乱であると判断したき高い制御ゲインを設定し、第1判断手段によって外乱ではないとあると判断したき低い制御ゲインを設定するゲイン設定手段、およびゲイン設定手段によって設定したゲインによって車輪モータを制御する車輪モータ制御手段を備える、請求項1記載のコミュニケーションロボットである。
請求項2の発明では、複数の圧力センサの出力に基づいて相手の人間の触行動の意義(ロボットに注意を促すようなものかどうかなど)を判断するので、一層確実に人間の行動を把握できねる。
請求項3の発明は、複数の圧力センサに加えられている力の総和が閾値より大きいかどうか判断する第2判断手段をさらに備え、ゲイン設定手段は第2判断手段によって総和が閾値より大きいときには高いゲインを設定する、請求項2記載のコミュニケーションロボットである。
請求項3の発明では、外乱の力が所定以上のときには人間の触行動の如何に拘らず外乱に抗うように倒立振子制御を行うので、転倒が防止でき、安全である。
この発明によれば、たとえば、相手が「握手する」、「抱擁する」などのロボットとのコミュニケーション動作を行っているときには、相手によって加えられる力に抗うのではなく、相手の力に従う動きを行い、またたとえば「肩をたたく」、「体を押す」などの相手がロボットに気づいてほしいときに行うコミュニケーション動作に関しては、転倒回避のために、加えられる力に抗う動きを行うので、安全性を向上できるとともに自然で円滑なコミュニケーションを実現できる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1および図2に示すこの発明の一実施例の同軸2輪倒立振子ロボット(以下、単に「ロボット」ということがある。)10は、一例として、本件発明者等が既に提案している、商品名「Robovie−IV」という柔軟な皮膚を有するコミュニケーションロボットである。
このロボット10は、人体形状部12を含み、この人体形状部12は、全身を覆うたとえば発泡ウレタンのような柔軟素材からなる皮膚34を有し、その下に多数のピエゾ圧力センサ40(図9)を配し、頭部14と、2本の腕部16Rおよび16Lとを有する。ピエゾ圧力センサは接触センサとして機能し、多数のセンサの検知信号によって、どこの部位がどの程度の圧力で触られているかを知ることができる。そして、たとえば首の部分に関節モータ機構(56:図10)が設けられていて、その関節機構によって頭部14が旋回俯仰可能に取り付けられる。また、頭部14には、前方を撮影するCCDカメラ(眼カメラ)28や、対面者に声を発するスピーカ30が組み込まれる。また、腕部16Rおよび16Lは、それぞれ、肩、肘および手首のそれぞれの関節(モータ)を有する。それぞれのモータを、図10で、右腕モータ50および左腕モータ52として纏めて示す。
人体形状部12は台車機構18上に載置される。この台車機構18は、人体形状部12を固定的に取り付けるための取付け部20を有し、この取付け部20の下方に、駆動輪22を前補助輪24ならびに後補助輪26を設けている。ただし、これら駆動輪22、補助輪24および26は、図1に示すように、それぞれ左右1対の車輪を有するものである。ただし、それぞれの左右1対の車輪は同じ車軸に取り付けられかつ一体に回転する。
上で説明した人体形状部12の胴体や頭部14および腕16Rおよび16Lは上記したようにすべて柔軟な素材からなる皮膚34に覆われる。この皮膚34は、図9に示すように、下層のウレタンフォーム36と、その上に積層される比較的肉厚のシリコンゴム層38aおよび比較的肉薄のシリコンゴム層38bとを含む。そして、2つのシリコンゴム層38aおよび38bの間に、ピエゾセンサシート(皮膚センサ)40が埋め込まれる。このピエゾセンサシート40は、たとえば米国MSI社製、株式会社東京センサ販売のピエゾフィルムを用いる(http://www.t-sensor.co.jp/PIEZO/TOP/index.html)。実施例のロボットに使用したのはA4サイズ(型番:200×140×28)のピエゾフィルムを1/2、1/3、1/4、1/6の大きさにはさみでカットしたピエゾセンサシートである。このピエゾフィルムは、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する。圧力等で変形すると両面金属薄膜間にピエゾ電気を発生し、すなわち、電荷があらわれて電位差が生じる。
実施例では、上述のように、発泡ウレタンとシリコンゴムとを使って皮膚34の柔らかさを得た。シリコンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなる。そこで、発明者等は、実験を重ねた結果、大まかな形と厚みはウレタンフォームで作り、その表面を約20mmのシリコンゴムで覆う形を採用することとした。そして、シリコンゴム層を2つにし、それらのシリコンゴム層38aおよび38bの間に、上述のピエゾセンサシート40を埋め込んだ。このとき、内側のシリコンゴム層38aを厚く(約15mm)し、表面側のシリコンゴム層38bを薄く(約5mm)した。このようにすると、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、人に対して安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人の怪我を防止して安全性も高めることができる。
なお、皮膚34の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾフィルムシートの表面金属薄膜が腐食しない材質である必要がある。また、皮膚34の厚み(各層の厚み)は、素材によって適宜変更され得る。
上述のピエゾセンサシートすなわち皮膚センサ(触覚センサ)40は人体形状部12の全身にわたって埋め込まれ、それによって、人間等が接触することによって皮膚34に加えられた圧力を圧覚(触覚)情報として検知する。この実施例では、図3−図8に示すように、ロボット10の全身にわたって57枚のピエゾセンサシート1−57を埋め込んだ。つまり、ロボット10は全身分布型皮膚センサを有するといえる。埋め込み状況(場所)に関しては、人間に触られやすい部位、たとえば頭頂や肩それに腕(手を含む)には、圧力を正確かつ確実に検知できるように、隙間なくピエゾセンサシートを埋め込み、あまり触られることを想定していない部位たとえば足あるいは脇腹には許容できる隙間を持ってピエゾセンサシートを埋め込んだ。それによって、検出精度と製造コストとのトレードオフを解決した。なお、これら57枚のピエゾセンサシート1−57は、場合によっては、参照番号40で区別なしに示されることがあることに留意されたい。
図1に示すロボット10の電気的構成が図10のブロック図に示される。図10に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU42を含み、このCPU42には、バス44を通して、メモリ46,モータ制御ボード48,センサ入力/出力ボード60およびサウンド入力/出力ボード64が接続される。
メモリ46は、図示しないが、ROMやHDD、RAMを含む。ROMやHDDにはこのロボット10の制御プログラムが予め書き込まれている。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ46にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ30から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための各関節軸の角度制御データ等を含む。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用される。
モータ制御ボード48は、たとえばDSP(Digital Signal Processor) で構成され、各腕や頭部などの各軸モータを制御する。すなわち、モータ制御ボード48は、CPU42からの制御データを受け、右肩関節の3軸のそれぞれの角度を制御する3つのモータと右肘関節の1軸の角度を制御する1つのモータとの計4つのモータ(図10ではまとめて、「右腕モータ」として示す。)50の回転角度を調節する。また、モータ制御ボード48は、左肩関節の3軸と左肘関節の1軸、計4つのモータ(図10ではまとめて、「左腕モータ」として示す。)52の回転角度を調節する。モータ制御ボード48は、また、頭部14の3軸のモータ(図10ではまとめて、「頭部モータ」として示す。)56の回転角度を調節する。そして、モータ制御ボード48は、車輪(駆動輪)22を駆動する1つのモータ58を制御する。
なお、この実施例の上述のモータは、車輪モータ58を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ58と同様に、直流モータであってよい。
センサ入力/出力ボード60も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU42に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード60を通して、CPU42に入力される。また、眼カメラ28からの映像信号が、必要に応じてこのセンサ入力/出力ボード60で所定の処理が施された後、CPU42に入力される。
このセンサ入力/出力ボード60は、さらに、図11に示すように、複数(実施例では12枚)の基板78,78…を含み、各基板78には、それぞれ1つのPICマイコン82が設けられる。PICマイコン82はたとえばASICで構成され、同じく基板78に設けられたA/D変換器80からの電圧データ(たとえば10ビット)をビット直列信号として出力する。
皮膚センサ40は、図11に示すようにピエゾフィルム74を電極ないし導体76aおよび76bで挟んだものであり、圧力が加えられるとそのピエゾフィルム74が電圧を発生し、その電圧が2つの導体76aおよび76b間に現れる。ただし、このとき発生される電圧は電位は高いが電流が微弱なため、この発生電圧をそのまま長いケーブルでコンピュータ42(図10)に取り込むことは、ノイズが多く乗ってしまうので難しい。そこで、この実施例では、図11に示す基板78を皮膚センサ40に近い位置に配置し、その中に高インピーダンスの読み取り装置、すなわちA/D変換器80を配置し、このA/D変換器80で変換した電圧値をPICマイコン82で読み取ってシリアル信号として出力し、それをCPU42へ送るようにした。なお、ピエゾフィルムシートの電極の配置の一例として、導体76aは皮膚34の表面側に配置され、導体76bは筐体側に配置される。
A/D変換器80は、実施例では4チャネル10ビットのものを用いた。したがって、1つの基板78が4つの皮膚センサ40を受け持つことができる。基板78には、4つのピエゾセンサシートのために4対の端子84aおよび84bが設けられ、それぞれに電極76aおよび76bが接続される。端子84aおよび84b間にはノイズ除去用コンデンサ86が接続されている。したがって、端子84aおよび84b間に与えられた皮膚センサ40からの電圧は、ノイズ除去された後、オペアンプ88によって電流増幅され、上述のA/D変換器80の1つのチャネルに入力される。図11では1つの皮膚センサ40が示されるだけであるが、他の皮膚センサ40およびそれに関連する回路も同様に構成されるものである。
上述のように人体形状部12の皮膚34中には57個のピエゾセンサシート1−57が全身にわたって埋め込まれているが、それらをすべてロボット制御用のCPUないしコンピュータ42で読み取ろうとすると、ノイズを拾い易いだけでなく、コンピュータのA/Dポートを非常に多く必要としてしまい、現実的ではない。
そこで、上述のように読み取り装置(基板78、A/D変換器80)を皮膚センサ40の近傍に分散配置し、それぞれの出力を1本のシリアルケーブル、たとえばRS232C(商品名)で繋いだ、いわゆるデイジーチェーンを形成した。したがって、図11に示す1つの基板78のPICマイコン82から出力されたビットシリアル信号は、次段の基板78のPICマイコン82のシリアル入力ポートに与えられる。当該次段のPICマイコン82は、前段のPICマイコン82から送られてきたデータに自分が担当するA/D変換器80から読み込んだデータを加えて、ビット直列信号として出力する。したがって、コンピュータ42は、1つのシリアルポートで全身の皮膚センサ40からの検知情報を取り込めるようになっている。
なお、各PICマイコン82から出力される検知データは、図3−図8に示す57個のピエゾセンサシート1−57のいずれであるかを示す識別子と、圧力値に関する情報とを含むので、コンピュータ42は、どの(部位の)ピエゾセンサシートがどの程度の圧力を受けているかを容易に特定できる。
出力を読み取る場合、具体的には、コンピュータ42は、たとえば50msecの周期で、ビットシリアルデータを出力する最終段のPICマイコン82にポーリングをかけ、50msec周期ですべてのピエゾセンサシート1−57の検知データを読み取ることができる。検知データは、A/D変換器80(図11)からはたとえば正負32段階、合計64段階で出力される。つまり、10ビットのうち下位4ビットはノイズ成分として捨て、上位6ビットのデータだけが各PICマイコン82(図11)から出力される。
そして、コンピュータ42は、皮膚センサ40で検知した64段階のデータを用いて、たとえば触られ方の強弱、押された状態の持続時間または電圧変化の波形の周波数(圧力変化の周波数)などの接触状態を計測することができる。触られ方の強弱によってたとえば「ひどく叩かれたか」、「軽く叩かれたか」、「やさしく手を置かれたか」、「軽く触られたか」などを判断することができ、持続時間によってたとえば「叩かれたか」、「押されたか」などの継続状態を判断することができ、圧力変化の周波数によってたとえば「叩かれているのか」、「なでられているのか」、「くすぐられているのか」という触られ方の種類を判断することができる。そして、ロボット10は、触り方(接触状態)に応じて動作を制御することができる。このような動作制御は、本件出願人が平成15年3月24日付けで出願した特願2003−80106号にも詳細に開示されるので参照されたい。
図10に戻って、スピーカ30にはサウンド入力/出力ボード64を介して、CPU42から、合成音声データが与えられ、それに応じて、スピーカ30からはそのデータに従った音声または声が出力される。また、マイク32からの音声入力が、サウンド入力/出力ボード64を介して、CPU42に取り込まれる。
また、CPU42には、バス44を介して通信LANボード66および無線通信装置68が接続される。通信LANボード66は、DSPで構成され、CPU42から送られる送信データを無線通信装置68に与え、無線通信装置68から送信データを、図示は省略するが、たとえば無線LANまたはインタネットのようなネットワークを介して外部のコンピュータに送信させる。また、通信LANボード66は、無線通信装置68を介してデータを受信し、受信したデータをCPU42に与える。つまり、この通信LANボード66および無線通信装置68によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。
さらに、CPU42は、バス44を介してマップデータベース(DB)70に接続される。ただし、このデータベースは、外部のコンピュータまたは外部のネットワーク上にアクセス可能に設けるようにしてもよい。
マップDB70には、触覚センサすなわち皮膚センサ40の出力と、触覚コミュニケーション時におけるコミュニケーション相手の位置・姿勢とを対応付けたマップが記憶される。ロボット10は、コミュニケーション時に皮膚センサ40の出力データを計測してこのマップデータを用いることで、触行動をしている相手がどのような位置に居てどのような姿勢であるかを把握することができる。人間は日常のインタラクションやスキンシップコミュニケーションにおいて皮膚感覚を通して様々な情報を得ており、たとえば後ろから抱き付かれてもどのような抱き付き方をされたのか把握することができる。ロボット10は、このマップデータによって、人間と同じように、目で見なくても触覚によって相手がどういった触行動をとっているのかを認識することが可能になる。
ここで、マップDB70に格納される触覚と位置・姿勢との対応付けマップの作成方法について説明する。コミュニケーションを目的とした触行動としては握手や抱擁などが挙げられるが、代表的な行動は誰が見てもその行動の意味が伝わることから、定型的な行動が多いと考えられる。そこで、ロボット10の皮膚センサ40と3次元動作計測システムとを組み合わせることで、ロボット10と人間とのコミュニケーション時の皮膚センサ40の出力と、3次元動作計測システムで計測した人間の位置・姿勢とのマッピングを行う。
たとえば、図12に示すようなマップ作成システム90が用いられる。このマップ作成システム90はマップ作成用コンピュータ92を含み、マップ作成用コンピュータ92には複数のカメラ94が接続される。また、マップ作成用コンピュータ92には、その内部または外部に3次元動作計測データDB96、皮膚センサデータDB98およびマップDB70が設けられる。
マップ作成システム90はモーションキャプチャシステムとしての機能を備えるものであり、この実施例ではたとえばVICON社(http://www.vicon.com/)の光学式のモーションキャプチャシステムが適用される。なお、モーションキャプチャシステムは光学式のものに限られず、種々の公知のものが適用され得る。
ロボット10と人間100には、たとえば赤外線反射マーカが複数取り付けられ、カメラ94は赤外線ストロボ付きカメラが適用される。複数のカメラ94はロボット10および人間100に対して互いに異なる方向となるように設置され、原理的には少なくとも3台設けられればよい。
赤外線反射マーカは、図13に示すように、ロボット10および人間100共に、頭部に4箇所、腕部に6箇所×2(左右)、人差し指の指先に1箇所×2(左右)、胴体前部に2箇所、胴体後部に3箇所の合計23箇所に取り付けられる。コミュニケーション時の相手の位置をロボット10を基準とした座標系で得たいので、ロボット10の原点と向きを決めるためにロボット10にもマーカが取り付けられる。ロボット10の原点は任意に設定されてよいがたとえば中心(重心)位置に設定される。座標軸方向も任意であるがたとえば両肩方向がY軸、奥行き方向がX軸、上下方向がZ軸に設定される。
この実施例では、人間100がどこを触っているか、どういった姿勢であるかを把握するために、指先と腰部(胴体後部)の合計3箇所のマーカをマップ作成に使用した。指先の位置によって、人間100がどこを触っているのかが把握される。また、上半身のいずれかの位置と指先との相対位置関係から姿勢が決まる。そのうち腰の位置は、カメラ94から見えなくなり難いこと、腰から足が出ているため相手が立っているかしゃがんでいるかなどが分かること等によって、姿勢が分かり易いという利点があるので、腰の位置を対応付けに採用した。なお、その他頭や肩などの位置も対応付けマップに使用すれば、さらに詳しく相手の位置や姿勢を把握することが可能になる。
そして、データ収集のために、カメラ94の環境中でロボット10と被験者である人間100との間でコミュニケーションをとる実験を行ってもらう。具体的には握手や抱擁といった触行動を伴うコミュニケーションを行わせる。ロボット10の動作はそのメモリ46に登録されている制御プログラムおよびデータによって実行される。
図14に、このマップ作成システム90におけるマップ作成の動作が示される。まず、ステップS1で、マップ作成用コンピュータ92は実験によりコミュニケーション時のデータを蓄積する。取得されるデータは、皮膚センサ40の出力データと、3次元動作計測による相手の指先および腰の位置データである。具体的には、コミュニケーション時の3次元動作データはたとえば60Hz(1秒間に60フレーム)で計測し、皮膚センサデータは20Hz(1秒間に20フレーム)で計測する。皮膚センサデータと位置データとの同期をとるために、実験の開始時に人間100によってロボット10の頭頂部などを叩いてもらい、そのときのデータを計測して両データの時間軸を合わせるようにする。
コミュニケーション時の動作は複数のカメラ94によって撮像され、マップ作成用コンピュータ92はそれぞれのカメラ94からの時系列画像データを取得する。取得したフレームごとの画像データの画像処理によって、各画像データにおける各マーカ(指先と腰を含む)の2次元座標データが抽出される。そして、その2次元座標データから各マーカの時系列の3次元座標データが三角測量の原理によって算出される。指先のマーカの座標は、ロボット10の胴体に原点を固定した直交座標系である胴体座標系と、ロボット10の頭部に原点を固定した直交座標系である頭部座標系の2種類で表現される。腰のマーカの座標は胴体座標系で表現される。こうして算出された各マーカの時系列の3次元座標データが3次元動作計側データDB96に格納される。動作計測データをフレームごとに見た場合には、フレームごとの指先と腰の3次元位置がわかるので、相手がどういった姿勢であるか把握できる。また、動作計測データを時系列で見た場合には、指先と腰の位置の変化がわかるので、相手がどのような触行動を行っているのか把握できる。
また、皮膚センサ40の時系列の出力データはロボット10からたとえば無線LANを介してマップ作成コンピュータ92に逐次または実験完了後にまとめて取り込まれ、皮膚センサデータDB98に格納される。皮膚センサデータは、上述のように57個の皮膚センサ1−57からの出力を含む57次元データであり、各要素が0〜32(−31〜32の絶対値)の値を有する。
続いて、ステップS3で、皮膚センサ出力が閾値以上のフレームを選別する。閾値は57個の皮膚センサ1−57ごとに実験的に求められて予め設定されている。57個の皮膚センサ1−57のうちどれか1つでもその閾値を超えているものがあるかどうかを判断し、閾値を超えているものがある場合にはそのフレームをマップ作成のために採用する。
そして、ステップS5では、選別したフレームのデータを用いて、皮膚センサデータを元にISODATA法によってクラスタリングする。つまり、57次元の皮膚センサデータ空間において、パターンの分布が密になっている部分(クラスタ)を見つけ、または各パターンの中でよく似ているものどうしをまとめる。ISODATA法はクラスタリングの一手法であり、前段において生成したクラスタを一定基準に従って分割したり併合したりして最終的なクラスタを導く(参考文献:鳥脇純一郎、テレビジョン学会教科書シリーズ9「認識工学―パターン認識とその応用―」、コロナ社、1993)。導き出されたクラスタは、コミュニケーション時の代表的な触られ方を表している。
続いて、ステップS7で、指先データの処理を実行する。この指先データの処理は図15に詳細に示される。図15の最初のステップS11では、各クラスタにおける皮膚センサデータと対になった指先の座標(頭部・胴体座標系)について、各座標系での空間密度分布を求める。つまり、各クラスタにおける皮膚センサデータに対応する計測時刻ないしフレームの指先座標データについて処理する。たとえば座標系内を50×50×50[mm]のボクセルで分割し、各ボクセルに指先の座標が何個入っているかを数える。最後にクラスタ内の要素数でボクセル内要素数を割ることで密度を求める。
次に、ステップS13では、密度分布の最大値を座標系間で比較し、大きい方の座標系を採用する。つまり、頭と胴体のどちらが触られているのかを判別する。たとえばコミュニケーション時にはロボット10は首の関節を動作させ、頷く、傾げるなどの身体表現を行うが、その際に人間100の指先がロボット10の頭部に触れる場合、指先の位置は頭部の動きに合わせて変化する。その指先の位置は頭部座標系で表せば変化しないが、胴体座標系で表すと、ロボット10の同じ場所を触っているにもかかわらず変化してしまう。したがって、指先の座標が座標系内の広い範囲に拡がっている場合にはその座標系は不適切であり、指先の座標が座標系内のある範囲にかたまっている場合にはその座標系は適切である。密度分布の最大値について、頭部座標系の方が大きい場合には頭が触られており、胴体座標系の方が大きい場合には胴体が触られていることがわかる。
そして、ステップS15で、採用した座標系での密度ピーク値が閾値を超えたクラスタを有効なクラスタとしてマップに取り入れる。密度ピーク値は上記ボクセルの26近傍をまとめた際の密度であり、密度の26近傍和である。ピーク値の閾値は実験的に求められ、たとえば0.6に設定される。この閾値での選別によって、位置ないし姿勢が安定していて推定可能なものをクラスタとして採用する。たとえば片手でコミュニケーションをしているときに他方の手がぶらぶらしているものなどは姿勢が推定できないので切り捨てられる。このステップS15によって、有効なクラスタにおける皮膚センサ出力データと対になった指先の座標の確率分布を該有効なクラスタに対応付けてマップとして記憶する。ステップS15を終了すると図14のステップS9へ戻る。
図14に戻って、ステップS9では、腰データの処理を実行する。この腰データの処理は図16に詳細に示される。図16の最初のステップS21では、各クラスタにおける皮膚センサデータと対になった腰の座標(胴体座標系)について、空間密度分布を求める。上述の指先データ処理と同様に、各クラスタにおける皮膚センサデータに対応するフレームの腰座標データについて、各ボクセル内に腰の座標が何個入っているかを数えてから、クラスタ内の要素数でボクセル内要素数を割る。そして、ステップS23で、密度ピーク値が閾値を超えたクラスタを有効なクラスタとしてマップに取り入れる。このステップS23によって、有効なクラスタにおける皮膚センサ出力データと対になった腰の座標の確率分布を該有効なクラスタに対応付けてマップとして記憶する。ステップS23を終了すると腰データ処理を終了し、マップ作成処理を終了する。
なお、指先と腰以外のたとえば肩や頭などの部位のマーカ位置をマップ作成に採用する場合には、同様にして各位置のデータの処理を実行すればよい。
発明者等の行った実験では、図14のステップS1で、247622フレームの実験データを取得した。次に、ステップS3で閾値により選別した皮膚センサデータは28220フレームであった。そして、ステップS5では、まず、各フレームにつき、閾値を超えたセンサを「1」、そうでないセンサを「0」とした57次元ベクトルを作る。選別した皮膚センサ出力データすべてについて上記ベクトルを計算すると1343パターンのベクトルが得られた。これらのベクトルのうち、同じパターンを持つフレームの数が5に満たないものはノイズとして切り捨てて、最終的には245パターンが残った。この245パターンの各要素について、値が「1」のときはそのセンサの閾値の1.5倍の値を使い、値が「0」のときはセンサの閾値の0.5倍の値を使ったベクトルを初期クラスタ核とした。この初期クラスタ数を245個としたISODATA法の結果、最終クラスタ数は252個となった。そして、ステップS7の指先データの処理およびステップS9の腰データの処理の結果、有効クラスタ数は、指先と腰を合わせて86個となった。つまり、この実験では、コミュニケーション時の代表的な触り方(触行動)が86パターンあったことが分かる。
このようにして、皮膚センサ出力とコミュニケーション相手の位置・姿勢とを対応付けたマップデータが作成され、図12のマップDB70に格納される。マップの概要は図17に示される。たとえば、クラスタ代表値が57次元の皮膚センサベクトルAであるクラスタと、コミュニケーション相手の指先および/または腰の3次元位置に関する確率分布Aとが対応付けられている。つまり、ロボット10が皮膚センサベクトルAの触り方をされているとき、確率分布Aがその触り方に対応した相手の代表的な指先位置と姿勢(腰の位置)を表している。なお、クラスタ代表値は中心値であり、分散がそのクラスタの広がりを示す。
図18にはクラスタ代表値の一例が示される。つまり、57次元の皮膚センサベクトルであり、1つの触り方を表している。この図18のクラスタに対応する相手の指先位置102と腰の位置104の3次元位置(分布の平均)の一例が図19に示される。この図19では同じ位置分布を異なる2つの視点で表示している。相手の指先がロボット10の両肩に触れており、腰はロボット10の正面上方にあることが把握できる。つまり、相手はロボット10の前に立っていて、その両手がロボット10の両肩に触っていることがわかる。
このようにして作成された、皮膚センサ出力パターンと触行動をしている相手の位置または姿勢とを対応付けたマップが格納されたマップDB70を、図10に示すように、ロボット10は備えている。したがって、ロボット10は、コミュニケーション時に皮膚センサデータを検出し、マップデータを使用することによって、コミュニケーション相手の位置や姿勢を把握することができる。したがって、相手がどこにいて、どんな格好なのかなどがわかるので、触行動の分類をより細かく行うことができる。たとえば、相手が横から肩を叩いているのか、あるいは前に立って肩を叩いているのかなどを把握することも可能になる。そして、ロボット10は、把握した相手の位置や姿勢に応じた行動を実行することができる。
図20にはマップを備えたロボット10のコミュニケーション時の動作の一例が示される。図20の最初のステップS31で、ロボット10のCPU42はコミュニケーション行動を開始する。このコミュニケーション行動は、たとえば抱っこ行動や握手行動などのような相手との接触が予期されるものが選択される。そして、ステップS33で、皮膚センサ出力ベクトルを計測する。つまり、すべての皮膚センサ40で検知した圧力をセンサ入力/出力ボード60を介して圧力値データとして検出して、57次元の皮膚センサ出力ベクトルを作る。
続いて、ステップS35では、マップのクラスタ代表値およびクラスタ内要素の分散から、現在の皮膚センサ出力ベクトルと各クラスタとの距離を計算する。そして、ステップS37で、現在の皮膚センサ出力ベクトルに最も近いクラスタを選択する。すなわち、最も近いクラスタによって表された触られ方で相手に触られていると判断したことになる。
ステップS39では、選択したクラスタに対応付けられている相手の位置・姿勢をマップから求める。この実施例では、対応する指先の位置と腰の位置の分布によって、現在の相手の位置・姿勢を把握することができる。つまり、相手の位置や姿勢をマップDB70から把握することによって、人間のそのときの触行動がどんな意味または意義を持っているのか、たとえば「肩をたたく」、「体を押す」などのように、人間の触行動が相手(この場合にはロボット10)に注意を促す意図で行われた行動か、あるいは、たとえば「握手する」、「抱擁する」などのように、ロボット10とのコミュニケーションのための行動なのか、などが明確に識別できる。
そこで、この実施例では、そのような相手(人間)の動作を判別することによって、外乱に対する倒立振子制御のゲインKを変化させることによって、相手の力に抗うのか、もしくは抗わずにある程度従うのかを、使い分けることとした。
すなわち、外乱が与えられたとき実行される図21のフロー図の最初のステップS51で、コンピュータ42によって、センサ入力/出力ボード60(図10)を通して入力されるすべての皮膚センサ40からの出力に基づいて、そのときの外乱の力の総和Fを、各センサの圧力fiとそのセンサの個数(実施例では57個)とによって計算する。
そして、ステップS53において、外乱力の総和Fが所定の閾値Tに等しいかあるいはそれぞれより大きいかを判断する(第2判断手段)。このステップS53で“NO”が判断されたときには、コンピュータ42によって、次のステップS55で、先に図20で詳細に説明したように、相手の位置や姿勢を判断する。そして、次のステップS57において、その判断した人間の位置等によって、そのときの相手(人間)の触行動がロボット10に注意を促すような、たとえば「肩を叩く」、「体を押す」などの動作であるのかどうか判断する(第1判断手段)。
ステップS57で“NO”が判断されたとき、すなわち、そのときの人間の行動がロボットとのコミュニケーション動作たとえば「握手」、「抱擁」などであるときには、続くステップS59において、コンピュータ42は、倒立振子制御のためのゲインを低いゲインKLに設定して、倒立振子制御を実行する。なお、実施例のような同軸2輪の倒立振子制御では、外乱の力に応じて、車輪モータ58(図10)の回転方向と速度および/または量を制御するのであるが、具体的な方法は、先に引用した特許文献1に詳細に説明されているので、ここではその記述を引用するにとどめる。そして、「ゲイン」とは、同じ特許文献1の式(18)に現れるゲイン行列Kのことを意味する。
低い制御ゲインKLを用いる場合、車輪モータ58の外乱に対抗させるための駆動量が比較的小さくなるので、結果的に、ロボット10は、外乱に抗わずにある程度従うように動作することになる。
これに対して、ステップS57で“YES”が判断されたときには、そのときには外乱に対抗しなければ転倒の可能性があるので、ステップS61において、コンピュータ42は、倒立振子制御のためのゲインを高いゲインKHに設定して、倒立振子制御を実行する。高い制御ゲインKHを用いる場合、車輪モータ58の外乱に対抗させるための駆動量が比較的大きくなるので、結果的に、ロボット10は、外乱に抗うように動作することになる。したがって、転倒の可能性が回避される。
ただし、この図21の動作は、図22に示すフロー図のように変更されてもよい。すなわち、図22の動作では、まず、ステップS71で図21のステップS55と同様にして人間の動作を判別し、ステップS73で、その動作が「相手(ロボット)に注意を促す」動作かどうか判断する。そして、もしステップS73で“NO”なら、ステップコンピュータ42は、S75で、先のステップS59と同様にして、低いゲインKLで倒立振子制御を実行する。
ステップS73で“YES”を判断すると、続くステップS77で、図21のステップS51と同じく、コンピュータ42によってそのときの外力の総和Fを計算する。そして、その総和Fが閾値T以上であるかどうか判断する(ステップS79)。ステップS79で“YES”が判断されたときには、ステップS61と同様にして、コンピュータ42は、外乱に対抗するために、倒立振子制御のためのゲインを高いゲインKHに設定して、倒立振子制御を実行する。
ただし、ステップS79で“NO”が判断された場合には、外乱に対する対抗力を大きくしなくてもよいので、ステップS75を実行することになる。なお、このときには、ステップS75と同じゲインではなく別の低いゲインを用いることも考えられる。
この実施例では、コミュニケーション時に人間のコミュニケーションの仕方によって外乱抑制の方法を変化させるので、たとえば、人間がロボットに対してコミュニケーションを行っている際の動作に対しては人間によって加えられる力に抗うのではなく、人間の力に従う動きをし、また人間がロボットに気づいてほしいときに行うコミュニケーション動作に関しては、転倒回避のために、加えられる力に抗う動きを行うことができるので、安全でしかも自然で円滑なコミュニケーションが実現できる。
なお、この実施例では全身分布型皮膚センサによってコミュニケーション動作と加えられている力の総和とを知ることができるので、床面の傾斜やすべりによって車輪に加わる外乱とコミュニケーション相手の加えている外乱とを区別することができ、したがって、上記の円滑なコミュニケーションを実現することができる。
この発明の一実施例のコミュニケーションロボットを示す正面図解図である。 この実施例のコミュニケーションロボットを示す側面図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 ピエゾセンサシートの配置位置を示す図解図である。 図1および図2に示すコミュニケーションロボットに用いる皮膚とその中に埋め込まれるピエゾセンサシートとを示す図解図である。 図1および図2に示す実施例のコミュニケーションロボットの電気的構成を示すブロック図である。 図1および図2に示す実施例のコミュニケーションロボットにおけるピエゾセンサシートから検知信号を入力するセンサ入力/出力ボードを部分的に示す図解図である。 図1および図2に示す実施例のコミュニケーションロボットに備えられるマップを作成するためのマップ作成システムの概要を示す図解図である。 マップ作成時の赤外線反射マーカの取付位置を示す図解図である。 図12のマップ作成用コンピュータの動作を示すフロー図である。 図14の指先データの処理の動作を示すフロー図である。 図14の腰データの処理の動作を示すフロー図である。 マップデータの概要を示す図解図である。 クラスタ代表値の一例を示す図解図である。 図18のクラスタ代表値に対応する相手の指先と腰の位置の分布の概要を示す図解図である。 図1および図2に示す実施例のコミュニケーションロボットにおける人間(相手)の動作を判別するときの動作を示すフロー図である。 図1および図2に示す実施例のコミュニケーションロボットにおける倒立振子制御動作を示すフロー図である。 図1および図2に示す実施例のコミュニケーションロボットにおける倒立振子制御動作の他の例を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
12 …人体形状部
22 …駆動輪
34 …皮膚
40 …皮膚センサ(ピエゾセンサシート)
42 …CPU(コンピュータ)
48 …モータ制御ボード
58 …車輪モータ
70 …マップDB

Claims (3)

  1. 同軸2輪の駆動輪とその駆動輪を駆動する車輪モータとを有し、前記駆動輪を同軸2輪倒立振子として制御するコミュニケーションロボットにおいて、
    相手の触行動によって力が加わったとき、その力に抗うかどうかに応じて前記車輪モータを制御するときの制御ゲインを変化させるようにしたことを特徴とする、コミュニケーションロボット。
  2. 複数の圧力センサ、
    前記複数の圧力センサの出力パターンと、触行動をしている相手の少なくとも位置または姿勢に関する情報とを対応付けたマップを記憶するマップ記憶手段、
    前記複数の圧力センサの出力データを検出する検出手段、
    前記検出手段によって検出された出力データと前記マップ記憶手段に記憶されたマップとに基づいて、そのときの触行動が外乱かどうか判断する第1判断手段、
    前記第1判断手段によって外乱であると判断したき高い制御ゲインを設定し、前記第1判断手段によって外乱ではないとあると判断したき低い制御ゲインを設定するゲイン設定手段、および
    前記ゲイン設定手段によって設定したゲインによって前記車輪モータを制御する車輪モータ制御手段を備える、請求項1記載のコミュニケーションロボット。
  3. 前記複数の圧力センサに加えられている力の総和が閾値より大きいかどうか判断する第2判断手段をさらに備え、
    前記ゲイン設定手段は前記第2判断手段によって前記総和が前記閾値より大きいときには前記高いゲインを設定する、請求項2記載のコミュニケーションロボット。
JP2004105663A 2004-03-31 2004-03-31 コミュニケーションロボット Expired - Lifetime JP4271070B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004105663A JP4271070B2 (ja) 2004-03-31 2004-03-31 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004105663A JP4271070B2 (ja) 2004-03-31 2004-03-31 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2005288602A true JP2005288602A (ja) 2005-10-20
JP4271070B2 JP4271070B2 (ja) 2009-06-03

Family

ID=35322132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004105663A Expired - Lifetime JP4271070B2 (ja) 2004-03-31 2004-03-31 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP4271070B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007319991A (ja) * 2006-06-01 2007-12-13 Hitachi Ltd 移動ロボット
KR101258894B1 (ko) * 2011-10-06 2013-04-29 늘솜주식회사 복수의 센서 모듈을 구비한 감지 장치 및 감지 방법
JPWO2013038998A1 (ja) * 2011-09-13 2015-03-26 株式会社安川電機 自走ロボットおよび自走台車
CN109531565A (zh) * 2018-08-27 2019-03-29 苏州博众机器人有限公司 一种机械臂的控制方法、装置、服务机器人及存储介质
JP2019051332A (ja) * 2016-05-12 2019-04-04 Groove X株式会社 緊急停止機能を有する自律行動型ロボット
CN110405794A (zh) * 2019-08-28 2019-11-05 重庆科技学院 一种用于儿童的拥抱机器人及其控制方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108247644B (zh) * 2017-11-29 2020-11-20 白劲实 悬吊式看护机器人

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63305082A (ja) * 1987-06-05 1988-12-13 Ckd Corp 同軸二輪車における姿勢制御方法
JPH1110580A (ja) * 1997-06-26 1999-01-19 Nachi Fujikoshi Corp 産業用ロボットの駆動軸制御方法及びその装置
JP2003271243A (ja) * 2002-03-18 2003-09-26 Advanced Telecommunication Research Institute International コミュニケーションロボット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63305082A (ja) * 1987-06-05 1988-12-13 Ckd Corp 同軸二輪車における姿勢制御方法
JPH1110580A (ja) * 1997-06-26 1999-01-19 Nachi Fujikoshi Corp 産業用ロボットの駆動軸制御方法及びその装置
JP2003271243A (ja) * 2002-03-18 2003-09-26 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007319991A (ja) * 2006-06-01 2007-12-13 Hitachi Ltd 移動ロボット
JPWO2013038998A1 (ja) * 2011-09-13 2015-03-26 株式会社安川電機 自走ロボットおよび自走台車
KR101258894B1 (ko) * 2011-10-06 2013-04-29 늘솜주식회사 복수의 센서 모듈을 구비한 감지 장치 및 감지 방법
JP2019051332A (ja) * 2016-05-12 2019-04-04 Groove X株式会社 緊急停止機能を有する自律行動型ロボット
US10953542B2 (en) 2016-05-12 2021-03-23 Groove X, Inc. Autonomously acting robot having emergency stop function
CN109531565A (zh) * 2018-08-27 2019-03-29 苏州博众机器人有限公司 一种机械臂的控制方法、装置、服务机器人及存储介质
CN109531565B (zh) * 2018-08-27 2023-11-03 苏州博众智能机器人有限公司 一种机械臂的控制方法、装置、服务机器人及存储介质
CN110405794A (zh) * 2019-08-28 2019-11-05 重庆科技学院 一种用于儿童的拥抱机器人及其控制方法

Also Published As

Publication number Publication date
JP4271070B2 (ja) 2009-06-03

Similar Documents

Publication Publication Date Title
US11314333B2 (en) Information processing device, method, and computer
Dakopoulos et al. Wearable obstacle avoidance electronic travel aids for blind: a survey
JP3706113B2 (ja) コミュニケーションロボット
WO2014106085A1 (en) Wearable navigation assistance for the vision-impaired
EP3598273A1 (en) Adaptive haptic effect rendering based on dynamic system identification
CN108153422A (zh) 一种显示对象控制方法和移动终端
JP4677585B2 (ja) コミュニケーションロボット
JP3942586B2 (ja) コミュニケーションロボット
JP4271070B2 (ja) コミュニケーションロボット
JP4524435B2 (ja) コミュニケーションロボット
JP5007404B2 (ja) 性格判別装置、性格判別方法、コミュニケーションロボットおよび電子機器
JP2006281348A (ja) コミュニケーションロボット
JP5076107B2 (ja) 触覚センサを有するロボット
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2022194029A1 (zh) 一种机器人的反馈方法及机器人
JP4223426B2 (ja) コミュニケーションロボット
JP4873607B2 (ja) 皮膚センサを有する電子機器
JP4753410B2 (ja) コミュニケーションロボット
CN108549482B (zh) 一种基于ros***的虚拟现实触觉反馈器
JP2009066716A (ja) コミュニケーションロボット
JP2004034251A (ja) 圧力感知センサ及び該センサを備えたロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4271070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140306

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250