JP4384021B2 - 脚式ロボットの制御装置 - Google Patents

脚式ロボットの制御装置 Download PDF

Info

Publication number
JP4384021B2
JP4384021B2 JP2004361711A JP2004361711A JP4384021B2 JP 4384021 B2 JP4384021 B2 JP 4384021B2 JP 2004361711 A JP2004361711 A JP 2004361711A JP 2004361711 A JP2004361711 A JP 2004361711A JP 4384021 B2 JP4384021 B2 JP 4384021B2
Authority
JP
Japan
Prior art keywords
arm
robot
posture
person
external force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004361711A
Other languages
English (en)
Other versions
JP2006167841A (ja
Inventor
謙一郎 杉山
太郎 横山
浩司 真木
直秀 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004361711A priority Critical patent/JP4384021B2/ja
Priority to KR1020050120153A priority patent/KR100776849B1/ko
Priority to US11/297,363 priority patent/US7877165B2/en
Priority to EP05027084A priority patent/EP1671874B1/en
Priority to CNB2005101301539A priority patent/CN100421887C/zh
Publication of JP2006167841A publication Critical patent/JP2006167841A/ja
Priority to HK06110449.0A priority patent/HK1089998A1/xx
Priority to KR1020070069462A priority patent/KR100807449B1/ko
Application granted granted Critical
Publication of JP4384021B2 publication Critical patent/JP4384021B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Manipulator (AREA)

Description

この発明は脚式ロボットの制御装置に関し、より詳しくは、上体に接続された脚部と腕部を備え、脚部を駆動して移動すると共に、腕部で人と握手するようにした脚式ロボットの制御装置に関する。
従来、人とのコミュニケーション機能を向上させるため、人と握手できるようにしたロボットが提案されている(例えば特許文献1参照)。特許文献1に記載されるロボットにあっては、ハンドに圧力センサシートを埋め込んで握手したときの人の把持力を検出し、検出した把持力に応じて発話内容を変更する(具体的には、把持力が適度であるときは「よろしく」と発声し、把持力が強いときは「痛い」と発声する)と共に、腕部を動作させる(具体的には、把持力が強いときは腕部を引っ込ませるように動作させる)ことで、コミュニケーション機能を向上させるようにしている。尚、特許文献1に記載されるロボットは、車輪を駆動して移動するロボットである。
特開2004−283975号公報(段落0062から0066、図8および図9)
ロボットが人と握手するとき、腕部には少なからず外力が作用する。上記した特許文献1に記載されるロボットにあっては、車輪で移動するように構成しているため、握手したときに腕部に作用する外力は姿勢を安定に保つ上で特に問題とならないが、脚部を駆動して移動する脚式ロボット、特に2足の脚式ロボットにあっては、その姿勢を乱すのに十分な外乱となり得る。即ち、従来の脚式ロボットにあっては、人と握手することにより、姿勢の不安定化を招くおそれがあった。
従ってこの発明の目的は上記した課題を解決し、人との握手を可能にしてコミュニケーション機能を向上させると共に、握手したときの姿勢を安定に保つようにした脚式ロボットの制御装置を提供することにある。
上記した課題を解決するために、請求項1にあっては、上体に接続された脚部と腕部と、前記脚部を駆動する脚部アクチュエータと、前記腕部を駆動する腕部アクチュエータとを備えた脚式ロボットの制御装置において、前記腕部アクチュエータの動作を制御して前記腕部に握手の姿勢を生成する腕部動作制御手段と、前記握手の姿勢が生成された腕部に作用する外力を検出する外力検出手段と、および前記検出された外力が所定値を超えるとき、前記脚式ロボットの姿勢安定制御の実施を開始する姿勢安定制御開始手段とを備えると共に、前記姿勢安定制御は、検出される外力が前記所定値よりも大きく設定された第2の所定値を超えるとき、前記ロボットが前記検出される外力の向きと同方向に移動するように前記脚部アクチュエータの動作を制御する如く構成した。
また、請求項2にあっては、さらに、握手する人の位置を認識する人位置認識手段を備えると共に、前記腕部動作制御手段は、前記認識された人の位置に基づいて前記握手の姿勢を変更する如く構成した。
また、請求項3にあっては、さらに、人を識別する識別情報を記憶して前記ロボットに送出する識別情報送出手段を備えると共に、前記腕部動作制御手段は、前記送出された識別情報に基づいて前記握手の姿勢を変更する如く構成した。
請求項1に係る脚式ロボットの制御装置にあっては、腕部を駆動する腕部アクチュエータの動作を制御して握手の姿勢を生成すると共に、握手の姿勢が生成された腕部に作用する外力(即ち、人と握手したときに腕部に作用する外力)を検出し、検出した外力が所定値を超えるとき、脚式ロボットの姿勢安定制御の実施を開始し、姿勢安定制御は、検出される外力が前記所定値よりも大きく設定された第2の所定値を超えるとき、ロボットがその外力の向きと同方向に移動するように脚部アクチュエータの動作を制御する如く構成したので、人との握手を可能にしてコミュニケーション機能を向上させることができると共に、握手したときに腕部に作用する外力に応じてバランスをとって姿勢を安定に保つことができる。特に、検出される外力が第2の所定値を超えるとき、ロボットがその外力の向きと同方向に(即ち、腕部に作用する外力を緩和する方向に)移動するように脚部アクチュエータの動作を制御する如く構成したので、握手したときの姿勢を一層安定に保つことができる。また、人が意図的に外力を加えた場合には、それに呼応してロボットが移動するため、コミュニケーション機能のさらなる向上を図ることができる。
請求項2に係る脚式ロボットの制御装置にあっては、握手する人の位置を認識し、認識した人の位置に基づいて握手の姿勢を変更する如く構成したので、人が握手し易い位置に腕部を差し出すことが可能となり、コミュニケーション機能をより向上させることができる。
請求項3に係る脚式ロボットの制御装置にあっては、人の識別情報に基づいて握手の姿勢を変更する、より詳しくは、識別情報に基づいて握手する人の固有情報(身長など)を取得し、取得した固有情報に基づいて握手の姿勢を変更する如く構成したので、握手する人に応じて最適な位置(最も握手し易い位置)に腕部を差し出すことが可能となり、コミュニケーション機能をより一層向上させることができる。
以下、添付図面に即してこの発明に係る脚式ロボットの制御装置を実施するための最良の形態について説明する。
図1は、第1実施例に係る脚式ロボットの制御装置が搭載されるロボットの正面図であり、図2は図1に示すロボットの側面図である。尚、この実施例にあっては、脚式ロボットとして、2本の脚部と2本の腕部を備えた、2足歩行して移動するヒューマノイド型のロボットを例にとる。
図1に示すように、脚式ロボット(以下単に「ロボット」と呼ぶ)10は、左右の脚部12L,12R(左側をL、右側をRとする。以下同じ)を備える。脚部12L,12Rは、上体14の下部に連結される。上体14は、その上部に頭部16が連結されると共に、側部に左右の腕部20L,20Rが連結される。左右の腕部20L,20Rの先端には、それぞれハンド(エンドエフェクタ)22L,22Rが連結される。
また、図2に示すように、上体14の背部には格納部24が設けられ、その内部には電子制御ユニット(以下「ECU」と呼ぶ)26やバッテリ(図示せず)などが収容される。
図3は、図1に示すロボット10をスケルトンで表す説明図である。以下、図3を参照し、ロボット10の内部構造について関節を中心に説明する。
左右の脚部12L,12Rは、それぞれ大腿リンク30L,30Rと下腿リンク32L,32Rと足部34L,34Rとを備える。大腿リンク30L,30Rは、股関節を介して上体14に連結される。尚、図3では、上体14を上体リンク36として簡略的に示す。また、大腿リンク30L,30Rと下腿リンク32L,32Rは、膝関節を介して連結されると共に、下腿リンク32L,32Rと足部34L,34Rは足関節を介して連結される。
股関節は、Z軸(ヨー軸。具体的には、ロボット10の高さ方向)回りの回転軸40L,40Rと、Y軸(ピッチ軸。具体的には、ロボット10の左右方向)回りの回転軸42L,42Rと、X軸(ロール軸。具体的には、ロボット10の前後方向)回りの回転軸44L,44Rとから構成される。即ち、股関節は、3自由度を備える。
尚、この実施例においては、鉛直軸上方をZ軸の+方向とし、下方を−方向とする。また、ロボット10の前方をX軸の+方向とし、後方を−方向とする。さらに、ロボット10の左方(前方に向かって左方)をY軸の+方向とし、右方を−方向とする。
膝関節は、Y軸回りの回転軸46L,46Rから構成され、1自由度を備える。また、足関節は、Y軸回りの回転軸48L,48RとX軸回りの回転軸50L,50Rとから構成され、2自由度を備える。このように、左右の脚部12L,12Rのそれぞれには、3個の関節を構成する6個の回転軸(自由度)が与えられ、脚部全体としては、合計12個の回転軸が与えられる。
脚部12L,12Rは、アクチュエータ(図示せず)によって駆動される。以下、脚部12L,12Rを駆動するアクチュエータを「脚部アクチュエータ」と呼ぶ。脚部アクチュエータは、具体的には上体14や脚部12L,12Rの適宜位置に配置された12個の電動モータからなり、上記した12個の回転軸を個別に駆動する。従って、脚部アクチュエータの動作を制御して各回転軸を適宜な角度で駆動することにより、脚部12L,12Rに所望の動きを与えることができる。
また、左右の腕部20L,20Rは、それぞれ上腕リンク52L,52Rと下腕リンク54L,54Rとハンド22L,22Rとを備える。上腕リンク52L,52Rは、肩関節を介して上体14に連結される。また、上腕リンク52L,52Rと下腕リンク54L,54Rは、肘関節を介して連結されると共に、下腕リンク54L,54Rとハンド22L,22Rは手関節を介して連結される。
肩関節は、Y軸回りの回転軸56L,56Rと、X軸回りの回転軸58L,58Rと、Z軸回りの回転軸60L,60Rとから構成され、3自由度を備える。一方、肘関節は、Y軸回りの回転軸62L,62Rから構成され、1自由度を備える。また、手関節は、Z軸回りの回転軸64L,64Rと、Y軸回りの回転軸66L,66Rと、X軸回りの回転軸68L,68Rとから構成され、3自由度を備える。このように、左右の腕部20L,20Rのそれぞれには、3個の関節を構成する7個の回転軸(自由度)が与えられ、腕部全体として合計14個の回転軸が与えられる。
腕部20L,20Rも、脚部12L,12Rと同様に図示しないアクチュエータによって駆動される。以下、腕部20L,20Rを駆動するアクチュエータを「腕部アクチュエータ」と呼ぶ。腕部アクチュエータは、具体的には上体14や腕部20L,20Rの適宜位置に配置された14個の電動モータからなり、上記した14個の回転軸を個別に駆動する。従って、腕部アクチュエータの動作を制御して各回転軸を適宜な角度で駆動することにより、腕部20L,20Rに所望の動きを与えることができる。
また、ハンド22L,22Rには、5本の指部70L,70Rが設けられる。指部70L,70Rは、図示しない駆動機構(アクチュエータを含む)によって動作自在とされ、腕部20L,20Rの動きに連動して物を把持するなどの動作が実行可能とされる。
また、頭部16は、上体14に首関節を介して連結される。首関節は、Z軸回りの回転軸72と、Y軸回りの回転軸74とから構成され、2自由度を備える。回転軸72,74も、図示しないアクチュエータ(以下「頭部アクチュエータ」と呼ぶ)によって個別に駆動される。従って、頭部アクチュエータの動作を制御して回転軸72,74を適宜な角度で駆動することにより、頭部16を所望の方向に向けることができる。
また、左右の脚部12L,12R(具体的には、足部34L,34Rと足関節の間)には、それぞれ6軸力センサ76L,76Rが取り付けられる。以下、左脚部12Lに取り付けられた6軸力センサ76Lを「左脚6軸力センサ」と呼び、右脚部12Rに取り付けられた6軸力センサ76Rを「右脚6軸力センサ」と呼ぶ。左脚6軸力センサ76Lは、床面から左脚部12Lに作用する床反力(より詳しくは、左脚部12Lを介してロボット10に作用する床反力)の3方向成分FxLF,FyLF,FzLFとモーメントの3方向成分MxLF,MyLF,MzLFを示す信号を出力する。また、右脚6軸力センサ76Rは、床面から右脚部12Rに作用する床反力(より詳しくは、右脚部12Rを介してロボット10に作用する床反力)の3方向成分FxRF,FyRF,FzRFとモーメントの3方向成分MxRF,MyRF,MzRFを示す信号を出力する。
左右の腕部20L,20R(具体的には、ハンド22L,22Rと手関節の間)にも、同種の6軸力センサ80L,80Rが取り付けられる。以下、左腕部20Lに取り付けられた6軸力センサ80Lを「左腕6軸力センサ」と呼び、右腕部20Rに取り付けられた6軸力センサ80Rを「右腕6軸力センサ」と呼ぶ。左腕6軸力センサ80Lは、左腕部20Lに作用する(より詳しくは、左腕部20Lを介してロボット10に作用する外力)外力の3方向成分FxLH,FyLH,FzLHとモーメントの3方向成分MxLH,MyLH,MzLHを示す信号を出力する。また、右腕6軸力センサ80Rは、右腕部20Rに作用する外力(より詳しくは、右腕部20Rを介してロボット10に作用する外力)の3方向成分FxRH,FyRH,FzRHとモーメントの3方向成分MxRH,MyRH,MzRHを示す信号を出力する。
尚、上記した6軸力センサ76L,76R,80L,80Rは、X,Y,Zの各軸の+方向の力成分を正値として出力すると共に、−方向の力成分を負値として出力する。
上体14には傾斜センサ82が設置され、鉛直軸に対する上体14の傾き(傾斜角度)とその角速度の少なくともいずれか、即ち、上体14の傾斜(姿勢)などの状態量を示す信号を出力する。また、頭部16には、左右のCCDカメラ84L,84Rが設置される。CCDカメラ84L,84Rは、同時刻にロボット10の周囲環境を撮影し、よって得た画像を出力する。
上記したセンサやカメラの出力は、図2で示したECU26に入力される。尚、ECU26はマイクロコンピュータからなり、図示しないCPUや入出力回路、ROM、RAMなどを備える。
図4は、ロボット10の構成をECU26の入出力関係を中心に表すブロック図である。
図示の如く、ロボット10は、上記したセンサやカメラに加え、回転角センサ86と、ジャイロセンサ88と、GPS受信器90と、リーダー92を備える。回転角センサ86は、具体的には複数個のロータリエンコーダからなり、上記した各回転軸の回転角度に応じた信号を出力する。また、ジャイロセンサ88は、ロボット10の移動方向と距離に応じた信号を出力する。回転角センサ86とジャイロセンサ88の出力は、ECU26に入力される。
GPS受信器90は、衛星から発信された電波を受信し、ロボット10の位置情報(緯度と経度)を取得してECU26に出力する。また、リーダー92は、RFID(Radio Frequency ID)タグ94に記憶されている識別情報(具体的には、タグの携帯者(人)を識別する識別情報)を無線で読み込み、ECU26に出力する。
ECU26は、脚6軸力センサ76L,76R、傾斜センサ82および回転角センサ86の出力に基づき、歩行制御を行う。具体的には、前記した脚部アクチュエータ(符号100で示す)の動作を制御して脚部12L,12Rを駆動することにより、ロボット10を移動(歩行)させる。また、ECU26は、歩行制御などに付随して前記した頭部アクチュエータ(符号102で示す)の動作を制御し、頭部16の向きを調整する。尚、ロボット10の歩行制御としては、例えば本出願人が先に提案した特開平10−277969号公報などに記載される技術が用いられるが、本願の要旨とは直接の関係を有しないのでここでの説明は省略する。
ECU26は、さらに、腕6軸力センサ80L,80R、CCDカメラ84L,84R、ジャイロセンサ88、GPS受信器90およびリーダー92の出力に基づき、握手制御を行う。具体的には、前記した腕部アクチュエータ(符号104で示す)の動作を制御して握手の姿勢を生成すると共に、握手したときの姿勢を安定に保つために脚部アクチュエータ100の動作を制御してロボット10を移動させる。
図5は、ECU26で行われる握手制御の処理を表すブロック図である。尚、以下の説明では、右腕部20Rで握手するものとする。
図5に示すように、ECU26は、画像処理部110、自己位置推定部112、人特定部114、人情報データベース116、地図データベース118、行動決定部120、および動作制御部122を備える。
画像処理部110は、人位置認識部110aを備える。人位置認識部110aは、CCDカメラ84L,84Rで同時刻に撮影された画像を入力し、それらの視差から距離画像を生成する。また、一方のCCDカメラから撮影時刻の異なる画像を入力し、それらの差分に基づいて動きのある領域を抽出した差分画像を生成する。そして、生成した距離画像と差分画像に基づき、人の位置とそこまでの距離を認識する。尚、画像に基づいて人を認識する手法は、例えば本出願人が先に提案した特開2004−302905号公報などに詳しいので、詳細な説明は省略する。
自己位置推定部112は、GPS受信器90から入力された位置情報に基づき、ロボット10の現在位置を推定する。尚、衛星から発信された電波をGPS受信器90で受信できないときは、ジャイロセンサ88によって検出された移動方向と距離に基づき、現在位置を推定する。
人特定部114は、リーダー92を介して入力されたRFIDタグ94の識別情報に基づき、人、具体的には、人位置認識部110aで認識された人を識別する。RFIDタグ94は、識別情報を記憶したIC94aと、識別情報をリーダー92に無線で送出するアンテナ94bとからなり、複数の人に携帯される。尚、各人に携帯されるRFID94には、それぞれ異なる識別情報が記憶されているのは言うまでもない。
人情報データベース116には、RFIDタグ94を携帯する人の固有情報が格納される。固有情報には、少なくとも身長や性別などが含まれる。また、地図データベース118には、ロボット10が移動する周囲環境の地図情報が格納される。
行動決定部120は、移動経路決定部120aと、握手姿勢決定部120bと、移動方向決定部120cとを備える。
移動経路決定部120aは、人位置認識部110aで認識された人の位置と地図データベース118に格納された地図情報に基づき、ロボット10の移動経路、具体的には、人に接近するための移動経路を決定する。
握手姿勢決定部120bは、人位置認識部110aで認識された人の位置と、識別情報に従って人情報データベース116から取得した人の固有情報(具体的には身長)に基づき、握手の姿勢(具体的には右腕部20Rの姿勢)を決定(変更)する。また、移動方向決定部120cは、握手しているときの右腕6軸力センサ80Rの出力に基づき、ロボット10の移動方向を決定する。
行動決定部120で決定された行動は、動作制御部122に送られる。動作制御部122は、決定された行動に応じ、脚部アクチュエータ100と腕部アクチュエータ104の動作を制御する。
次いで、図6フローチャートを参照し、ECU26で行われる握手制御について、行動決定部120で実行される処理に焦点をおいて詳説する。
以下説明すると、S10において、人位置認識部110aで認識した人に接近するように移動経路を決定すると共に、決定した移動経路に従ってロボット10が移動するように脚部アクチュエータ100の動作を制御する。
次いでS12に進み、ロボット10が人に対して所定距離以内に接近したか否か判断する。S12で否定されるときはS10に戻り、移動を継続する。一方、S12で肯定されるときS14に進んで移動を停止すると共に、S16に進み、握手の姿勢が生成されるように(人130に右腕部20Rを差し出すように)腕部アクチュエータ104の動作を制御する。図7に、人(符号130で示す)に対して所定距離(符号Dで示す)以内に接近して握手の姿勢を生成したロボット10を示す。
S16では、人位置認識部110aで認識された人の位置と、人情報データベース116から取得した人の固有情報(身長)に基づき、右腕部20Rの姿勢を決定(変更)する。具体的には、ロボット10と人の離間距離が所定距離以内において比較的遠い場合には、近い場合に比してハンド22Rが前方(X軸の+方向)に位置するように右腕部20Rの姿勢を決定する。また、握手する人の身長が比較的高い場合には、低い場合に比してハンド22Rが高い場所(Z軸の+方向)に位置するように右腕部20Rの姿勢を決定する。
次いでS18に進み、右腕6軸力センサ80Rによって検出された外力の3方向成分FxRH,FyRH,FzRHの少なくともいずれかの絶対値が、所定値#Fを超えたか否か判断する。ロボット10が人(符号130で示す)と握手すると、右腕部20Rには少なからず外力が作用する。従って、S18の判断は、握手が行われているか否か判断することに相当する。尚、所定値#Fは、ハンド22Rに人の手が触れたことが検知できる程度の、比較的小さな値(正値)に設定される。
S18で否定されるときは、S16に戻り、人の位置(距離)に応じて握手の姿勢を修正しつつ、握手が開始されるのを待つ。他方、S18で肯定されるときはS20に進み、姿勢安定制御を実行する。姿勢安定制御は、右腕部20Rに作用した外力によってロボット10の姿勢が不安化するのを防止するために行う制御であり、その特徴は、検出した外力に基づいて脚部アクチュエータ100の動作を制御する、より詳しくは、外力が所定値を超えたとき、ロボット10を外力の向きと同方向に(即ち、右腕部20Rに作用する外力を緩和する方向に)移動させてバランスをとることにある。
図8は、姿勢安定制御の処理を表すフローチャートである。
図8フローチャートを参照して姿勢安定制御について詳説すると、先ずS100において、右腕6軸力センサ80Rによって検出された外力のX方向成分FxRHが所定値#Fx以上か否か判断する。別言すれば、図9に示すように、ロボット10の右腕部20Rが所定値#Fx以上の力で前方(X軸の+方向)に引っ張られたか否か判断する。尚、所定値#Fxは、前記した所定値#Fよりも大きな値(正値)に設定される。
S100で肯定されるときはS102に進み、右腕6軸力センサ80Rによって検出された外力のY方向成分FyRHの絶対値が所定値#Fy以上か否か、別言すれば、右腕部20Rが所定値#Fy以上の力で左方(Y軸の+方向)あるいは右方(Y軸の−方向)に押されたか否か判断する。所定値#Fyも、所定値#Fよりも大きな値(正値)に設定される。
S102で否定されるときはS104に進み、ロボット10を+X方向、即ち、右腕部20Rに作用する外力の向きと同方向に移動させる。具体的には、図9に想像線で示す如く、左脚部12Lあるいは右脚部12Rが前方に踏み出されるように、脚部アクチュエータ100の動作を制御する。尚、踏み出す歩幅(図9に符号wで示す)は、FxRHの大きさに応じて変更される(具体的には、FxRHが大きくなるに従って歩幅wも大きくなる)。
他方、S102で肯定されるときはS106に進み、Y方向成分FyRHが正値か否か、即ち、右腕部20Rが押された方向が左方と右方のどちらか判断する。S106で肯定されるときはS108に進み、ロボット10を+Xおよび+Y方向に移動させる。具体的には、左脚部12Lが左前方に踏み出されるように、脚部アクチュエータ100の動作を制御する。これに対し、S106で否定されるときはS110に進み、ロボット10を+Xおよび−Y方向に移動させる。具体的には、右脚部12Rが右前方に踏み出されるように、脚部アクチュエータ100の動作を制御する。
また、S100で否定されるときはS112に進み、X方向成分FxRHが所定値−#Fx以上か否か判断する。別言すれば、ロボット10の右腕部20Rが所定値#Fx以上の力で後方(X軸の−方向)に押されたか否か判断する。
S112で肯定されるときはS114に進み、前述したS102と同様にY方向成分FyRHの絶対値が所定値#Fy以上か否か判断する。S114で否定されるときはS116に進んでロボット10を−X方向に移動させる(左脚部12Lあるいは右脚部12Rを後方に踏み出させる)。
他方、S114で肯定されるときはS118に進み、Y方向成分FyRHが正値か否か判断する。S118で肯定されるときはS120でロボット10を−Xおよび+Y方向に移動させる(左脚部12Lを左後方に踏み出させる)一方、S118で否定されるときはS122でロボット10を−Xおよび−Y方向に移動させる(右脚部12Rを右後方に踏み出させる)。
また、S112で否定されるときはS124に進み、Y方向成分FyRHの絶対値が所定値#Fy以上か否か判断し、そこで否定されるときは以降の処理をスキップする(即ち、ロボット10の移動は行わない)。他方、S124で肯定されるときはS126に進んでY方向成分FyRHが正値か否か判断し、そこで肯定されるときはS128でロボット10を+Y方向に移動する(左脚部12Lを左方に踏み出させる)と共に、否定されるときはS130でロボット10を−Y方向に移動させる(右脚部12Rを右方に踏み出させる)。
図6フローチャートの説明に戻ると、次いでS22に進み、外力の3方向成分FxRH,FyRH,FzRHの全ての絶対値が所定値#Fを下回ったか否か、換言すれば、握手が終了したか否か判断する。S22で否定されるときはS20に戻って姿勢安定動作を継続する一方、S22で肯定されるときはS24に進み、握手の姿勢を終了する。
このように、この発明の第1実施例にあっては、右腕部20Rを駆動するアクチュエータ104の動作を制御して握手の姿勢を生成すると共に、右腕部20Rに作用する外力(人と握手したときに右腕部20Rに作用する外力)を検出し、検出した外力に基づいて脚部12L,12Rを駆動するアクチュエータ100の動作を制御する如く構成したので、人との握手を可能にしてコミュニケーション機能を向上させることができると共に、握手したときに腕部に作用する外力に応じてバランスをとって姿勢を安定に保つことができる。
特に、検出した外力のX方向成分FxRHおよびY方向成分FyRHの少なくともいずれかが所定値(#Fx,#Fy)を超えたとき、ロボット10が外力の向きと同方向に移動するように脚部アクチュエータ100の動作を制御する如く構成したので、握手したときの姿勢を一層安定に保つことができる。また、人が意図的に外力を加えた場合には、それに呼応してロボット10が移動するため、コミュニケーション機能のさらなる向上を図ることができる。
また、CCDカメラ84L,84Rで撮像した画像に基づいて握手すべき人の位置を認識し、認識した人の位置に応じて握手の姿勢を変更する如く構成したので、人が握手し易い位置に腕部(具体的にはハンド)を差し出すことが可能となり、コミュニケーション機能をより向上させることができる。
さらに、RFIDタグ94に記憶された人の識別情報に基づいて握手の姿勢を変更する、より詳しくは、識別情報に従って握手する人の身長(固有情報)を人情報データベース116から取得し、取得した身長に基づいて握手の姿勢を変更する如く構成したので、握手する人に応じて最適な位置(最も握手し易い位置)に腕部を差し出すことが可能となり、コミュニケーション機能をより一層向上させることができる。
この実施例は上記の如く、上体(14)に接続された脚部(12L,12R)と腕部(20L,20R)と、前記脚部を駆動する脚部アクチュエータ(100)と、前記腕部を駆動する腕部アクチュエータ(104)とを備えた脚式ロボットの制御装置において、前記腕部アクチュエータの動作を制御して前記腕部に握手の姿勢を生成する腕部動作制御手段(ECU26、図6フローチャートのS16)と、前記握手の姿勢が生成された腕部に作用する外力を検出する外力検出手段(6軸力センサ80L,80R)と、および前記検出された外力が所定値を超えるとき、前記脚式ロボットの姿勢安定制御の実施を開始する姿勢安定制御開始手段(ECU26、図6フローチャートのS18,S20)とを備えると共に、前記姿勢安定制御は、検出される外力が前記所定値よりも大きく設定された第2の所定値を超えるとき、前記ロボットが前記検出される外力の向きと同方向に移動するように前記脚部アクチュエータの動作を制御する(図7フローチャートのS100からS130)如く構成した。
また、握手する人(130)の位置を認識する人位置認識手段(CCDカメラ84L,84R、ECU26)を備えると共に、前記腕部動作制御手段は、前記認識された人の位置に基づいて前記握手の姿勢を変更する(図6フローチャートのS16)如く構成した。
また、人を識別する識別情報を記憶して前記ロボットに送出する識別情報送出手段(RFIDタグ94)を備えると共に、前記腕部動作制御手段は、前記送出された識別情報に基づいて前記握手の姿勢を変更する(図6フローチャートのS16)如く構成した。
尚、上記において、握手する腕部を右腕部20Rとしたが、左腕部20Lに握手の姿勢が生成されるように腕部アクチュエータ104の動作を制御し、左腕部20Lで握手するようにしても良い。この場合、左腕6軸センサ80Lの出力を行動決定部120に入力すれば良いのは言うまでもない。また、右腕部20Rと左腕部20Lの両方に握手の姿勢が生成されるように腕部アクチュエータ104の動作を制御し、両腕で握手するようにしても良い。この場合、右腕部6軸力センサ80Rの出力と左腕部6軸力センサ80Lの出力を行動決定部120に入力し、それらの合力に基づいて姿勢安定制御を行えば良い。
また、右腕部20Rに作用する外力のX方向成分FxRHとY方向成分FyRHが所定値以上となったときにロボット10を移動させるようにしたが、それに加え、Z方向成分FxRHが所定値以上のときに所定の動作(例えば膝の曲げ伸ばし)を行うようにしても良い。
また、脚式ロボットとして2足歩行ロボットを例示したが、それに限られるものではなく、3足以上のロボットであっても良い。
この発明の第1実施例に係る脚式ロボットの制御装置が搭載されるロボットの正面図である。 図1に示すロボットの側面図である。 図1に示すロボットをスケルトンで示す説明図である。 図1に示すロボットの構成を電子制御ユニット(ECU)の入出力関係を中心に表すブロック図である。 図4に示すECUで行われる握手制御の処理を表すブロック図である。 図4に示すECUで行われる握手制御の処理を表すフローチャート(メインルーチン)である。 図6フローチャートの処理を説明する説明図である。 図6フローチャートに示す姿勢安定制御の処理を表すフローチャート(サブルーチン)である。 図8フローチャートの処理を説明する、図6と同様な説明図である。
符号の説明
10:脚式ロボット、12L,12R:脚部、14:上体、20L,20R:腕部、26:ECU(腕部動作制御手段、脚部動作制御手段、人位置認識手段)、80L,80R:6軸力センサ(外力検出手段)、84L,84R:CCDカメラ(人位置認識手段)、94:RFIDタグ(識別情報送出手段)、100:脚部アクチュエータ、104:腕部アクチュエータ、130:人

Claims (3)

  1. 上体に接続された脚部と腕部と、前記脚部を駆動する脚部アクチュエータと、前記腕部を駆動する腕部アクチュエータとを備えた脚式ロボットの制御装置において、
    .前記腕部アクチュエータの動作を制御して前記腕部に握手の姿勢を生成する腕部動作制御手段と、
    b.前記握手の姿勢が生成された腕部に作用する外力を検出する外力検出手段と、
    および
    c.前記検出された外力が所定値を超えるとき、前記脚式ロボットの姿勢安定制御の実施を開始する姿勢安定制御開始手段と、
    を備えると共に、前記姿勢安定制御は、検出される外力が前記所定値よりも大きく設定された第2の所定値を超えるとき、前記ロボットが前記検出される外力の向きと同方向に移動するように前記脚部アクチュエータの動作を制御することを特徴とする脚式ロボットの制御装置。
  2. さらに、
    d.握手する人の位置を認識する人位置認識手段、
    を備えると共に、前記腕部動作制御手段は、前記認識された人の位置に基づいて前記握手の姿勢を変更することを特徴とする請求項1記載の脚式ロボットの制御装置。
  3. さらに、
    .人を識別する識別情報を記憶して前記ロボットに送出する識別情報送出手段、
    を備えると共に、前記腕部動作制御手段は、前記送出された識別情報に基づいて前記握手の姿勢を変更することを特徴とする請求項1または2記載の脚式ロボットの制御装置。
JP2004361711A 2004-12-14 2004-12-14 脚式ロボットの制御装置 Expired - Fee Related JP4384021B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2004361711A JP4384021B2 (ja) 2004-12-14 2004-12-14 脚式ロボットの制御装置
KR1020050120153A KR100776849B1 (ko) 2004-12-14 2005-12-08 레그식 로봇의 제어 장치
US11/297,363 US7877165B2 (en) 2004-12-14 2005-12-09 Handshake legged mobile robot control system
CNB2005101301539A CN100421887C (zh) 2004-12-14 2005-12-12 腿式机器人的控制装置
EP05027084A EP1671874B1 (en) 2004-12-14 2005-12-12 Legged mobile robot control system
HK06110449.0A HK1089998A1 (en) 2004-12-14 2006-09-20 Control device for a legged robot
KR1020070069462A KR100807449B1 (ko) 2004-12-14 2007-07-11 레그식 로봇의 제어 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361711A JP4384021B2 (ja) 2004-12-14 2004-12-14 脚式ロボットの制御装置

Publications (2)

Publication Number Publication Date
JP2006167841A JP2006167841A (ja) 2006-06-29
JP4384021B2 true JP4384021B2 (ja) 2009-12-16

Family

ID=35892391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361711A Expired - Fee Related JP4384021B2 (ja) 2004-12-14 2004-12-14 脚式ロボットの制御装置

Country Status (6)

Country Link
US (1) US7877165B2 (ja)
EP (1) EP1671874B1 (ja)
JP (1) JP4384021B2 (ja)
KR (2) KR100776849B1 (ja)
CN (1) CN100421887C (ja)
HK (1) HK1089998A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4456560B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法
KR100843802B1 (ko) * 2005-12-12 2008-07-04 혼다 기켄 고교 가부시키가이샤 각식 이동 로봇의 제어장치
JP5013270B2 (ja) * 2006-02-02 2012-08-29 株式会社安川電機 ロボットシステム
KR100862190B1 (ko) * 2006-11-30 2008-10-09 한국전자통신연구원 로봇의 자세 검출 장치 및 그 방법
TWI338588B (en) * 2007-07-31 2011-03-11 Ind Tech Res Inst Method and apparatus for robot behavior series control based on rfid technology
JP5104355B2 (ja) * 2008-02-01 2012-12-19 富士通株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラム
JP4998506B2 (ja) * 2009-04-22 2012-08-15 トヨタ自動車株式会社 ロボット制御装置、ロボット制御方法、及び脚式ロボット
US8918212B2 (en) 2009-06-24 2014-12-23 Intuitive Surgical Operations, Inc. Arm with a combined shape and force sensor
KR100989441B1 (ko) * 2010-02-23 2010-10-26 김영일 적응형 퍼지모델을 이용한 태양광 발전 제어 시스템 및 이를 이용한 최대전력 추정방법
JP5633166B2 (ja) * 2010-03-23 2014-12-03 トヨタ自動車株式会社 ロボット、及びその制御方法
WO2012142587A1 (en) * 2011-04-15 2012-10-18 Irobot Corporation Method for path generation for an end effector of a robot
CN102582714B (zh) * 2012-01-31 2013-08-07 山东大学 具有负重能力的液压驱动双足机器人下肢机构
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
JP6140114B2 (ja) * 2014-07-31 2017-05-31 ファナック株式会社 移動式人協調型ロボット
JP2016052697A (ja) * 2014-09-03 2016-04-14 インターマン株式会社 人型ロボット
CN104369192A (zh) * 2014-11-05 2015-02-25 深圳市普乐方文化科技有限公司 娱乐仿真机器人
CN104890756B (zh) * 2015-06-09 2017-04-05 江苏科技大学 一种三维仿人双足步行机器人的机械结构及行走方法
US9694494B1 (en) 2015-12-11 2017-07-04 Amazon Technologies, Inc. Feature identification and extrapolation for robotic item grasping
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
JP6936081B2 (ja) * 2017-08-30 2021-09-15 パナソニック株式会社 ロボット
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
JP2020121353A (ja) * 2019-01-29 2020-08-13 新東工業株式会社 ロボット
US11999059B2 (en) 2020-12-18 2024-06-04 Boston Dynamics, Inc. Limiting arm forces and torques
US11931898B2 (en) * 2020-12-22 2024-03-19 Boston Dynamics, Inc. Arm and body coordination

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3035051B2 (ja) * 1991-12-20 2000-04-17 本田技研工業株式会社 脚式移動ロボットの歩行制御装置
JP3269852B2 (ja) * 1992-05-29 2002-04-02 本田技研工業株式会社 脚式移動ロボットの姿勢安定化制御装置
CN2199853Y (zh) * 1994-06-18 1995-06-07 四川乾坤高新技术研究院 礼仪机器人
US6505096B2 (en) * 1996-12-19 2003-01-07 Honda Giken Kogyo Kabushiki Kaisha Posture control system of legged mobile robot
JP3672426B2 (ja) 1996-12-19 2005-07-20 本田技研工業株式会社 脚式移動ロボットの姿勢制御装置
JP3629133B2 (ja) 1997-01-31 2005-03-16 本田技研工業株式会社 脚式移動ロボットの制御装置
US6421453B1 (en) * 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
JP2003117858A (ja) * 1999-09-20 2003-04-23 Sony Corp ロボットの歩行制御装置及び歩行制御方法
JP2002154076A (ja) * 2000-11-17 2002-05-28 Honda Motor Co Ltd ロボットの腕
KR100532685B1 (ko) * 2000-11-17 2005-12-01 혼다 기켄 고교 가부시키가이샤 레그식 보행 로봇
JP2003191188A (ja) 2001-12-21 2003-07-08 Yamaha Motor Co Ltd ロボットにおける腕による表現方法および肘関節機構
JP4149213B2 (ja) * 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
JP3985623B2 (ja) * 2002-07-26 2007-10-03 松下電器産業株式会社 ロボット
JP4359423B2 (ja) * 2002-11-22 2009-11-04 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの足部機構
JP3706113B2 (ja) * 2003-03-24 2005-10-12 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP4231320B2 (ja) 2003-03-31 2009-02-25 本田技研工業株式会社 移動体の検出装置
KR100843802B1 (ko) * 2005-12-12 2008-07-04 혼다 기켄 고교 가부시키가이샤 각식 이동 로봇의 제어장치

Also Published As

Publication number Publication date
CN1788947A (zh) 2006-06-21
US7877165B2 (en) 2011-01-25
EP1671874A3 (en) 2011-01-26
EP1671874A2 (en) 2006-06-21
KR100807449B1 (ko) 2008-02-25
KR20070078102A (ko) 2007-07-30
CN100421887C (zh) 2008-10-01
HK1089998A1 (en) 2006-12-15
KR20060067831A (ko) 2006-06-20
JP2006167841A (ja) 2006-06-29
KR100776849B1 (ko) 2007-11-16
EP1671874B1 (en) 2012-02-15
US20060129278A1 (en) 2006-06-15

Similar Documents

Publication Publication Date Title
JP4384021B2 (ja) 脚式ロボットの制御装置
JP4824362B2 (ja) 移動ロボットの制御装置
EP1908561B1 (en) Controller of mobile robot
KR100840427B1 (ko) 각식 이동 로봇의 제어장치
US7330775B2 (en) Legged mobile robot controller, legged mobile robot and legged mobile robot control method
KR100843802B1 (ko) 각식 이동 로봇의 제어장치
JP4317518B2 (ja) 物品運搬システム
US8483876B2 (en) Controller of mobile robot
JP4914703B2 (ja) 脚式移動ロボットの制御装置
JP4485887B2 (ja) 脚式移動ロボットの力センサ異常検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090908

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4384021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees