JP3627057B2 - Biped humanoid robot - Google Patents

Biped humanoid robot Download PDF

Info

Publication number
JP3627057B2
JP3627057B2 JP2001353501A JP2001353501A JP3627057B2 JP 3627057 B2 JP3627057 B2 JP 3627057B2 JP 2001353501 A JP2001353501 A JP 2001353501A JP 2001353501 A JP2001353501 A JP 2001353501A JP 3627057 B2 JP3627057 B2 JP 3627057B2
Authority
JP
Japan
Prior art keywords
motion
robot
zmp
joint
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001353501A
Other languages
Japanese (ja)
Other versions
JP2003145458A (en
Inventor
貴之 古田
悠 奥村
哲雄 田原
宏明 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2001353501A priority Critical patent/JP3627057B2/en
Priority to TW91133676A priority patent/TW583058B/en
Priority to PCT/JP2002/012054 priority patent/WO2003043787A1/en
Publication of JP2003145458A publication Critical patent/JP2003145458A/en
Application granted granted Critical
Publication of JP3627057B2 publication Critical patent/JP3627057B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、二脚歩行式人型ロボットに関するものである。
【0002】
【従来の技術】
従来、所謂二脚歩行式人型ロボットは、前もって設定された歩行パターン(以下、歩容という)データを生成して、この歩容データに従って歩行制御を行なって、所定の歩行パターンで脚部を動作させることにより二脚歩行を実現するようにしている。その際、歩行姿勢を安定させるために、ロボットの足裏における反力と重力との合成モーメントがゼロとなる点(以下、ZMP(Zero Moment Point)という。)を目標値に収束させる、所謂ZMP補償を行なうことによってZMP規範によりロボットの安定化を図るようにしている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の二脚歩行式人型ロボットは、立ち上がった姿勢で歩行することを前提に設定されており、できるだけ転倒しないようにしてあるが、胴体部は歩行制御を支援するものであり、胴体部を腕部や脚部と連携させて行動するようにはなっていない。
このため、従来の二脚歩行式人型ロボットは、胴体部,脚部や腕部を全体として動作させるような全身運動、例えば転倒時の受け身動作や、転倒した状態からの起き上がり動作や前転運動のような運動を行なうようには設計されていない。これは、前述したZMP規範の歩行制御が、ロボットの足裏付近での動特性に基づいて行なわれるものであるため、全身運動を行なって環境との接触を伴う床運動の生成及び制御には適用できないからである。
【0004】
従って、従来は二脚歩行式人型ロボットに環境との接触を伴う全身運動等を行なわせる場合に、ロボットの全身運動を動的に行なわせるための安定化の指針が存在しないこと、また環境との接触を伴う全身運動を動的に制御するための制御方法が存在しないという問題があった。
【0005】
本発明は、以上の点にかんがみて、容易に全身運動を動的に安定した状態で行なわせ、制御することができるようにした二脚歩行式人型ロボットを提供することを目的としている。
【0006】
【課題を解決するための手段】
上記目的は、本発明によれば、胴体部と、胴体部の下部両側にて揺動可能な中間に膝部,下端に足部を備えた脚部と、胴体部の上部両側にて揺動可能な中間に肘部,下端に手部を備えた腕部と、胴体部の上端に取り付けられた頭部とを備えており、上記脚部の足部,下腿部,大腿部そして上記腕部の手部,下腕部及び上腕部の揺動可能な関節部をそれぞれ揺動させる駆動手段と、各駆動手段をそれぞれ駆動制御する動作制御装置とを有している二脚歩行式人型ロボットにおいて、上記胴体部及び両膝部にそれぞれ力センサを備えており、ロボットの転倒時の受け身動作,起き上がり動作,前転運動の動作時に接触する接地面に対して、上記動作制御装置が、上記力センサの検出信号に基づいて当該接地面に対する反力と重力との合成モーメントがゼロとなる拡張ZMPを規範としてロボット全体の動作制御を行うことを特徴とする二脚歩行式人型ロボットにより達成される。上記力センサは、さらに、頭部の前後,大腿部,足部,肘部にそれぞれ備えられていてもよい。
【0007】
本発明による二脚歩行式人型ロボットは、好ましくは、上記動作制御装置が、各力センサの検出信号に基づいてそのとき接地している部分を検出して、ロボット全体を多面剛体として動作データを生成する動作生成部と、各力センサの検出信号に基づいてロボットの姿勢を検出し、この姿勢に基づいて動作生成部からの動作データを修正する補償部と、動作生成部からの動作データに基づいて、拡張ZMP(そのとき接地している部分における反力と重力との合成モーメントがゼロとなる点)目標値を算出する拡張ZMP変換部とを備えており、上記補償部が、上記各力センサの検出信号に基づいて検出された拡張ZMP実測値と拡張ZMP変換部からの拡張ZMP目標値を比較して、動作生成部からの動作データの補償量を計算する。
【0008】
本発明による二脚歩行式人型ロボットは、好ましくは、上記動作制御装置がロボットの動作の要素となる姿勢データを格納した動作ライブラリを備えており、上記動作生成部が、与えられたロボットの初期状態から所定の動作の最終状態までの中間の動作に関して、動作データを生成する際に動作ライブラリから対応する姿勢データを読み出して、組合せ動作のシーケンスとして動作データを生成する。
【0009】
本発明による二脚歩行式人型ロボットは、好ましくは、さらにロボットの各関節部の駆動状態及び全体の姿勢を常に監視する動作監視部を備えており、この動作監視部は、拡張ZMP実際値が拡張ZMP目標値から大きくずれた場合に、動作生成部に対して動作データの再生成を指令する。
【0010】
上記構成によれば、二脚歩行式人型ロボットが全身運動を行なう際、動作制御装置が、ロボットに設けられた力センサからの検出信号に基づいてロボットのどの部分が環境、例えば床面または壁面等と接触しているかを把握することによりロボットの姿勢を検出して、この姿勢に基づいて補償部により動作生成部からの動作データを修正する。
従って、動作制御装置が、ロボットの全身運動時に常にロボットの姿勢に基づいて動作データを修正することにより、例えば転倒時の受け身動作,起き上がり動作や前転運動等の全身運動を安定して確実に行なうことが可能になる。
【0011】
上記動作制御装置が、各力センサの検出信号に基づいてそのとき接地している部分を検出して、ロボット全体を多面剛体として動作データを生成する動作生成部と、動作生成部からの動作データに基づいて拡張ZMP(そのとき接地している部分における反力と重力との合成モーメントがゼロとなる点)目標値を算出する拡張ZMP変換部と、を備えており、上記補償部が、上記各力センサの検出信号に基づいて検出された拡張ZMP実測値と拡張ZMP変換部からの拡張ZMP目標値を比較して、動作生成部からの動作データの補償量を計算する場合には、従来のZMP規範による歩行制御と同様に、ロボット全体を多面剛体として取り扱ってそのときの拡張ZMPを目標値に集束させるように拡張ZMP補償を行なうことにより、拡張ZMP規範によりロボットの全身運動の安定化を図ることができる。
【0012】
上記動作制御装置が、ロボットの動作の要素となる姿勢データを格納した動作ライブラリを備えており、上記動作生成部が、与えられたロボットの初期状態から所定の動作の最終状態までの中間の動作に関して、動作データを生成する際に動作ライブラリから対応する姿勢データを読み出して、組合せ動作のシーケンスとして動作データを生成する場合には、ロボットの全身運動を分解したときの要素となる姿勢データが動作ライブラリに格納されているので、動作生成部が動作データを生成する際に、要素となる姿勢データを動作ライブラリから読み出して組み合わせることにより、所望の動作データを生成することができる。これにより動作生成部の計算量が低減され、迅速な動作データの生成を行なうことが可能になる。
【0013】
さらにロボットの各関節部の駆動状態及び全体の姿勢を常に監視する動作監視部を備えており、この動作監視部が、拡張ZMP実際値が拡張ZMP目標値から大きくずれた場合に、動作生成部に対して動作データの再生成を指令する場合には、ロボットが全身運動中にバランスを崩す等により、生成した動作データによる初期状態から所定の動作の最終状態までの中間の動作から大きくずれたとき、動作データを再生成することによって、再び所定の動作の最終状態までの中間の動作を行なわせて当該最終状態まで動作させることができる。
【0014】
【発明の実施の形態】
以下、図面に示した実施形態に基づいて、この発明を詳細に説明する。
図1乃至図2は、本発明による二脚歩行式人型ロボットの一実施形態の構成を示している。
図1において、二脚歩行式人型ロボット10は、胴体部11と、胴体部11の下部両側に取り付けられた脚部12L,12Rと、胴体部の上部両側に取り付けられた腕部13L,13Rと、胴体部の上端に取り付けられた頭部14と、を含んでいる。
【0015】
上記胴体部11は上方の胸部11aと下方の腰部11bとに分割されており、胸部11aが、前屈部11cにて腰部11bに対して前後方向に揺動可能に、特に前方に前屈可能に、そして左右方向に旋回可能に支持されている。さらに、上記胴体部11の胸部11aには、後述する歩行制御装置50が内蔵されている。なお、上記前屈部11cは、前後揺動用の関節部11d及び左右旋回用の関節部11eを備えており、各関節部11d及び11eは、それぞれ関節駆動用モータ(図2参照)により構成されている。
【0016】
上記脚部12L,12Rは、それぞれ大腿部15L,15R,下腿部16L,16R及び足部17L,17Rと、から構成されている。
ここで、上記脚部12L,12Rは、図2に示すように、それぞれ六個の関節部、即ち上方から順に、胴体部11の腰部11bに対する脚部回旋用の関節部18L,18R、脚部のロール方向(x軸周り)の関節部19L,19R、脚部のピッチ方向(y軸周り)の関節部20L,20R、大腿部15L,15Rと下腿部16L,16Rの接続部分である膝部21L,21Rのピッチ方向の関節部22L,22R、足部17L,17Rに対する足首部のピッチ方向の関節部23L,23R、足首部のロール方向の関節部24L,24Rを備えている。なお、各関節部18L,18R乃至24L,24Rは、それぞれ関節駆動用モータにより構成されている。
【0017】
このようにして、腰関節は上記関節部11d,11eから構成され、股間節は上記関節部18L,18R,19L,19R,20L,20Rから構成され、また足関節は関節部23L,23R,24L,24Rから構成されることになる。これにより、二脚歩行式人型ロボット10の左右両側の脚部12L,12Rは、それぞれ6自由度を与えられることになり、各種動作中にこれらの12個の関節部をそれぞれ駆動モータにより適宜の角度に駆動制御することにより、脚部12L,12R全体に所望の動作を与えて、例えば任意に三次元空間を歩行することができるように構成されている。
【0018】
上記腕部13L,13Rは、それぞれ上腕部25L,25R,下腕部26L,26R及び手部27L,27Rと、から構成されている。
ここで、上記腕部13L,13Rの上腕部25L,25R,下腕部26L,26R及び手部27L,27Rは、上述した脚部12L,12Rと同様にして、図2に示すように、それぞれ五個の関節部、即ち上方から順に、肩部にて、胴体部11に対する上腕部25L,25Rのピッチ方向の関節部28L,28R、ロール方向の関節部29L,29R、そして左右方向の関節部30L,30R、上腕部25L,25Rと下腕部26L,26Rの接続部分である肘部31L,31Rにてピッチ方向の関節部32L,32R、手首部にて下腕部26L,26Rに対する手部27L,27Rのピッチ方向の関節部33L,33Rを備えている。なお、各関節部28L,28R乃至33L,33Rは、それぞれ関節駆動用モータにより構成されている。
【0019】
このようにして、二脚歩行式人型ロボット10の左右両側の腕部13L,13Rはそれぞれ5自由度を与えられることにより、各種動作中にこれらの12個の関節部をそれぞれ駆動モータにより適宜の角度に駆動制御し、腕部13L,13R全体に所望の動作を与えることができるように構成されている。
ここで、上記肩部におけるピッチ方向の関節部28L,28Rは、ロール方向の関節部29L,29R及び左右方向の関節部30L,30Rに対して回転軸が前方にずれて配設されており、前方への腕部13L,13Rの振り角度が大きく設定されている。
【0020】
上記頭部14は、胴体部11の上部11aの上端に取り付けられており、例えば視覚としてのカメラや聴覚としてのマイクが搭載されている。ここで、上記頭部14は、図2に示すように、首のピッチ方向の関節部35及び左右方向の関節部36を備えている。なお、各関節部35,36は、それぞれ関節駆動用モータにより構成されている。
【0021】
このようにして、二脚歩行式人型ロボット10の頭部14は、2自由度を与えられることにより、各種動作中にこれらの2個の関節部35,36をそれぞれ駆動モータにより適宜の角度に駆動制御し、頭部14を左右方向または前後方向に動かすことができるように構成されている。
ここで、上記ピッチ方向の関節部35は、左右方向の関節部36に対して回転軸が前方にずれて配設されており、前方への頭部14の揺動角度が大きく設定されている。
【0022】
さらに、上記二脚歩行式人型ロボット10においては、胴体部11の前屈部11cの関節部11dと、脚部12L,12Rの前後方向の関節部、即ち股間節の関節部20L,20R,膝部の関節部22L,22R,足首部の関節部23L,23Rは、図3及び図4に示す角度範囲で揺動可能に支持されている。
【0023】
即ち、足首部の関節部23L,23Rは、その揺動角度θ1が−20乃至+20度以上の角度範囲で揺動可能である。また、膝部の関節部22L,22Rは、その揺動角度θ2が−120乃至0度以上の角度範囲で揺動可能である。さらに、腰関節の関節部20L,20Rは、その揺動角度θ3が−45乃至+60度以上の角度範囲で揺動可能である。また、胴体部11の前屈部11cは、その揺動角度θ4が、−10乃至+60度以上の角度範囲で揺動可能である。
【0024】
これに対して、胴体部11の前屈部11cの関節部11eは、図5に示す角度範囲で揺動可能に支持されている。即ち、前屈部11cの関節部11eはその揺動角度θ5が、図5(A)に示す左方に関して−45度以上、そして図5(B)に示す右方に関して+45度以上の角度範囲で旋回可能である。
【0025】
さらに、二脚歩行式人型ロボット10においては、図6に示すように、動作時に突出する部分または動作時に環境と接触する部分、例えば両膝部や腰部後側にそれぞれ力センサ40が備えられている。即ち、胴体部11の下部11bの後側(即ち、腰部)及び両膝部21L,21Rに、好ましくは頭部14の前後,胴体部11の上部11aの前側の胸部,後側の肩部及び背中部,下部11bの後側の上下部、脚部12L,12Rの大腿部15L,15Rの前後,膝部21L,21R,足部17L,17Rの爪先部及び踵部,腕部13L,13Rの肘部31L,31R及び手首部にそれぞれ力センサ40が備えられている。
これらの力センサ40は、二脚歩行式人型ロボット10の全身運動により当該力センサ40が床面,壁面等の環境に接触しているときに接触圧力を検出して、その検出信号を後述する動作制御装置50に出力するようになっている。なお、各力センサ40は、少なくとも垂直方向の力成分を検出できればよい。
【0026】
図7は図1乃至図5に示した二脚歩行式人型ロボット10の電気的構成を示している。図7において、二脚歩行式人型ロボット10は駆動手段、即ち上述した各関節部、詳しくは関節駆動用モータ11d,11e,18L,18R乃至36を駆動制御する動作制御装置50を備えている。
【0027】
上記動作制御装置50は、動作計画部51と、動作生成部52と、拡張ZMP変換部53と、拡張ZMP安定部54と、制御部55と、ロボットの各関節部の角度を検出する角度計測ユニット56と、動作監視部57とを備えている。
なお、二脚歩行式ロボット10の座標系として、前後方向をx方向(前方+),横方向をy方向(内方+)そして上下方向をz方向(上方+)とするxyz座標系を使用する。
【0028】
上記動作計画部51は、与えられたロボットの初期状態(各関節部の角度及び力センサ40の検出信号に基づく姿勢)と所望の動作の最終状態から、初期状態と最終状態との間の中間の動作を計画する。即ち、動作計画部51は、ロボット全体により構成される凸部分を覆うような多面剛体を仮想的に設定して、初期状態から最終状態までの上記多面剛体の時系列形状データ及び重心軌道を計算し、全身運動を行なうために必要なロボットの角運動量を計算する。
【0029】
そして、動作計画部51は、上記多面剛体の重心位置,初期運動状態(重心周りの角速度及び角加速度)に基づいて、ロボットの動作軌道すなわち動作計画を生成する。なお、上記動作計画部51は、後述するように動作監視部57からロボットの現在の状態及び動作計画からのずれ量が入力されたときには、同様にして動作計画の再生成を行なう。
【0030】
ここで、動作計画部51は動作ライブラリ51aを備えている。
この動作ライブラリ51aは、前もってロボットの動作の要素となる姿勢データ等が種類別に格納されている。これにより動作計画部51は、上述した動作計画を行なう際に、必要に応じて各種姿勢データ等を動作ライブラリ51aから読み出して、組合せ動作のシーケンスとして動作計画を生成する。そして、動作計画部51は、動作計画として、シーケンス毎に姿勢データ及びそのときの各関節部の角運動量を動作生成部52に出力するようになっている。
【0031】
上記動作生成部52は、二脚歩行式人型ロボット10の全身運動に必要な各関節部15L,15R乃至36の角度データθrefを生成する。その際、上記動作生成部52は、後述する拡張ZMP安定部54からの指令に基づいて内部のパラメータ及び角度データを修正するようになっている。
【0032】
上記拡張ZMP変換部53は、動作生成部52からの各関節部の角度データθrefに基づいて拡張ZMP目標値を計算し、拡張ZMP安定部54及び動作監視部57に出力する。
【0033】
上記拡張ZMP安定部54は、角度計測ユニット56からの姿勢情報及び前記力センサ40からの検出出力に基づいて拡張ZMP実際値を計算し、さらにこの拡張ZMP実際値を拡張ZMP変換部53からの拡張ZMP目標値と比較して、その差に基づいて拡張ZMP補償量を計算して、動作生成部52に出力する。拡張ZMP補償量の計算方法は、従来のZMP補償量の計算方法をそのまま適用することができる。
【0034】
ここで、動作生成部52は、拡張ZMP安定部54からの拡張ZMP補償量がフィードバックされることにより、この拡張ZMP補償量に基づいて動作データを修正して、制御部55に出力する。
【0035】
上記制御部55は、動作生成部52からの修正された動作データに基づいて各関節駆動用モータの制御信号を生成し、各関節駆動用モータを駆動制御するようになっている。
【0036】
上記角度計測ユニット56は、各関節部15L,15R乃至36の関節駆動用モータに備えられた、例えばロータリエンコーダ等により各関節駆動用モータの角度情報が入力されることによって各関節駆動用モータの角度位置、即ち角度及び角速度そして角度モーメントに関する状態情報、即ちロボット10の姿勢情報θrealを計測して、拡張ZMP安定部54及び動作監視部57に出力するようになっている。
【0037】
上記動作監視部57は、動作計画部51からの動作計画,拡張ZMP変換部53からの拡張ZMP目標値,角度計測ユニット56及び力センサ40からの拡張ZMP実際値としての(角度及び角度モーメントを含む)角度情報が入力されており、これらに基づいて、常に二脚歩行式人型ロボット10の状態を監視している。そして、動作監視部57は、動作計画,拡張ZMP目標値から実際のロボットの動作が大きくずれたとき、現在の状態およびずれ量を動作計画部51にフィードバックして、動作計画部51に動作計画の再生成を行なわせる。
【0038】
本発明実施形態による二脚歩行式人型ロボット10は以上のように構成されており、図8のフローチャートに示すように動作する。
図8のフローチャートにおいて、先ず動作計画部51が、ステップST1にて、与えられたロボットの初期状態及び所望の動作の最終状態から動作計画の生成を開始する。
【0039】
そして、動作計画部51は、ステップST2にて、ロボット全体の凸部分を覆う多面剛体を仮想的に設定し、続いてステップST3にて、初期状態から最終状態までの上記多面剛体の時系列形状データ及びその重心軌道を計算する。
次に、動作計画部51は、ステップST4にて、全身運動を行なうために必要なロボットの角運動量を計算し、ステップST5にて、上記多面剛体の重心位置,初期運動状態(重心周りの角速度及び角加速度)に基づいて、ロボットの動作軌道すなわち動作計画を生成する。
これにより、ステップST6にて、動作計画の生成が終了する。
【0040】
次に、ステップST7にてロボット動作を開始する。
先ず、ステップST8にて、動作生成部52は、上記動作計画部51の時系列形状データ及び重心軌道による各関節部の各運動量から各関節部の角度データθrefを生成し、これにより拡張ZMP変換部53が、この角度データθrefに基づいて拡張ZMP目標値を計算する。
そして、ステップST9にて、拡張ZMP安定部54が、角度計測ユニット56からの姿勢情報及び力センサ40からの検出出力に基づいて、拡張ZMP実際値及び各関節部の角運動量を検出し、ステップST10にて、拡張ZMP実際値と拡張ZMP目標値を比較する。
【0041】
ここで、拡張ZMP実際値と拡張ZMP目標値の比較により、所定値以上の誤差がある場合には、ステップST11にて、ロボットの状態が動作計画の最終点であるか否か判断し、最終点でない場合には上記ステップST8に戻り、最終点である場合には、ステップST12にてロボット動作を完了する。
また、ステップST10にて、所定値以上の誤差がない場合には、ステップST13にて、動作監視部57がこの誤差が拡張ZMP安定部54により補償可能か否か判断して、補償できない場合には、ステップST14にて、動作計画部51に動作計画の再生成を行なわせてステップST2に戻る。
これに対して、ステップST13にて補償可能である場合には、ステップST15にて、動作制御装置50の拡張ZMP安定部54は、ロボットにより構成される多面剛体の形状を変化させずに、各関節部の角速度等の調整により上記誤差を修正して、ステップST11に進む。
【0042】
このようにして、本発明実施形態による二脚歩行式人型ロボット10によれば、従来のZMP規範の歩行制御を、全身運動を行なうロボットの動作時に突出しまたは環境に接触する部分における反力と重力との合成モーメントがゼロとなる点を拡張ZMPとして、この拡張ZMPを従来のロボットの歩行制御におけるZMPと同様にして、拡張ZMP目標値と拡張ZMP実測値の差である拡張ZMP誤差に基づいて動作データを修正することにより、ロボット10に発生する慣性力を制御して、拡張ZMP目標値を補償する。
これにより、例えば転倒時の受け身動作,起き上がり動作や前転運動等の全身運動において、動作制御を安定的に行なうことにより、二脚歩行式人型ロボットの全身運動を動的に安定して確実に行なうことが可能になる。
【0043】
ここで、二脚歩行式人型ロボット10が、例えば前転運動を行なう場合、制御部51が、上述した拡張ZMP規範における動作制御装置50に基づく動作制御によって、図9(A)に示す直立した状態から順次に前屈みになり(図9(B)参照)、頭部14及び手部を床面に着き(図9(C)参照)、両脚部12L,12Rを床面から離し(図9(D)参照)、胴体部11を前方に押し出し(図9(E)参照)、胴体部11の後面(背中部)を床面に着け(図9(F)参照)、手を床面から離して前方に回転し(図9(G)参照)、踵部を床面に着けて胴体部11を起こし(図9(H)参照)、足部の裏面を床面に着けて胴体部11を床面から持ち上げ(図9(I)参照)、胴体部11をほぼ垂直に立て直して(図9(J)参照)、最後に図9(K)に示すように、再び直立状態に立ち上がることができる。
ここで、上記図9(C),(E)及び(I)においては、それぞれ図10(A),(B)及び(C)に拡大して示すように、ロボット全体が凸面のみによって多面剛体Pとして取り扱うことができ、この多面剛体Pの角部または面部に力センサ40が備えられていることにより、そのときのロボット全体の姿勢は、床面に接地している力センサ40からの検出信号と各関節部の角度によって、正確に検出することができる。
【0044】
このようにして、本発明実施形態による二脚歩行式人型ロボット10によれば、動作時に突出する部分または動作時に環境と接触する部分(例えば、両膝部及び腰部後側)に、それぞれ力センサ40が設けられているので、ロボットのそのときの姿勢が正確に検出されると共に、各力センサ40の検出信号に基づいて、そのときのロボットの接地面に対する反力と重力との合成モーメントがゼロとなる拡張ZMPを規範としてロボット全体の動作制御を行なうことにより、例えば転倒時の受け身動作,起き上がり動作や前転運動等の全身運動の動作制御を確実に行なうことができる。
【0045】
上述した実施形態においては、脚部12L,12Rは6自由度を、そして腕部13L,13Rは5自由度を有しているが、これに限らず、より小さい自由度またはより大きい自由度を有していてもよい。
【0046】
【発明の効果】
以上述べたように、本発明によれば、二脚歩行式人型ロボットが全身運動を行なう際、動作制御装置が、ロボット各部の動作時に突出する部分または動作時に環境と接触する部分に設けられた力センサからの検出信号に基づいて、ロボットのどの部分が環境、例えば床面または壁面等と接触しているかを把握することによりロボットの姿勢を検出して、この姿勢に基づいて、補償部により動作生成部からの動作データを修正する。
従って、動作制御装置が、ロボットの全身運動時に、常にロボットの姿勢に基づいて動作データを修正するので、例えば転倒時の受け身動作,起き上がり動作や前転運動等の全身運動を安定して確実に行なうことが可能になる。
このようにして、本発明によれば、容易に全身運動を行なうことができるようにした、極めて優れた二脚歩行式人型ロボットが提供される。
【図面の簡単な説明】
【図1】本発明による二脚歩行式人型ロボットの一実施形態の外観を示し、(A)は概略正面図、(B)は概略側面図である。
【図2】図1の二脚歩行式人型ロボットの機械的構成を示す概略図である。
【図3】図1の二脚歩行式人型ロボットの前屈部及び脚部の各関節部の前方への揺動限界を示す概略図である。
【図4】図1の二脚歩行式人型ロボットの前屈部及び脚部の各関節部の後方への揺動限界を示す概略図である。
【図5】図1の二脚歩行式人型ロボットの前屈部の各関節部の概略図で、(A)は左方向への旋回限界を、(B)は右方向への旋回限界をそれぞれ示す。
【図6】図1の二脚歩行式人型ロボットにおける力センサの配置を示す側面図である。
【図7】図1の二脚歩行式人型ロボットの電気的構成を示すブロック図である。
【図8】図1の二脚歩行式人型ロボットの動作制御を示すフローチャートである。
【図9】図1の二脚歩行式人型ロボットの前転動作を順次に示す左側面図である。
【図10】図9の前転動作の途中における拡大図である。
【符号の説明】
10 二脚歩行式人型ロボット
11 胴体部
11a 上部
11b 下部
11c 前屈部
11d,11e 関節部(関節駆動用モータ)
12L,12R 脚部
13L,13R 腕部
14 頭部
15L,15R 大腿部
16L,16R 下腿部
17L,17R 足部
18L,183〜24L,24R 関節部(関節駆動用モータ)
21L,21R 膝部
25L,25R 上腕部
26L,26R 下腕部
27L,27R 手部
28L,28R〜33L,33R 関節部(関節駆動用モータ)
31L,31R 肘部
35,36 関節部(関節駆動用モータ)
40 力センサ
50 動作制御装置
51 動作計画部
51a 動作ライブラリ
52 動作生成部
53 拡張ZMP変換部
54 拡張ZMP安定部
55 制御部
56 角度計測ユニット
57 動作監視部
P 多面剛体
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a biped walking humanoid robot.
[0002]
[Prior art]
Conventionally, so-called biped walking type humanoid robots generate predetermined walking pattern (hereinafter referred to as gait) data, perform walking control in accordance with the gait data, and move the legs in a predetermined walking pattern. Biped walking is realized by operating. At that time, in order to stabilize the walking posture, a so-called ZMP that converges a point (hereinafter referred to as ZMP (Zero Moment Point)) at which the combined moment of the reaction force and gravity on the sole of the robot becomes zero is converged to a target value. By performing compensation, the robot is stabilized according to the ZMP standard.
[0003]
[Problems to be solved by the invention]
However, the conventional bipedal humanoid robot is set on the premise that it walks in a standing posture, and it tries not to fall as much as possible, but the torso supports walking control, It is not designed to act in cooperation with the arms and legs.
For this reason, a conventional bipedal walking humanoid robot has a whole body movement that moves the torso, legs, and arms as a whole, for example, a passive action during a fall, a rising action from a fall, and a forward roll. It is not designed to do exercise like exercise. This is because the ZMP norm walking control described above is performed based on the dynamic characteristics in the vicinity of the sole of the robot. This is because it cannot be applied.
[0004]
Therefore, conventionally, when a bipedal humanoid robot performs whole body movement with contact with the environment, there is no guideline for stabilizing the whole body movement of the robot. There is a problem that there is no control method for dynamically controlling the whole body movement accompanied with contact with the body.
[0005]
In view of the above points, an object of the present invention is to provide a two-legged humanoid robot that can easily perform and control whole body motion in a dynamically stable state.
[0006]
[Means for Solving the Problems]
According to the present invention, according to the present invention, the body part, the leg part having the knee part at the middle and the foot part at the lower end, which can swing on both sides of the lower part of the body part, and the upper part of the body part are swung. It has an arm part with an elbow in the middle, a hand part at the lower end, and a head part attached to the upper end of the torso part, and the foot part of the leg part, the lower leg part, the thigh part and the above part. Biped walking type person having drive means for swinging the swingable joint parts of the arm part, the lower arm part and the upper arm part, and an operation control device for driving and controlling each drive means. Type robots are equipped with force sensors on the torso and both knees, respectively. Dynamic The motion control device operates on the ground contact surface in contact with the robot, based on the extended ZMP in which the combined moment of the reaction force and gravity on the ground contact surface is zero based on the detection signal of the force sensor. This is achieved by a biped walking humanoid robot characterized by performing control. The force sensor may be further provided on the front and back of the head, the thigh, the foot, and the elbow.
[0007]
In the biped walking type humanoid robot according to the present invention, preferably, the motion control device detects a portion that is in contact with the ground based on the detection signals of the respective force sensors, and the motion data of the entire robot as a polyhedral rigid body. An action generation unit for generating A compensation unit that detects the posture of the robot based on the detection signal of each force sensor and corrects the motion data from the motion generation unit based on the posture; Based on the motion data from the motion generation unit, it has an extended ZMP conversion unit that calculates the target value of extended ZMP (the point at which the combined moment of the reaction force and gravity in the grounded part becomes zero) The compensation unit compares the expanded ZMP actual measurement value detected based on the detection signals of the force sensors with the expanded ZMP target value from the expanded ZMP conversion unit, and calculates the compensation amount of the motion data from the motion generation unit. calculate.
[0008]
The biped walking humanoid robot according to the present invention preferably includes a motion library in which the motion control device stores posture data as an element of the motion of the robot, and the motion generation unit Regarding the intermediate motion from the initial state to the final state of the predetermined motion, when generating motion data, corresponding posture data is read from the motion library, and motion data is generated as a sequence of combination motion.
[0009]
The biped walking humanoid robot according to the present invention preferably further includes an operation monitoring unit that constantly monitors the driving state and the overall posture of each joint of the robot, and the operation monitoring unit includes an extended ZMP actual value. Is greatly deviated from the extended ZMP target value, the operation generator is instructed to regenerate the operation data.
[0010]
According to the above configuration, when the biped walking humanoid robot performs the whole body motion, the motion control device is the robot. To Based on the detection signal from the provided force sensor, the posture of the robot is detected by grasping which part of the robot is in contact with the environment, for example, the floor surface or the wall surface, and the compensator based on this posture To correct the operation data from the operation generation unit.
Therefore, the motion control device always corrects the motion data based on the posture of the robot during the whole body motion of the robot, so that the whole body motion such as the passive motion, the rising motion and the forward motion during the fall can be stably and reliably performed. It becomes possible to do.
[0011]
The motion control device detects the part that is grounded at that time based on the detection signal of each force sensor and generates motion data with the entire robot as a polyhedral rigid body, and motion data from the motion generation unit And an extended ZMP conversion unit for calculating a target value based on the extended ZMP (a point at which the combined moment of the reaction force and gravity in the portion that is in contact with the ground becomes zero). When calculating the compensation amount of the operation data from the motion generation unit by comparing the expanded ZMP actual measurement value detected based on the detection signal of each force sensor and the expanded ZMP target value from the expansion ZMP conversion unit, In the same way as the walking control based on the ZMP norm, the extended ZMP compensation is performed by treating the entire robot as a polyhedral rigid body and converging the expanded ZMP at that time to the target value. By P norm it is possible to stabilize the whole body motion of the robot.
[0012]
The motion control device includes a motion library that stores posture data as an element of robot motion, and the motion generation unit performs an intermediate motion from an initial state of a given robot to a final state of a predetermined motion. When the motion data is generated, the corresponding posture data is read from the motion library, and the motion data is generated as a combination motion sequence. Since it is stored in the library, when the motion generation unit generates motion data, desired motion data can be generated by reading out and combining the posture data as elements from the motion library. As a result, the calculation amount of the motion generation unit is reduced, and it becomes possible to quickly generate motion data.
[0013]
Furthermore, an operation monitoring unit that constantly monitors the driving state and the overall posture of each joint unit of the robot is provided, and when the expanded ZMP actual value greatly deviates from the expanded ZMP target value, the operation generating unit If the robot is instructed to regenerate the motion data, the robot is greatly out of the intermediate motion from the initial state to the final state of the predetermined motion due to the balance being lost during the whole body motion, etc. When the operation data is regenerated, an intermediate operation up to the final state of the predetermined operation can be performed again until the final state is reached.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
The present invention will be described in detail below based on the embodiments shown in the drawings.
1 and 2 show a configuration of an embodiment of a biped walking humanoid robot according to the present invention.
In FIG. 1, a biped walking humanoid robot 10 includes a body part 11, legs 12L and 12R attached to both lower sides of the body part 11, and arm parts 13L and 13R attached to both upper sides of the body part. And a head 14 attached to the upper end of the body part.
[0015]
The body part 11 is divided into an upper chest part 11a and a lower waist part 11b, and the chest part 11a can swing in the front-rear direction with respect to the waist part 11b at the forward bending part 11c, and can be bent forward in particular. And is supported so as to be turnable in the left-right direction. Further, a walking control device 50 to be described later is built in the chest portion 11a of the body portion 11. The forward bending part 11c includes a joint part 11d for swinging back and forth and a joint part 11e for turning left and right, and each joint part 11d and 11e is constituted by a joint drive motor (see FIG. 2). ing.
[0016]
The legs 12L and 12R are composed of thighs 15L and 15R, crus 16L and 16R, and legs 17L and 17R, respectively.
Here, as shown in FIG. 2, the leg portions 12L and 12R have six joint portions, that is, joint portions 18L and 18R for rotating the leg portion with respect to the waist portion 11b of the body portion 11 in order from the top, leg portions, respectively. Are joint portions 19L, 19R in the roll direction (around the x axis), joint portions 20L, 20R, thigh portions 15L, 15R in the pitch direction of the leg portions (around the y axis), and lower leg portions 16L, 16R. There are provided joint portions 22L, 22R in the pitch direction of the knee portions 21L, 21R, joint portions 23L, 23R in the pitch direction of the ankle portion with respect to the foot portions 17L, 17R, and joint portions 24L, 24R in the roll direction of the ankle portion. Each of the joint portions 18L, 18R to 24L, 24R is configured by a joint driving motor.
[0017]
Thus, the hip joint is composed of the joint portions 11d and 11e, the crotch joint is composed of the joint portions 18L, 18R, 19L, 19R, 20L and 20R, and the ankle joint is the joint portions 23L, 23R and 24L. , 24R. As a result, the left and right leg portions 12L and 12R of the biped walking humanoid robot 10 are each given six degrees of freedom, and these twelve joint portions are appropriately driven by the drive motors during various operations. By controlling the drive to this angle, the entire leg portions 12L and 12R are given desired motion, and can be arbitrarily walked in a three-dimensional space, for example.
[0018]
The arm portions 13L and 13R are composed of upper arm portions 25L and 25R, lower arm portions 26L and 26R, and hand portions 27L and 27R, respectively.
Here, the upper arm portions 25L and 25R, the lower arm portions 26L and 26R, and the hand portions 27L and 27R of the arm portions 13L and 13R are respectively similar to the leg portions 12L and 12R described above, as shown in FIG. Five joint portions, that is, in order from the top, at the shoulder portions, the joint portions 28L and 28R in the pitch direction of the upper arms 25L and 25R with respect to the body portion 11, the joint portions 29L and 29R in the roll direction, and the joint portions in the left-right direction 30L, 30R, joint portions 32L, 32R in the pitch direction at the elbow portions 31L, 31R which are connecting portions of the upper arm portions 25L, 25R and the lower arm portions 26L, 26R, and the hand portions for the lower arm portions 26L, 26R at the wrist portion. Joint portions 33L and 33R in the pitch direction of 27L and 27R are provided. Each of the joint portions 28L, 28R to 33L, 33R is constituted by a joint driving motor.
[0019]
In this manner, the arms 13L and 13R on the left and right sides of the biped walking humanoid robot 10 are each given five degrees of freedom, so that these twelve joints can be appropriately adjusted by the drive motor during various operations. It is configured so that a desired motion can be given to the entire arm portions 13L and 13R.
Here, the joint portions 28L and 28R in the pitch direction in the shoulder portion are disposed with their rotational axes shifted forward relative to the joint portions 29L and 29R in the roll direction and the joint portions 30L and 30R in the left-right direction. The swing angle of the arms 13L and 13R toward the front is set large.
[0020]
The head 14 is attached to the upper end of the upper part 11a of the body part 11, and for example, a camera for vision and a microphone for hearing are mounted. Here, as shown in FIG. 2, the head 14 includes a joint 35 in the pitch direction of the neck and a joint 36 in the left-right direction. Each joint portion 35, 36 is constituted by a joint driving motor.
[0021]
In this way, the head 14 of the biped walking humanoid robot 10 is given two degrees of freedom, so that during the various operations, the two joint portions 35 and 36 are respectively set at appropriate angles by the drive motor. And the head 14 can be moved in the left-right direction or the front-rear direction.
Here, the pitch-direction joint portion 35 is disposed such that the rotation axis is shifted forward with respect to the left-right direction joint portion 36, and the swing angle of the head 14 to the front is set large. .
[0022]
Further, in the biped walking humanoid robot 10, the joint portion 11d of the forward bending portion 11c of the trunk portion 11 and the joint portions in the front-rear direction of the legs 12L and 12R, that is, the joint portions 20L, 20R of the crotch joint, The joint portions 22L and 22R of the knee portion and the joint portions 23L and 23R of the ankle portion are supported so as to be swingable within the angular range shown in FIGS.
[0023]
That is, the joint portions 23L and 23R of the ankle portion can swing within an angle range where the swing angle θ1 is −20 to +20 degrees or more. Further, the knee joint portions 22L and 22R can swing within an angle range in which the swing angle θ2 is −120 to 0 degrees or more. Further, the joint portions 20L and 20R of the hip joint can swing within an angle range where the swing angle θ3 is −45 to +60 degrees or more. Further, the forward bending portion 11c of the body portion 11 can swing within an angle range where the swing angle θ4 is −10 to +60 degrees or more.
[0024]
On the other hand, the joint part 11e of the forward bending part 11c of the trunk | drum 11 is supported so that rocking | fluctuation is possible in the angle range shown in FIG. That is, the joint part 11e of the forward bending part 11c has an angle range in which the swing angle θ5 is −45 degrees or more with respect to the left side shown in FIG. 5A and +45 degrees or more with respect to the right side shown in FIG. Can be swiveled.
[0025]
Furthermore, as shown in FIG. 6, the biped walking humanoid robot 10 is provided with force sensors 40 on a portion that protrudes during operation or a portion that contacts the environment during operation, for example, both knees and the back of the waist. ing. That is, the back side (that is, the waist) of the lower part 11b of the body part 11 and the knee parts 21L and 21R are preferably arranged in the front and rear of the head part 14, the chest part on the front side of the upper part 11a of the body part 11, the rear shoulder part, and Back part, rear upper part of lower part 11b, front and back of leg parts 12L, 12R, thigh parts 15L, 15R, knee parts 21L, 21R, toe parts and buttocks parts of leg parts 17L, 17R, arm parts 13L, 13R The force sensors 40 are provided at the elbow portions 31L and 31R and the wrist portion, respectively.
These force sensors 40 detect contact pressure when the force sensor 40 is in contact with an environment such as a floor surface or a wall surface by the whole body movement of the biped walking humanoid robot 10, and the detection signal is described later. It outputs to the operation control apparatus 50 which performs. Each force sensor 40 only needs to detect at least a force component in the vertical direction.
[0026]
FIG. 7 shows an electrical configuration of the biped walking humanoid robot 10 shown in FIGS. In FIG. 7, the biped walking humanoid robot 10 includes driving means, that is, an operation control device 50 for driving and controlling each of the joint portions described above, specifically, the joint driving motors 11d, 11e, 18L, 18R to 36. .
[0027]
The motion control device 50 includes an motion planning unit 51, a motion generation unit 52, an extended ZMP conversion unit 53, an extended ZMP stabilization unit 54, a control unit 55, and an angle measurement that detects the angle of each joint portion of the robot. A unit 56 and an operation monitoring unit 57 are provided.
As the coordinate system of the biped walking robot 10, an xyz coordinate system is used in which the front-rear direction is the x direction (forward +), the horizontal direction is the y direction (inward +), and the vertical direction is the z direction (upward +). To do.
[0028]
The motion planning unit 51 determines the intermediate state between the initial state and the final state from the initial state of the given robot (the angle based on the angle of each joint and the detection signal of the force sensor 40) and the final state of the desired motion. Plan the behavior. That is, the motion planning unit 51 virtually sets a polyhedral rigid body that covers the convex portion constituted by the entire robot, and calculates the time series shape data and the gravity center trajectory of the polyhedral rigid body from the initial state to the final state. Then, the angular momentum of the robot necessary for performing the whole body motion is calculated.
[0029]
Then, the motion planning unit 51 generates a motion trajectory of the robot, that is, a motion plan, based on the gravity center position and the initial motion state (angular velocity and angular acceleration around the gravity center) of the polyhedral rigid body. The motion planning unit 51 regenerates the motion plan in the same manner when the current state of the robot and the deviation amount from the motion plan are input from the motion monitoring unit 57 as will be described later.
[0030]
Here, the motion planning unit 51 includes a motion library 51a.
In the motion library 51a, posture data and the like that are elements of robot motion are stored in advance by type. Thereby, when performing the above-described motion plan, the motion plan unit 51 reads various posture data and the like from the motion library 51a as necessary, and generates a motion plan as a sequence of combination motions. Then, the motion planning unit 51 outputs posture data and the angular momentum of each joint at that time to the motion generation unit 52 for each sequence as the motion plan.
[0031]
The motion generation unit 52 generates angle data θref of the joint portions 15L and 15R to 36 necessary for the whole body motion of the biped walking humanoid robot 10. At that time, the motion generation unit 52 corrects internal parameters and angle data based on a command from an extended ZMP stabilization unit 54 described later.
[0032]
The extended ZMP conversion unit 53 calculates an extended ZMP target value based on the angle data θref of each joint from the motion generation unit 52 and outputs the calculated value to the extended ZMP stabilization unit 54 and the motion monitoring unit 57.
[0033]
The extended ZMP stabilization unit 54 calculates an extended ZMP actual value based on the attitude information from the angle measurement unit 56 and the detection output from the force sensor 40, and further, the extended ZMP actual value is output from the extended ZMP conversion unit 53. Compared with the extended ZMP target value, an extended ZMP compensation amount is calculated based on the difference, and is output to the motion generation unit 52. As a method for calculating the extended ZMP compensation amount, a conventional method for calculating the ZMP compensation amount can be applied as it is.
[0034]
Here, when the extended ZMP compensation amount from the extended ZMP stabilizing unit 54 is fed back, the motion generation unit 52 corrects the motion data based on the extended ZMP compensation amount, and outputs the motion data to the control unit 55.
[0035]
The control unit 55 generates a control signal for each joint drive motor based on the corrected motion data from the motion generation unit 52, and drives and controls each joint drive motor.
[0036]
The angle measurement unit 56 is provided in the joint drive motors of the joint portions 15L, 15R to 36, and the angle information of each joint drive motor is input by, for example, a rotary encoder or the like. State information relating to the angular position, that is, the angle, the angular velocity, and the angular moment, that is, the posture information θreal of the robot 10 is measured and output to the extended ZMP stabilizing unit 54 and the operation monitoring unit 57.
[0037]
The motion monitoring unit 57 includes the motion plan from the motion planning unit 51, the expanded ZMP target value from the expanded ZMP conversion unit 53, and the expanded ZMP actual value from the angle measurement unit 56 and the force sensor 40 (the angle and angular moment are Angle information is input, and based on these, the state of the biped walking humanoid robot 10 is constantly monitored. Then, the motion monitoring unit 57 feeds back the current state and deviation amount to the motion planning unit 51 when the actual motion of the robot greatly deviates from the motion plan and the extended ZMP target value, and sends the motion plan to the motion planning unit 51. To regenerate.
[0038]
The biped walking humanoid robot 10 according to the embodiment of the present invention is configured as described above and operates as shown in the flowchart of FIG.
In the flowchart of FIG. 8, first, the motion planning unit 51 starts generating a motion plan from the initial state of the given robot and the final state of the desired motion in step ST1.
[0039]
In step ST2, the motion planning unit 51 virtually sets a polyhedral rigid body that covers the convex portion of the entire robot, and then in step ST3, the time series shape of the polyhedral rigid body from the initial state to the final state is set. Calculate the data and its center of gravity trajectory.
Next, in step ST4, the motion planning unit 51 calculates the angular momentum of the robot necessary for performing the whole body motion, and in step ST5, the gravity center position and the initial motion state (angular velocity around the gravity center) of the polyhedral rigid body. And a motion plan of the robot, that is, a motion plan.
Thereby, the generation of the motion plan is completed in step ST6.
[0040]
Next, robot operation is started in step ST7.
First, in step ST8, the motion generation unit 52 generates the angle data θref of each joint portion from the time series shape data of the motion planning unit 51 and each momentum of each joint portion based on the center of gravity trajectory. The unit 53 calculates an extended ZMP target value based on the angle data θref.
Then, in step ST9, the expanded ZMP stabilizing unit 54 detects the expanded ZMP actual value and the angular momentum of each joint based on the posture information from the angle measurement unit 56 and the detection output from the force sensor 40, and step In ST10, the expanded ZMP actual value is compared with the expanded ZMP target value.
[0041]
Here, if there is an error of a predetermined value or more by comparing the expanded ZMP actual value and the expanded ZMP target value, it is determined in step ST11 whether or not the robot state is the final point of the motion plan. If it is not a point, the process returns to step ST8. If it is a final point, the robot operation is completed in step ST12.
If there is no error greater than or equal to the predetermined value in step ST10, the operation monitoring unit 57 determines in step ST13 whether or not this error can be compensated by the extended ZMP stabilization unit 54, and cannot be compensated. In step ST14, the operation planning unit 51 regenerates the operation plan, and the process returns to step ST2.
On the other hand, when compensation is possible in step ST13, in step ST15, the extended ZMP stabilizing unit 54 of the motion control device 50 changes each shape of the multi-faced rigid body constituted by the robot without changing the shape of the polyhedral rigid body. The error is corrected by adjusting the angular velocity or the like of the joint, and the process proceeds to step ST11.
[0042]
In this way, according to the biped walking humanoid robot 10 according to the embodiment of the present invention, the conventional ZMP normative walking control is performed with the reaction force at the portion that protrudes or contacts the environment when the robot that performs the whole body motion is operated. Based on the expanded ZMP error, which is the difference between the expanded ZMP target value and the measured actual value of the expanded ZMP, the expanded ZMP is defined as the expanded ZMP at the point where the combined moment with gravity is zero. By correcting the motion data, the inertial force generated in the robot 10 is controlled to compensate for the extended ZMP target value.
As a result, the whole body motion of the biped walking humanoid robot can be dynamically and stably ensured by performing stable motion control in the whole body motion such as passive motion, rising motion and forward motion when falling. Can be performed.
[0043]
Here, when the biped walking humanoid robot 10 performs forward motion, for example, the control unit 51 performs the upright shown in FIG. 9A by the motion control based on the motion control device 50 in the extended ZMP standard described above. The head 14 and the hand are put on the floor (see FIG. 9C), and the legs 12L and 12R are separated from the floor (see FIG. 9). (See (D)), the body part 11 is pushed forward (see FIG. 9 (E)), the rear surface (back part) of the body part 11 is put on the floor (see FIG. 9 (F)), and the hand from the floor surface. Rotate and move forward (see FIG. 9 (G)), put the buttocks on the floor and raise the trunk 11 (see FIG. 9 (H)), and attach the back of the foot to the floor and the trunk 11 Is lifted from the floor (see FIG. 9 (I)), the body part 11 is turned upright almost vertically (see FIG. 9 (J)), and finally the figure is As shown in (K), it is possible to stand up again upright.
Here, in FIGS. 9 (C), (E) and (I), as shown in FIGS. 10 (A), (B) and (C) in an enlarged manner, the entire robot is a polyhedral rigid body only by a convex surface. Since the force sensor 40 is provided at the corner or face of the multi-plane rigid body P, the posture of the entire robot at that time is detected from the force sensor 40 that is in contact with the floor surface. It can be accurately detected by the signal and the angle of each joint.
[0044]
In this way, according to the biped walking humanoid robot 10 according to the embodiment of the present invention, the force is applied to the part protruding during the operation or the part contacting the environment during the operation (for example, both knees and the back of the waist). Since the sensor 40 is provided, the current posture of the robot is accurately detected, and based on the detection signal of each force sensor 40, the combined moment of the reaction force against the ground contact surface of the robot and gravity at that time By performing the operation control of the entire robot based on the extended ZMP in which the zero becomes zero, it is possible to reliably perform the operation control of the whole body motion such as the passive motion, the rising motion and the forward motion at the time of falling.
[0045]
In the embodiment described above, the legs 12L and 12R have 6 degrees of freedom and the arms 13L and 13R have 5 degrees of freedom. You may have.
[0046]
【The invention's effect】
As described above, according to the present invention, when the biped walking humanoid robot performs the whole body motion, the motion control device is provided in a part that protrudes when each part of the robot operates or a part that contacts the environment during the operation. Based on the detection signal from the force sensor, the posture of the robot is detected by grasping which part of the robot is in contact with the environment, for example, the floor surface or the wall surface. To correct the operation data from the operation generation unit.
Therefore, the motion control device always corrects the motion data based on the posture of the robot during the whole body motion of the robot. For example, the whole body motion such as passive motion at the time of falling, rising motion and forward motion is ensured stably. It becomes possible to do.
Thus, according to the present invention, there is provided an extremely excellent biped walking type humanoid robot that can easily perform whole body exercise.
[Brief description of the drawings]
FIG. 1 shows the appearance of an embodiment of a biped walking humanoid robot according to the present invention, where (A) is a schematic front view and (B) is a schematic side view.
FIG. 2 is a schematic diagram showing a mechanical configuration of the biped walking humanoid robot of FIG. 1;
FIG. 3 is a schematic diagram showing the forward swing limit of each joint part of the forward bending part and the leg part of the biped walking humanoid robot of FIG. 1;
4 is a schematic diagram showing a limit of swinging backward of each joint part of a forward bending part and a leg part of the biped walking humanoid robot of FIG. 1; FIG.
5 is a schematic view of each joint part of the forward bending part of the biped walking humanoid robot of FIG. Each is shown.
6 is a side view showing the arrangement of force sensors in the biped walking humanoid robot of FIG. 1. FIG.
7 is a block diagram showing an electrical configuration of the biped walking humanoid robot of FIG. 1; FIG.
FIG. 8 is a flowchart showing operation control of the biped walking humanoid robot of FIG. 1;
FIG. 9 is a left side view sequentially illustrating forward rotation operations of the biped walking humanoid robot of FIG. 1;
FIG. 10 is an enlarged view in the middle of the forward rotation operation of FIG. 9;
[Explanation of symbols]
10 Biped walking humanoid robot
11 Torso
11a upper part
11b bottom
11c forward bending part
11d, 11e Joint (joint drive motor)
12L, 12R Leg
13L, 13R arm
14 heads
15L, 15R thigh
16L, 16R Lower leg
17L, 17R Foot
18L, 183-24L, 24R Joint (joint drive motor)
21L, 21R Knee
25L, 25R upper arm
26L, 26R Lower arm
27L, 27R Hand
28L, 28R-33L, 33R Joint (joint drive motor)
31L, 31R Elbow
35, 36 Joint (joint drive motor)
40 Force sensor
50 Operation control device
51 Operation Planning Department
51a motion library
52 motion generator
53 Extended ZMP Converter
54 Extended ZMP Stabilizer
55 Control unit
56 Angle measurement unit
57 Operation monitoring unit
P polyhedral rigid body

Claims (4)

胴体部と、胴体部の下部両側にて揺動可能な中間に膝部,下端に足部を備えた脚部と、胴体部の上部両側にて揺動可能な中間に肘部,下端に手部を備えた腕部と、胴体部の上端に取り付けられた頭部と、を備えており、
上記脚部の足部,下腿部,大腿部そして上記腕部の手部,下腕部及び上腕部の揺動可能な関節部をそれぞれ揺動させる駆動手段と、各駆動手段をそれぞれ駆動制御する動作制御装置とを有している二脚歩行式人型ロボットにおいて、
上記胴体部及び両膝部にそれぞれ力センサを備えており、
ロボットの転倒時の受け身動作,起き上がり動作,前転運動の動作時に接触する接地面に対して、上記動作制御装置が、上記力センサの検出信号に基づいて当該接地面に対する反力と重力との合成モーメントがゼロとなる拡張ZMPを規範としてロボット全体の動作制御を行うことを特徴とする、二脚歩行式人型ロボット。
Legs with knees in the middle, swingable on both sides of the lower part of the body, legs on the lower end, and hands on the elbows and lower ends in the middle of swingable on both sides of the upper part of the body An arm portion provided with a portion, and a head portion attached to the upper end of the torso portion,
Driving means for swinging the leg part, leg part, thigh part of the leg part, and hand joint part of the arm part, lower arm part and upper arm part, respectively, and each driving means is driven. In a biped walking humanoid robot having a motion control device to control,
The body part and both knees are equipped with force sensors,
Passive operation during tipping of the robot, standing up operation, with respect to the ground surface in contact during operation of Maeten'un dynamic, the operation control apparatus, the reaction force and gravity on the ground surface based on a detection signal of the force sensor A biped walking humanoid robot, which controls the operation of the entire robot using the extended ZMP with zero as a reference.
力センサが、さらに、頭部の前後,大腿部,足部,肘部にそれぞれ備えられていることを特徴とする、請求項1に記載の二脚歩行式人型ロボット。The biped walking humanoid robot according to claim 1, wherein force sensors are further provided on the front and rear, the thigh, the foot, and the elbow, respectively. 前記動作制御装置が、
各力センサの検出信号に基づいてそのとき接地している部分を検出して、ロボット全体を多面剛体として動作データを生成する動作生成部と、
各力センサの検出信号に基づいてロボットの姿勢を検出し、この姿勢に基づいて動作生成部からの動作データを修正する補償部と、
動作生成部からの動作データに基づいて拡張ZMP目標値を算出する拡張ZMP変換部と、を備えており、
上記補償部が、
上記各力センサの検出信号に基づいて検出された拡張ZMP実測値と拡張ZMP変換部からの拡張ZMP目標値を比較して、動作生成部からの動作データの補償量を計算することを特徴とする、請求項1または2に記載の二脚歩行式人型ロボット。
The operation control device is
A motion generation unit that detects a portion that is grounded at that time based on the detection signal of each force sensor, and generates motion data with the entire robot as a multi-faced rigid body;
A compensation unit that detects the posture of the robot based on the detection signal of each force sensor and corrects the motion data from the motion generation unit based on the posture;
An extended ZMP conversion unit that calculates an extended ZMP target value based on motion data from the motion generation unit,
The compensation unit is
Comparing the actual measured value of the extended ZMP detected based on the detection signal of each force sensor and the expanded ZMP target value from the expanded ZMP conversion unit to calculate the compensation amount of the motion data from the motion generation unit, The biped walking humanoid robot according to claim 1 or 2.
前記動作制御装置が、ロボットの動作の要素となる姿勢データを格納した動作ライブラリを備えており、
前記動作生成部が、与えられたロボットの初期状態から所定の動作の最終状態までの中間の動作に関して、動作データを生成する際に動作ライブラリから対応する姿勢データを読み出して、組合せ動作のシーケンスとして動作データを生成することを特徴とする、請求項3に記載の二脚歩行式人型ロボット。
The motion control device includes a motion library storing posture data that is an element of robot motion,
When the motion generation unit generates motion data regarding the intermediate motion from the initial state of the given robot to the final state of the predetermined motion, the motion generation unit reads out the corresponding posture data from the motion library and generates a combination motion sequence. The biped walking humanoid robot according to claim 3, wherein motion data is generated.
JP2001353501A 2001-11-19 2001-11-19 Biped humanoid robot Expired - Fee Related JP3627057B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001353501A JP3627057B2 (en) 2001-11-19 2001-11-19 Biped humanoid robot
TW91133676A TW583058B (en) 2001-11-19 2002-11-19 Two-leg walking type man-style robot
PCT/JP2002/012054 WO2003043787A1 (en) 2001-11-19 2002-11-19 Two-legged walking type human-shaped robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001353501A JP3627057B2 (en) 2001-11-19 2001-11-19 Biped humanoid robot

Publications (2)

Publication Number Publication Date
JP2003145458A JP2003145458A (en) 2003-05-20
JP3627057B2 true JP3627057B2 (en) 2005-03-09

Family

ID=19165508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001353501A Expired - Fee Related JP3627057B2 (en) 2001-11-19 2001-11-19 Biped humanoid robot

Country Status (3)

Country Link
JP (1) JP3627057B2 (en)
TW (1) TW583058B (en)
WO (1) WO2003043787A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4998506B2 (en) * 2009-04-22 2012-08-15 トヨタ自動車株式会社 Robot control device, robot control method, and legged robot
JP6356033B2 (en) * 2014-09-29 2018-07-11 本田技研工業株式会社 Control device for moving body
CN105082125B (en) * 2015-08-05 2017-09-26 华南理工大学 A kind of attitude control method of drop microoperation robot manipulator structure
CN106474740A (en) * 2016-10-31 2017-03-08 河池学院 A kind of chargeable robot of playing music
CN106541409A (en) * 2016-10-31 2017-03-29 河池学院 A kind of robot played music
CN108237531B (en) * 2016-12-26 2021-07-13 电子科技大学中山学院 Humanoid robot gait self-learning control method
CN114750851B (en) * 2021-07-12 2023-08-01 智能移动机器人(中山)研究院 Variable-structure four-six-foot robot based on steering engine and advancing method thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1018467B1 (en) * 1996-07-25 2003-10-22 Honda Giken Kogyo Kabushiki Kaisha Gait generating device for leg type moving robot
JP3658147B2 (en) * 1996-07-25 2005-06-08 本田技研工業株式会社 Gait generator for legged mobile robot
WO1998026905A1 (en) * 1996-12-19 1998-06-25 Honda Giken Kogyo Kabushiki Kaisha Attitude controller of legged moving robot
JP3528171B2 (en) * 1999-11-12 2004-05-17 ソニー株式会社 Mobile robot apparatus and overturn control method for mobile robot apparatus
JP3615702B2 (en) * 1999-11-25 2005-02-02 ソニー株式会社 Motion control device and motion control method for legged mobile robot, and legged mobile robot
JP2001162572A (en) * 1999-12-06 2001-06-19 Hitachi Ltd Teaching system of walking robot
JP2001198865A (en) * 2000-01-20 2001-07-24 Toshiba Corp Bipedal robot device and its operating method

Also Published As

Publication number Publication date
JP2003145458A (en) 2003-05-20
TW583058B (en) 2004-04-11
TW200300384A (en) 2003-06-01
WO2003043787A1 (en) 2003-05-30

Similar Documents

Publication Publication Date Title
JP3760186B2 (en) Biped walking type moving device, walking control device thereof, and walking control method
JP3731118B2 (en) Biped walking humanoid robot
JP3682525B2 (en) Biped walking humanoid robot
JP3078009B2 (en) Walking control device for legged mobile robot
JP3603279B2 (en) Biped walking humanoid robot
JP3629133B2 (en) Control device for legged mobile robot
WO2003068453A1 (en) Two-leg walking moving device
JP5053644B2 (en) Legged mobile robot and its control program
KR100515277B1 (en) Bipedal moving device, and device and method for controlling walking of the bipedal moving device
US20080300721A1 (en) Legged Mobile Robot and Control Program for the Robot
KR20040068438A (en) Walking type robot and a moving method thereof
JP5123527B2 (en) Legged mobile robot and its control program
JP3627057B2 (en) Biped humanoid robot
JP3629143B2 (en) Control device for legged mobile robot
JP3167406B2 (en) Walking control device for legged mobile robot
JP3673869B2 (en) Biped walking humanoid robot and its hand storage mechanism
JP3569767B2 (en) Walking robot
JP2911984B2 (en) Walking control device for legged mobile robot
JP3183557B2 (en) Walking control device for legged mobile robot
JP2997038B2 (en) Walking control device for legged mobile robot
JP2004188530A (en) Walking type movable apparatus, and device and method for controlling its movement
JP5306959B2 (en) Control device for legged mobile robot
JPH04201186A (en) Walk controller on leg type mobile robot
JP4946566B2 (en) Walking robot and walking control method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20031210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees