JP3176701B2 - 移動体の現在位置認識処理装置 - Google Patents

移動体の現在位置認識処理装置

Info

Publication number
JP3176701B2
JP3176701B2 JP12143192A JP12143192A JP3176701B2 JP 3176701 B2 JP3176701 B2 JP 3176701B2 JP 12143192 A JP12143192 A JP 12143192A JP 12143192 A JP12143192 A JP 12143192A JP 3176701 B2 JP3176701 B2 JP 3176701B2
Authority
JP
Japan
Prior art keywords
current position
stop
walking
function
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP12143192A
Other languages
English (en)
Other versions
JPH05297940A (ja
Inventor
有二 配川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP12143192A priority Critical patent/JP3176701B2/ja
Priority to US08/045,840 priority patent/US5378969A/en
Publication of JPH05297940A publication Critical patent/JPH05297940A/ja
Application granted granted Critical
Publication of JP3176701B2 publication Critical patent/JP3176701B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Control Of Position Or Direction (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は移動体の現在位置認識
処理装置などに関し、より具体的には移動環境内の視覚
認識アルゴリズムに適した特徴的な形状を認識して、そ
の認識された位置から自己の現在位置を認識する移動ロ
ボットにおいて、視覚認識処理の高速化と高精度化を実
現したものなどに関する。
【0002】
【従来の技術】移動体としては有人、無人を含めてさま
ざまなものが存在するが、そのうち無人の移動体として
代表的なものに移動ロボットを挙げることができる。そ
して、移動型のロボットとしては今までに、特開昭62
−97005号公報に記載の脚式のもの、特開昭62−
285112号公報に記載のクローラ式のもの、ないし
は車輪式のものなど種々のものが提案されている。その
様な移動ロボットが例えば屋内を移動するとき、天井や
ドアの様に見えやすく、かつ形状も簡単なものを視覚認
識処理して自己の現在位置を求めて移動することが予想
される。尚、視覚認識処理技術自体は、例えば「機械の
研究」第43巻、第1号(1991年)、ないしは「人
工知能学会誌」Vol.5,No.6(1990年11
月)などに詳しい。
【0003】
【発明が解決しようとする課題】しかし、現実にロボッ
トが移動する際には、複雑な環境の中を精度良く現在位
置を認識して移動することが要求されるため、前記の天
井の様に、遠方にあって正確な位置の測定が困難な対象
によって現在位置を知ろうとする手法では、十分な移動
精度を実現することができない。
【0004】このため、ロボットの近傍にある対象物の
形状の中から、認識しやすいものを選択して高精度に現
在位置を認識しようとすることが容易に考えられるが、
この様な一般的な対象物の中に存在する視覚認識に適し
た形状は、物体の角部や色彩の異なったラベルなどであ
って、それらは現実には多数存在しており、それらの中
から、どの特徴形状を使用するか予め設定しておくこと
は、移動経路が特定されていない限り、困難である。
【0005】従って、この発明の目的は上記した不都合
を解消することにあり、移動環境内を移動する移動体に
おいて視覚認識処理を通じて現在位置を高速かつ高精度
に認識できるようにした移動体の現在位置認識処理装置
を提供することにある。更に、移動体である脚式移動ロ
ボットが現実に歩行するときは、障害物が多数存在する
環境内を障害物を回避しつつ移動するように歩行制御し
なければならず、そのような歩行制御を実現することが
望まれていた。 従って、この発明の第2の目的は、障害
物が多数存在するような環境においても安定して歩行制
御することができるようにした脚式移動ロボットの歩行
制御装置を提供することにある。
【0006】
【課題を解決するための手段】上記した課題を解決する
ためにこの発明は下記の如く構成した。後述する実施例
の表現を付記して説明すると、請求項1項にあっては、
視覚センサ32を備え、少なくとも前記視覚センサを通
じて得た画像情報に基づいて自己の現在位置を認識して
移動する移動体の現在位置認識処理装置において、前記
現在位置認識処理装置が、移動空間に存在する物体の形
状ないしは位置について複数個の特徴点を予め記憶する
記憶手段(制御ユニット26,S10から12)、及び
前記複数個の特徴点の中から予め用意された、距離につ
いての関数及び角度についての関数の少なくともいずれ
かを含む評価関数に従って所定の特徴点を選択し、前記
選択された特徴点についての画像情報に基づいて自己の
現在位置を認識する認識手段(制御ユニット26,S1
4から20,S100)とからなる如く構成した。請求
項2項にあっては、複数本の脚部リンク2を備えてなる
脚式移動ロボット1の歩行制御装置において、前記ロボ
ットの歩行動作を所定の複数個の歩行機能の中から選択
して決定する歩行動作決定手段(制御ユニット26,S
10からS18)、及び前記決定された歩行動作を実現
するように前記脚部リンクを駆動する駆動手段(制御ユ
ニット26,S20からS28)を備える如く構成し
た。 請求項3項にあっては、前記歩行機能が、停止→直
進→停止、停止→登り→停止、停止→降り→停止、停止
→方向転換→停止、停止→歩幅合わせ→停止を少なくと
も含む如く構成した。
【0007】
【作用】移動空間に存在する物体の形状ないしは位置に
ついて複数個の特徴点を予め記憶しておき、その中から
予め用意された、距離についての関数および角度につい
ての関数の少なくともいずれかを含む評価関数に基づい
て自己の現在位置を認識するようにしたことから、評価
関数を適宜設定しておくことにより、高速かつ高精度に
現在位置を認識することができる。さらに、ロボットの
歩行動作を所定の複数個の歩行機能の中から選択して決
定し、決定された歩行動作を実現するように前記脚部リ
ンクを駆動するように構成したので、複雑な環境を移動
するときも、目標とする経路の記述が明確となって制御
が容易となり、安定した歩行制御を実現することができ
る。
【0008】
【実施例】以下、移動体として2足歩行の脚式移動ロボ
ットを例にとってこの発明の実施例を説明する。図1は
そのロボット1を全体的に示す説明スケルトン図であ
り、左右それぞれの脚部リンク2に6個の関節(軸)を
備える(理解の便宜のために各関節(軸)をそれを駆動
する電動モータで例示する)。該6個の関節(軸)は上
から順に、腰の脚部回旋用の関節(軸)10R,10L
(右側をR、左側をLとする。以下同じ)、腰のピッチ
方向(y軸まわり)の関節(軸)12R,12L、同ロ
ール方向(x軸まわり)の関節(軸)14R,14L、
膝部のピッチ方向の関節(軸)16R,16L、足首部
のピッチ方向の関節(軸)18R,18L、同ロール方
向の関節(軸)20R,20Lとなっており、その下部
には足平(足部)22R,22Lが取着されると共に、
最上位には基体(胴体部24)が設けられ、その内部に
は後で述べる様にマイクロ・コンピュータを備えた制御
ユニット26が格納される。上記において腰関節は関節
(軸)10R(L),12R(L),14R(L)から
構成され、また足関節は、関節(軸)18R(L),2
0R(L)から構成される。また、腰関節と膝関節との
間は大腿リンク28R,28Lで、膝関節と足関節との
間は下腿リンク30R,30Lで連結される。
【0009】脚部リンク2は左右の足についてそれぞれ
6つの自由度を与えられ、歩行中にこれらの6×2=1
2個の関節(軸)をそれぞれ適宜な角度に駆動すること
で、足全体に所望の動きを与えることができ、任意に3
次元空間を歩行することができる様に構成される。先に
述べた様に、上記した関節は電動モータからなり、更に
はその出力を倍力する減速機などを備えるが、その詳細
は先に本出願人が提案した出願(特願平1−32421
8号、特開平3−184782号)などに述べられてお
り、それ自体はこの発明の要旨とするところではないの
で、これ以上の説明は省略する。
【0010】ここで、図1に示すロボット1の基体24
には、公知のCCD(固体映像素子)カメラからなる視
覚センサ32が1個(単眼)配置され、その出力はマイ
クロ・コンピュータからなる画像処理ユニット34に送
られる。また、足首部には公知の6軸力センサ36が設
けられ、足平を介してロボットに伝達されるx,y,z
方向の力成分Fx,Fy,Fzとその方向まわりのモー
メント成分Mx,My,Mzとを測定し、足部の着地の
有無と支持脚に加わる力の大きさと方向とを検出する。
また、基体24の上部には一対の傾斜センサ40,42
が設置され、x−z平面内のz軸に対する傾きとその角
速度および角加速度と、同様にy−z平面内のz軸に対
する傾きとその角速度および角加速度とを検出する。ま
た、各関節の電動モータには、その回転量を検出するロ
ータリエンコーダが設けられる(図1において足関節の
電動モータ用のもののみを示す)。これらの出力は前記
した制御ユニット26に送られる。
【0011】図2は制御ユニット26の詳細を示すブロ
ック図であり、マイクロ・コンピュータから構成され
る。そこにおいて傾斜センサ40,42などの出力はA
/D変換器50でデジタル値に変換され、その出力はバ
ス52を介してRAM54に送られる。また各電動モー
タに隣接して配置されるエンコーダの出力は可逆カウン
タ56を介してRAM54内に入力される。またユーザ
が目標位置などを入力するためにキーボードとマウス5
8が設けられ(図1で図示省略)、その出力はマイクロ
・コンピュータからなるユーザインタフェース60を通
じてマイクロ・コンピュータ内に送出される。更に、前
記した画像処理ユニット34の出力も通信インタフェー
ス62を通じて同様にマイクロ・コンピュータ内に取り
込まれる。制御ユニット内には演算装置64が設けられ
ており、ROM66に格納されている環境地図に基づい
て後で詳細に述べる様に現在位置の認識処理を行って歩
行制御値を決定し、可逆カウンタ56から送出される実
測値との偏差から電動モータの速度指令値を算出し、D
/A変換器68を介してサーボアンプに送出する。
【0012】続いて、この制御ユニットの動作を説明す
る。
【0013】図3はその動作を環境認識処理に焦点をお
いて示す機能ブロック図である。図示の如く、前記した
ROM66に格納した環境地図に基づいて視覚センサ3
2を通じて得た画像情報から現在位置を認識しつつ移動
制御を行うものである。
【0014】以下、図4のフロー・チャート(PAD図
(構造化フロー・チャート))を参照してその詳細を説
明する。
【0015】先ず、S10において移動環境における初
期現在位置の概略値、即ち、最初にロボット1が立って
いる位置と方向とを入力し、次いでS12において移動
目標、即ち、目標点の位置とロボットの方向とを入力す
る。この入力は図2に示したキーボード、マウス58と
ユーザインタフェース60とを通じて行う。
【0016】ここで、この実施例においては、移動環境
として図5に示すような室内環境を想定する。即ち、ロ
ボットは与えられた命令に従って階段を昇降し、2本の
柱の間を通過して目標点に辿りつくための経路を選ん
で、その経路を参考にして移動動作を実行する。環境地
図は図6に良く示す如く、最上位レベルから第2レベル
を経て第3レベルに至るように階層的に記述する。最上
位レベルは建物内の結合関係を示すものでエリアの結合
として記述される。エリアはルームとリンクで構成され
る。ここでルームとは部屋や廊下のように領域的に一固
まりに考えられる空間を、リンクとはルームの間を移動
するために通過しなければいけない階段、ドアなどの場
所を意味する。最上位レベルの下には、物体配置情報が
第2レベルとして記述され、更にその下に、各物体につ
いて後で述べる接近禁止領域の情報、形状特徴の情報な
どが記述される。図7と図8にその詳細を示す。この
な情報が環境地図としてROM66内に格納される。
尚、以下では図5に示した部屋内の移動に限って説明す
る。
【0017】図4フロー・チャートにおいては次いでS
14に進んで経路計画処理を行う。脚式移動ロボット、
特に2足歩行のものにおいては、指定された距離を進ん
だり、指定された経路上を移動するなど、進行方向を自
由に制御することは簡単ではない。しかしながら、移動
制御では、その様な移動の実現が不可欠である。そこ
で、この実施例では、移動動作を幾つかの基本歩行機能
に分割して実行する様にした。これによって基本歩行機
能を実行する制御処理のみで移動制御を実現することが
できる。基本歩行機能は図9に示す様に、(a)直進、
(b)階段昇降、(c)方向転換、(d)歩幅合わせ
(前後)、(e)歩幅合わせ(左右)の5種とした。S
14の経路計画処理の時点ではこの様に基本歩行機能の
結合として表現し、軌道としての直接表現はしない。
【0018】このS14での経路計画処理は具体的に
は、図10に示す様な必須通過点を生成し(S16)、
図11に示す様な障害物との干渉を検討しつつ図12に
示す様な障害物回避経路を生成する(S18)ことであ
る。ここで、必須通過点としては、階段下目標点A、階
段降り始め点B、階段領域脱出点Cでの位置と方向とす
る。これを詳細に示すと、図13の様になる。
【0019】図4フロー・チャートにおいては続いてS
20に進み、階段下目標点(A点)への移動制御を行
う。
【0020】そのサブルーチンを示す図14フロー・チ
ャートを参照して説明すると、先ずS100において現
在位置の認識を行う。具体的には、先ずS102におい
て選択処理の準備を行う。図15はそのサブルーチンを
示すフロー・チャートであり、選択処理の準備はS10
20,S1021に記載する様に、推定現在位置におけ
るカメラ(視覚センサ32)の視野計算の準備を行うこ
とである。図16にそれを示す。
【0021】図14フロー・チャートにおいて、続いて
S104に進んで形状特徴点の絞り込みを行う。図17
はそのサブルーチンを示すフロー・チャートである。形
状特徴点の絞り込み処理は、環境情報に記載された形状
特徴点の中から、形状特徴点の候補を算出するために、
階層的に記述されている環境知識情報の全物体の全形状
特徴点(図8に示す)に対して絞り込みのための第1の
評価関数による評価を行い、その評価結果の順に特徴点
候補のリストを作り出す。第1の評価関数としては、遠
くの点ほど認識精度が悪く、他の形状との誤認識の可能
性が大きいという一般的な性質から、ロボットからの距
離を認識誤差の大きさに関する評価関数として採用し
た。特徴点候補の数は、次の最適特徴形状点選出処理に
必要な数だけ用意すれば良いので、その数を予め設定し
て不要の分は捨てている。原理的には捨てずに全ての形
状特徴点の順番のリストを求めても良い。
【0022】具体的には図17フロー・チャートのS1
040からS1048に示す如く、環境情報に記述され
ている対象物体のノードデータ(図8に示す)から形状
特徴点を選び出し、その形状特徴点がそのときのカメラ
の視野の中に入っているかを調べる。次にロボットから
形状特徴点までの距離を計算する。単眼による視覚処理
なので、図18に示す様に、カメラから形状特徴点まで
の視線が環境情報に記載されている形状特徴点の高さを
横切る点までの距離により、ロボットから形状特徴点ま
での距離を求める。
【0023】この手法では形状特徴点までの距離しか測
定できないので、ロボットの現在位置を求めるために
は、少なくとも2点以上の形状特徴点までの距離を求め
る必要がある。この実施例ではその必要最小限の2点の
距離から位置を決定している。他方、この手法では2点
が挟む角度が小さいと、方向の測定誤差が大きくなる。
そのため、図14フロー・チャートにおいて次のS10
6の最適形状特徴点の選択処理において、測定誤差が大
きくならない様にした。
【0024】即ち、図19サブルーチン・フロー・チャ
ートに示す最適形状特徴点の選択処理では、形状特徴点
候補の上位2点の挟む角度が、誤差の許容量から決めら
れる角度(許容角度)よりも大きかったら、そのまま2
点を最適形状特徴点として決定し、その2点からロボッ
トの現在位置を計算する(S1060〜S1062)。
また、許容角度より小さければ、視野の中にある他の形
状特徴点候補を含めた2点によって挟む角度を大きくで
きるか否か判断する(S1063)。このとき、全ての
組み合わせを調べる様にすると、候補の数が多くなった
場合に処理時間が急速に長くなるので、この実施例では
上位2点のうち、1点を交換することとして、その組み
合わせの中で挟み角が最大となる2点の組を最適形状特
徴点と決定している。例えば、図20に示す如く、候補
1,2による挟み角αが許容角度より小さいときは、候
補1,2の一方、この場合は1を4に代え、新たな挟み
角βを求めて許容角度と比較する様にした。
【0025】尚、評価関数としては更に、近くに誤認識
しやすい形状がある場合に、その様な形状の特徴点の使
用を避ける様に、視覚認識のアルゴリズムの認識確率に
関する関数を使用しても良い。また、複雑な環境の中を
移動する場合には、複数の視覚認識やソナーなどの他の
環境認識手段を併用して現在位置を認識することが考え
られるが、その場合には、それらの処理の容易さや、認
識精度なども考慮した評価関数を設定して形状特徴点を
決定しても良い。
【0026】図14フロー・チャートに戻ると、S10
7において選択した特徴点の位置測定を通じて現在位置
を認識した後、続いてS108に進んで歩行計画処理を
行う。これは図21に示す様に指定された移動目標とな
る様に基本歩行機能へ展開する作業を意味する。具体的
にはそのサブルーチンを示す図22フロー・チャートに
従って説明すると、S1080において転換角度などを
決定し、S1081において歩数と余りを決定する。よ
り具体的には図22の下部に注記した様に、最初にα度
転換し(モードP1とする)、n歩前進し(モードP
2)、余りl′mを歩幅合わせで前進し(モードP
3)、最後にβ度転換する(モードP4)歩行を計画す
る(尚、各モードの後に付した(a)などは、図9に示
す該当する基本歩行機能を示す)。
【0027】図14フロー・チャートにおいては続い
て、S110に進んで歩行制御処理を行う。これはS1
12に示す様に歩行計画による基本歩行モードの順次実
行を意味しており、具体的には図23のサブルーチン・
フロー・チャートにおいてS1120〜S1123に示
す如く、モードP1からP4を順次実行すべく、制御値
を決定することを意味する。但し、ここで留意すべきこ
とは、この段階において制御は、該当する基本歩行機能
を実現する様に、図1に示した12個の関節についての
角度指令値で決定されることであり、より具体的には角
度指令値とエンコーダを通して得た実際値との偏差を解
消する様にサーボアンプを介して各モータを駆動する様
に行われる。但し、その詳細はこの発明の目的とすると
ころではないので、これ以上の説明は省略する。
【0028】図14フロー・チャートにおいては、続い
てS114において移動誤差の認識処理、即ち、移動目
標(階段下)への指令値に基づく移動後の現在位置の推
定値に対してS100と同様の現在位置の認識を行って
指令値との移動誤差を認識する処理を行い、S116〜
S120で誤差が所定値を超えると判断されるときは、
誤差がその所定値以下になるまで修正移動を反復する。
図24に移動指令から推定した現在位置と視覚センサを
通じて求めた現在位置とから、移動誤差を求める状態を
示す。尚、図25は画像処理による形状特徴点の確認作
業の説明図である。
【0029】図4フロー・チャートに戻ると、続いてS
22〜S28に進んで階段登り動作などが行われるが、
これはS20の階段下目標点への移動で述べたと同様
に、現在位置を認識して歩行(移動)制御を行い、移動
誤差を認識して修正移動を行うことであるので、その詳
細は省略する。
【0030】この実施例は、予定する移動空間に存在す
る物体の形状特徴点を全て環境地図に記述しておき、そ
の中から予め用意された評価関数に従い、所定の離間距
離内にあるものを先ず選別し、その近傍の入力画像デー
タのみを用いて挟み角が許容角度より大きいものを選択
して現在位置を認識する様にした。また挟み角が許容角
度以下のときは候補点の一方を代えて測定し直し、許容
角度を超えるものの中で最大となるものを選択して現在
位置を認識する様にした。更に、絶対的な現在位置では
なく、相対的な現在位置、即ち、移動指令から推定した
現在位置と視覚センサを通じて得た実際の現在位置との
誤差を求め、誤差が許容範囲を超えるときは修正移動す
る様にした。よって、現在位置を認識するのに適した形
状特徴点に対する環境認識処理を高速かつ高精度に行う
ことができる。また環境地図に特徴点を記述しておくこ
とから、様々な移動地点における適切な特徴点の位置の
認識ができることによって、簡単な構成で現在位置を認
識することができる。
【0031】尚、図21で述べた基本歩行機能への展開
はさまざまなバリエーションが可能であり、例えば図2
6の場合などは、左右の歩幅合わせを行ってから直進し
ても良いし、或いは図21のときと同様に方向転換して
直進して再度方向転換しても良い。
【0032】尚、上記した実施例において単眼の視覚セ
ンサを用いたが、複眼のものを用いても良い。
【0033】更には、この発明を2足歩行の脚式移動ロ
ボットについて説明したが、それに限られるものではな
く、1足ないしは3足以上の脚式移動ロボットにも、更
にはクローラ型、車輪型など他の形態の移動ロボットに
も妥当するものである。
【0034】
【発明の効果】請求項1項にあっては、視覚センサを備
え、少なくとも前記視覚センサを通じて得た画像情報に
基づいて自己の現在位置を認識して移動する移動体の現
在位置認識処理装置において、前記現在位置認識処理装
置が、移動空間に存在する物体の形状ないしは位置につ
いて複数個の特徴点を予め記憶する記憶手段、及び前記
複数個の特徴点の中から予め用意された、距離について
の関数及び角度についての関数の少なくともいずれかを
含む評価関数に従って所定の特徴点を選択し、前記選択
された特徴点についての画像情報に基づいて自己の現在
位置を認識する認識手段とからなる如く構成したので、
評価関数を適宜設定することにより、高速かつ高精度に
現在位置を認識することができる。
【0035】請求項2項にあっては、複数本の脚部リン
クを備えてなる脚式移動ロボットの歩行制御装置におい
て、前記ロボットの歩行動作を所定の複数個の歩行機能
の中から選択して決定する歩行動作決定手段、及び前記
決定された歩行動作を実現するように前記脚部リンクを
駆動する駆動手段を備える如く構成したので、複雑な環
境を移動するときも経路の記述が容易となり、障害物を
確実に回避させることができて安定した歩行制御を実現
することができる。
【0036】請求項3項にあっては、前記歩行機能が、
停止→直進→停止、停止→登り→停止、停止→降り→停
止、停止→方向転換→停止、停止→歩幅合わせ→停止を
少なくとも含む如く構成したので、拘束条件式の算出が
容易となると共に、複雑な環境を移動するときも経路の
記述が容易となり、障害物を確実に回避させることがで
きて一層安定した歩行制御を実現することができる。
【図面の簡単な説明】
【図1】この発明に係る移動体の現在位置認識処理装置
を2足歩行の脚式移動ロボットを例として全体的に示す
概略図である。
【図2】図1に示す制御ユニットの説明ブロック図であ
る。
【図3】図2に示す制御ユニットの動作を示す機能ブロ
ック図である。
【図4】図2に示す制御ユニットの動作を示すフロー・
チャートである。
【図5】図4フロー・チャートで予定する移動環境の説
明図である。
【図6】図5の環境地図の記述例を具体的に示す説明図
である。
【図7】図6の記述例の第3レベルをより詳細に示す説
明図である。
【図8】図6の記述例の第3レベルをより詳細に示す説
明図で、特に特徴点の記述を詳細に示す説明図である。
【図9】図4フロー・チャートで予定する基本歩行機能
を示す説明図である。
【図10】図4フロー・チャートの中の必須通過点の生
成を示す説明図である。
【図11】図4フロー・チャートの中の中間目標点の生
成を示す説明図である。
【図12】図4フロー・チャートの中の中間目標点の生
成を示す同様の説明図である。
【図13】図4フロー・チャートの中の中間目標点の生
成で設定された経路を示す説明図である。
【図14】図4フロー・チャートの中の階段下目標点へ
の移動のサブルーチンを示すフロー・チャートである。
【図15】図14フロー・チャートの中の現在位置の認
識のうち、選択処理の準備のサブルーチンを示すフロー
・チャートである。
【図16】図15フロー・チャートの動作を示す説明図
である。
【図17】図14フロー・チャートの中の形状特徴点の
絞り込みのサブルーチンを示すフロー・チャートであ
る。
【図18】図17フロー・チャートの動作を示す説明図
である。
【図19】図14フロー・チャートの中の最適形状特徴
点の選択のサブルーチンを示すフロー・チャートであ
る。
【図20】図19フロー・チャートの動作を示す説明図
である。
【図21】移動目標の指定と基本歩行機能への展開を示
す説明図である。
【図22】図14フロー・チャートの中の歩行計画処理
のサブルーチンを示すフロー・チャートである。
【図23】図14フロー・チャートの中の歩行計画によ
る基本歩行モードの順次実行のサブルーチンを示すフロ
ー・チャートである。
【図24】移動指令から推定した現在位置とロボットの
現在位置の認識結果との誤差を示す説明図である。
【図25】画像処理による形状特徴点の認識を示す説明
図である。
【図26】図21と同様な基本歩行機能への展開の他の
バリエーションを示す説明図である。
【符号の説明】
1 脚式移動ロボット(2足歩行ロボ
ット) 24 基体 26 制御ユニット 32 視覚センサ 34 画像処理ユニット 58 キーボード、マウス 60 ユーザインタフェース
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) B25J 5/00 G01B 11/00 B25J 19/04

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 視覚センサを備え、少なくとも前記視覚
    センサを通じて得た画像情報に基づいて自己の現在位置
    を認識して移動する移動体の現在位置認識処理装置にお
    いて、前記現在位置認識処理装置が、 a.移動空間に存在する物体の形状ないしは位置につい
    て複数個の特徴点を予め記憶する記憶手段、 及び b.前記複数個の特徴点の中から予め用意された、距離
    についての関数及び角度 についての関数の少なくともい
    ずれかを含む評価関数に従って所定の特徴点を選択し、
    前記選択された特徴点についての画像情報に基づいて自
    己の現在位置を認識する認識手段、 からなることを特徴とする移動体の現在位置認識処理装
    置。
  2. 【請求項2】 複数本の脚部リンクを備えてなる脚式移
    動ロボットの歩行制御装置において、 前記ロボットの歩行動作を所定の複数個の歩行機能
    の中から選択して決定す る歩行動作決定手段、 及び 前記決定された歩行動作を実現するように前記脚部
    リンクを駆動する駆動手 を備えることを特徴とする脚式移動ロボットの歩行制御
    装置。
  3. 【請求項3】 前記歩行機能が、停止→直進→停止、停
    止→登り→停止、停止→降り→停止、停止→方向転換→
    停止、停止→歩幅合わせ→停止を少なくとも含むことを
    特徴とする請求項2項記載の脚式移動ロボットの歩行制
    御装置。
JP12143192A 1992-04-15 1992-04-15 移動体の現在位置認識処理装置 Expired - Fee Related JP3176701B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP12143192A JP3176701B2 (ja) 1992-04-15 1992-04-15 移動体の現在位置認識処理装置
US08/045,840 US5378969A (en) 1992-04-15 1993-04-09 Navigation control system for mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12143192A JP3176701B2 (ja) 1992-04-15 1992-04-15 移動体の現在位置認識処理装置

Publications (2)

Publication Number Publication Date
JPH05297940A JPH05297940A (ja) 1993-11-12
JP3176701B2 true JP3176701B2 (ja) 2001-06-18

Family

ID=14810976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12143192A Expired - Fee Related JP3176701B2 (ja) 1992-04-15 1992-04-15 移動体の現在位置認識処理装置

Country Status (2)

Country Link
US (1) US5378969A (ja)
JP (1) JP3176701B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289321B2 (en) 2004-03-17 2012-10-16 Sony Corporation Method and apparatus for detecting plane, and robot apparatus having apparatus for detecting plane
CN110737195A (zh) * 2019-10-21 2020-01-31 同济大学 基于速度控制的双足机器人行走落脚点规划方法及装置

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3330710B2 (ja) * 1993-12-30 2002-09-30 本田技研工業株式会社 移動ロボットの位置検知および制御装置
JP3277076B2 (ja) * 1994-09-09 2002-04-22 株式会社小松製作所 歩行ロボットの歩行制御装置および歩行制御方法
US5781697A (en) * 1995-06-02 1998-07-14 Samsung Electronics Co., Ltd. Method and apparatus for automatic running control of a robot
US5999866A (en) 1996-11-05 1999-12-07 Carnegie Mellon University Infrastructure independent position determining system
JP3876463B2 (ja) * 1996-11-18 2007-01-31 ソニー株式会社 地図情報提供装置及び方法
JP3615702B2 (ja) * 1999-11-25 2005-02-02 ソニー株式会社 脚式移動ロボットの動作制御装置及び動作制御方法、並びに、脚式移動ロボット
JP4480843B2 (ja) * 2000-04-03 2010-06-16 ソニー株式会社 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
JP4491912B2 (ja) * 2000-05-22 2010-06-30 ソニー株式会社 バッテリ駆動の脚式移動ロボット及びその制御方法
KR20020010257A (ko) * 2000-07-28 2002-02-04 김인광 로봇 시스템에서의 자기위치 인식 장치 및 방법
JP2002055718A (ja) * 2000-08-11 2002-02-20 Meidensha Corp 無人車位置検出方式
JP2002154076A (ja) * 2000-11-17 2002-05-28 Honda Motor Co Ltd ロボットの腕
JP4119080B2 (ja) * 2000-11-17 2008-07-16 本田技研工業株式会社 人間型ロボットの腕構造
JP4448024B2 (ja) * 2002-05-31 2010-04-07 富士通株式会社 遠隔操作ロボットおよびロボット自己位置同定方法
US7011171B1 (en) 2002-10-08 2006-03-14 Poulter Andrew R Rugged terrain robot
JP4080932B2 (ja) 2003-03-31 2008-04-23 本田技研工業株式会社 2足歩行ロボットの制御装置
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
US7653216B2 (en) * 2003-12-23 2010-01-26 Carnegie Mellon University Polyhedron recognition system
JP4481719B2 (ja) * 2004-05-13 2010-06-16 本田技研工業株式会社 車輌診断ロボット
US20060009876A1 (en) * 2004-06-09 2006-01-12 Mcneil Dean Guidance system for a robot
US7840308B2 (en) * 2004-09-10 2010-11-23 Honda Motor Co., Ltd. Robot device control based on environment and position of a movable robot
KR20060059006A (ko) * 2004-11-26 2006-06-01 삼성전자주식회사 이동형 가전기기가 장애물을 회피하며 벽을 따라 이동하는방법 및 장치
JP4564447B2 (ja) * 2004-12-14 2010-10-20 本田技研工業株式会社 自律移動ロボット
CN101309783B (zh) * 2005-11-16 2013-09-11 Abb股份有限公司 控制装有定位开关的工业机器人运动的方法、装置、***及其应用
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
KR100904805B1 (ko) * 2006-06-22 2009-06-25 혼다 리서치 인스티튜트 유럽 게엠베하 상호작용 로봇 및 그 제어방법과, 그를 위한 컴퓨터 판독 가능 매체
JP4171510B2 (ja) * 2006-12-20 2008-10-22 本田技研工業株式会社 移動装置、ならびにその制御システム、制御プログラムおよび監督システム
JP4929506B2 (ja) * 2007-03-29 2012-05-09 本田技研工業株式会社 脚式移動ロボット
JP4703605B2 (ja) * 2007-05-31 2011-06-15 アイシン・エィ・ダブリュ株式会社 地物抽出方法、並びにそれを用いた画像認識方法及び地物データベース作成方法
WO2008152733A1 (ja) * 2007-06-15 2008-12-18 Fujitsu Limited ロボット
US8406505B2 (en) * 2007-08-30 2013-03-26 Honda Motor Co., Ltd. Image brightness reduction for legged mobile robot
JP5104355B2 (ja) * 2008-02-01 2012-12-19 富士通株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラム
KR101415297B1 (ko) * 2008-04-16 2014-07-07 삼성전자주식회사 로봇 지도 생성 방법 및 로봇 지도 이용 방법 및 로봇지도를 가지는 로봇
KR100988568B1 (ko) * 2008-04-30 2010-10-18 삼성전자주식회사 로봇 및 그 지도작성방법
JP5276931B2 (ja) * 2008-09-05 2013-08-28 株式会社日立産機システム 移動体および移動体の位置推定誤り状態からの復帰方法
CN101823516B (zh) * 2010-04-09 2012-06-13 华南理工大学 一种两足步行仿生机器人
US10049455B2 (en) * 2010-05-19 2018-08-14 Nokia Technologies Oy Physically-constrained radiomaps
CN101973032B (zh) * 2010-08-30 2013-06-26 东南大学 一种焊接机器人线结构光视觉传感器离线编程***和方法
CN102087530B (zh) * 2010-12-07 2012-06-13 东南大学 基于手绘地图和路径的移动机器人视觉导航方法
KR20120069924A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그 제어 방법
US8447863B1 (en) 2011-05-06 2013-05-21 Google Inc. Systems and methods for object recognition
KR20130049029A (ko) * 2011-11-03 2013-05-13 삼성전자주식회사 보행 로봇 및 그 제어 방법
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
JP6071839B2 (ja) * 2013-10-22 2017-02-01 本田技研工業株式会社 脚式移動ロボットの制御システム
CN104111656A (zh) * 2014-08-06 2014-10-22 武汉汉迪机器人科技有限公司 多台移动机器人平台导航控制***及其控制方法
CN105607632B (zh) * 2015-10-15 2018-02-16 浙江大学 一种3d欠驱动双足机器人跳跃运动的驱动控制方法
JP6288060B2 (ja) 2015-12-10 2018-03-07 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP6311695B2 (ja) 2015-12-16 2018-04-18 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP6187623B1 (ja) 2016-03-14 2017-08-30 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US11287826B2 (en) * 2018-10-12 2022-03-29 Boston Dynamics, Inc. Terrain aware step planning system
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
US11548151B2 (en) * 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5975357A (ja) * 1982-10-22 1984-04-28 Hitachi Ltd 画像処理装置
US4940925A (en) * 1985-08-30 1990-07-10 Texas Instruments Incorporated Closed-loop navigation system for mobile robots
JPS6297005A (ja) * 1985-10-23 1987-05-06 Hitachi Ltd 多関節ロボツトの制御装置
JP2510519B2 (ja) * 1986-06-04 1996-06-26 株式会社日立製作所 移動体の走行制御装置
JPS63150176A (ja) * 1986-12-15 1988-06-22 工業技術院長 動的歩行ロボツトの歩行制御方法
JPS63314618A (ja) * 1987-06-17 1988-12-22 Nissan Motor Co Ltd 自律走行車両制御装置
US4884216A (en) * 1987-11-09 1989-11-28 Michael Kuperstein Neural network system for adaptive sensory-motor coordination of multijoint robots for single postures
JPH01180010A (ja) * 1988-01-08 1989-07-18 Sanyo Electric Co Ltd 移動車
JPH0672770B2 (ja) * 1988-02-01 1994-09-14 豊田工機株式会社 ロボットの物体認識装置
US5005658A (en) * 1988-12-22 1991-04-09 Carnegie-Mellon University Orthogonal legged walking robot
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
JP2520019B2 (ja) * 1989-06-29 1996-07-31 本田技研工業株式会社 脚式移動ロボットの駆動制御装置
JP2592340B2 (ja) * 1989-12-14 1997-03-19 本田技研工業株式会社 脚式歩行ロボットの関節構造

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289321B2 (en) 2004-03-17 2012-10-16 Sony Corporation Method and apparatus for detecting plane, and robot apparatus having apparatus for detecting plane
CN110737195A (zh) * 2019-10-21 2020-01-31 同济大学 基于速度控制的双足机器人行走落脚点规划方法及装置

Also Published As

Publication number Publication date
JPH05297940A (ja) 1993-11-12
US5378969A (en) 1995-01-03

Similar Documents

Publication Publication Date Title
JP3176701B2 (ja) 移動体の現在位置認識処理装置
US5737217A (en) System for detecting and controlling the position of a mobile robot
JP4480843B2 (ja) 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
JP4276624B2 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP5284923B2 (ja) 脚式移動ロボットの制御装置
JP3599244B2 (ja) ロボット装置、ロボット装置の運動制御装置並びに運動制御方法
JP3278467B2 (ja) 移動ロボットの制御装置
EP1018467B1 (en) Gait generating device for leg type moving robot
KR100960552B1 (ko) 다리식 이동 로봇의 제어장치 및 족적결정 장치
US5594644A (en) Method and system for generating trajectory of robot and the like
US5337235A (en) Locomotion control system for legged mobiled robot
EP1733852B1 (en) Gait generator for mobile robot
JPH1086081A (ja) 脚式移動ロボットの歩容生成装置
JP2004223712A (ja) 歩行式ロボット及びその位置移動方法
JP6892393B2 (ja) 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
JP3167420B2 (ja) 脚式移動ロボットの歩行制御装置
Seiwald et al. Quintic spline collocation for real-time biped walking-pattern generation with variable torso height
JP2002307340A (ja) 脚式移動ロボット及びその制御方法
JP2569579Y2 (ja) 視覚センサを備えた脚式移動ロボット
JPH05285868A (ja) 脚式移動ロボットの歩行制御装置
JP3024023B2 (ja) 脚式移動ロボットの歩行制御装置
JP3071028B2 (ja) 脚式移動ロボットの歩行制御装置
JPH0671578A (ja) 脚式移動ロボットの歩行制御装置
JP3167407B2 (ja) 脚式移動ロボットの歩行制御装置
CN112224304A (zh) 一种轮步复合移动平台及其手势、语音控制方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080406

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090406

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090406

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees