JP4235858B2 - ロボット装置及びロボット装置の障害物マップ生成方法 - Google Patents

ロボット装置及びロボット装置の障害物マップ生成方法 Download PDF

Info

Publication number
JP4235858B2
JP4235858B2 JP12721699A JP12721699A JP4235858B2 JP 4235858 B2 JP4235858 B2 JP 4235858B2 JP 12721699 A JP12721699 A JP 12721699A JP 12721699 A JP12721699 A JP 12721699A JP 4235858 B2 JP4235858 B2 JP 4235858B2
Authority
JP
Japan
Prior art keywords
obstacle
image
wall
edge
floor surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP12721699A
Other languages
English (en)
Other versions
JP2000317868A (ja
Inventor
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP12721699A priority Critical patent/JP4235858B2/ja
Publication of JP2000317868A publication Critical patent/JP2000317868A/ja
Application granted granted Critical
Publication of JP4235858B2 publication Critical patent/JP4235858B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Toys (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はロボット装置及びロボット装置の行動決定方法に関し、例えば4足動物のように動作するペットロボットに適用して好適なものである。
【0002】
【従来の技術】
従来、ユーザからの指令によって決まった動作を行うロボットが提案及び開発されている。このようなロボットにおいては、自分の周囲に壁などの障害物が存在する場合、その障害物に接触又は衝突すると、破損や故障の原因になることから、当該障害物に衝突するような事態が生じることを回避することが望ましい。そこでロボットにおいては、自分の周囲に存在する障害物を検出する方法として種々の方法が考えられている。
【0003】
障害物を検出する方法としては、例えば超音波センサでなる距離センサをロボットが移動する移動平面に対して平行になるように当該ロボットの側面のあらゆる方向に取り付け、移動平面に存在する障害物の位置を検出する方法がある。
【0004】
しかしながら、距離センサを用いて障害物を検出する方法は、多数のセンサをロボットに取り付ける必要があることから、当該ロボットの重量が重くなってしまって軽量化を図ることが困難になる。
【0005】
また障害物を検出する方法としては、ビデオカメラをロボットの頭部に取り付け、当該ビデオカメラによって撮像された画像を基に障害物を検出する方法も考えられる。一般にビデオカメラは超音波センサに比べて広い範囲で周囲の状況を認識し得ることから、1台のビデオカメラで多くの障害物を検出することができ、これにより多数の超音波センサをロボットに取り付ける場合のように当該ロボットの重量が重くなることを回避することができる。またロボットでは、ビデオカメラを障害物を検出する方法以外の目的でも用いることから、新たに超音波センサを取り付ける場合に比べて効率的である。
【0006】
従って障害物検出方法としては、ビデオカメラをロボットに搭載し、当該ビデオカメラによって撮像された画像を基に障害物を検出する方法が提案されており、具体的な方法は特開昭63-71604号公報、特開平02-212906 号公報、特開平07-280518 号公報及び特開昭60-90697号公報に開示されている。
【0007】
このうち特開昭63-71604号公報に開示されている手法は、ビデオカメラによって撮像された画像のうち灰色の領域を道路と見なし、当該灰色の領域以外の領域を障害物とみなすことにより障害物を検出する手法である。特開平02-212906 号公報に開示されている手法は、予め地図を用意しておき、当該地図に基づいてロボットの移動経路などを計画する手法である。
【0008】
特開平07-280518 号公報に開示されている手法は、焦点距離を変化させ得る焦点可変レンズ付きのビデオカメラを用いることにより床と壁のなどの境界を強調したエッジ画像を生成し、当該生成したエッジ画像を基に障害物を検出する手法である。この手法では、ビデオカメラの焦点距離を変化させて画像の濃淡が最も明確に現れた領域をエッジとみなし、当該エッジの位置とそのときの焦点距離とからエッジの位置を求めることによりエッジ画像を生成している。
【0009】
また特開昭60-90697号公報に開示されている手法は、ビデオカメラから連続して入力される画像の各画素の濃淡変化に基づいて各画素の距離を算出し、当該各画素のうち予め設定された空間以外に位置する画素を検出してこれを障害物とみなす手法である。
【0010】
【発明が解決しようとする課題】
ところで多数の関節を有するロボットは、移動する際にその姿勢が複雑に遷移し、当該ロボットの動作に連動してビデオカメラの位置も動くことから、ビデオカメラを移動平面に対して平行に位置させることを維持し得ず、この場合、障害物の位置を正確に検出できない問題があった。
【0011】
因みに、特開昭63-71604号公報に開示されてる手法は、撮像された画像のうち特定の色の領域をロボットが移動し得る領域と見なしていることから、例えば室内のような様々な色が施された領域が存在する場合には障害物を検出することができず、特開平02-212906 号公報や特開平07-280518 号公報に開示されているような手法は、予め地図など周囲の状況を認識させておく必要があるため、用途が限定されてしまうことになる。
【0012】
本発明は以上の点を考慮してなされたもので、自律的に障害物を回避しながら行動するロボット装置及びロボット装置の行動決定方法を提案しようとするものである。
【0013】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、周囲の障害物を撮像する撮像手段と、撮像手段の近傍に設けられ、当該障害物までの距離を測定する距離測定手段と、撮像手段によって床面及び障害物としての壁面を含んだ視野範囲の領域を撮像した画像を記憶する画像記憶手段と、画像に対し所定の演算処理を施すことにより当該画像に表示される床面と壁面との境界であるエッジ線強調した画像である水平エッジ画像を生成するエッジ画像生成手段と、水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の短冊ラインとエッジ線とが交差する複数のエッジ点を結んだ位置を、画像で表示された画像座標系における床面から壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識手段と、画像座標系における壁面障害物の存在位置を表す複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、床面を基準とした床面基準座標系におけるエッジ点床面基準座標値に座標変換するエッジ壁面障害物座標変換手段と、距離測定手段によって測定される壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離センサ座標系における壁面障害物の存在位置として検出し、当該壁面障害物の存在位置を表す座標値に対し所定の計算式を用いることによって当該壁面障害物の存在位置を表す座標値を床面基準座標系における壁面障害物の存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換手段と、床面基準座標系に座標変換された壁面障害物の存在位置を表すエッジ点床面基準座標値と壁面障害物の存在位置を表す距離床面基準座標値とを重ね合わせることによってエッジ点によって壁面障害物を表すエッジ点床面基準座標値及び距離情報によって壁面障害物を表す距離床面基準座標値を1つの床面基準座標系重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成手段とを設けるようにした。
【0014】
この結果、撮像手段によって撮像された障害物の位置を正確に検出することができる。
【0015】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0016】
(1)ペットロボットの構成
図1において、1は全体として動物の外観形状を有するペットロボットを示し、頭に相当する頭部2と、胴体に相当する本体部3と、足に相当する足部4A〜4Dと、尻尾に相当する尻尾部5とを連結することによって構成され、本体部3に対して頭部2、足部4A〜4D及び尻尾部5を動かすことによって実際の4足動物のように動作させるようになされている。
【0017】
頭部2には、目に相当し、画像を撮像する撮像手段としてのCCD(Charge Coupled Device )カメラ10と、耳に相当し、音声を集音するマイク11と、口に相当し、音声を発するスピーカ12とがそれぞれ所定位置に取り付けられている。また頭部2には、ユーザの手などが接触されたことを検出するためのタッチセンサ14と、ペットロボット1の進行方向に対して前方に位置する障害物までの距離を検出する距離検出手段としての距離センサ15とが取り付けられている。
【0018】
本体部3には、腹に相当する位置にバッテリ16が取り付けられるとと共に、その内部にペットロボット1全体の動作を制御するための電子回路(図示せず)等が収納されている。
【0019】
足部4A〜4Dの関節部分、足部4A〜4Dと本体部3を連結する関節部分、本体部3と頭部2を連結する関節部分、本体部3と尻尾部5を連結する関節部分などは、それぞれのアクチュエータ171 〜17N によって連結されており、本体部3内部に収納される電子回路の制御に基づいて駆動するようになされている。このようにペットロボット1は、各アクチュエータ171 〜17N を駆動させることにより、頭部2を上下左右に振らせたり、尻尾部5を振らせたり、足部4A〜4Dを動かして歩かせたり走らせたりして、実際の4足動物のような動作を行わせる。またペットロボット1は、CCDカメラ10及び距離センサ15を支持する支持手段を構成し、当該CCDカメラ10の撮像方向及び距離センサ15の測定方向を任意に変化させ得るようになされている。
【0020】
(2)ペットロボットの回路構成
ここでペットロボット1の回路構成を図2に示す。CPU(Central Processing Unit )20は、ペットロボット1全体の動作を制御するためのものであり、フラッシュROM(Read Only Memory)21に格納されている制御プログラムをバスB1を介して必要に応じて読み出すと共に、PC(Personal Computer )カードスロット(図示せず)に挿入されたメモリカード22に格納されている制御プログラムをPCカードインターフェイス23及びバスB1を順次介して読み出し、これら読み出した制御プログラムをDRAM(Dynamic Random Access Memory)24に転送して記憶するようになされている。CPU20は、このDRAM24に転送された制御プログラムを読み出して実行することによりペットロボット1の各回路を制御している。
【0021】
信号処理回路30は、CPU20の制御に基づいて各種信号処理を行うためのものであり、図3に示すように、CPU20(図2)に接続するためのホストインターフェイス31と、フラッシュROM21(図2)に接続するためのROMインターフェイス32と、DRAM24(図2)に接続するためのDRAMインターフェイス33とを有し、バスB1を介してCPU20、フラッシュROM21及びDRAM24に接続されている。
【0022】
信号処理回路30は、アービトレーション(バス使用権の調停作業)を行うためのバスアービタ34を有し、当該バスアービタ34は、バスB2を介してホストインターフェイス31、ROMインターフェイス32及びDRAMインターフェイス33に接続されている。
【0023】
また図2において、ペットロボット1には、各関節部分を駆動するアクチュエータ171 〜17N における駆動量を検出するためのポテンショメータ401 〜40N がそれぞれ設けられ、アクチュエータ171 〜17N 、ポテンショメータ401 〜40N 、タッチセンサ14、距離センサ15、マイク11及びスピーカ12がそれぞれハブ411 〜41X を介して信号処理回路30のシリアルバスホストコントローラ45(図3)にツリー接続されている。図3に示すように、シリアルバスホストコントローラ45は、バスB3を介してバスアービタ34に接続され、各ポテンショメータ401 〜40N によって検出された角度情報、タッチセンサ14によって検出された接触情報、距離センサ15によって検出された障害物の距離情報をバスB3、バスアービタ34、バスB2、DRAMインターフェイス33及びバスB1(図2)を順次介してDRAM24(図2)に転送して記憶するようになされている。
【0024】
FBK/CDT(Filter Bank/Color Detection )46は、CCDカメラ10(図2)に接続されるためのものであり、当該CCDカメラ10によって撮像された画像データの色認識を行いながら複数の解像度に分けて取り込み、当該取り込んだ画像データをバスアービタ34及びDRAMインターフェイス33を順次介してDRAM24(図2)に転送して記憶する。
【0025】
IPE(Inner Product Engine)47は、2次元ディジタルフィルタでなり、DRAM24(図2)からDRAMインターフェイス33及びバスアービタ34を順次介して画像データが供給されると、当該画像データから床と壁や壁と壁の境界を強調したエッジ画像を生成し、当該生成したエッジ画像をバスアービタ34及びDRAMインターフェイス33を順次介してDRAM24(図2)に戻して記憶する。
【0026】
DMA(Direct Memory Access)コントローラ48は、データの転送を司るためのものであり、例えばFBK/CDT46のバッファ(図示せず)から画像データを読み出してDRAM24(図2)に転送したり、DRAM24(図2)から画像データを読み出してIPE47に転送し、当該IPE47による演算結果であるエッジ画像をDRAM24(図2)に転送するようになされている。
【0027】
DSP(Digital Signal Processor)49は、マイク11(図2)からハブ41X 〜41X-2 、シリアルバスホストコントローラ45及びバスB3を順次介して例えばユーザの指令を示す音声信号が入力されると、当該音声信号に対して所定のデータ処理を施し、その処理結果でなる音声情報をバスアービタ34及びDRAMインターフェイス33を順次介してDRAM24(図2)に転送して記憶する。
【0028】
シリアルバス50は、パーソナルコンピュータ(PC)などのリモートコンピュータ(図示せず)に接続するためのインターフェイスであり、バスB3を介してバスアービタ34に接続されている。同様にバスB3を介してバスアービタ34に接続されるペリフェラルインターフェイス51は、リモートコンピュータに接続するためのシリアルポート52及びパラレルポート53に接続されると共に、バッテリ16(図2)に接続するためのバッテリマネージャ51に接続されている。バッテリマネージャ51は、バッテリ16から通知されるベッテリ残量情報をペリフェラルインターフェイス51、バスアービタ34及びDRAMインターフェイス33を順次介してDRAM24に転送して記憶する。タイマー55は、ペットロボット1内部の時計としての役割を果たすものであり、バスB3を介してバスアービタ34に接続されている。
【0029】
CPU20は、DRAM24に展開されている各種情報に基づいて自律的に次の動作を決定し、当該決定した動作に応じた駆動信号を生成する。そしてCPU20は、この駆動信号を信号処理回路30内部のホストインターフェイス31、バスアービタ34及びシリアルバスホストコントローラ45並びにハブ411 〜41N を順次介してアクチュエータ171 〜17N に送出することにより、当該各アクチュエータ171 〜17N を駆動して当該ペットロボット1を自律的に動作させる。
【0030】
その際CPU20は、DRAM24に展開されているエッジ画像や距離情報に基づいて自分の周囲に存在する障害物を検出することにより、障害物の分布でなる障害物マップを得る。CPU20は、この障害物マップに基づいて自律的に行動を決定し、当該決定した行動に応じた駆動信号を生成する。そしてCPU20は、この駆動信号を信号処理回路30及びハブ411 〜41N を順次介してアクチュエータ171 〜17N に送出して当該各アクチュエータ171 〜17N を駆動することにより、自分の周囲に存在する障害物を回避しながら自律的に行動するようになされている。
【0031】
なおCPU20は、DRAM24に展開されている各種情報に基づいて音声情報を生成し、当該音声情報をホストインターフェイス31及びバスアービタ34を順次介してDSP49に送出し、当該DSP49において音声信号に変換した後、当該音声信号をシリアルバスホストコントローラ45、ハブ41X を順次介してスピーカ12から出力する。
【0032】
(3)行動決定方法
ここでペットロボット1の行動決定方法について図4に示すフローチャートを用いて説明する。ここではペットロボット1が例えば図5に示すような壁60〜63に挟まれた通路に沿って床面64を移動する場合について説明する。この場合、ステップSP1から入ったステップSP2において、ペットロボット1は、CCDカメラ10の視野範囲に含まれる領域を当該CCDカメラ10によって撮像し、その結果得た図6に示すような画像データを入力画像として信号処理回路30を介してDRAM24に記憶する。
【0033】
信号処理回路30は、DRAM24から入力画像を読み出し、当該入力画像から3×3画素でなる検索画像を1画素分ずつ移動させながら順次切り出し、当該切り出した各検索画像と、フィルタ係数を示す次式
【0034】
【数1】
Figure 0004235858
【0035】
でなる参照画像との積和演算をそれぞれ並列的に施すことにより、床面と壁や壁と壁の境界すなわち水平エッジを強調した図7に示すようなエッジ画像を生成し、当該エッジ画像をDRAM24に記憶する。このようにエッジ画像の生成は、信号処理回路30によって行われ、CPU20を用いることはないため、CPU20は他の演算処理に従事することができる。
【0036】
ステップSP3において、CPU20は、エッジ画像を縦方向に沿って短冊状の領域R1〜R8に分割することにより図に示すような短冊画像を生成する。そしてCPU20は、短冊状の各領域R1〜R8それぞれに対してエッジ画像の下部から各ライン毎に走査し、最初に境界(以下、これをエッジと呼ぶ)を検出した位置を求める。
【0037】
ところでペットロボット1が床64に置かれている場合にはその足元が床面64に位置することから、エッジ画像の下部付近の領域は床面64であることが想定される。従って、エッジ画像の下部から走査した場合に最初に検出されるエッジは、床面64の領域が終了することを意味して障害物と認識される。
【0038】
このようにCPU20は、信号処理回路30と共に障害物検出手段を構成し、領域R1中の複数のラインそれぞれに対して走査することによりエッジの位置をそれぞれ検出し、当該検出された各ライン毎のエッジ位置のうち縦方向のレベルが中間のものを領域R1の障害物の位置(x1 、y1 )とする。以下、同様にしてCPU20は、各領域R2〜R8の障害物の位置(x2 、y2 )〜(x8 、y8 )をそれぞれ検出し、当該検出した各位置(xi 、yi )を画像座標系における障害物の位置とする。
【0039】
続くステップSP4において、CPU20は、位置変換手段として動作し、画像座標系における障害物の位置(xi 、yi )を、ペットロボット1が置かれている床面64を基準とした床面基準座標系における位置(xb 、yb 、zb )に座標変換する。以下、この座標変換について具体的に説明する。まずCPU20は、図10に示すようなピンホール・カメラモデル70において、エッジ画像の画像中心を原点とする画像座標系における障害物の位置を(xi 、yi )とする一方、CCDカメラ10の焦点位置を原点とするカメラ座標系における障害物の位置を(xc 、yc 、zc )とすると共に焦点距離をfとすると、画像座標系における障害物の位置(xi 、yi )とカメラ座標系における障害物の位置(xc 、yc 、zc )との関係は、次式
【0040】
【数2】
Figure 0004235858
【0041】
のように表される。
【0042】
画像座標系は、奥行き方向の位置情報が欠落しているため、画像座標系における障害物の位置(xi 、yi )からカメラ座標系における障害物の位置(xc 、yc 、zc )への変換は実行できない。従ってCPU20は、上述の(2)式を、zc を未知数として(xc 、yc )について解くことにより、次式
【0043】
【数3】
Figure 0004235858
【0044】
を得る。
【0045】
次いでCPU20は、図11に示すような座標系において、床面基準座標系における位置をロボット中心座標系における位置に変換するための4×4行列の同次変換行列をB、ロボット中心座標系から頭部2をチルト(上下)方向に駆動する第1関節における座標系に変換するための同次変換行列をT1 、第1関節における座標系から頭部2をパン(左右)方向に駆動する第2関節における座標系に変換するための同次変換行列をT2 、第2関節における座標系から頭部2をロール(回転)方向に駆動する第3関節における座標系に変換するための同次変換行列をT3 、第3関節における座標系の位置をカメラ座標系における位置に変換するための同次変換行列をT4 として、カメラ座標系における障害物の位置Xc を、次式
【0046】
【数4】
Figure 0004235858
【0047】
によって床面座標系における位置Xb に変換する。ここでc11〜c33は同次変換行列Tの回転量を示し、tx 、ty 、tz は同次変換行列Tの並行移動量を示し、c11′〜c33′及びc11″〜c33″は床面基準座標系及びカメラ座標系の回転量を示し、xb 、yb 、zb 及びxc 、yc 、zc は床面基準座標系及びカメラ座標系の平行移動量を示す。
【0048】
そしてCPU20は、上述の(4)式を展開することによりxb 、yb 、zb の計算式を求め、障害物が床面64上に存在するという拘束条件zb =0を用いることにより、次式
【0049】
【数5】
Figure 0004235858
【0050】
を得る。CPU20は、この(5)式に上述の(3)式を代入した後、拘束条件zb =0からzc を算出し、当該算出したzc を(5)式の第1式及び第2式に代入することにより、画像座標系における障害物の位置(xi 、yi )を床面基準座標系における位置(xb 、yb 、0)に座標変換する変換式である次式
【0051】
【数6】
Figure 0004235858
【0052】
を生成する。かくしてCPU20は、この(6)式を用いてエッジ画像中の各領域に存在する障害物の位置を床面基準座標系における位置(xb 、yb 、0)に座標変換する。
【0053】
ステップSP5において、CPU20は、図12に示す座標系において、画像座標系における障害物の位置(xi 、yi )を床面基準座標系における位置(xb 、yb 、0)に座標変換する場合と同様にして、距離センサ座標系における障害物の位置Xd (0、0、xd )を床面基準座標系における位置(xe 、ye 、0)に座標変換する。すなわちCPU20は、距離センサ15の検出結果である距離情報xd を距離センサ座標系における障害物の位置Xd (0、0、xd )とし、当該位置Xd (0、0、xd )を上述の同次変換行列B、T1 、T2 、T3 及び第3関節における座標系の位置を距離センサ座標系における位置に変換するための同次変換行列T5 を用いて床面基準座標系における位置(xe 、ye 、0)に座標変換する。
【0054】
ステップSP6において、CPU20は、障害物分布生成手段として動作し、CCDカメラ10によって撮像された入力画像に基づいて算出された床面基準座標系における障害物の位置(xb 、yb )と、距離センサ15によって検出された距離情報に基づいて算出された床面基準座標系における障害物の位置(xe 、ye )とを重ねて表示することにより、図13に示すような障害物の分布でなる障害物マップ80を生成し、当該生成した障害物マップ80をDRAM24に記憶する。図中丸印はCCDカメラ10によって検出された障害物を示し、図中二重丸印は距離センサ15によって検出された障害物を示す。
【0055】
ところでCCDカメラ10によって撮像された入力画像にノイズが含まれていると、信号処理回路30はエッジ画像を正しく生成し得ない場合がある。この場合、ペットロボット1は、距離センサ15を併用して障害物を検出しており、障害物の検出における信頼性を向上させることができる。因みに、CPU20は、ペットロボット1の周囲の所定範囲を安全圏81として選定して表示するようになされており、安全圏81に障害物等が侵入した場合、移動速度を所定の速度に制限するなどして警戒行動モードに入る。
【0056】
ステップSP7において、CPU20は、さらに障害物の位置を検出する必要があるか否か判断し、その結果、さらに障害物の位置を検出する必要があると判断した場合にはステップSP2に戻って動作を繰り返すことにより広い範囲の障害物マップを生成し、周囲に存在する障害物を十分検出することはできたと判断した場合にはステップSP8に移行する。
【0057】
そしてステップSP8において、CPU20は、行動決定手段として動作し、生成した障害物マップに基づいてペットロボット1から最も近くに位置する障害物を避けながら最も遠くに位置する障害物に向かって進むという行動計画を立てて、当該行動計画に応じて各アクチュエータ171 〜17N を駆動する。これによりペットロボット1は、自分の周囲に存在する障害物を回避しながら自律的に行動又は移動することができる。そしてステップSP9に移って処理を終了する。
【0058】
(4)動作及び効果
以上の構成において、信号処理回路30は、CCDカメラ10によって撮像された入力画像から所定の周波数成分の画像信号を抽出するようなフィルタ演算を施すことにより、ペットロボット1が移動する移動面と当該移動面上に存在する障害物との境界を強調したエッジ画像を生成する。
【0059】
CPU20は、このエッジ画像上に存在する最下部の境界の位置から障害物の位置を特定し、当該最下部の境界の位置を画像座標系における障害物の位置と見なす。そしてCPU20は、アクチュエータ171 〜17N が駆動することに応じて変化したCCDカメラ10の撮像方向に基づいて、画像座標系における障害物の位置を、ペットロボット1が移動する移動面を基準とした基準座標系における位置に座標変換する。このように複数の関節を有し、動作する毎に複雑に姿勢遷移するペットロボット1であっても、周囲の環境にかかわらずに障害物の位置を正確に検出することができる。
【0060】
同様にしてCPU20は、アクチュエータ171 〜17N が駆動することに応じて変化した距離センサ15の測定方向に基づいて、、距離センサ座標系における障害物の位置を基準座標系における位置に座標変換する。次いでCPU20は、CCDカメラ10によって検出された障害物の基準座標系における位置と、距離センサ15によって検出された障害物の基準座標系における位置とを基に、障害物の分布でなる障害物マップを生成する。CPU20は、この生成した障害物マップに基づいて自律的に次の動作を決定し、自分の周囲に存在する障害物を回避しながら自律的に行動及び移動する。これによりユーザはペットロボット1の行動を常に監視する必要がなくなる。
【0061】
以上の構成によれば、撮像された入力画像からペットロボット1が移動する移動面と当該移動面上に存在する障害物との境界を検出してこれを障害物の位置と見なし、CCDカメラ10の撮像方向に基づいてこの障害物の位置を移動面上の位置に変換することにより、自分の周囲に存在する障害物の位置を正確に検出することができ、かくして当該検出した障害物の位置に基づいて次の動作を決定すれば、確実に障害物を回避しながら自律的に行動することができる。
【0062】
また、CCDカメラ10は距離センサ15に比べて広い範囲で周囲の状況を認識し得ることから、1台のCCDカメラ10で多くの障害物を検出することができ、ペットロボット1の構成を簡易にし得る。
【0063】
また、CCDカメラ10から供給される入力画像を基に検出された画像座標系における障害物の位置を、床面基準座標系における位置に座標変換して障害物マップに表示することにより、距離センサ15によって検出された障害物の位置も座標変換を施せば、障害物マップに表示することができ、従って障害物の位置に対する信頼性を向上することができる。
【0064】
(5)他の実施の形態
なお上述の実施の形態においては、CCDカメラ10及び距離センサ15を用いて障害物を検出した場合について述べたが、本発明はこれに限らず、CCDカメラ10だけで障害物を検出するようにしても良い。
【0065】
また上述の実施の形態においては、本発明をペットロボット1に適用した場合について述べたが、例えばゲームや展示等のエンタテインメント分野で用いられるロボット又は搬送用ロボット、工事用ロボット等の産業ロボットのように、他の種々のロボット装置に本発明を適用し得る。
【0066】
【発明の効果】
上述のように本発明によれば、周囲の障害物を撮像する撮像手段と、撮像手段の近傍に設けられ、当該障害物までの距離を測定する距離測定手段と、撮像手段によって床面及び障害物としての壁面を含んだ視野範囲の領域を撮像した画像を記憶する画像記憶手段と、画像に対し所定の演算処理を施すことにより当該画像に表示される床面と壁面との境界であるエッジ線強調した画像である水平エッジ画像を生成するエッジ画像生成手段と、水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の短冊ラインとエッジ線とが交差する複数のエッジ点を結んだ位置を、画像で表示された画像座標系における床面から壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識手段と、画像座標系における壁面障害物の存在位置を表す複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、床面を基準とした床面基準座標系におけるエッジ点床面基準座標値に座標変換するエッジ壁面障害物座標変換手段と、距離測定手段によって測定される壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離センサ座標系における壁面障害物の存在位置として検出し、当該壁面障害物の存在位置を表す座標値に対し所定の計算式を用いることによって当該壁面障害物の存在位置を表す座標値を床面基準座標系における壁面障害物の存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換手段と、床面基準座標系に座標変換された壁面障害物の存在位置を表すエッジ点床面基準座標値と壁面障害物の存在位置を表す距離床面基準座標値とを重ね合わせることによってエッジ点によって壁面障害物を表すエッジ点床面基準座標値及び距離情報によって壁面障害物を表す距離床面基準座標値を1つの床面基準座標系重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成手段とを具えるようにしたことにより、カメラ画像によるエッジ点床面基準座標値と距離センサによる距離床面基準座標値を併用した障害物座標値マップに従って障害物を検出することができるので、カメラ画像によるエッジ点床面基準座標値にノイズによるエッジ画像に誤差が生じても距離センサによる距離床面基準座標値による障害物検出によって障害物の位置を正確に検出することができ、かくして障害物の位置を検出する信頼性が向上し得るロボット装置を実現できる。
【図面の簡単な説明】
【図1】本発明によるペットロボットの一実施の形態を示す略線図である。
【図2】ペットロボットの回路構成を示すブロック図である。
【図3】信号処理回路の構成を示すブロック図である。
【図4】ロボット装置の行動決定方法を示すフローチャートである。
【図5】ペットロボットの周囲の環境を示す略線図である。
【図6】入力画像を示す略線図である。
【図7】エッジ画像を示す略線図である。
【図8】短冊画像を示す略線図である。
【図9】各短冊の代表点を示す略線図である。
【図10】ピンホール・カメラモデルを示す略線図である。
【図11】座標変換の原理を示す略線図である。
【図12】座標変換の原理を示す略線図である。
【図13】障害物マップを示す略線図である。
【符号の説明】
1……ペットロボット、2……頭部、3……本体部、4……足部、5……尻尾部、10……CCDカメラ、11……マイク、12……スピーカ、15……距離センサ、16……バッテリ、17……アクチュエータ、20……CPU、21……フラッシュROM、22……メモリカード、24……DRAM、30……信号処理回路、34……バスアービタ、40……ポテンショメータ、41……ハブ、45……シリアルバスホストコントローラ、46……FBK/CDT、47……IPE、48……DMAコントローラ。

Claims (3)

  1. 周囲の障害物を撮像する撮像手段と、
    上記撮像手段の近傍に設けられ、上記障害物までの距離を測定する距離測定手段と、
    上記撮像手段によって床面及び上記障害物としての壁面を含んだ視野範囲の領域を撮像した画像を記憶する画像記憶手段と、
    上記画像に対し所定の演算処理を施すことにより当該画像に表示される上記床面と上記壁面との境界であるエッジ線強調した当該画像である水平エッジ画像を生成するエッジ画像生成手段と、
    上記水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の上記短冊ラインと上記エッジ線とが交差する複数のエッジ点を結んだ位置を、上記画像で表示された画像座標系における上記床面から上記壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識手段と、
    上記画像座標系における上記壁面障害物の存在位置を表す上記複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、上記床面を基準とした床面基準座標系における上記エッジ点床面基準座標値に座標変換するエッジ壁面障害物座標変換手段と、
    上記距離測定手段によって測定される上記壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離測定座標系における上記壁面障害物の上記存在位置として検出し、当該壁面障害物の上記存在位置を表す座標値に対し上記所定の計算式を用いることによって当該壁面障害物の上記存在位置を表す座標値を上記床面基準座標系における上記壁面障害物の上記存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換手段と、
    上記床面基準座標系に座標変換された上記壁面障害物の上記存在位置を表す上記エッジ点床面基準座標値と上記壁面障害物の上記存在位置を表す上記距離床面基準座標値とを重ね合わせることによって上記エッジ点によって上記壁面障害物を表す上記エッジ点床面基準座標値及び上記距離情報によって上記壁面障害物を表す上記距離床面基準座標値を1つの上記床面基準座標系重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成手段と
    を具えるロボット装置。
  2. 上記障害物座標値マップに基づいて検出された上記障害物を避けながら移動する移動手段と
    を具える請求項1に記載のロボット装置。
  3. 周囲の障害物を撮像する撮像ステップと、
    上記撮像手段の近傍に設けられ、上記障害物までの距離を測定する距離測定ステップと、
    画像記憶手段に上記撮像ステップによって床面及び上記障害物としての壁面を含んだ視野範囲の領域を撮像された画像を記憶する画像記憶ステップと、
    上記画像に対し所定の演算処理を施すことにより当該画像に表示される上記床面と上記壁面との境界であるエッジ線強調した当該画像である水平エッジ画像を生成するエッジ画像生成ステップと、
    上記水平エッジ画像を複数の縦方向に引かれた短冊ラインで分割することによって得られる当該複数の上記短冊ラインと上記エッジ線とが交差する複数のエッジ点を結んだ位置を、上記画像で表示された画像座標系における上記床面から上記壁面に変わる位置とし、当該壁面を壁面障害物として認識する壁面障害物認識ステップと、
    上記画像座標系における上記壁面障害物の存在位置を表す上記複数のエッジ点の座標値に対し、所定の計算式を用いることによって当該複数のエッジ点の座標値を、上記床面を基準とした床面基準座標系における上記エッジ点床面基準座標値に座標変換するエッジ壁 障害物座標変換ステップと、
    上記距離測定ステップによって測定される上記壁面までの距離情報に基づいて得られた位置を当該距離測定手段の測定に対応した距離測定座標系における上記壁面障害物の上記存在位置として検出し、当該壁面障害物の上記存在位置を表す座標値に対し上記所定の計算式を用いることによって当該壁面障害物の上記存在位置を表す座標値を上記床面基準座標系における上記壁面障害物の上記存在位置を表す距離床面基準座標値に座標変換する距離壁面障害物座標変換ステップと、
    上記床面基準座標系に座標変換された上記壁面障害物の上記存在位置を表す上記エッジ点床面基準座標値と上記壁面障害物の上記存在位置を表す上記距離床面基準座標値とを重ね合わせることによって上記エッジ点によって上記壁面障害物を表す上記エッジ点床面基準座標値及び上記距離情報によって上記壁面障害物を表す上記距離床面基準座標値を1つの上記床面基準座標系重畳して表示する障害物座標値マップを生成する障害物座標値マップ生成ステップと
    を具えるロボット装置の障害物マップ生成方法。
JP12721699A 1999-05-07 1999-05-07 ロボット装置及びロボット装置の障害物マップ生成方法 Expired - Fee Related JP4235858B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12721699A JP4235858B2 (ja) 1999-05-07 1999-05-07 ロボット装置及びロボット装置の障害物マップ生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12721699A JP4235858B2 (ja) 1999-05-07 1999-05-07 ロボット装置及びロボット装置の障害物マップ生成方法

Publications (2)

Publication Number Publication Date
JP2000317868A JP2000317868A (ja) 2000-11-21
JP4235858B2 true JP4235858B2 (ja) 2009-03-11

Family

ID=14954612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12721699A Expired - Fee Related JP4235858B2 (ja) 1999-05-07 1999-05-07 ロボット装置及びロボット装置の障害物マップ生成方法

Country Status (1)

Country Link
JP (1) JP4235858B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342759A (ja) 2001-01-30 2002-11-29 Nec Corp 情報提供システム、情報提供方法、およびそのプログラム
JP4779226B2 (ja) * 2001-04-25 2011-09-28 ソニー株式会社 ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体
JP3758628B2 (ja) * 2002-09-25 2006-03-22 松下電工株式会社 自律移動装置
JP4100239B2 (ja) * 2003-04-22 2008-06-11 松下電工株式会社 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP4227037B2 (ja) * 2004-02-25 2009-02-18 株式会社国際電気通信基礎技術研究所 撮像システム及び校正方法
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
CN110378854B (zh) * 2019-07-17 2021-10-26 上海商汤智能科技有限公司 机器人图像增强方法及装置
CN114489078B (zh) * 2022-01-27 2024-07-12 珠海一微半导体股份有限公司 基于相位检测的移动机器人避障方法、芯片和机器人

Also Published As

Publication number Publication date
JP2000317868A (ja) 2000-11-21

Similar Documents

Publication Publication Date Title
CN108780586B (zh) 图像处理方法、显示设备和检查***
JP6900575B2 (ja) ゲームプレイを介して環境の詳細データセットを生成する方法およびシステム
JP7025532B2 (ja) 衝突の検出、推定、および回避
JP2022062716A (ja) 掃除機の制御方法及び制御システム
JP2003285288A (ja) 充電システム及び充電制御方法、ロボット装置、充電装置、及び充電制御プログラム及び記録媒体
JPH10334270A (ja) 動作認識装置及び動作認識プログラムを記録した記録媒体
JP4235858B2 (ja) ロボット装置及びロボット装置の障害物マップ生成方法
JP7372708B2 (ja) 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法
JP6020439B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
CN109164802A (zh) 一种机器人迷宫行走方法、装置及机器人
Grewal et al. Autonomous wheelchair navigation in unmapped indoor environments
CN112230652A (zh) 行走机器人及其移动控制的方法、计算机存储介质
JP2015219868A (ja) 情報処理装置、情報処理方法、プログラム
KR20210099780A (ko) 전자 장치 및 그 제어 방법
JP2009288917A (ja) 情報処理装置、情報処理方法、およびプログラム
KR20220120908A (ko) 이동 로봇 및 이동 로봇의 제어 방법
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム
JP6769859B2 (ja) 画像処理装置及び画像処理方法
JP7342664B2 (ja) ロボット、制御方法、およびプログラム
US20220016773A1 (en) Control apparatus, control method, and program
JP7223865B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN115552487A (zh) 人体躺姿检测方法及使用该方法的移动机器
JP4618470B2 (ja) 画像処理装置及び方法並びにロボット装置及びその制御方法
AU2020317303A1 (en) Information processing device, data generation method, and program
CN111971149A (zh) 记录介质、信息处理设备和信息处理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees