JP2009217363A - 環境地図生成装置、方法及びプログラム - Google Patents

環境地図生成装置、方法及びプログラム Download PDF

Info

Publication number
JP2009217363A
JP2009217363A JP2008058105A JP2008058105A JP2009217363A JP 2009217363 A JP2009217363 A JP 2009217363A JP 2008058105 A JP2008058105 A JP 2008058105A JP 2008058105 A JP2008058105 A JP 2008058105A JP 2009217363 A JP2009217363 A JP 2009217363A
Authority
JP
Japan
Prior art keywords
cross
model
sectional image
map
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008058105A
Other languages
English (en)
Other versions
JP4999734B2 (ja
Inventor
Kosai Matsumoto
高斉 松本
Toshio Moriya
俊夫 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008058105A priority Critical patent/JP4999734B2/ja
Priority to US12/118,014 priority patent/US8023727B2/en
Publication of JP2009217363A publication Critical patent/JP2009217363A/ja
Application granted granted Critical
Publication of JP4999734B2 publication Critical patent/JP4999734B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】実際の環境の正確な幾何形状を示す環境地図を生成する。
【解決手段】任意の障害物のモデルを記憶する記憶部を備え、この記憶部から呼び出した障害物のモデルについて対象環境の基準面から所定の高さにおける断面画像を生成する。この断面画像に障害物のモデルを重ねて断面画像付きモデルを生成し、この断面画像付きモデルを半透明を、障害物地図上の対応する障害物に半透明で重畳して表した環境地図を生成する。
【選択図】図1

Description

本発明は、任意の環境の幾何形状を示す環境地図を生成する環境地図生成装置、方法及びプログラムに関する。
ある環境(オフィスや工場など)において、ロボットを自動的に移動させるためには、環境の幾何形状を表すデータ(例えば椅子や机等の障害物がどのように配置されているか、また椅子や机はどのような形状であるかを示す情報)が一般的に必要とされる。このように環境の幾何形状を表すデータを環境地図と呼ぶ。この環境地図を生成する装置を環境地図生成装置と呼ぶ。この環境地図をロボットに読み込ませることにより、ロボットが自身で障害物等を避けて移動するための経路計画を立てたりすることが可能となる。よって、実際の環境に対応した環境地図を生成することが重要である。
例えば、非特許文献1には、環境の外形や障害物を計測するレーザー距離センサの実測データに基づき作成された地図(以下、「ロボット用地図」という)上の適切な位置に、障害物のモデルを重ねて配置する装置が提案されている。この非特許文献1に記載の装置は、空間内に存在する障害物のモデルを上方より見下ろした画像(以下、「障害物の上面画像」という)を生成し、これをユーザがロボット用地図上に重ねて配置することで、2次元の情報を含む座標データとして環境地図が作成されるようになっている。
T.Tsubouchi, A.Tanaka, A.Ishioka, M.Tomono, S.Yuta, "A SLAM Based Teleoperation and Interface System for Indoor Environment Reconnaissance in Rescue Activities", IEEE/RSJ International Conference on Intelligent Robots and Systems, Vol.2, pp.1096-1102, 2004
ところで、非特許文献1に記載された発明は、ロボット用地図がレーザー距離センサの走査面の高さにおける環境の外形を表しているのに対し、このロボット用地図上に配置する障害物の上面画像は、高さ情報を含んでいない。そのため、ユーザは、障害物の上面画像をロボット用地図に配置する際に目安となる、操作面の高さにおける障害物の上面画像及びロボット用地図に共通する幾何的特徴を確認できず、障害物の上面画像をロボット用地図上に配置するために必要な位置関係を特定することが困難であるという問題があった。
本発明は斯かる点に鑑みてなされたものであり、ロボット用地図に対し障害物のモデルを配置すべき位置を容易に特定できるようにすることを目的とする。
上記課題を解決するため、本発明は、任意の障害物のモデルを記憶する記憶部と、障害物のモデルについて対象環境の基準面から所定の高さにおける断面画像を生成する断面画像生成部と、障害物のモデルに断面画像を重ねて断面画像付きモデルを生成するモデル処理部と、対象環境の基準面から所定の高さにおける障害物地図を取得する取得部と、断面画像付きモデルを、障害物地図上の対応する障害物に半透明で重畳して表した環境地図を生成する環境地図生成部と、を備えることを特徴とする。
なお、本発明でいうモデルとは、2次元情報又は3次元情報を含む座標データで表すことができるいわゆるコンピュータグラフィックスを指す。
上記構成によれば、対象環境の基準面から所定の高さにおける障害物のモデルの断面画像を生成し、この断面画像をモデル上に半透明表示することで、ユーザが障害物のモデルとロボット用地図の幾何的特徴を比較できるようになる。それにより、ユーザによる障害物のモデルをロボット用地図上にそれぞれの幾何的特徴が一致するように配置する作業を、支援することができる。
本発明によれば、ロボット用地図に対し障害物のモデルを配置すべき位置を容易に特定でき、実際の環境の正確な幾何形状を表した環境地図を生成することができる。
以下に述べる本発明の実施の形態の説明では、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明は、これらの実施の形態に限られるものではない。また、説明に用いた各図における寸法、形状及び配置関係等は、実施の形態の一例を示す概略的なものである。
以下、本発明の一実施の形態の例について、添付図面を参照しながら説明する。
まず、本発明の一実施形態に係る環境地図生成装置の構成を説明する前に、本発明による環境地図生成処理の概要について、図1に示すフローチャートを参照して説明する。ここでは、レーザー距離センサを用いて測定対象とする部屋の形状や部屋内の家具等の障害物を測定し、測定により得られたデータおよび家具等の障害物のモデルから目的に応じた画像を生成する場合について述べる。
はじめに、レーザー距離センサによって計測された部屋の形状や部屋内の障害物を表すデータ(レーザ距離センサデータ)に基づいて、レーザー距離センサの所定の高さの走査面における部屋の形状や部屋内の障害物の形状を示すロボット用地図が生成される(ステップS1)。なお、このロボット用地図は、部屋の天井から真下を見下ろした視点で作成される。
一方、家具の3次元形状を示す家具モデル(3次元家具モデル)について、レーザー距離センサの走査面の高さにおける断面画像(2次元家具断面画像)が生成される(ステップS2)。なお、この断面画像は、部屋の天井から真下を見下ろした視点で作成される。そして3次元の家具モデルと2次元の断面画像が対応づけられ断面画像付き家具モデルが生成される。
ここで、ステップS1の処理で生成されたロボット用地図において、ステップS2の処理で生成された断面画像の幾何的特徴が一致する位置に断面画像付き家具モデルが配置される(ステップS3)。ステップS3の処理で生成されるものとして以下のようなものが挙げられる。
(1)2次元断面画像付きの3次元家具モデルが、ロボット用地図にどのように配置されているかを示す、3次元情報を含む座標データである環境地図
環境地図は、上記のとおり3次元情報を含む座標データであるので、これを2次元平面に投影するための仮想的なカメラを3次元データ空間内に設け、このカメラによる投影結果を求めればユーザが確認可能な画像が得られる。この画像を求める際、カメラの位置や姿勢で表される視点を変更することにより、用途に応じた画像を生成することができる(ステップS4)。
例えば、ステップS4の処理で生成される画像として以下のようなものが挙げられる。
(2)視点が人の目の高さと方向になるようにカメラを設定することで、実際にその部屋にいるときに見えるであろう奥行き感のある3次元画像
(3)視点が天井から床面を見下ろすことと等価になるようにカメラを設定することで、部屋の見取り図に相当する2次元の画像
次に、本発明の一実施形態による環境地図生成装置の内部構成例について、図2に示すブロック図を参照して説明する。図2に示す環境地図生成装置10は、本発明の地図生成装置をコンピュータに適用した例である。環境地図生成装置10は、プロセッサ11と、メインメモリ12と、ネットワークインターフェイス13と、ポインティングデバイス14と、キーボード15と、ビデオカード16と、ディスプレイ17と、記憶装置19と、で構成されている。これらの各ブロックは、相互にデータのやりとりを行うための通信線18で接続されている。この通信線18は、上記の各構成要素をそれぞれ接続するものであれば、有線でも無線でも構わない。
プロセッサ11は、制御部の一例であり、記憶装置19に記憶されているプログラムに基づき、環境地図生成装置10内の各ブロックの制御を行う。メインメモリ12は、これらの各ブロック間で通信線18を介して送受信されるデータを一時的に記憶するメモリである。
ネットワークインターフェイス13は、通信部の一例であり、環境地図生成装置10をネットワーク回線に接続し、外部の通信機器と通信を行う。なお、環境地図生成装置10内の各ブロックの特定の部分が、このようなネットワークを介して物理的に遠隔にあるような構成としてもよい。
ポインティングデバイス14及びキーボード15は、操作部の一例であり、ユーザ操作に応じてプロセッサ11にユーザの所望する処理を実行させるための操作入力信号を生成及び出力する。
ディスプレイ17は、表示部の一例であり、記憶装置19に記憶してある所定のプログラムにより生成された画像を、ビデオカード16を介して表示する。
記憶装置19は、本発明の主要部を構成するものであり、以下の構成要素から構成されている。すなわち、プログラム制御部21と、ロボット用地図読み込み部22と、家具モデル読み込み部23と、レーザー走査面高さ設定部24と、家具モデル断面画像生成部25と、断面画像対応付け部26と、平行投影カメラ設定部27と、半透明表示設定部28と、家具モデル配置調整部29と、家具配置情報付きロボット用地図保存部30と、画像生成部31である。これらの構成要素の持つ機能は、一連のプログラム(以下、「環境地図生成プログラム」という)によって実現されるものである。
プログラム制御部21は、記憶装置19に含まれる各ブロックで行われる処理の制御を行う。
ロボット用地図読み込み部22は、対象環境の基準面から所定の高さの走査面を走査して作成されたロボット地図ファイルを読み込む。以下、このロボット地図ファイルを「ロボット用地図」と呼ぶ。このロボット用地図は、障害物地図の一例であり、予め記憶装置19或は図示しないリムーバルメディア等に記憶しておいてもよいし、ネットワークインターフェイス13を介して取得できるような状態で外部に記憶しておいてもよい。このロボット用地図についての詳細は、後述する。
家具モデル読み込み部23は、家具の3次元の幾何形状をモデル(以下、「家具モデル」という)として記録したファイルを読み込む。この家具モデルは、予め記憶装置19或は図示しないリムーバルメディア等に記憶しておいてもよいし、ネットワークインターフェイス13を介して取得できるような状態で外部に記憶しておいてもよい。この家具モデルについての詳細も後述する。
レーザー走査面高さ設定部24は、ロボット用地図読み込み部22から読み込んだロボット用地図からそのロボット用地図が作成された対象環境の走査面の高さを示す情報を取得し、家具モデルの断面画像を生成する際に使用する高さ情報として設定する。
この高さ情報は、移動ロボットやロボット用地図を作成するためのデータを計測するセンサの持つメモリに予め記憶しておいて、ネットワークを介して通信により取得するようにしてもよい。あるいは、ディスプレイ17に表示された操作画面において高さ情報入力用のダイアログを表示し、マウス等のポインティングデバイス14又はキーボード15を用いたユーザの入力によって設定するようにしてもよい。
家具モデル断面画像生成部25は、レーザー走査面高さ設定部24で設定された高さ情報に基づき、家具モデル読み込み部23で読み込まれた家具モデルの断面画像を生成する。ここでは、レーザー走査面高さ設定部24で設定された高さの平面を算出し、この平面と3次元情報を持つ家具モデルとが交わってできる線分をもって断面の画像として生成する。この家具モデル断面画像生成部25は、特許請求の範囲に記載した断面画像生成部の一例である。
断面画像対応付け部26は、家具モデル断面画像生成部25で生成された家具モデルの断面画像を当該家具モデルの上に常に重なって表示されるようにすることである。この断面画像対応付け部26は特許請求の範囲に記載したモデル処理部の一例である。
平行投影カメラ設定部27は、断面画像、家具モデル、ロボット用地図が配置されている3次元空間を仮想的なカメラにより2次元平面に投影し、画像としてユーザに表示する際の投影方法を、遠近感のない平行投影に設定するとともに、ユーザカメラの視点をロボット用地図に正対するように、つまり天井側から床面を見下ろすように視点の位置と姿勢を設定する役割を担う。
これにより、2次元のロボット用地図上に3次元の家具モデルを配置する際には、3次元空間内で奥行きの異なる画像やモデルの同士の表示画面上での画像の特徴が重なって見えるようになり、ユーザが表示画面上にて、断面画像の画像上の幾何的特徴とロボット用地図の幾何的特徴の相対位置関係を確認しながら、家具モデルを配置できるようになる。
半透明表示設定部28は、ロボット用地図の上に断面画像付き家具モデルを表示する際に、ロボット用地図が透けて表示されるように断面画像と家具モデルの透過度を設定する。これにより、それぞれの画像の幾何的特徴の相対的な位置と姿勢の関係をユーザが確認できる。断面画像と家具モデルの透過度は、下地となるロボット用地図が透けて見えるものであればよい。例えば、予め決められた透過度に設定してもよいし、ロボット用地図、断面画像及び家具モデルの明るさや色彩等を考慮した透明度に設定してもよい。また、ポインティングデバイス14又はキーボード15等に対するユーザの操作に基づいて設定するようにしてもよい。
家具モデル配置調整部29は、ロボット用地図上で断面画像付き家具モデルの位置や姿勢などの配置を設定する。配置の設定は、ロボット用地図及び断面画像付き家具モデルの画像上の特徴に基づいて行う。また、ポインティングデバイス14又はキーボード15等に対するユーザの操作に基づいて設定するようにしてもよい。
家具配置情報付きロボット用地図保存部30は、家具モデル配置調整部29で生成された環境地図を記憶装置90の所定の領域に記憶させる。以下明細書中では、「家具配置情報付きロボット用地図保存部30」を簡易的に「環境地図保存部30」と称することとする。
画像生成部31は、記憶装置19内の各ブロックで行われる処理を反映させた画像をディスプレイ17に表示する。
次に、上記ロボット用地図について、図3及び図4を参照して説明する。図3は、ロボットに搭載されたセンサが測定対象とした環境(部屋)の一例を示すものである。また図4は、対象環境の幾何形状をロボットに搭載したセンサで計測して作成した地図を示したものである。この地図に示された幾何形状は、ロボットの目線、つまりある基準面から所定の高さで計測した場合のものである。
図3の斜線部分は、対象環境である部屋40内に存在している障害物を表しており、この図3では、障害物として、壁41a,41b,41c,41dと、ドア42と、棚44と、テーブル45と、机46a,46b,46cと、椅子47a,47b,47cと、が含まれている。
このような部屋40内に、レーザーを用いて障害物との距離を測定することによりその幾何形状を計測するレーザー距離センサ49を搭載した移動可能な移動ロボット48を配置する。
移動ロボット48に搭載されたレーザー距離センサ49は、部屋40の基準面に対して平行(一般に水平)な走査面を持つように固定してある。レーザー走査面50は、レーザー距離センサ49から出射されたレーザーを水平に走査し、障害物の幾何形状を計測する範囲を示す。レーザー距離センサ49は、レーザー走査面50における部屋40の幾何形状を計測するものである。
このようなレーザー距離センサ49を搭載した移動ロボット48が、部屋40内の始点52から終点53に向かい移動経路51上を移動しながら、周辺の環境の幾何形状を計測する。そして、レーザー距離センサ49の計測結果から部屋40内の障害物の幾何形状を示すロボット用地図60(図4を参照)が得られる。レーザー距離センサ49の計測結果からロボット用地図を得る方法は周知の技術を用いる。代表的なものとしては、例えば、移動経路51上を移動して得られた複数の計測データに含まれる点群の距離を定義し、この距離が最小となるような計測データ間の相対位置・姿勢を収束演算により求めるICP(Iterative Closest Point)アルゴリズムに基づく手法などがある。
ところで、レーザー距離センサ49は、レーザーにより障害物の幾何形状を計測するものなので、レーザーが直接照射できない場所(障害物の陰等)の計測は行うことができない。これをロボット用地図60の破線で示した枠61部分に注目して説明する。枠61は、部屋40内の机46a及び椅子47aがある位置に対応している。机46aは、図5に示したようにその左側に引き出しが設けられているとともに、前側、左側、右側に側板が取り付けられている。
図4のロボット用地図60では、太線62a、62b、62cのように途切れており、机46a及び椅子47aの幾何形状を完全に再現していないことが確認できる。これは、移動ロボット48が、移動経路51上を移動しつつ、レーザー距離センサ49で机46a及び椅子47b付近を計測する際、机46aの側板及び椅子47bの脚によってレーザーがあたらない箇所(陰)が生じるために起こる。すなわち、机46aにおいてレーザー距離センサ49からのレーザーのあたる場所は、太線54a、54b、54cで示した箇所であり、これらの太線54a、54b、54cで示したレーザーがあたる箇所は、ロボット用地図60における太線62a、62b、62cにそれぞれ対応している。
なお、本実施の形態では、ロボット用地図を作成するために用いられるセンサとして、レーザー距離センサを想定しているが、基準面から所定の高さの平行な面で観測される障害物の位置(幾何形状)が計測可能なものであれば、これに限られるものではない。例えば、赤外線センサ、超音波センサ、カメラ等、方式を問わず、種々のセンサを用いることができる。
さらに、センサの走査範囲(視野角)は何度であってもよく、また走査範囲が狭い(視野角が小さい)センサを移動ロボットに複数取り付けることで、走査範囲を増やしたセンサシステムを用いてもよい。
次に、ロボット用地図に配置される家具モデルについて、図3及び図6を参照して説明する。ここで、家具モデルとは、図3に示す部屋40内に存在する家具(椅子、机、壁及びドア等)の幾何形状を表す3次元のCG(コンピュータグラフィックス)モデルのことを指している。具体的には、所定の3次元情報を含む座標データで部屋40内に存在する家具を表したものである。この家具モデルは特許請求の範囲に記載した障害物のモデルの一例である。
図6は、家具の幾何形状を表すCGモデルとその断面画像例を示している。机の家具モデル71及び椅子の家具モデル81はそれぞれ、所定の方向から見た場合の2次元の幾何形状が表示される。この例では上方視点の幾何形状が表示されている。断面画像72,82はそれぞれ、移動ロボット48に搭載されたレーザー距離センサ49のレーザー走査面50の高さにおける、机の家具モデル71及び椅子の家具モデル81の断面画像である。机の家具モデル71及び椅子の家具モデル81と断面画像72及び断面画像82を、それぞれが画像上で区別できるように重ね合わせる。そして、それを所定の方向から見た3次元の画像を机の断面画像付き家具モデル70及び椅子の断面画像付き家具モデル80とする。壁41、ドア42、棚44、テーブル45についても同様の家具モデルを用意する。なお、基準面から所定の高さである走査面に存在しない障害物については、その断面画像は表示されない。
次に、本発明の一実施形態に係る環境地図生成装置の動作について説明する。
図7は、本発明の一実施形態に係る環境地図生成装置の動作を説明するためのフローチャートである。図7を参照して、環境地図生成装置10のプロセッサ11による環境地図生成処理の一例、つまり図1におけるステップS1〜ステップS3の処理の詳細について説明する。この環境地図生成処理は、キーボード14及びポインティングデバイス15に対するユーザの操作に基づき、ロボット用地図60上に断面画像付き家具モデルを配置し、部屋40の環境地図を生成する場合の例である。なお、このフローチャートに明示していないが、各ステップの処理に伴い、処理結果は画面に表示されるものとする。
まず、プロセッサ11は、ユーザ操作等に応じて、記録装置19に記憶されている環境地図生成プログラムをメインメモリ12に転送し、環境地図生成プログラムを実行可能な状態にする。
そして、プロセッサ11は、メインメモリ12に転送された環境地図生成プログラムのプログラム制御部21にアクセスし、環境地図生成処理を開始させる(ステップS11)。
まず準備として、プログラム制御部21は、ロボット用地図読み込み部22にロボット用地図60を読み込ませる(ステップS12)。そして、ロボット用地図読み込み部22に読み込ませたロボット用地図60は、レーザー走査面高さ設定部24及び家具モデル配置調整部29に出力される。同時に、プログラム制御部21は、ロボット用地図60を画像生成部31へ出力する。プロセッサ21は、画像生成部21により画像化されたロボット用地図60をディスプレイ17に表示する。
一方、プログラム制御部21は、家具モデル読み込み部23にロボット用地図上に配置される机や椅子などの家具モデルを読み込ませ(ステップS13)、この家具モデルを、家具モデル断面画像生成部25及び断面画像対応付け部26へ出力する。
また、ロボット用地図読み込み部22からレーザー走査面高さ設定部24へ出力されたロボット用地図60から、このロボット用地図60を作成する際用いたレーザー距離センサ49の走査面50の高さ情報を取得する(ステップS14)。そして、プログラム制御部21は、走査面50の高さ情報を家具モデル断面画像生成部25へ出力する。
ここで、家具モデル読み込み部23から家具モデル断面画像生成部25へ出力された各家具モデルに対し、レーザー走査面高さ設定部24から出力されたレーザー走査面50の高さ情報に基づき家具モデルの断面画像を生成する処理が行われる(ステップS15)。プログラム制御部21は、生成された断面画像を断面画像対応付け部26へ出力する。例えば、机及び椅子の家具モデル71,81(図6参照)の場合であれば、断面画像72,82が生成される。
次に、断面画像対応付け部26において、家具モデル断面画像生成部25で生成された断面画像72と家具モデル読み込み部22で生成された机の家具モデル71との対応付けが行われる(ステップS16)。具体的には、断面画像72と机の家具モデル71とをそれぞれ区別できるように重ね合わせる処理が行われる。そして、プログラム制御部21は、対応付けが行われた断面画像72及び机の家具モデル71を平行投影カメラ設定部27へ出力する。
ここで、断面画像対応付け部26から平行投影カメラ設定部27へ出力された対応付けが行われた断面画像72及び机の家具モデル71が遠近感のない2次元の画像に見える(実際は3次元)ように変換する処理(平行投影)が行われ、机の断面画像付き家具モデル70が生成される(ステップS17)。そして、プログラム制御部21は、机の断面画像付き家具モデル70を半透明表示設定部28へ出力する。
ここで、平行投影カメラ設定部27から半透明表示設定部28へ出力された机の断面画像付き家具モデル70の透過度の設定が行われ、半透明化された机の断面画像付き家具モデル70が生成される(ステップS18)。
そして、プログラム制御部21は、半透明化された机の断面画像付き家具モデル70を画像生成部31へ出力する。そして、プロセッサ11は、画像生成部31で画像化され、半透明化された机の断面画像付き家具モデル70を、ディスプレイ17上のすでに表示されているロボット用地図60の上に表示する。
次に、ディスプレイ70には、図8に示すような作成途中の表示画面90が表示される。この表示画面90において、ユーザは、ロボット用地図60上に表示された半透明化された机の断面画像付き家具モデル70を配置する。このとき、家具モデル配置調整部29は、ユーザ操作に基づいて、上記半透明化された机の断面画像付き家具モデル70の位置や姿勢を調整し、ロボット用地図60の適切な位置である枠61,63,64のいずれかの位置に配置する(ステップS19)。この適切な位置とは、ロボット用地図60上において断面画像72と幾何的特徴が共通する、例えば、ロボット用地図60の枠61部分における太線62a、62b、62cと断面画像72の形状が重なる(一致する)位置を指す。
上記の断面画像付き家具モデルの位置と姿勢の調整は、マウスなどのポインティングデバイス14を用いたり、あるいは操作画面上のダイアログへ数値設定をしたりすることによって、家具モデルの位置と姿勢を変更し、目視によって確認しながら行われる。
ここで、さらに別の半透明化された断面画像付き家具モデルをロボット用地図60上に配置するか否かを判定する(ステップS20)。新たに別の家具モデルの配置を行う場合には、ステップS19の処理に戻り、ユーザ操作に応じて、所定の半透明化された断面画像付き家具モデルをロボット用地図60上に配置する。
一方、新たに配置を行わない場合、つまりロボット用地図60上にすべての半透明化された家具モデルの配置が完了した場合には、図9に示す環境地図100の生成が完了する。
環境地図100において、図3に示した壁41a,41b,41c,41dのそれぞれの位置に、壁の断面画像付き家具モデル101a,101b,101a,101dが、ドア42の位置にドアの断面画像付き家具モデル102が配置してある。また、図3に示した棚44の位置に棚の断面画像付き家具モデル104が、テーブル45の位置にテーブルの断面画像付き家具モデル105が配置してある。さらに、図3に示した机46a,46b,46cと、椅子47a,47b,47cのそれぞれの位置に、机の断面画像付き家具モデル70と机の断面画像付き家具モデル80が配置してある。なお、図9に示した例では、壁、ドアについては、上方視点の画像と断面画像が同じであるため、白で表現されている。
そして、プログラム制御部21は、家具モデルとその配置からなる3次元データからなる環境地図100を家具モデル配置調整部29から環境地図保存部30へ出力する。
こうして、家具モデル配置調整部29から環境地図保存部30へ出力された環境地図100は記憶装置19の所定の領域に記憶され(ステップS21)、プログラム制御部21は環境地図生成プログラムの実行を終了する(ステップS22)。
ステップS21における環境地図100の保存の前の処理までで、レーザー距離センサ49による計測結果(ロボット用地図60)に沿うように家具モデルが配置された場面(環境地図)が作成されている。この場面を、例えばステップS17の処理で設定された視点の位置及び姿勢でレンダリング(描画)することで環境地図を家具が部屋にどのように配置されているかが確認できるCG画像として生成し、記憶装置19に環境地図ファイルとして保存することができる。
なお、本実施形態における視点は、ロボット用地図60に正対するように設定しているため、場面全体を上方より見下ろした画像が得られる。それとは異なる視点の3次元画像すなわち家具配置CGを得たい場合には、別途、視点の位置と姿勢を設定し、その視点でのレンダリングを行えば、その視点での画像が得られる。
上述した本発明の一実施形態においては、レーザー距離センサ49による計測結果に基づき作成されたロボット用地図に、断面画像付き家具モデルを半透明で重ねて表示するようにしたので、ロボット用地図と断面画像付き家具モデルの幾何的特徴を容易に比較することができる。したがって、ロボット用地図上のより適切な位置に断面画像付き家具モデルを配置することができる。
その結果、例えば部屋40等について、実際の環境の正確な幾何形状(障害物を含む部屋の幾何的形状)を示した環境地図100を生成することができる。すなわち実際の環境における障害物の配置を正確に再現した環境地図を作成することができる。このように環境地図内の空間上に障害物のモデルの配置を正確に再現した場面を作成することにより、環境地図内の空間上において、現実の環境でロボットに行わせる作業の正確なシミュレーションが可能となる。
このような環境地図は、机等の障害物の置かれた位置があまり変化しないような環境において、ロボットに反復作業を行わせる際に特に有効である。例えば、オフィスなどでロボットによる郵便物配達や掃除、工場などでのロボットによる資材の運送などへの応用を円滑に行うことが可能となる。
次に、本発明の他の実施形態に係る環境地図生成装置の動作について説明する。
図10は、本発明の他の実施形態に係る環境地図生成装置の動作を説明するためのフローチャートである。図10を参照して、環境地図生成装置10のプロセッサ11による環境地図生成処理の一例について説明する。この環境地図生成処理は、ロボット用地図上に透明化された断面画像付き家具モデルを配置する位置を自動的に決定し、部屋40の環境地図100を生成する場合の例である。
図10に示すフローチャートは、環境地図生成プログラムの家具モデル配置調整部29(図3参照)で行われる処理を、すなわち、図7に示すステップS19とステップS20の処理を、ステップS49〜ステップS55の処理に変更したものである。その他のステップS41〜ステップS48及びステップS55〜ステップS56の処理は、図7のフローチャートにおけるステップS1〜ステップS8及びステップS21〜ステップS22の処理と共通しているので、説明は省略する。以下、すでにステップS41〜ステップS47の処理が完了しており、さらにステップS48の処理において透明化された机の断面画像付き家具モデル70が家具モデル配置調整部29へ出力された場合、家具モデル配置調整部29で行われる処理について説明する。
このとき、ディスプレイ17には、図8に示すような表示画面が表示される。この表示画面90において、ユーザは、ロボット地図60上に表示された半透明化された机の断面画像付き家具モデル70をポインティングデバイス14あるいはキーボード15等を操作して選択する。机の断面画像付き家具モデル70を選択した後、画面90上に図示しない「家具配置候補検索ボタン」が表示される。ユーザが、ポインティングデバイス14あるいはキーボード15等により、画面90上に表示された「家具配置候補検索ボタン」を押すと、家具モデル配置調整部29において、透明化された机の断面画像付き家具モデル70の断面画像72と、ロボット用地図60とのマッチングが開始される(ステップS49)。
ここでのマッチングとは、断面画像72をロボット用地図60上に様々な位置と姿勢で重ね合わせ、画像同士の幾何的特徴の重なり度合い(重なり合いの度合いのこと:マッチング値)を求めることであり、マッチング値が閾値より高い場合に、ロボット用地図60上に断面画像72との一致点があると判定する。
マッチングの結果、ロボット用地図60上に断面画像72の幾何的特徴と一致する場所があると判定された場合、そのときの断面画像72の位置と姿勢が、配置候補として記憶装置19の所定の領域に記憶される(ステップS50)。
なお、マッチング手法としては、例えば2つの画像について画素毎の差分の二乗和を求めパターン類似度を評価するSSD(Sum of Squared Differences)等の既存のアルゴリズムが用いられる。また、記憶装置19に記録される断面画像の配置候補については、マッチング値が閾値を超えたときの位置と姿勢を記録する他に、複数のマッチング値から値の高い上位数点の位置と姿勢を記録するなどしてもよい。
次に、記憶装置19からロボット用地図と断面画像との各重なり度合い及びそれに対応する障害物の各位置及び各姿勢が呼び出される。そして、重なり度合いが予め設定された閾値(第1の閾値)を超える重なり度合いに対応する位置及び姿勢とを、透明化された机の断面画像付家具モデル70の配置候補位置として決定する。そして、ロボット用地図60上の配置候補位置に、透明化された机の断面画像付き家具モデル70が表示される(ステップS51)。このとき、配置候補位置が複数ある場合は、すべての配置候補位置に半透明化された机の断面画像付き家具モデル70を表示するようにする。
そして、すべての配置候補位置の中から、例えばポインティングデバイス14又はキーボード15等によって、ユーザの所望する配置候補位置を選択すると、選択された配置候補位置に表示された半透明化された机の断面画像付き家具モデル70に対応する位置及び姿勢がメインメモリ12に記憶される(ステップS52)。
そして、この場合には、ステップS52の処理でメインメモリ12に記憶された位置及び姿勢に基づいた配置候補位置に半透明化された机の断面画像付き家具モデル70が表示される。その際、ステップS11の処理で選択された配置候補位置以外に表示された半透明化された机の断面画像付き家具モデル70は消去される(ステップS53)。
ここで、さらに別の半透明化された断面画像付き家具モデルをロボット用地図60上に配置するか否かを判定する(ステップS54)。新たに別の家具モデルの配置を行う場合には、ステップS49の処理に戻る。そして、ポインティングデバイス14あるいはキーボード15等を使用して、ユーザが選択した家具モデルに対応する半透明化された断面画像付き家具モデルをロボット用地図60上に配置する。この例では、配置すべき机の位置は3箇所あり、そのうちの1箇所のみ指定しただけであるから、残り2つの机を配置する必要がある。したがって、ステップS49に戻り一連の処理を継続する。なお、机とは別の家具モデル、例えば、椅子の家具モデルを配置したい場合は、ステップS49の処理で椅子の家具モデルを選択すればよい。
そして、以上のステップS49〜ステップS52の処理が、配置する家具モデルの数及び種類だけ繰り返され、図9に示す環境地図100が生成される。
こうして、環境地図100が記憶装置19の所定の領域に記憶され(ステップS55)、プログラム制御部21は環境地図生成プログラムを終了する(ステップS56)。
なお、ステップS50の処理で記憶装置19の所定の領域に記憶された最も高い重なり度合いに対応する障害物等の位置及び姿勢に基づき、透明化された机の断面画像付き家具モデル70の配置候補位置を一つに絞り込み、その配置候補位置に透明化された机の断面画像付き家具モデル70を配置するようにしてもよい。このようにした場合、ユーザが断面画像付き家具モデルの配置先候補を複数の候補の中から選択する手間が省け、ステップS51,S52の処理を省略できる。
また、ステップS51の処理の完了後、ロボット用地図60に対する机の断面画像付き家具モデル70の幾何的特徴の重なり度合いが、前記第1の閾値より大きい第2の閾値を超えた場合の断面画像付き家具モデルに対応する位置及び姿勢を配置候補位置として、半透明化された断面画像付き家具モデルを表示するようにしてもよい。
上述した本発明の他の実施形態においては、家具モデルの断面画像とロボット用地図のマッチング結果に基づき、ロボット用地図上に半透明化された断面画像付き家具モデルの配置候補位置を表示するようにした。これにより、半透明化された断面画像付き家具モデルを配置すべき位置を、コンピュータが自動的に特定するので、ユーザが配置候補位置を選択するという煩わしさを解消できる。
また、上記他の実施形態においては、マッチング結果を利用して断面画像付き家具モデルの配置候補を提示し、その中からユーザに選択させるようにしたが、マッチング結果(マッチング値の大きさ等)に基づき断面画像付き家具モデルを自動的にロボット地図上に配置してもよい。
また、本発明の他の実施形態においては、コンピュータが自動的に半透明化された断面画像付き家具モデルの配置先候補を特定し表示するようにしたが、ユーザが、自動的に配置先が決定された断面画像付き家具モデルの位置及び姿勢を確認して、最終的な決定を下すようにしてもよい。その他、本発明の他の実施形態は、上述した本発明の一実施形態と同様の効果を奏することは言うまでない。
なお、図7または図10に示す処理を経て生成された、2次元断面画像付きの3次元家具モデルが、ロボット用地図にどのように配置されているかを示す3次元画像は、視点を変更するなどにより、(1)〜(3)の3つの画像に分類できることは既述したとおりである(図1参照)。これら3つの画像の用途の一例を説明する。
まず、(1)に分類される環境地図については、例えばロボットが対象環境の中で作業をするための座標データとして用いることができる。すなわち、ロボットが対象環境の中での自分の位置を知るための地図として利用される。また、家具モデルがどこにどう置かれているかの家具配置情報を用いることで、ロボットが机の上に物を置いたりすることに応用できる。
次に、(2)に分類される3次元画像については、例えば人間が対象環境の様子を任意の視点から見た画像として鑑賞したい場合などに使用することができる。これにより、CG空間内に作られた家具配置済みの対象環境の様子を人間が確認することができます。
さらに、(3)に分類される2次元画像については、例えば人間がロボット用地図に対してどう家具が配置されているか知ることができるので、ロボットに対して目的地等を指示するための見取図の画像として使用することができる。
その他、本発明は、上述した実施の形態の例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨を逸脱しない範囲において、種々の変形、変更が可能であることは勿論である。
例えば、上述した実施の形態では、ソフトウェアにより環境地図生成プログラムの機能を実現するようにしたが、LSI(Large Scale Integration)等のハードウェアにより環境地図生成プログラムの機能を実現するようにしてもよい。また、環境地図生成プログラムの機能をソフトウェア及びハードウェアの組み合わせにより実現してもよい。
また、環境地図100の断面画像付き家具モデルの断面画像を表示するかしないか(半透明表示の有無)を適宜設定できるようにしてもよい。例えば、所定の高さの走査面における環境地図を、ロボットより主に人間が利用するような場合には断面画像を表示しない(半透明表示なし)、などの利用形態が考えられる。
また、環境地図100の使用目的に応じて、環境地図100の断面画像付き家具モデルの断面画像のみを表示する環境地図を生成するようにしてもよい。
また、上述した実施形態では、生成された環境地図をディスプレイ等に画像として表示したが、3次元情報を含む座標データである環境地図を直接ロボット等に読み込ませることにより、その座標データに基づいてロボットの移動を制御するようにしてもよい。
また、本発明の環境地図生成装置を汎用のコンピュータに適用した例を説明したが、この例に限られるものではなく、例えば図1に示した環境地図生成装置の機能を、環境の幾何形状を計測するロボットに搭載してもよい。その場合、環境地図生成装置10はロボットから完成後の環境地図を提供してもらうだけでよく、処理負荷が軽減される。
さらに、上述した実施形態では、センサを搭載して環境の幾何形状を計測する移動体として車両型の移動ロボットを例に挙げたが、移動するものであれば車両や船舶など、ロボット以外の種々の形態が考えられる。この場合、環境は部屋にとどまらず、センサを搭載した移動体の環境として、ある程度の広さを持った屋外、港湾等にも適用することができる。
本発明の一実施形態に係る環境地図生成装置における環境地図生成処理の概要を示す図である。 本発明の一実施形態に係る環境地図生成装置のブロック構成例を示す図である。 ロボットに搭載されたセンサにより計測する部屋を示す図である。 ロボット用地図例を示す図である。 ロボットに搭載されたセンサによる机の形状の計測の説明図である。 家具の幾何形状を表すCGモデルとその断面画像例を示す図である。 本発明の一実施形態に係る環境地図生成装置の動作を説明するためのフローチャートである。 透明化された断面画像付き家具モデルの配置例を示す図である。 本発明の一実施形態に係る環境地図生成装置により生成された環境地図の例を示す図である。 本発明の他の実施形態に係る環境地図生成装置の動作を説明するためのフローチャートである。
符号の説明
10…環境地図生成装置、11…プロセッサ、12…メインメモリ、13…ネットワークインターフェイス、14…ポインティングデバイス、15…キーボード、16…ビデオカード、17…ディスプレイ、18…通信線、19…記憶装置、21…プログラム制御部、22…ロボット用地図読み込み部、23…家具モデル読み込み部、24…レーザー走査面高さ設定部、25…家具モデル断面画像生成部、26…断面画像対応付け部、27…平行投影カメラ設定部、28…半透明表示設定部、29…家具モデル配置調整部、30…家具配置情報付きロボット用地図保存部(環境地図保存部)、31…画像生成部、40…部屋、41a、41b、42c、43d…壁、42…ドア、44…棚、45…テーブル、46a、46b、46c…机、47a、47b、47c…椅子、48…移動ロボット、49…レーザー距離センサ、50…レーザー走査面、51…移動経路、52…始点、53…終点、60…ロボット用地図、70…机の断面画像付き家具モデル、71…机の家具モデル、72…机の家具モデル断面、80…椅子の断面画像付き家具モデル、81…椅子の家具モデル、82…椅子の家具モデル断面、90…表示画面、100…環境地図

Claims (11)

  1. 任意の障害物のモデルを記憶する記憶部と、
    前記障害物のモデルについて対象環境の基準面から所定の高さにおける断面画像を生成する断面画像生成部と、
    前記障害物のモデルに前記断面画像を重ねて断面画像付きモデルを生成するモデル処理部と、
    前記対象環境の前記基準面から前記所定の高さにおける障害物地図を取得する取得部と、
    前記断面画像付きモデルを、前記障害物地図上の対応する障害物に半透明で重畳して表した環境地図を生成する環境地図生成部と、
    を備えることを特徴とする環境地図生成装置。
  2. 前記モデル処理部は、前記障害物を前記対象環境の上方から観測した場合に相当する前記障害物のモデルに、前記断面画像を重ねて前記断面画像付きモデルを生成する
    ことを特徴とする請求項1に記載の環境地図生成装置。
  3. 前記任意の障害物のモデルは三次元画像である
    ことを特徴とする請求項2に記載の環境地図生成装置。
  4. 前記環境地図生成部は、前記障害物地図に対する前記断面画像付きモデルの幾何的特徴の重なり合いの度合いに基づいて、前記障害物地図上に前記断面画像付きモデルの配置先候補を表示する
    ことを特徴とする請求項3に記載の環境地図生成装置。
  5. 前記環境地図生成部は、前記障害物地図に対する前記断面画像付きモデルの幾何的特徴の重なり合いの度合いが設定された第1の閾値を超えた場合に、前記障害物地図上に前記断面画像付きモデルの配置先候補を表示する
    ことを特徴とする請求項4に記載の環境地図生成装置。
  6. 前記環境地図生成部は、ユーザ操作による選択指示に基づいて、前記障害物地図上に表示された前記断面画像付きモデルの配置先候補から配置先を決定する
    ことを特徴とする請求項5に記載の環境地図生成装置。
  7. 前記環境地図生成部は、前記障害物地図に対する前記断面画像付きモデルの幾何的特徴の重なり合いの度合いが最も高い断面画像付きモデルを選択し、選択した断面画像付きモデルを前記障害物地図上に表示する
    ことを特徴とする請求項5に記載の環境地図生成装置。
  8. 前記環境地図生成部は、前記障害物地図に対する前記断面画像付きモデルの幾何的特徴の重なり合いの度合いが前記第1の閾値より大きい第2の閾値を超えた断面画像付きモデルを選択し、選択した断面画像付きモデルを前記障害物地図上に表示する
    ことを特徴とする請求項5に記載の環境地図生成装置。
  9. 前記環境地図生成部は、ユーザ操作による指示に基づいて、前記障害物地図上に前記断面画像付きモデルを配置する
    ことを特徴とする請求項3に記載の環境地図生成装置。
  10. 障害物のモデルについて対象環境の基準面から所定の高さにおける断面画像を生成するステップと、
    前記障害物のモデルに前記断面画像を重ねて断面画像付きモデルを生成するステップと、
    前記対象環境の前記基準面から前記所定の高さにおける障害物地図を取得するステップと、
    前記断面画像付きモデルを、前記障害物地図上の対応する障害物に半透明で重畳して表した環境地図を生成するステップと、
    を有することを特徴とする環境地図生成方法。
  11. 障害物のモデルについて対象環境の基準面から所定の高さにおける断面画像を生成する手順と、
    前記障害物のモデルに前記断面画像を重ねて断面画像付きモデルを生成する手順と、
    前記対象環境の前記基準面から前記所定の高さにおける障害物地図を取得する手順と、
    前記断面画像付きモデルを、前記障害物地図上の対応する障害物に半透明で重畳して表した環境地図を生成する手順と、
    をコンピュータに実行させるための環境地図生成プログラム。
JP2008058105A 2008-03-07 2008-03-07 環境地図生成装置、方法及びプログラム Expired - Fee Related JP4999734B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008058105A JP4999734B2 (ja) 2008-03-07 2008-03-07 環境地図生成装置、方法及びプログラム
US12/118,014 US8023727B2 (en) 2008-03-07 2008-05-09 Environment map generating apparatus, environment map generating method, and environment map generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008058105A JP4999734B2 (ja) 2008-03-07 2008-03-07 環境地図生成装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2009217363A true JP2009217363A (ja) 2009-09-24
JP4999734B2 JP4999734B2 (ja) 2012-08-15

Family

ID=41053675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008058105A Expired - Fee Related JP4999734B2 (ja) 2008-03-07 2008-03-07 環境地図生成装置、方法及びプログラム

Country Status (2)

Country Link
US (1) US8023727B2 (ja)
JP (1) JP4999734B2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189481A (ja) * 2010-03-16 2011-09-29 Sony Corp 制御装置、制御方法およびプログラム
JP2014505934A (ja) * 2010-12-30 2014-03-06 アイロボット コーポレイション 可動式ロボットシステム
WO2014054423A1 (ja) * 2012-10-01 2014-04-10 シャープ株式会社 レイアウト情報作成装置、レイアウト情報作成方法、家電機器操作システムおよび自走式電子機器
JP2014071846A (ja) * 2012-10-01 2014-04-21 Sharp Corp レイアウト情報作成装置、レイアウト情報作成方法、および自走式電子機器
US8918209B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP2016033819A (ja) * 2011-03-31 2016-03-10 テトリス ホールディング,エルエルシー オブジェクトの操作のためのシステムおよび方法
JP2018513416A (ja) * 2015-04-07 2018-05-24 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 床の処理方法
KR20190082923A (ko) * 2017-04-25 2019-07-10 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 룸 레이아웃의 드로잉 방법 및 장치
WO2021171694A1 (ja) * 2020-02-26 2021-09-02 株式会社日立製作所 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム
JP2021140444A (ja) * 2020-03-05 2021-09-16 東芝テック株式会社 情報処理装置及び情報処理方法
CN113538671A (zh) * 2020-04-21 2021-10-22 广东博智林机器人有限公司 地图生成方法、装置、存储介质及处理器
JP2021180872A (ja) * 2020-03-13 2021-11-25 みこらった株式会社 電気掃除装置、電気掃除装置用のプログラム、電気掃除機、電気掃除機用のプログラム、別体装置及び別体装置用プログラム
WO2024058402A1 (ko) * 2022-09-15 2024-03-21 삼성전자주식회사 주행 맵을 생성하는 주행 로봇 및 그 제어 방법
JP7483551B2 (ja) 2020-08-17 2024-05-15 東芝テック株式会社 情報処理装置

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
KR101457148B1 (ko) * 2008-05-21 2014-10-31 삼성전자 주식회사 로봇의 위치 추정 장치 및 그 방법
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
KR101686170B1 (ko) * 2010-02-05 2016-12-13 삼성전자주식회사 주행 경로 계획 장치 및 방법
JP5924862B2 (ja) * 2010-12-15 2016-05-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR20120072124A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 실내 전자지도 데이터 생성 방법
WO2014033055A1 (en) 2012-08-27 2014-03-06 Aktiebolaget Electrolux Robot positioning system
WO2014169943A1 (en) 2013-04-15 2014-10-23 Aktiebolaget Electrolux Robotic vacuum cleaner
CN105101855A (zh) 2013-04-15 2015-11-25 伊莱克斯公司 具有伸出的侧刷的机器人真空吸尘器
WO2015090404A1 (en) * 2013-12-19 2015-06-25 Aktiebolaget Electrolux Prioritizing cleaning areas
JP6638988B2 (ja) 2013-12-19 2020-02-05 アクチエボラゲット エレクトロルックス サイドブラシを有し、渦巻きパターンで動くロボットバキュームクリーナ
EP3084538B1 (en) 2013-12-19 2017-11-01 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
CN105813528B (zh) 2013-12-19 2019-05-07 伊莱克斯公司 机器人清洁设备的障碍物感测爬行
US10617271B2 (en) 2013-12-19 2020-04-14 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
EP3082541B1 (en) 2013-12-19 2018-04-04 Aktiebolaget Electrolux Adaptive speed control of rotating side brush
US10209080B2 (en) 2013-12-19 2019-02-19 Aktiebolaget Electrolux Robotic cleaning device
WO2015090439A1 (en) 2013-12-20 2015-06-25 Aktiebolaget Electrolux Dust container
EP3167341B1 (en) 2014-07-10 2018-05-09 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
EP3190938A1 (en) 2014-09-08 2017-07-19 Aktiebolaget Electrolux Robotic vacuum cleaner
EP3190939B1 (en) 2014-09-08 2021-07-21 Aktiebolaget Electrolux Robotic vacuum cleaner
WO2016091291A1 (en) 2014-12-10 2016-06-16 Aktiebolaget Electrolux Using laser sensor for floor type detection
US10874271B2 (en) 2014-12-12 2020-12-29 Aktiebolaget Electrolux Side brush and robotic cleaner
CN107003669B (zh) 2014-12-16 2023-01-31 伊莱克斯公司 用于机器人清洁设备的基于经验的路标
US10678251B2 (en) 2014-12-16 2020-06-09 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
KR102343513B1 (ko) 2015-04-17 2021-12-28 에이비 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치의 제어 방법
WO2017036532A1 (en) 2015-09-03 2017-03-09 Aktiebolaget Electrolux System of robotic cleaning devices
US9928648B2 (en) * 2015-11-09 2018-03-27 Microsoft Technology Licensing, Llc Object path identification for navigating objects in scene-aware device environments
US11169533B2 (en) 2016-03-15 2021-11-09 Aktiebolaget Electrolux Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection
WO2017194102A1 (en) 2016-05-11 2017-11-16 Aktiebolaget Electrolux Robotic cleaning device
CN106067191A (zh) * 2016-05-25 2016-11-02 深圳市寒武纪智能科技有限公司 一种家用机器人建立语义地图的方法及***
JP6711138B2 (ja) * 2016-05-25 2020-06-17 村田機械株式会社 自己位置推定装置、及び、自己位置推定方法
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
JP6989210B2 (ja) 2017-09-26 2022-01-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの移動の制御
CN108008409B (zh) * 2017-11-28 2019-12-10 深圳市杉川机器人有限公司 区域轮廓绘制方法及装置
US10445913B2 (en) * 2018-03-05 2019-10-15 Faro Technologies, Inc. System and method of scanning and editing two dimensional floorplans
US10819883B2 (en) * 2019-03-18 2020-10-27 Faro Technologies, Inc. Wearable scanning device for generating floorplan
JP7168526B2 (ja) * 2019-06-28 2022-11-09 Line株式会社 プログラム、情報処理方法、端末
US11233937B1 (en) * 2019-09-26 2022-01-25 Amazon Technologies, Inc. Autonomously motile device with image capture
CN111161424B (zh) * 2019-12-30 2023-06-02 浙江欣奕华智能科技有限公司 一种三维地图的确定方法及确定装置
CN112486184B (zh) * 2020-12-10 2023-08-11 北京小狗吸尘器集团股份有限公司 一种扫地机器人及其避障路径确定方法
CN116258829B (zh) * 2023-05-15 2023-07-28 深圳市中科云科技开发有限公司 构建地图的方法、装置和视觉机器人

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3949007B2 (ja) * 2002-05-30 2007-07-25 アルパイン株式会社 ナビゲーション装置
US7774158B2 (en) * 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
US7706984B2 (en) * 2003-03-11 2010-04-27 The Regents Of The University Of California Method and device for identifying molecular species
KR100703692B1 (ko) * 2004-11-03 2007-04-05 삼성전자주식회사 공간상에 존재하는 오브젝트들을 구별하기 위한 시스템,장치 및 방법
US7587260B2 (en) * 2006-07-05 2009-09-08 Battelle Energy Alliance, Llc Autonomous navigation system and method
US7974738B2 (en) * 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US7211980B1 (en) * 2006-07-05 2007-05-01 Battelle Energy Alliance, Llc Robotic follow system and method
US8098894B2 (en) * 2008-06-20 2012-01-17 Yahoo! Inc. Mobile imaging device as navigator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326264A (ja) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2006239844A (ja) * 2005-03-04 2006-09-14 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189481A (ja) * 2010-03-16 2011-09-29 Sony Corp 制御装置、制御方法およびプログラム
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US9902069B2 (en) 2010-05-20 2018-02-27 Irobot Corporation Mobile robot system
US8918209B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US9498886B2 (en) 2010-05-20 2016-11-22 Irobot Corporation Mobile human interface robot
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
JP2014505934A (ja) * 2010-12-30 2014-03-06 アイロボット コーポレイション 可動式ロボットシステム
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US9517412B2 (en) 2011-03-31 2016-12-13 Tetris Holding, Llc Systems and methods for manipulation of objects
JP2016033819A (ja) * 2011-03-31 2016-03-10 テトリス ホールディング,エルエルシー オブジェクトの操作のためのシステムおよび方法
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
CN104541517A (zh) * 2012-10-01 2015-04-22 夏普株式会社 布局信息作成装置、布局信息作成方法、家电设备操作***以及自走式电子设备
JP2014071846A (ja) * 2012-10-01 2014-04-21 Sharp Corp レイアウト情報作成装置、レイアウト情報作成方法、および自走式電子機器
WO2014054423A1 (ja) * 2012-10-01 2014-04-10 シャープ株式会社 レイアウト情報作成装置、レイアウト情報作成方法、家電機器操作システムおよび自走式電子機器
JP2018513416A (ja) * 2015-04-07 2018-05-24 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 床の処理方法
KR20190082923A (ko) * 2017-04-25 2019-07-10 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 룸 레이아웃의 드로잉 방법 및 장치
KR102279894B1 (ko) * 2017-04-25 2021-07-20 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 룸 레이아웃의 드로잉 방법 및 장치
WO2021171694A1 (ja) * 2020-02-26 2021-09-02 株式会社日立製作所 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム
JP2021135629A (ja) * 2020-02-26 2021-09-13 株式会社日立製作所 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム
JP7288411B2 (ja) 2020-02-26 2023-06-07 株式会社日立製作所 2次元マップデータ生成装置、2次元マップデータ生成方法、及び2次元マップデータ生成システム
JP2021140444A (ja) * 2020-03-05 2021-09-16 東芝テック株式会社 情報処理装置及び情報処理方法
JP7393255B2 (ja) 2020-03-05 2023-12-06 東芝テック株式会社 情報処理装置及び情報処理方法
JP2021180872A (ja) * 2020-03-13 2021-11-25 みこらった株式会社 電気掃除装置、電気掃除装置用のプログラム、電気掃除機、電気掃除機用のプログラム、別体装置及び別体装置用プログラム
JP2021192822A (ja) * 2020-03-13 2021-12-23 みこらった株式会社 電気掃除機、電気掃除情報システム及び電気掃除機用プログラム
CN113538671A (zh) * 2020-04-21 2021-10-22 广东博智林机器人有限公司 地图生成方法、装置、存储介质及处理器
CN113538671B (zh) * 2020-04-21 2024-02-13 广东博智林机器人有限公司 地图生成方法、装置、存储介质及处理器
JP7483551B2 (ja) 2020-08-17 2024-05-15 東芝テック株式会社 情報処理装置
WO2024058402A1 (ko) * 2022-09-15 2024-03-21 삼성전자주식회사 주행 맵을 생성하는 주행 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
US20090226113A1 (en) 2009-09-10
US8023727B2 (en) 2011-09-20
JP4999734B2 (ja) 2012-08-15

Similar Documents

Publication Publication Date Title
JP4999734B2 (ja) 環境地図生成装置、方法及びプログラム
JP6171079B1 (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
US10699481B2 (en) Augmentation of captured 3D scenes with contextual information
US9776364B2 (en) Method for instructing a 3D printing system comprising a 3D printer and 3D printing system
JP6493395B2 (ja) 画像処理装置と画像処理方法
JP5821012B2 (ja) モデリング装置、3次元モデル生成装置、モデリング方法、プログラム、レイアウトシミュレータ
JP4926826B2 (ja) 情報処理方法および情報処理装置
US7398481B2 (en) Virtual environment capture
WO2013175700A1 (ja) 情報処理装置および情報処理方法
JP7073850B2 (ja) 入力装置および入力装置の入力方法
JPH11265462A (ja) 空間視点制御装置
KR102036545B1 (ko) 오디오, 비주얼 및 모션 분석 기능을 갖는 디지털 카메라
JP6214981B2 (ja) 建築画像表示装置、建築画像表示方法及びコンピュータプログラム
JP2016006627A (ja) 画像処理装置と画像処理方法
JP2008275341A (ja) 情報処理装置、情報処理方法
KR20190117354A (ko) 실내공간의 3차원 지도 생성 방법 및 장치
JP2010026818A (ja) 画像処理プログラム、画像処理装置及び画像処理方法
KR20210086837A (ko) 증강현실을 이용한 실내 인테리어 시뮬레이션 방법
JP7475022B2 (ja) 室内空間の3次元地図生成方法及び装置
JP2018106661A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
US20170268871A1 (en) Three-dimensional measurement system and three-dimensional measurement method
JP2010257081A (ja) 画像処理方法及び画像処理装置
KR100757751B1 (ko) 실내 환경의 환경맵 생성 장치 및 방법
JP7334460B2 (ja) 作業支援装置及び作業支援方法
JP2006040053A (ja) 画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120515

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees